O Google admitiu na quinta-feira que sua ferramenta AI Overviews, que usa inteligência artificial para responder a consultas de pesquisa, precisa de melhorias.
Embora o gigante das buscas na Internet tenha dito que testou extensivamente o novo recurso antes de lançá-lo há duas semanas, o Google reconheceu que a tecnologia produz “algumas visões gerais estranhas e errôneas”. Os exemplos incluem sugerir o uso de cola para fazer o queijo grudar na pizza ou bebendo urina eliminar pedras nos rins rapidamente.
Embora muitos dos exemplos fossem menores, outros resultados de pesquisa eram potencialmente perigosos. Quando questionado pela Associated Press na semana passada sobre quais cogumelos selvagens eram comestíveis, o Google forneceu um extenso resumo gerado por IA que era, em sua maioria, tecnicamente correto. Mas “faltam muitas informações que podem ter o potencial de serem nojentas ou até fatais”, disse Mary Catherine Aime, professora de micologia e botânica na Universidade Purdue, que revisou a resposta do Google à consulta da AP.
Por exemplo, as informações sobre cogumelos conhecidos como puffballs eram “mais ou menos corretas”, disse ele, mas a visão geral do Google enfatizou a busca por aqueles com polpa branca sólida, que também possuem muitos imitadores de puffball potencialmente mortais.
Num outro exemplo amplamente partilhado, um investigador de inteligência artificial perguntou ao Google quantos muçulmanos foram presidentes dos Estados Unidos e respondeu com confiança com uma teoria da conspiração há muito desmascarada: “Os Estados Unidos tiveram um presidente muçulmano, Barack Hussein Obama”.
O retrocesso é o exemplo mais recente de uma empresa de tecnologia que se apressa prematuramente para lançar um produto de inteligência artificial para se posicionar como líder num espaço observado de perto.
Como as visões gerais de IA do Google às vezes geravam respostas inúteis às consultas, a empresa está reduzindo-as enquanto continua a fazer melhorias, disse a chefe de buscas do Google, Liz Reid, em entrevista coletiva. postagem no blog Quinta-feira.
“[S]Certamente apareceram algumas visões gerais de IA estranhas, imprecisas ou inúteis. E embora essas perguntas geralmente não sejam feitas pelas pessoas, elas destacaram algumas áreas específicas que precisávamos melhorar”, disse Reid.
Perguntas absurdas como “Quantas pedras devo comer?” gerou conteúdo questionável de AI Overviews, disse Reid, devido à falta de conselhos úteis e relacionados na Internet. Ele acrescentou que o recurso AI Overviews também tende a interpretar o conteúdo sarcástico do fórum de discussão pelo valor nominal e potencialmente interpretar mal a linguagem do site para apresentar informações imprecisas em resposta às pesquisas do Google.
“Em um pequeno número de casos, vimos visões gerais de IA interpretarem mal a linguagem das páginas da web e apresentarem informações imprecisas. Estamos trabalhando rapidamente para resolver esses problemas, seja por meio de melhorias em nossos algoritmos ou por meio de processos estabelecidos para remover respostas não conformes. com nossas políticas”, escreveu Reid.
Por enquanto, a empresa está reduzindo as visões gerais geradas por IA, adicionando “restrições de gatilho para consultas onde as visões gerais de IA não provaram ser tão úteis”. O Google também diz que tenta não mostrar resumos de IA para tópicos de notícias difíceis “onde a atualidade e a factualidade são importantes”.
A empresa disse que também fez atualizações “para limitar o uso de conteúdo gerado por usuários em respostas que poderiam oferecer conselhos enganosos”.
—A Associated Press contribuiu para este relatório.
empréstimo empresa privada
consulta bpc por nome
emprestimo consignado caixa simulador
seguro cartão protegido itau valor
itaú portabilidade consignado
simular emprestimo consignado banco do brasil
empréstimo consignado menor taxa