Liz Read, chefe de busca do Google, admitiu que o mecanismo de busca da empresa retornou algumas “visões gerais estranhas, imprecisas ou inúteis da IA” depois de ter sido lançado publicamente nos EUA. O executivo postou uma explicação das respostas mais bizarras geradas por IA do Google em um arquivo Postagem no blogTambém anunciou que a empresa implementou salvaguardas que ajudarão o novo recurso a retornar resultados mais precisos e menos dignos de meme.
Reed defendeu o Google e apontou que algumas das respostas mais flagrantes à visão geral da IA em circulação, como afirmações de que é seguro deixar cães nos carros, são falsas. Captura de tela viral mostrando a resposta à pergunta “Quantas pedras devo comer?” É verdade, mas ela disse que o Google encontrou uma resposta porque um site publicou conteúdo satírico sobre o assunto. “Antes dessas capturas de tela se tornarem virais, praticamente ninguém fazia essa pergunta ao Google”, explicou ela, então a IA da empresa estava vinculada a este site.
O vice-presidente do Google também confirmou que o AI Overview pediu às pessoas que usassem cola para fazer o queijo grudar na pizza com base no conteúdo retirado de um fórum. Ela disse que os fóruns normalmente fornecem “informações genuínas e diretas”, mas também podem levar a “conselhos nada úteis”. O CEO não mencionou as outras respostas que circulam na visão geral da IA, no entanto Washington Post Segundo relatos, a tecnologia também dizia aos usuários que Barack Obama era muçulmano e que as pessoas deveriam beber muita urina para ajudá-los a se livrar das pedras nos rins.
Reid disse que a empresa testou extensivamente o recurso antes do lançamento, mas “não há nada como milhões de pessoas usando o recurso para tantas novas pesquisas”. Parece que o Google conseguiu identificar padrões em que sua tecnologia de IA não conseguia acertar, observando exemplos de suas respostas nas últimas duas semanas. Em seguida, ele implementou proteções com base em seu feedback, começando com ajustes em sua IA para ser capaz de detectar melhor humor e conteúdo satírico. Também atualizou os seus sistemas para limitar a adição de respostas geradas pelos utilizadores em Visões Gerais, como publicações em redes sociais e fóruns, que podem dar às pessoas conselhos enganosos ou mesmo prejudiciais. Além disso, “também adicionou restrições de gatilho para consultas onde as visões gerais de IA não se mostraram úteis” e parou de exibir respostas geradas por IA para alguns tópicos de saúde.