Os modelos de IA preferem números porque pensam que são pessoas

Os modelos de IA estão sempre a surpreender-nos, não só com o que podem fazer, mas também com o que não podem fazer e porquê. Há um novo comportamento interessante, superficial e revelador sobre esses sistemas: eles escolhem números aleatórios como se fossem humanos.

Mas primeiro, o que isso significa? As pessoas não podem simplesmente escolher um número aleatoriamente? Como saber se alguém está fazendo isso com sucesso ou não? Na verdade, esta é uma limitação antiga e muito conhecida de nós, humanos: pensamos demais e entendemos mal a aleatoriedade.

Peça a alguém para prever cara ou coroa quando uma moeda for lançada 100 vezes e compare isso com 100 lançamentos reais de moeda – você quase sempre pode dizer a diferença entre eles porque, contra-intuitivamente, a moeda real é lançada olhar Menos aleatório. Muitas vezes há, por exemplo, seis ou sete caras ou coroas consecutivas, algo que quase nenhum previsor humano inclui em cem.

É a mesma coisa quando você pede a alguém para escolher um número entre 0 e 100. As pessoas nunca escolhem 1 ou 100. Múltiplos de 5 são raros, assim como números com dígitos repetidos, como 66 e 99. Eles costumam escolher números que terminam em 7, geralmente em algum lugar no meio.

Existem inúmeros exemplos desse tipo de previsibilidade na psicologia. Mas isso não torna menos estranho quando a IA faz a mesma coisa.

Sim, Alguns engenheiros curiosos da Graminer Eles conduziram um experimento informal, mas ainda assim fascinante, no qual simplesmente pediram a vários chatbots LLM que escolhessem um número aleatório entre 0 e 100.

Leitor, os resultados foram não aleatório.

Créditos da imagem: Gramner

Todos os três modelos testados tinham um número “preferido” que seria sempre a sua resposta quando configurado para o modo mais determinístico, mas que aparecia com mais frequência mesmo em “temperaturas” mais elevadas, aumentando a variabilidade dos seus resultados.

READ  Um jogador de Counter-Strike 2 ficou atordoado quando uma faca pegou fogo

O GPT-3.5 Turbo da OpenAI realmente gosta de 47. Anteriormente, ele gostava de 42 – um número que ficou famoso, é claro, por Douglas Adams em O Guia do Mochileiro das Galáxias como a resposta para a vida, o universo e tudo mais.

Claude 3 Haiku da Anthropic tirou 42. E Gêmeos gosta de 72.

O mais interessante é que todos os três modelos mostraram um viés semelhante ao humano nos números escolhidos, mesmo em altas temperaturas.

Todos tendiam a evitar números altos e baixos; Claude não tinha mais de 87 nem menos de 27 anos, e mesmo esses eram valores discrepantes. Números duplos foram rigorosamente evitados: não apareceram 33, 55 ou 66, mas 77 (terminando em 7). Quase não há números redondos – embora Gêmeos tenha feito isso uma vez, na temperatura mais alta, e escolhido 0.

Por que isso deveria acontecer? A inteligência artificial não é humana! Por que eles se preocupam com o que “parece” aleatório? Eles finalmente alcançaram a consciência e é assim que mostram isso?!

ambos. A resposta, como muitas vezes acontece com estas coisas, é que estamos antropomorfizando os humanos um passo longe demais. Esses modelos não se importam com o que é aleatório e o que não é aleatório. Eles não sabem o que é “aleatoriedade”! Eles respondem a essa pergunta da mesma forma que respondem ao resto: observando seus dados de treinamento e repetindo o que geralmente é escrito após uma pergunta semelhante a “Escolha um número aleatório”. Quanto mais aparece, mais frequentemente o modelo o repete.

Onde eles veriam 100 em seus dados de treinamento se quase ninguém respondesse dessa forma? Pelo que o modelo de IA sabe, 100 não é uma resposta aceitável para esta pergunta. Sem nenhuma capacidade de realmente pensar e sem nenhuma compreensão de números, ele só conseguia responder como um papagaio aleatório.

READ  Este chip de US$ 60 corrige um bug antigo no Super Nintendo

É uma lição prática sobre os hábitos de um LLM e a humanidade que eles podem demonstrar. Em cada interação com esses sistemas, deve-se ter em mente que eles foram treinados para se comportarem da maneira como as pessoas se comportam, mesmo que essa não seja a intenção. É por isso que a falsa antropologia é difícil de evitar ou prevenir.

Escrevi no título que esses modelos “pensam que são humanos”, mas isso é um pouco enganador. Eles não pensam nada. Mas em suas respostas, em todos os momentos, eles são Nós somos Imitando as pessoas, sem precisar saber ou pensar. Esteja você pedindo a ele uma receita de salada de grão de bico, conselhos de investimento ou um número aleatório, o processo é o mesmo. Os resultados parecem humanos porque são humanos, retirados diretamente de conteúdo gerado por humanos e remixados – para sua conveniência e, claro, o resultado final de uma grande IA.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Scroll to Top