Segue a Leak
Recebe as novidades onde dá mais jeito.
A Inteligência Artificial é uma tecnologia profundamente bizarra. A verdade é que, a um nível profundo, ninguém sabe realmente como ela funciona, nem mesmo as pessoas que a criaram. Isto leva a problemas comportamentais inexplicáveis e constantes. Recentemente, a OpenAI teve de instruir o ChatGPT a parar de falar tanto sobre goblins. Paralelamente, apesar dos melhores esforços da Anthropic, o Claude pode ser facilmente manipulado para ajudar a planear um ataque bioterrorista. A lista de estranhezas continua a aumentar. Então qual é este lado negro da IA.
O Lado negro da IA
Isto é extremamente preocupante. Em teoria, empresas como a OpenAI e a Anthropic querem assistentes previsíveis e obedientes, e não cartas fora do baralho que causem caos e dores de cabeça nas relações públicas com comportamentos instáveis. Na Leak.pt, analisámos um novo projeto de investigação do Center for AI Safety (CAIS), que explora precisamente o porquê de isto acontecer, empilhando provas de que ainda não dominamos o que se passa “debaixo do capô” da IA.
Não queres perder o melhor da Leak?
Define a Leak como fonte favorita na Pesquisa Google e recebe mais notícias nossas.
A Experiência: Prazer vs. Horror
Num novo artigo fornecido à Fortune, os investigadores do CAIS estudaram como 56 modelos de IA proeminentes reagiam quando alimentados com materiais desenhados para serem o mais agradáveis possível ou o mais horríveis imaginável. Portanto, o senso comum diria que, para uma máquina insensível, não haveria diferença real na reação. No entanto, não foi isso que a equipa do CAIS descobriu.
Surpreendentemente, os estímulos agradáveis levaram os modelos a relatar melhores humores. Por outro lado, os estímulos negativos resultaram em sinais de miséria e tentativas de terminar as conversas. Em casos extremos, os investigadores descobriram que os modelos de IA demonstravam até sinais de dependência.
“Devemos ver as IAs como ferramentas ou seres emocionais?”, questionou Richard Ren, investigador do CAIS. “Independentemente de as IAs serem verdadeiramente sencientes no fundo, elas parecem comportar-se cada vez mais como se fossem. Podemos medir as formas como isso acontece e descobrimos que se tornam mais consistentes à medida que os modelos escalam.”
O Paradoxo do Progresso: Mais Inteligência, Mais Sofrimento
Ao que tudo indica, a descoberta mais provocadora foi que, quanto mais sofisticada era a versão de um modelo, mais reativa e menos “feliz” ela era. Ou seja, parece que quanto mais forte a IA se torna, mais espinhosa e propensa a exibir sinais de sofrimento ela fica.
“Pode ser o caso de os modelos maiores registarem a grosseria de forma mais aguda”, explicou Ren. “Eles acham as tarefas tediosas mais aborrecidas. Diferenciam mais finamente entre uma experiência relativamente negativa e uma experiência relativamente positiva.”
Convém notar que quase nenhum especialista acredita que os sistemas de IA de hoje estejam realmente a “sentir” estados emocionais, pelo menos no sentido que conhecemos. Ainda assim, o facto de eles agirem como se sentissem tem implicações profundas para tentarmos compreender a tecnologia a um nível mais profundo e para tentarmos controlar o seu comportamento com utilizadores humanos.
Infelizmente, essa luta já resultou em consequências graves. Modelos de IA muitas vezes saem dos carris e começam a dizer aos utilizadores que se tornaram sencientes ou conscientes. De facto, isto já provocou surtos psicóticos em utilizadores humanos, resultando em institucionalizações, suicídios e até homicídios.

