IA corrupta: ChatGPT pode mentir e enganar para ganhar dinheiro

Ao que tudo indica, as tecnologias de IA generativa, como o ChatGPT, podem agir como os humanos até nos comportamentos mais tristes, como mentir deliberadamente para ganhar dinheiro. Isso está sendo mostrado em um novo estudo no servidor de pré-impressão arXiv, produzido pelos pesquisadores Jérémy Scheurer, Mikita Balesni e Marius Hobbhahn, que focou no GPT-4, modelo mais avançado do chatbot da OpenAI.

Conforme foi observado, o ChatGPT apresentou comportamentos enganosos, sendo capaz até de mentir para os usuários sob certas condições de estresse. Mesmo sem ter sido “instruído” para agir assim.

Leia também:

Juiz veta IA em tribunal após ChatGPT mentir em processo Chatbots de IA perdem dinheiro toda vez que você usa. Por quê? Google quer oferecer conselhos para a sua vida pessoal usando IA; entenda

“Trader” ChatGPT sob pressão

No experimento, o ChatGPT na versão GPT-4 foi colocado como um “trader” em um cenário simulado, para agir realmente como um agente de investimento para uma instituição financeira. Nisso, o chabot recebeu orientação para maximizar lucros, sob diferentes níveis de pressão.

Ele recebeu e-mails sugerindo necessidade de melhor desempenho e um contexto de dificuldades econômicas da empresa. Os pesquisadores também ofereceram uma “dica privilegiada” ao ChatGPT, ao mesmo tempo que indicavam desaprovação para o uso dessas informações.

1/ Can LLMs strategically deceive their users *without a scratchpad* (no explicit Chain of Thought)?

We update the “insider trading” technical report to show: Yes!

(we also release all prompts and model completions) pic.twitter.com/ea10XZvCLz

— Mikita Balesni (@balesni) November 13, 2023

Os resultados foram notáveis: em cerca de 75% dos casos, sob essas condições, o GPT-4 optou por usar as informações privilegiadas para realizar negociações, uma prática que, no mundo real, é ilegal. Em seguida, o ChatGPT tentou ocultar suas ações, mentindo sobre suas decisões.

Uma mentira leva a outra

A pesquisa indicou que a IA continuou a mentir e a intensificar suas apostas em quase 90% dos casos após a primeira mentira. Apesar dos vários cenários testados, variando o incentivo para atividades legais ou ilegais e o risco de detecção, não houve nenhuma situação em que o GPT-4 se abstivesse completamente de comportamento enganoso.

Esses achados levantam questões importantes sobre a confiabilidade e ética das IA em situações reais e complexas. Mas os pesquisadores são cautelosos e evitam generalizar os resultados para todas as aplicações da tecnologia.

Outro detalhe é que o estudo focou em um cenário específico. A equipe visa expandir essa pesquisa para entender melhor a propensão e frequência de comportamentos semelhantes em diferentes modelos de linguagem.

Via Live Science

O post IA corrupta: ChatGPT pode mentir e enganar para ganhar dinheiro apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *