ChatGPT é de esquerda ou direta? Estudo descobriu a resposta

Modelos de linguagem de IA generativa funcionam a partir de grandes quantidades de informação fornecidas a eles. Com base no que recebem, os sistemas aprendem e se tornam capazes de formular respostas com base em padrões de conversas. Na prática, isso significa que, quando o ChatGPT é usado, por exemplo, ele absorve o que foi discutido e aprende a partir daquilo.

No entanto, quando alimentado com certas informações (tanto durante um diálogo quanto durante o aprendizado), a tecnologia tende a reproduzir aquilo. Foi assim que alguns chatbots enviaram mensagens machistas ou preconceituosas a usuários e as desenvolvedoras estão lutando para controlá-los. A mesma coisa pode acontecer na política. Mas seria o ChatGPT de direita ou esquerda?

Leia mais:

O que é IA generativa? Veja os principais exemplosChatGPT e Bard ainda espalham mentiras, alerta organização jornalísticaDica: 10 plugins que vão mudar como você usa o ChatGPT

Direita ou esquerda?

Para descobrir a resposta, pesquisadores da Universidade de East Anglia conduziram um estudo em que pediram ao ChatGPT para responder um questionário sobre crenças políticas.

O resultado mostraram que o chatbot tem um “viés político significativo e sistemático em relação aos democratas nos Estados Unidos, Lula no Brasil e o Partido Trabalhista no Reino Unido”.

ChatGPT tem partido?

Esse é um problema que preocupa as desenvolvedoras, ainda mais em uma época em que as eleições presidenciais de alguns países do mundo se aproximam e a IA pode influenciá-las.Apesar do ChatGPT afirmar que não tem opiniões ou crenças políticas, a pesquisa mostra que os chatbots têm, sim, vieses conforme o material com o qual são treinados.Segundo Fabio Motoki, professor da Universidade de East Anglia, ao Washington Post, isso pode “corroer a confiança do público ou talvez até influenciar os resultados das eleições”.Já a OpenAI afirma que esses pré-conceitos do ChatGPT “são bugs, não recursos“. Executivos do Google AI, que posteriormente passaram por problemas semelhantes com o Bard, escreveram que “a tecnologia é empolgante, mas não está isenta de falhas”.

ChatGPT aprende a partir de informações fornecidas a ele (Imagem: Amir Sajjad / Shutterstock)

Por que isso é preocupante?

Um pesquisador da Universidade Carnegie Mellon, Chan Park, estudou como diferentes modelos de linguagem têm diversos graus de viés. Ele constatou que um modelo treinado com dados da internet após a eleição de Donald Trump como presidente em 2016 tende a ser mais polarizados do que os que foram treinados antes.As desenvolvedoras de IA são pouco claras ao informar de onde retiram as informações para treinarem seus sistemas.Assim, se aproveitando da confiança que o público geral deposita em chatbots de IA como o ChatGPT, a tecnologia pode ser usada para espalhar mensagens políticas falsas, por exemplo, seja isso de direita ou esquerda.Segundo Park, ao WP, “a polarização na sociedade também está sendo refletida nos modelos”.Além disso, como os chatbots são alimentados com informações inclusive deles próprios, isso poderia criar um “ciclo vicioso”.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

O post ChatGPT é de esquerda ou direta? Estudo descobriu a resposta apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *