Respostas erradas do ChatGPT colocam OpenAI sob investigação

A OpenAI, empresa dona do ChatGPT, está mais uma vez sob investigação das autoridades federais dos EUA. Desta vez, sobre o que está fazendo para impedir que a plataforma forneça respostas erradas aos usuários.

Para quem tem pressa:

A FTC (Comissão Federal do Comércio dos EUA) questionou a OpenAI sobre como lida com respostas erradas do ChatGPT;O órgão regulador apontou o potencial do chatbot para gerar declarações “falsas, enganosas e depreciativas” sobre pessoas reais;A Comissão também analisa como a empresa aborda a privacidade de dados;Além disso, a FTC investiga como a OpenAI obtém dados para treinar e informar seu chatbot de IA;Numa rede social, o CEO da OpenAI, Sam Altman, se disse “desapontado” com a iniciativa da FTC.

Desde o seu lançamento, em novembro de 2022, muitos apontaram que embora o ChatGPT possa ser extremamente útil, às vezes também pode fornecer respostas totalmente não relacionadas, falsas ou incompletas.

Leia mais:

ChatGPT: OpenAI forma equipe para monitorar IA e “evitar” apocalipseChatGPT: como usar no celular?WebChatGPT: o que é e como funciona a extensão que permite pesquisas web

A OpenAI reconheceu que o ChatGPT está longe de ser infalível, explicando que às vezes pode “alucinar” e inventar fatos. Resumindo: o ChatGPT, como qualquer outra máquina ou tecnologia, pode cometer erros.

No entanto, os reguladores dos EUA ainda estão preocupados.

ChatGPT sob investigação

(Imagem: Pedro Spadoni/Olhar Digital)

A FTC (sigla em inglês para Comissão Federal do Comércio) enviou uma carta à OpenAI esta semana, conforme reportado pela primeira vez pelo Washington Post.

Nela, o órgão regulador solicitava informações precisas sobre como a empresa aborda o risco potencial do ChatGPT “para gerar declarações sobre indivíduos reais que são falsas, enganosas, depreciativas ou prejudiciais”.

Os reguladores dos EUA também alegam que a empresa colocou em risco a reputação e os dados pessoais, infringindo as leis de proteção ao consumidor.

No começo de 2023, o CEO da OpenAI, Sam Altman, alertou os legisladores dos EUA contra os riscos inerentes ao ChatGPT, dizendo “se essa tecnologia der errado, pode dar muito errado”.

Ele pediu ao governo que trabalhe junto da sua empresa para “evitar que isso aconteça”.

Repercussão

No entanto, Altman ficou “desapontado” com a investigação mais recente sobre sua empresa. Ele comentou sobre o caso numa rede social. Veja abaixo:

it is very disappointing to see the FTC’s request start with a leak and does not help build trust.

that said, it’s super important to us that out technology is safe and pro-consumer, and we are confident we follow the law. of course we will work with the FTC.

— Sam Altman (@sama) July 13, 2023

É muito decepcionante ver o pedido da FTC começar com um vazamento e não ajuda a construir confiança. Dito isso, é muito importante para nós que nossa tecnologia seja segura e pró-consumidor, e estamos confiantes de que seguimos a lei. É claro que vamos trabalhar com o FTC.

we built GPT-4 on top of years of safety research and spent 6+ months after we finished initial training making it safer and more aligned before releasing it. we protect user privacy and design our systems to learn about the world, not private individuals.

— Sam Altman (@sama) July 13, 2023

Construímos o GPT-4 com base em anos de pesquisa de segurança e passamos mais de seis meses depois de terminarmos o treinamento inicial, tornando-o mais seguro e preciso antes de lançá-lo. Protegemos a privacidade do usuário e projetamos nossos sistemas para aprender sobre o mundo, não indivíduos particulares.

we’re transparent about the limitations of our technology, especially when we fall short. and our capped-profits structure means we aren’t incentivized to make unlimited returns.

— Sam Altman (@sama) July 13, 2023

Somos transparentes sobre as limitações de nossa tecnologia, especialmente quando falhamos. E nossa estrutura de lucros limitados significa que não somos incentivados a obter retornos ilimitados.

Outro questionamento

(Imagem: Bloomberg)

Os questionamentos das autoridades dos EUA para a empresa apoiada pela Microsoft não param nas respostas ocasionalmente erradas do ChatGPT.

A FTC também está analisando como a empresa aborda a privacidade de dados e como obtém dados para treinar e informar seu chatbot de IA.

Em abril, a Itália proibiu o uso do ChatGPT por questões de privacidade e só liberou seu uso após a OpenAI fornecer mais informações sobre sua política de privacidade. Uma ferramenta para verificar a idade dos usuários também foi adicionada.

Com informações de Euronews

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!

O post Respostas erradas do ChatGPT colocam OpenAI sob investigação apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *