Ativistas e autoridades correm para conter os riscos da IA

Recentemente, cientistas renomados, funcionários da Casa Branca e CEOs de tecnologia pediram proteção em relação aos uso das inteligências artificiais generativas nas mídias sociais.

De acordo com os especialistas, as IAs tem o potencial de influenciar como as empresas fabricam e comercializam seus produtos.Os ativistas estão promovendo uma série de propostas de projetos para melhorar o entendimento e regulamentação sobre as capacidades de IAs para manipulação, desinformação e preconceito online.

Leia mais:

O que é ChatGPT e como acessar a inteligência artificial em portuguêsComo usar o Google Bard no Brasil? Confira o passo a passo10 chatbots similares ao ChatGPT para você testar

Projeto ambicioso

Um dos exemplos é a Common Sense que está desenvolvendo um sistema independente de avaliações e análises (feito com IA) que avaliará como os produtos de IA tratam dados privados, se eles são adequados para crianças e outros fatores.

O projeto é feito em colaboração com a Tracy Pizzo Frey, consultora que já trabalhou em parceria com o Google.Jim Steyer, executivo-chefe da Common Sense Media, disse que esse é o sistema de classificação de IA mais ambicioso já construído pela organização sem fins lucrativos.O sistema (ainda sem nome) deve ser lançado ainda esse ano e a organização pretende gastar entre US$5 milhões e US$10 milhões por ano com a ferramenta.Atualmente, a Common Sense está analisando alguns fatores incluindo transparência das empresas de IA sobre as capacidades e deficiências de seus sistemas.A organização pode analisar a quantidade de informação que as empresas fornecem sobres dados usados no treinamento das IAs.Outro projeto neste sentindo é o da Mozilla Foundation que está construindo ferramentas de IA de código aberto e investindo em startups que afirmam estar construindo sistemas de IA responsáveis.

IA e regulação

Enquanto isso, empresas de tecnologia estão tentando influenciar a regulamentação das IAs. Em maio, o presidente dos EUA, Joe Biden, se reuniu com os principais executivos de empresas como OpenAI, Microsoft e Google na casa Branca. 

Sam Altman CEO da OpenAI e o presidente da Microsoft, propuseram a criação de uma nova agência reguladora que licenciar grandes sistemas de IA. Elon Musk defendeu a criação de um comitê de supervisão independente.

A Federal Trade Commission já está analisando os impactos da IA, começando pelo ChatGPT. Na semana passada, a agência norte-americana enviou um documento de 20 páginas à OpenAI questionando como a empresa lida com os riscos relacionados ao chatbot, incluindo privacidade e danos ao consumidor.

Em maio, o Parlamento Europeu aprovou Lei da IA (AI Act) que regulamentará a tecnologia na União Europeia. De acordo com a revista Time, que viu documentos do parlamento, a OpenAI fez um lobby para atenuar elementos significativos da legislação. A versão final da lei deve ser apresentada até o final do ano.

Nos EUA, o grande problema é que aliado aos riscos da IA estão as preocupações com as mídias sociais regulamentadas precocemente.

O Congresso não conseguiu enfrentar o momento nas mídias sociais. Agora temos a obrigação de fazer isso com IA antes que as ameaças e os riscos se tornem reais.

Richard Blumenthal, senador democrata.

Com informações de Wall Street Journal.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

O post Ativistas e autoridades correm para conter os riscos da IA apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *