Google e OpenAI não conseguem proibir conteúdo eleitoral de IA

Um grupo de gigantes da inteligência artificial (IA) está prestes a assinar um “acordo” comprometendo-se a desenvolver tecnologia para detectar, identificar e controlar imagens, vídeos e gravações de áudio geradas por IA que buscam enganar eleitores antes das eleições cruciais em vários países neste ano.

O que você precisa saber:

O acordo, liderado por empresas como Google, Microsoft e Meta, juntamente com OpenAI, Adobe e TikTok, foi obtido pelo The Washington Post.No entanto, a versão final do documento não inclui uma proibição direta do conteúdo eleitoral enganoso gerado por IA, deixando uma lacuna significativa.Em vez disso, o acordo funciona mais como um manifesto reconhecendo os riscos apresentados pelo conteúdo gerado por IA para a integridade das eleições.Propõe-se a tomar medidas para mitigar esses riscos, como rotular conteúdo suspeito de IA e educar o público sobre os perigos associados à disseminação de deepfakes.

Leia mais:

O que são deepfakes e qual a relação com inteligência artificial?Se sentindo sozinho? Veja o que são os aplicativos companheiros de IAO que é Deep Voice e como se proteger de golpes com voz clonada

A geração e distribuição deliberadas e não divulgadas de conteúdo eleitoral enganoso baseado em IA podem manipular o público de formas que ameaçam a integridade dos processos eleitorais.

Trecho do documento via WP

O problema das deepfakes de IA no contexto eleitoral

Embora deepfakes tenham existido há alguns anos, sua qualidade tem melhorado rapidamente, tornando-se cada vez mais difícil distinguir entre conteúdo falso e real. A acessibilidade das ferramentas necessárias para criá-los também aumentou, ampliando o potencial para sua produção em grande escala.

Exemplos recentes de deepfakes em campanhas eleitorais incluem um anúncio em apoio ao ex-candidato presidencial Ron DeSantis, que usou IA para imitar a voz do ex-presidente Donald Trump, e o uso de IA pelo candidato presidencial paquistanês Imran Khan para criar discursos enquanto estava na prisão. Além disso, recentemente uma ligação automática, alegando ser do presidente Biden, incentivou as pessoas a não votarem nas primárias de New Hampshire, utilizando uma versão gerada por IA da voz de Biden.

As empresas de tecnologia têm enfrentado pressões crescentes de reguladores, pesquisadores de IA e ativistas políticos para conter a disseminação desse tipo de conteúdo falso. O acordo atual se assemelha a um compromisso voluntário anterior, assinado após uma reunião na Casa Branca, no qual as empresas se comprometeram a tentar identificar e rotular conteúdo falso de IA em seus sites.

Apesar dos esforços das empresas de tecnologia em criar políticas para lidar com o conteúdo político gerado por IA — como a exigência do TikTok de não permitir conteúdo falso de figuras públicas em endossos políticos, e a exigência do Meta de que os anunciantes políticos declarem o uso de IA em anúncios em suas plataformas —, ainda há muito a ser feito para estabelecer um sistema amplo e eficaz de identificação e rotulagem de deepfakes em todas as redes sociais.

O post Google e OpenAI não conseguem proibir conteúdo eleitoral de IA apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *