Microsoft corrige brecha em IA que gerou imagens pornográficas de Taylor Swift

Na semana passada, uma série de nudes falsos da cantora Taylor Swift gerados com inteligência artificial viralizaram nas redes sociais. Após denúncias apontarem uma brecha utilizada para a criação das imagens no Designer, da Microsoft, a empresa anunciou a correção da falha e atualizou suas políticas sobre o uso de IA.

Entenda:

Recentemente, imagens pornográficas da cantora Taylor Swift criadas com IA viralizaram na internet;Uma investigação do 404 Media identificou uma brecha no sistema de segurança da ferramenta, permitindo que os usuários gerassem nudes falsos de várias celebridades;As imagens foram criadas por membros de grupos do 4chan e Telegram dedicados à criação de deepfakes pornográficos;Após uma investigação interna, a Microsoft comunicou a correção da brecha e reforçou sua política de uso de IA.

Conforme divulgado pelo 404 Media, usuários do 4chan e Telegram se aproveitaram de uma brecha na segurança da ferramenta para gerar alguns dos deepfakes de Swift e outras celebridades. Ainda de acordo com a reportagem original, a Microsoft anunciou a correção da brecha e revelou que uma investigação interna está em andamento.

Leia mais:

Deepfakes de voz: como a IA engana até 73% das pessoasComo identificar fotos “falsas” criadas por IAPerfis fakes: como a Inteligência Artificial cria “pessoas” nas redes sociais

Reforço das medidas de segurança

(Imagem: Tero Vesalainen / Shutterstock)

A Microsoft enviou um pronunciamento ao 404 Media: “Nosso Código de Conduta proíbe o uso de nossas ferramentas para a criação de conteúdo adulto ou íntimo não consensual, e quaisquer tentativas repetidas de produzir conteúdo que contrarie nossas políticas podem resultar na perda de acesso ao serviço.”

A empresa ainda disse que não foi possível comprovar se as imagens foram realmente criadas no Designer, mas reforçou a atuação de “grandes equipes no desenvolvimento de grades de proteção e outros sistemas de segurança alinhados aos nossos princípios de IA responsável, incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para mitigar o uso indevido do sistema e ajudar a criar um ambiente mais seguro para os usuários.”

O post Microsoft corrige brecha em IA que gerou imagens pornográficas de Taylor Swift apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *