Fabricantes de câmeras desenvolvem sistema de autenticação para fotos

Nikon, Sony e Canon estão trabalhando para adicionar sistema de autenticação digital em suas máquinas fotográficas. O objetivo é diferenciar as fotografias geradas por inteligência artificial (IA) das fotos reais, dado o avanço das plataformas de geração de imagens por IA.

Fotos falsas e vídeos artificiais têm se tornado cada vez mais realistas. Uma aliança global de veículos de imprensa, empresas de tecnologia e fabricantes de câmeras desenvolveu ferramenta chamada Verify para realizar checagens online. Nikon, Sony e Canon concordaram em adotar o padrão de autenticação em comum acordo. Elas controlam 90% do mercado global de câmeras fotográficas.

Leia mais:

Confira 5 coisas que podem estragar câmera celularAssistência técnica: qual a diferença entre autorizada e especializada?Samsung aposta em IA para impulsionar vendas em 2024

O Verify funciona assim: se a imagem for legítima, será exibido data, geolocalização e outros metadados. Além de imagens não-autênticas, ele detecta imagens alteradas, tanto as criadas, como as alteradas, são rotuladas como “No Content Credentials” (sem credenciais de conteúdo, em tradução livre).

Novidades para brecar a IA

A Canon pretende lançar a tecnologia em escala de mercado em 2024 e também está desenvolvendo aplicativo de gestão de imagens em parceria com a Reuters e um laboratório de verificação de integridade de informações, informa a Folha de S.Paulo;Por sua vez, a Nikon vai começar a adicionar a tecnologia de autenticação em suas câmeras topo de linha;Já a Sony planeja adotar a marca de autenticação a partir de abril em seu equipamento topo de linha.

Já as desenvovledoras de IA…

O Google também lançou ferramenta que adiciona marcas d’água invisíveis a imagens geradas por IA, e os modelos de IA geradores de imagem de código aberto permitem que os selos de autenticação sejam descartados;A Intel desenvolveu plataforma capaz de determinar a autenticidade de imagem por meio da análise de alterações na cor da pele decorrentes do fluxo de sangue;No entanto, as imagens geradas por IA estão se tornando cada vez mais realistas, tornando difícil identificar sua autenticidade.

Isso recai, por exemplo, no Stable Diffusion, da Stability AI, que é um dos diversos modelos de IA geradores de imagem de código aberto, permitindo a programadores que criem suas próprias versões e descartem os selos de autenticação.

O programa, inclusive, esteve, recentemente, envolvido em polêmica, ao ser usado por pessoas mal-intencionadas para criar imagens de abuso sexual infantil. Leia mais sobre o assunto aqui.

O post Fabricantes de câmeras desenvolvem sistema de autenticação para fotos apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *