New York Times proíbe que seu conteúdo seja usado para treinar IA

O New York Times, um dos principais veículos de imprensa dos Estados Unidos, tomou algumas medidas para impedir que seu conteúdo seja utilizado para treinar modelos de inteligência artificial.

Como primeiro noticiou o site AdWeek, o jornal norte-americano atualizou seus termos de serviço em 3 de agosto, proibindo a extração do conteúdo para treinamento de aprendizado de máquina ou sistema de IA.

Leia mais:

Inteligência artificial já está produzindo fake newsCaso de fake news com ChatGPT termina em prisão na ChinaComo uma frase usada pelo ChatGPT está gerando spam e fake news

Além de textos, o conteúdo proibido pelo veículo são fotografias, imagens, ilustrações, designs, clipes de áudio, videoclipes, “aparência” e mais.

O termo de serviço do New York Times também não permite que rastreadores de sites — que indexam as páginas do site em resultados de buscas — usem conteúdo de pesquisa para treinar os amplos modelos de linguagem (LLMs, na sigla em inglês) ou demais sistemas de IA.

Ainda de acordo com o AdWeek, caso as regras do termo não sejam respeitadas, as empresas donas dos sistemas de IA podem sofrer com penalidades.

Como lembrou o The Verge, em fevereiro deste ano, o New York Times assinou um contrato de três anos no valor de US$100 milhões com o Google, para que a empresa utilize conteúdos do veículo em algumas de suas plataformas. 

Nesse anúncio foi mencionado que o conteúdo do Times seria utilizado para marketing, fins publicitários e de distribuição, mas não menciona se o treinamento de IA está incluso no contrato.

IA pode identificar fake news? Estudo responde

Um estudo liderado por Kevin Matthe Caramancion, pesquisador da Universidade de Wisconsin-Stout, nos Estados Unidos, avaliou a capacidade dos LLMs de detectar se uma notícia é verdadeira ou falsa;“Meu objetivo era testar rigorosamente a proficiência desses modelos em discernir fatos de fabricação, usando uma simulação controlada e agências de checagem de fatos estabelecidas como referência”, disse Caramancion;Na pesquisa, foram utilizadas duas versões do ChatGPT (a 3.0 e 4.0), o Bard, do Google, e o Bing, da Microsoft;Essas IA’s foram utilizadas para classificar 100 notícias verificadas por agências de checagem em três categorias: verdadeiro, falso ou parcialmente verdadeiro/falso;Para mais informações leia a matéria completa.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

O post New York Times proíbe que seu conteúdo seja usado para treinar IA apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *