G7 exige ‘padrões globais’ para deixar IA confiável; entenda

Os líderes das nações do G7 – “Grupo dos Sete”, com algumas das principais economias do mundo – pediram, neste fim de semana, pelo desenvolvimento e adoção de padrões técnicos para manter a IA (inteligência artificial) “confiável”. Segundo o grupo, governança da tecnologia não acompanhou seu crescimento.

Leia mais:

IA generativa: uma importante conquista para a nossa eraAprenda a usar o ChatGPT: 10 dicas valiosas para criar perguntas precisasChatGPT e IA: o que os chatbots sabem sobre nós e com quem compartilham dados?

Embora os líderes do G7, reunidos em Hiroshima, no Japão, reconheçam que abordagens para alcançar “visão comum e objetivo de uma IA confiável podem variar”, eles disseram, em comunicado, que regras para tecnologias digitais como a IA devem estar “alinhadas com nossos interesses compartilhados e valores democráticos”.

Queremos que sistemas de IA sejam precisos, confiáveis, seguros e não discriminatórios, independentemente de sua origem.

Ursula von der Leyen, presidente da Comissão Europeia

Acordo veio após UE (União Europeia), que participa do G7, se aproximar, em maio, de aprovar legislação para regular a tecnologia de IA. É, potencialmente, a primeira lei a abranger IA do mundo. Isso poderia criar precedente entre economias avançadas.

Líderes do G7 disseram que “precisam fazer balanço imediato das oportunidades e desafios da IA ​​generativa”, um subconjunto da tecnologia popularizada pelo ChatGPT, da OpenAI.

Contexto da IA

(Imagem: AI)

O chatbot da empresa, apoiada pela Microsoft, pressionou Elon Musk e um grupo de especialistas em IA a disparar um alarme em março. Eles pediram uma pausa de seis meses no desenvolvimento de sistemas mais poderosos, citando riscos potenciais para a sociedade.

Um mês depois, legisladores da UE pediram aos líderes mundiais que encontrassem maneiras de controlar as tecnologias de IA. Segundo eles, essas tecnologias estavam se desenvolvendo mais rápido do que o esperado.

Até agora, os EUA adotaram abordagem cautelosa em relação à IA. O presidente Joe Biden disse, em abril, que resta saber se a IA é perigosa. Sam Altman, CEO da OpenAI, disse a um painel do Senado, na terça-feira (16), que país deveria considerar requisitos de licenciamento e teste para desenvolvimento de modelos de IA.

O Japão, presidente do G7 deste ano, tem sido ainda mais acomodado. País promete apoio à adoção pública e industrial da IA ​​enquanto monitora seus riscos. “É importante lidar adequadamente com os potenciais e riscos”, disse o primeiro-ministro Fumio Kishida ao conselho de IA do governo, na semana passada.

Diferenças

(Imagem: Rmedia7/Shutterstock)

As diferentes abordagens das nações ocidentais à IA estão em contraste com a política restritiva da China. Seu regulador do ciberespaço divulgou, em abril, um projeto de medidas para alinhar serviços generativos alimentados por IA com principais valores socialistas do país.

Embora reconheçam diferenças sobre como IA deve ser regulamentada, líderes do G7 concordaram, na sexta-feira (19), em criar fórum ministerial apelidado de “processo de IA de Hiroshima” para discutir questões relacionadas à IA generativa – por exemplo, direitos autorais e desinformação, até o final de 2023.

Líderes também instaram organizações internacionais, como a Organização para Cooperação e Desenvolvimento Econômico, a considerar análise do impacto dos desenvolvimentos políticos.

(Imagem: NicoElNino/Shutterstock)

A cúpula ocorreu após uma reunião de ministros digitais do G7 no mês passado, onde seus membros – EUA, Japão, Alemanha, Grã-Bretanha, França, Itália, Canadá e UE – disseram que deveriam adotar regras de IA “baseadas em risco”.

A UE e os EUA também devem trocar opiniões sobre as tecnologias emergentes no Conselho de Comércio e Tecnologia na Suécia, de 30 a 31 de maio.

Com informações da Reuters

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

O post G7 exige ‘padrões globais’ para deixar IA confiável; entenda apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *