Cientistas deixam IA mais segura ao olharem para cérebro humano

O recém-graduado Jumpei Ukita e o professor Kenichi Ohki, do Departamento de Fisiologia da Faculdade de Medicina da Universidade de Tóquio, desenvolveram e testaram uma nova maneira de melhorar a defesa de redes neurais artificiais – o que deixou um sistema de inteligência artificial (IA) mais seguro.

Para quem tem pressa:

Cientistas da Universidade de Tóquio desenvolveram uma nova técnica para fortalecer a segurança de redes neurais artificiais, melhorando um sistema de IA;Inspirados por estudos sobre o cérebro humano, os pesquisadores aplicaram um fenômeno observado nas redes neurais artificiais para torná-las mais robustas;O método envolve a introdução de ruído aleatório não apenas na camada de entrada, mas também nas camadas internas da rede, fortalecendo sua resistência contra ataques adversariais;Esta abordagem vai além das técnicas convencionais de defesa e resultou num sistema mais adaptável e resiliente.Embora tenha sido testado em simulações de ataques adversariais, os cientistas planejam aprimorar e expandir essa técnica para proteger contra uma variedade ainda maior de ameaças.

Ukita e Ohki são cientistas que não exploraram apenas a computação. Eles também estudaram o cérebro humano – e isso os inspirou a usar um fenômeno que conheceram numa rede neural artificial (RNA).

Leia mais:

Podemos confiar em IA? Especialista em inteligência cibernética respondeChatGPT e IA: o que os chatbots sabem sobre nós e com quem compartilham dados?Como melhorar seu perfil no Tinder com Google Docs e o ChatGPT

A pesquisa, publicada na revista Neural Networks e divulgada pela Universidade de Tóquio, destaca a natureza dinâmica da batalha em curso entre algozes e defensores no campo da IA.

IA e cérebro

(Imagem: whiteMocca/Shutterstock)

Redes neurais, inspiradas nos neurônios biológicos do cérebro, formam a espinha dorsal da maioria dos sistemas de IA. Essas redes processam informações por meio de camadas, com entradas chegando em uma ponta e saídas emergindo na outra. Elas são essenciais para tomar decisões automáticas, como em veículos autônomos.

No entanto, essas redes não são infalíveis. Elas podem ser induzidas ao erro, intencional ou acidentalmente, levando-as a interpretar erroneamente as entradas. Essa vulnerabilidade é preocupante, especialmente em aplicações cruciais como diagnósticos médicos e carros autônomos.

Normalmente, estratégias de defesa se concentram na camada inicial de entrada, deixando as camadas internas suscetíveis. Mas os pesquisadores aplicaram um fenômeno observado no cérebro às redes neurais artificiais.

Eles introduziram ruído aleatório nessas camadas internas para reforçar a resistência da rede. Essa abordagem vai além das técnicas convencionais, resultando num sistema mais robusto. Ao adicionar ruído não apenas à camada de entrada, mas também às camadas mais profundas, eles aumentaram a adaptabilidade sem comprometer o funcionamento normal.

Sua abordagem, testada em um ataque adversarial simulado, provou ser eficaz, reduzindo significativamente a vulnerabilidade da rede. No entanto, os pesquisadores estão ansiosos para refinar e expandir esse método para proteger contra uma gama mais ampla de ataques.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

O post Cientistas deixam IA mais segura ao olharem para cérebro humano apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *