Admirável mundo novo da Inteligência Artificial 

Nós e o resto do mundo já vivemos na sociedade da Inteligência Artificial (IA). Nos últimos anos, adentramos a era “smart” viabilizada pelos avanços dos algoritmos, do poder de processamento computacional, maior acesso à grande volume de dados, expansão da rede 5G, melhoria dos dispositivos de Internet das Coisas (IoT), com sistemas cada vez mais personalizados e foco no comportamento dos indivíduos.

Não por acaso os investimentos no setor aumentam cada vez mais. Somente no Brasil, segundo dados da Plataforma Distrito, o valor aplicado em startups mais que dobrou em 2021 e ultrapassou os US$ 9,4 bilhões.

Mesmo que seja uma área com grande potencial de expansão, ainda sofremos com a fuga de talentos e a falta de mão de obra qualificada, pouca diversidade e regulamentação incipiente. É o que mostra o relatório “O impacto e o futuro da Inteligência Artificial no Brasil, realizado pelo Google for Startups.

Leia também!

Facebook anuncia novos recursos para o Messenger; confiraWhatsApp: aplicativo para Mac está disponível para downloadGoogle traz efeito especial de The Last of Us no buscador; confira

Outro ponto preocupante segundo o levantamento é que, apesar da relevância das discussões sobre o Marco Legal da Inteligência Artificial do Brasil (PL 21/20), que teve a versão mais recente do seu texto apresentado no final do ano passado, apenas 4% das startups entrevistadas afirmam conhecer o tema regulatório.

A falta de participação desses agentes, e da indústria de uma maneira geral, nas diretrizes pode criar barreiras significativas na construção do importante debate que busca o desenvolvimento de IA no País.

Mas o ponto de partida para qualquer discussão regulatória deve ser o de se perguntar: é possível transformar os conceitos éticos, como um conjunto de valores que norteiam e limitam o comportamento e as decisões dos indivíduos para um algoritmo e transferi-lo para uma máquina?

Todo e qualquer algoritmo, em resumo, consiste em uma série de instruções, ou seja, regras, para executar uma tarefa. O que faz com que máquinas sejam leais seguidoras de comandos. Isso sempre me fascinou. O quanto podemos programar as próprias leis nos códigos de software. É mais fácil fazer um carro inteligente sempre seguir as instruções do Código de Trânsito do que um motorista.

Portanto, a resposta é sim, é possível, mas a máquina, como um aprendiz, está sujeita a erros. Isso se traduz no que é chamado “taxa de assertividade”. Mas podemos medir e monitorar muito mais o comportamento de uma inteligência artificial, do que conseguimos fazer com os humanos. Principalmente no tocante a identificar qual a falha, aplicar a correção e executar a melhoria de forma imediata, sem resistência ou questionamentos por parte da máquina.

Então por que há tanto medo em torno do desenvolvimento da inteligência artificial?

Muito provavelmente devido aos seus impactos sociais e econômicos conforme suas aplicações ficarem mais popularizadas.

Segundo o cientista da computação Kai-Fu Lee há vários riscos relacionados ao uso da IA que precisam ser considerados, que vão desde a manipulação inconsciente das escolhas, a enganação como o deepfake, até vulnerabilidades de segurança que qualquer plataforma computacional está sujeita mas que usando técnicas de camuflagem de dados pode levar uma inteligência artificial a cometer erros de decisão em uma escala e a faça falhar sistematicamente ou mesmo vir a ser dominada por um ofensor.

Por isso, é importância estabelecer protocolos de como lidar tanto de forma preventiva como reativa, com situações onde o desenvolvimento tecnológico possa trazer efeitos colaterais não apenas indesejados, como catastróficos. E isso precisa ser antecipado, alinhado com a indústria, com coordenação de esforços entre o Poder Público e os entes privados e estabelecimento de métricas e deveres de alerta obrigatórios.

Mas acreditar que o melhor modelo de solução seja apenas uma lei é não alcançar a complexidade do problema que temos pela frente. Este é um desafio que vai além das fronteiras de um país isolado. Assim como exige uma dinâmica que possa acompanhar o ritmo da transformação acelerada que as inovações irão trazer nos diversos campos e setores, pois as aplicações de IA são muito diversas.

Será preciso constuir um modelo híbrido de autorregulação regulada que permita incorporar melhor a definição de riscos e padrões éticos adaptados conforme as particularidades e os requisitos específicos de cada setor: na saúde (como algoritmo para internação de UTI), na segurança pública (como no uso de reconhecimento facial), na mobilidade urbana (uso de veículos inteligentes), no agronegócio (uso de drones), área militar (algoritmos de defesa), varejo (lojas autônomas), financeiro (scores), nas plataformas (moderação de conteúdos), entre outros.

Por isso que em que pese todo o esforço da Comissão de Juristas (“CJSUBIA”) em apresentar um relatório de mais de 900 páginas, que tratam sobre vieses, responsabilização, mineração de dados, reconhecimento facial e discriminação concorrencial, há muitas críticas à proposta e ainda estamos longe de alcançar uma redação compatível com a realidade e expectativa do mercado e da sociedade. Agora caberá ao Parlamento aprofundar as questões mais significativas que compõem o texto e dar andamento à matéria.

Toda legislação na área precisará tratar minimamente sobre: conceitos, responsabilidade, penalidades, fiscalização, modelos de atualização (como autorregulação e códigos de conduta) e a obrigação de se fomentar campanhas educativas sobre o tema. Os pilares básicos se concentram em imparcialidade e segurança (validadas por sistemas de verificação de viés), responsabilização (proporcional ao risco da aplicação), ética e transparência (onde é empregada, como é utilizada e qual o processo de tomada de decisões).

As IAs vieram para ficar e são um tema de interesse de todos. Assim como a internet, elas têm um impacto multiterritorial, em nível global, que deve ser levado em conta. A ideia é pensar em como proteger a inovação e fazer a gestão de riscos, a partir de limites éticos das aplicações e os mecanismos de controle necessários.

*por Patricia Peck, CEO e sócia do Peck Advogados, Conselheira Titular do Conselho Nacional de Proteção de Dados (CNPD) e Professora da ESPM.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

O post Admirável mundo novo da Inteligência Artificial  apareceu primeiro em Olhar Digital.

 

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *