Confira artigo de Márcio Lopes de Freitas Filho, advogado e sócio-fundador do escritório Martins Cardozo Advogados Associados
Neste ano, uma carta aberta foi divulgada em que Elon Musk e vários pesquisadores de inteligência artificial, pedem aos laboratórios de tecnologia uma pausa no desenvolvimento de sistemas de IA em grande escala. No documento criado por eles, são ressaltados temores sobre os “riscos profundos” para a sociedade e a humanidade do que chamam de uma “corrida fora de controle” pelo avanço de sistemas que adotam a tecnologia.
Boa parte das distopias produzidas desde meados do século XX tratam dos riscos da inteligência artificial para a humanidade, de 2001: uma odisséia no espaço até os romances de Isaac Asimov, passando por blockbusters hollywoodianos mais recentes. Os riscos da humanidade passar a conviver com uma inteligência artificial autônoma e que seja suficientemente poderosa são vários, e em diversas áreas.
A inteligência artificial surge como uma ferramenta a serviço dos seres humanos, mas existe o risco de que ela passe a ser uma entidade que passe a usar os humanos como ferramenta para seus propósitos, seja por falta de limites em sua programação, seja por alguma intenção maliciosa do programador ou do operador da IA.
Mas antes de pensar em um futuro distópico, de “Blade Runner” ou “Eu, Robô”, que estão ainda no campo da especulação, existem problemas reais e imediatos, tais como os impactos da IA no mercado de trabalho.
A robotização mecânica de processos industriais alterou radicalmente a organização do trabalho e a relevância dos trabalhadores braçais e operários. Causou perda de postos de trabalho e alterou a eficiência de modelos produtivos, tornando-os menos dependentes de humanos.
A IA traz essa realidade da robotização fabril para campos até então inimagináveis, como a prestação de serviços, a produção de arte e literatura, a programação, dentre inúmeros outros trabalhos ditos intelectuais, que até então não tinham sido tão impactados pela robotização.
Não existem modelos confiáveis para prever qual será o impacto da substituição desses trabalhadores por inteligências autônomas e mesmo se isso seria desejável para a humanidade.
A IA e a LGPD podem ser conciliadas?
A verdade é que ninguém sabe e não existem modelos testados no mundo real para a regulamentação e controle desses riscos. É exatamente isso que levou à produção de uma carta nos últimos dias sobre o tema, pedindo uma pausa no desenvolvimento e evolução dos sistemas de IA. Contudo, desde o estrondoso sucesso do ChatGPT, pela OpenAI, isso virou uma questão econômica, com forte impacto em empresas de tecnologia.
O Google sofreu com desvalorização de seu valor de mercado em face de dificuldades com seu próprio sistema de IA. A Microsoft já está incorporando o GPT no seu próprio buscador, o Bing. Nenhuma empresa vai querer ficar para trás nesse processo e é difícil acreditar que uma carta de intenções, ainda que assinada por pessoas de renome, tenha o poder de frear o desenvolvimento dessas novas tecnologias para uma prévia avaliação de riscos e de custo-benefício.
O Brasil possui alguns casos bem sucedidos de realização de debates públicos para a regulamentação de temas tecnológicos e de inovação (como o marco civil da internet e a própria lei de proteção de dados pessoais).
O problema é que esses processos, embora priorizem a transparência e tragam ótimas oportunidades de confronto de idéias diferentes sobre a regulação, costumam ser lentos e demorados, e podem ser ineficientes para responder aos dilemas da IA com a rapidez que isso demanda. Em resumo: já estamos atrasados, não só o Brasil, mas o mundo todo, e não existe receita de bolo.
A própria LGPD brasileira, em seu art. 20, fala do direito de qualquer pessoa de questionar quaisquer decisões tomadas com base em tratamento automatizado de dados em relação a si. Esse dispositivo foi pensado para sistemas mais rudimentares de classificação de perfis e escore de risco financeiro, mas são plenamente aplicáveis por decisões tomadas por inteligência artificial.
Falta, contudo, bastante transparência tanto pelas empresas quanto pelo próprio governo em relação ao que está sendo feito de forma automatizada e como está sendo a supervisão humana sobre isso. Já existem plugins para uso imediato do ChatGPT no SEi!, que é o sistema eletrônico de tramitação de processos usado no governo federal, e os tribunais superiores, como o STJ e o STF têm usado ferramentas de inteligência artificial, a exemplo do Victor e do Victor Hugo, para auxiliar na tomada de decisões por seus ministros.
Os detalhes e os usos desses sistemas não são públicos e essa falta de transparência dá margem a especulações sobre eventuais fragilidades ou abusos relacionados ao seu uso. Qual a justificativa razoável para uma empresa ou órgão público deixar a mágica da IA escondida por trás das cortinas?
Enquanto isso ficar apenas na mão de desenvolvedores e fora de mecanismos de controle público, sem qualquer regulamentação ou accountability, estaremos aumentando os riscos de abusos e violações que possam ser cometidos com o auxílio de inteligências artificiais. Se nós sequer sabemos em que casos essas ferramentas estão sendo usadas para tomada de decisões, como poderemos invocar a lei e pedir a revisão dessas decisões por humanos?
É preciso que o debate saia do campo de programadores e especialistas em computação e abranja mais setores da sociedade. Se não sabemos qual o melhor modelo de regulamentação, o mínimo que devemos exigir é que o uso dessas tecnologias e qualquer processo que tente regulá-las seja transparente e público.