Lucas Euzébio, sócio do Silva Lopes Advogados, esclarece que a maioria das empresas voltadas para IA não especificam com quais empresas irão compartilhar os dados dos usuários; orientação vai ao encontro do direito fundamental de proteção de dados no Brasil
Recentemente, o ecossistema empreendedor foi “balançado” pela queda nas ações de empresas de tecnologia dos Estados Unidos e da Europa após o anúncio de que o aplicativo chinês DeepSeek foi o mais baixado do dia. Lançado na semana passada e totalmente gratuito para o público, a ferramenta de Inteligência Artificial (IA) chinesa ganhou popularidade. De modo geral, as ferramentas de IA dominam o noticiário e o imaginário popular, mas debates relacionados à política de privacidade e proteção de dados ainda são escassos.
Desde que foi promulgada, a Emenda Constitucional 115/2022 determinou que a proteção de dados pessoais é um direito fundamental, garantido a todos os brasileiros pela Constituição. No entanto, a política de privacidade da IA mais popular do momento, o DeepSeek, preocupa alguns especialistas, que consideram a coleta automática de dados como a “dinâmica de teclas” (keystroke dynamics), monitoramento e captura do comportamento do usuário, um ponto de atenção.
“A empresa menciona que os dados coletados serão compartilhados com ‘nosso grupo corporativo’, mas não especifica quais empresas são essas, nem qual é a finalidade ou o propósito desse compartilhamento. Porém, a política de privacidade de outras grandes empresas, como a própria OpenAI, do ChatGPT, segue o mesmo padrão de não especificar claramente quais empresas fazem parte do ‘grupo corporativo’ ou a finalidade do tratamento dos dados. O que precisamos entender é que o usuário hoje está preocupado, ou deveria estar preocupado, em entender melhor como seus dados estão sendo utilizados”, afirma o especialista em Big Techs, sócio do Silva Lopes Advogados, Lucas Euzébio.
Na disputa para garantir a segurança dos usuários de inteligências artificiais, circula no Brasil o Projeto de Lei nº 2338/2023, que estabelece o Marco Legal de IA. Aprovado pelo Senado, o projeto tem como objetivo regulamentar a tecnologia no país, além de afirmar que ela deve ter classificações de riscos a serem seguidas. Nas últimas semanas, a questão do consentimento e segurança ganhou destaque com a determinação da suspensão da coleta de dados sensíveis (por meio da íris do olho) pela empresa Tools for Humanity no Brasil, que oferecia recompensa financeira para quem realizasse o procedimento.