As plataformas mais populares de inteligência artificial generativa operam no Brasil descumprindo os requisitos mínimos da LGPD (Lei Geral de Proteção de Dados), segundo análise feita pelo CTS (Centro de Tecnologia e Sociedade), vinculado à escola de direito da FGV (Fundação Getúlio Vargas) no Rio.
A legislação atual requer, entre outras exigências:
- ter uma política de privacidade;
- a divulgação das políticas de privacidade em português;
- informar quais tipos de dados são tratados;
- divulgação de informações claras sobre os direitos dos usuários;
- identificar a pessoa responsável pelo tratamento dos dados;
- detalhamento do processo de transferência de dados para fora do Brasil.
Os pesquisadores analisaram 14 critérios nas políticas de privacidade de 7 ferramentas mais populares utilizadas pelo público brasileiro (ChatGPT, Gemini, Claude, Copilot, Grok, DeepSeek e Meta AI). Foi constatado que nenhuma plataforma obedece de forma integral às condições da lei. O Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte também foi consultado para analisar parâmetros.
Gemini, Claude e a MetaAI são os que mais atendem às determinações avaliadas: 10 no total.
Apenas 3 critérios são cumpridos pelas plataformas analisadas: todas têm uma política de privacidade, informam quais serão os dados tratados e identificam o controlador dos dados.
A inteligência artificial chinesa DeepSeek e o Grok, de Elon Musk falham em mais de 7 exigências. Elas não divulgam a política de privacidade em português, além de não deixarem claro quais são as medidas tomadas para a proteção de dados e os direitos do usuário. O ChatGPT, IA mais conhecida entre os brasileiros, não cumpre os 2 últimos requisitos, além de não divulgar como os dados tratados são protegidos.
Os dados que são compartilhados com países estrangeiros também precisam de atenção, segundo a lei brasileira. A ação é permitida somente para nações que tenham práticas adequadas sobre o tema. O Gemini, Copilot e a Meta AI descumprem essas determinações.
A falta de privacidade é “assustadora”
Em entrevista para o jornal O Globo, o coordenador do CTS, Luca Belli, diz que a privacidade garantida pelas ferramentas de IA generativa variam de “baixo para assustador“.
“Não estamos avaliando boas práticas ou padrões elevados, só o cumprimento do básico. Mesmo assim, nenhuma das plataformas analisadas os aplica integralmente“, destaca o professor.
Além de estarem infringindo uma lei nacional, a falta de transparência e a irregularidade no manuseio dos dados, geram também um debate sobre a capacidade do país em fiscalizar e aplicar a regulamentação nas plataformas do exterior.