![]() |
Foto: Freepik |
A proposta de alteração da Lei Geral de Proteção de Dados Pessoais (LGPD) para regulamentar o uso de dados no treinamento de sistemas de Inteligência Artificial gera debates sobre seus impactos práticos e limitações. O Projeto de Lei 2775/24, que tramita na Câmara dos Deputados, propõe novas salvaguardas para o uso de dados pessoais em sistemas automatizados, incluindo a proibição do uso de informações de menores de 16 anos.
Em análise sobre os desafios da regulamentação, as professoras Taisa Maria Macena de Lima e Maria de Fátima Freire de Sá, doutoras em direito pela UFMG, alertam em artigo científico que "não há certeza de que as decisões automatizadas sejam mais sábias e melhores para a humanidade e para a biosfera." As especialistas destacam que mesmo as decisões automatizadas podem reproduzir preconceitos e discriminações.
Em seu artigo, Lima e Sá observam que "o tratamento de dados automatizados submete-se às regras gerais de utilização e tratamento de dados, especialmente aquelas previstas nos arts. 7º e 11" da LGPD. As pesquisadoras argumentam que a nova legislação precisa ser vista como parte de um sistema mais amplo de proteção de dados.
As professoras Lima e Sá também abordam em seu estudo a questão da responsabilização em casos de violação de direitos. Segundo elas, "a LGPD não chega a introduzir princípios novos na ordem jurídica, mas tem o relevante papel de consolidar os preceitos que já estavam em outras leis que, embora de modo não exaustivo, tratavam da proteção de dados pessoais."
A questão do consentimento ganha destaque especial no novo projeto. O deputado João Daniel (PT-SE), autor da proposta, defende que "é imprescindível que o avanço tecnológico seja acompanhado de medidas que assegurem a proteção dos dados pessoais dos cidadãos." O texto prevê a necessidade de renovação do consentimento a cada atualização significativa dos sistemas de IA.
O professor Alexandre Farbiarz, especialista em mídias digitais e professor da pós graduação em Mídia e Cotidiano da UFF e Design na PUC-RJ, compartilha preocupações semelhantes. "O problema é que ela sempre vai priorizar o mais popular – e o mais popular nem sempre é o melhor", afirma ao discutir como as IAs processam informações. "Os desenvolvedores dessas tecnologias definem o repertório sobre o qual a IA será treinada. Assim, quando um usuário dá um comando, a IA vai buscar padrões no material que aprendeu."
Para Farbiarz, existe uma questão mais profunda a ser considerada: "A diferença geracional é um grande problema na educação. Cada vez que surge uma nova tecnologia, essa lacuna se torna mais evidente." Ele argumenta que o letramento em IA não deve ser pensado apenas para profissionais, mas para qualquer pessoa que utilize essas tecnologias.
"O letramento midiático, de acordo com Paulo Freire, começa pelo entendimento do contexto. Quem produz essa tecnologia? Quem financia? Quais são as relações de poder envolvidas?", questiona Farbiarz. O professor alerta que "a questão da desinformação também é central. A IA pode gerar conteúdos falsos, mas extremamente convincentes."
O projeto seguirá para análise nas comissões da Câmara dos Deputados. Enquanto isso, Farbiarz alerta que "a tecnologia muda, mas a lógica capitalista não. O que acontece hoje já aconteceu antes." Ele argumenta que o foco deve estar não apenas na regulamentação, mas também na educação e conscientização sobre o uso dessas tecnologias.