Notícias

Comissão do Senado aprova regras para inteligência artificial no Brasil

O Senado aprovou o Projeto de Lei 2.338/2023, que estabelece diretrizes para a regulamentação da inteligência artificial no Brasil, destacando-se como um marco na América Latina. O texto prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial, vinculado à Autoridade Nacional de Proteção de Dados (ANPD), para supervisionar o uso de IA. Entre as medidas, estão o pagamento por direitos autorais usados no treinamento de modelos de IA, restrições ao uso de IA para classificação de pessoas e exigência de revisão humana em decisões automatizadas no setor público. 

  • Como o Projeto se alinha com os princípios da LGPD?
  • A vinculação do Sistema Nacional de Regulação e Governança de IA à ANPD é suficiente para garantir a supervisão eficiente dessas tecnologias? 
  • Quais desafios podem surgir dessa integração?
  • Como a LGPD pode colaborar para definir critérios claros para esses sistemas?

ANPD adverte para riscos da IA Generativa com dados pessoais

A ANPD, por meio do Radar Tecnológico, alertou sobre os riscos da inteligência artificial generativa no contexto da Lei Geral de Proteção de Dados Pessoais (LGPD). Apesar dos avanços que essa tecnologia proporciona, como a criação de conteúdo sintético, ela apresenta desafios significativos para a proteção de dados pessoais, incluindo o uso de dados sem consentimento, geração de informações sensíveis de forma inadvertida e dificuldades na exclusão de dados pessoais devido ao contínuo refinamento dos modelos. A ANPD também destacou riscos como “alucinações” nos sistemas, que podem gerar informações falsas e prejudicar titulares de dados. 

  • Como a LGPD pode ser aplicada para regular práticas de treinamento de modelos de IA generativa?
  • Quais estratégias as empresas devem adotar para garantir transparência no uso de dados pessoais no treinamento e refinamento de modelos de IA?
  • De que forma a LGPD aborda o problema das “alucinações” de IA, que podem gerar informações falsas sobre indivíduos? 
  • Quais responsabilidades recaem sobre os desenvolvedores?
  • Quais desafios as empresas enfrentam ao implementar medidas para evitar o uso inadequado de dados pessoais por sistemas de IA generativa?

Ataque hacker não exclui responsabilidade por proteção de dados

A 3ª Turma do STJ decidiu que a Enel é responsável pelo vazamento de dados não sensíveis de uma consumidora após um ataque hacker aos seus sistemas. Embora a empresa tenha alegado excludente de responsabilidade prevista na LGPD, o tribunal entendeu que a Enel, como agente de tratamento de dados, falhou em adotar as medidas de segurança esperadas. Apesar de reconhecer a responsabilidade da empresa, o TJ-SP não determinou indenização à consumidora, considerando que os dados vazados eram de fácil acesso. No entanto, a Enel foi obrigada a fornecer informações completas sobre o uso compartilhado dos dados, destacando a relevância da segurança e governança em conformidade com a LGPD e a Emenda Constitucional 115/2022.

  • Como a LGPD define a responsabilidade de um agente de tratamento de dados em casos de vazamento por ataques hackers? 
  • Há alguma circunstância que justifique a exclusão dessa responsabilidade?
  • Quais práticas de segurança e governança poderiam ser adotadas para evitar que empresas sejam responsabilizadas em situações semelhantes?
  • Quais são os desafios práticos para que empresas mapeiem e informem de maneira completa o uso compartilhado de dados, como exigido pela LGPD?
  • Quais ações preventivas as empresas devem adotar para minimizar riscos de vazamentos e demonstrar conformidade com a LGPD em casos de litígio?

Você também vai gostar

Leia também!