Política
Presidente do Senado apresenta projeto para regular inteligência artificial
A proposta prevê uma multa de até R$ 50 milhões para cada violação cometida pelas empresas de tecnologia
O presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou nesta quarta-feira (3) um projeto que regulamenta no Brasil o uso de sistemas de inteligência artificial (IA), como o ChatGPT. A proposta prevê uma multa de até R$ 50 milhões para cada violação cometida pelas empresas de tecnologia e as enquadra nas punições da Lei Geral de Proteção de Dados Pessoais (LGPD), de 2018.
O texto também impede as companhias de se aproveitarem da condição vulnerável de alguns tipos de consumidores, como crianças, adolescentes e pessoas com deficiência.
União Europeia
Países da União Europeia já manifestaram preocupação quanto à possibilidade de acesso e uso indiscriminado de dados pessoais pelas chamadas big techs e ausência de filtros para verificar a idade dos usuários. A Itália chegou a bloquear o robô ChatGPT pela suspeita de falta de proteção dos consumidores no tratamento dos dados pessoais.
O texto vai passar ainda por uma comissão temática do Senado, que pode ser a de Ciência, Tecnologia e Informática (CCT), ou por um colegiado a ser criado especificamente para discutir a matéria.
Depois, a proposta será votada pelo plenário e, se aprovada, seguirá para a análise da Câmara dos Deputados. Eduardo Gomes (PL-TO) é cotado para ser o relator no Senado.
Fiscalização
Segundo o texto, um órgão ligado à Presidência da República deve ser criado para acompanhar as atividades das empresas no Brasil e fiscalizar o cumprimento da lei. Essa agência vai elaborar e implementar a “Estratégia Brasileira de Inteligência Artificial”.
A empresa que quiser funcionar no Brasil terá de passar por uma avaliação. Será analisado o impacto do algoritmo da plataforma, o que identifica e direciona o usuário para suas preferências de produto ou conteúdo. O órgão do governo vai estabelecer os casos em que será necessária uma auditoria para avaliar esse impacto, ou seja, a ida de um técnico externo à empresa para aferir os riscos da tecnologia.
“Previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco”, diz o texto.
O projeto é resultado do trabalho de uma comissão de juristas, do direito civil e digital, presidida pelo ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva. O grupo ouviu a opinião de setenta especialistas da área e consultou a regulamentação da inteligência artificial em mais de 30 países da Organização para a Cooperação e Desenvolvimento Econômico (OCDE).