Regulamentação da IA expõe fragilidade, falhas e retrocessos trabalhistas

PACTU

( Rawpick/Freepick )
Regulamentação da IA expõe fragilidade, falhas e retrocessos trabalhistas
O Senado aprovou, no último dia 10, a regulamentação da Inteligência Artificial depois de um ano de debates e polêmicas

O Senado aprovou nesta terça-feira (10) a regulamentação da inteligência artificial (IA) no país. Agora, o texto deve seguir para a análise da Câmara dos Deputados, antes de ir à sanção presidencial e passar a valer.

A aprovação do texto do projeto foi criticada pela “Coalizão Direitos na Rede”, que ressaltou que “a regulação dessa tecnologia é essencial, mas deve equilibrar inovação com responsabilidade e proteção de direitos”.

A entidade, no início do mês, uniu 54 entidades da sociedade civil para assinarem um documento crítico ao novo relatório apontando retrocessos expressivos, incluindo prejuízos aos direitos trabalhistas. Entre eles está a ausência de mecanismos para evitar demissões em massa, o que expõe trabalhadores aos riscos de uma automação sem controle e fragiliza garantias fundamentais.

À época, Maria Faria, secretária de Comunicação da CUT Nacional, uma das signatárias do documento, afirmou que “por trás da Inteligência Artificial estão pessoas e interesses”, destacando a necessidade de “mecanismos rigorosos de governança, transparência e mitigação de riscos para proteger direitos fundamentais e impedir abusos tecnológicos”. Veja abaixo o que foi aprovado.

Tramitação

O projeto foi apresentado em 2023 pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), e é considerado prioritário por ele, que é o autor do projeto principal. O texto apresentado teve como base um anteprojeto elaborado por uma comissão de juristas criada também pelo senador.

A matéria foi relatada por Eduardo Gomes (PL-TO) que apresentou seis versões do seu parecer e negociou diversas mudanças para conciliar o projeto com a oposição e o governo.

Dois entraves criados pela oposição (a restrição do desenvolvimento tecnológico e o que parlamentares de direita denominam “limitação à liberdade de expressão”, por impor sanções às fake news), atrasaram a análise da proposta.

Antes de ser votada no Plenário do Senado, a matéria passou por uma comissão temporária, onde foram realizadas 14 audiências públicas com a participação de representantes da sociedade civil, setores público e privado e especialistas em tecnologia e inovação.

O que foi aprovado

A versão aprovada nesta terça-feira excluiu os algoritmos das redes sociais da lista de sistemas considerados de alto risco, atendendo a pedidos de senadores oposicionistas, decisão criticada por alguns parlamentares governistas.

Por outro lado, o texto preservou a proteção dos direitos de criadores de conteúdo e obras artísticas, uma demanda dos governistas. Esses dois pontos foram os principais focos de discordância entre os blocos no processo de aprovação.

Riscos

Sistemas de IA são classificados em níveis de risco, com regulamentação específica para os de alto risco, dependendo do impacto nos direitos humanos.

  • Proibido o desenvolvimento de aplicações com "risco excessivo".
  • Avaliação preliminar de risco é facultativa, exceto para sistemas generativos e de propósito geral.

Direitos autorais:

  • Proteção de obras e criadores mantida. Conteúdos protegidos podem ser usados por instituições sem fins comerciais para IA, mas sem prejudicar interesses econômicos dos autores.
  • Uso comercial de conteúdos gera direito à remuneração.
  • Imagem e voz só podem ser usados com consentimento prévio, respeitando direitos de personalidade.

Trabalhadores:

  • Garantia de revisão humana de decisões com impacto jurídico relevante.
  • Identificação biométrica deve proteger contra discriminação.
  • Supervisão humana é exigida em decisões automatizadas sobre punições ou demissões.

Integridade da informação:

  • Trecho sobre IA generativa e integridade da informação foi retirado para evitar riscos à liberdade de expressão.

Risco excessivo:

  • Proibição de sistemas de armas autônomas, técnicas subliminares, exploração de vulnerabilidades e outras finalidades prejudiciais.
  • Restrições ao uso de câmeras em espaços públicos, com exceções legais.

Alto risco:

  • Classificação para sistemas em áreas sensíveis, como saúde, segurança e educação.
  • Sistemas intermediários ou que não influenciem decisões não são considerados de alto risco.

Avaliação de impacto:

  • Sistemas de alto risco exigem avaliação detalhada por especialistas, incluindo riscos, benefícios e transparência.
  • Conclusões devem ser públicas e revisadas periodicamente.

IA generativa e de propósito geral:

  • Devem passar por avaliação preliminar, mitigação de riscos e atender normas de eficiência e conformidade legal.
  • Conteúdos gerados por IA precisam ser identificados.

Sanções:

  • Multas de até R$ 50 milhões ou 2% do faturamento bruto.
  • Responsabilidade civil conforme Código Civil e Defesa do Consumidor, com inversão do ônus da prova em casos específicos.

Autoridade Nacional de Proteção de Dados (ANPD):

  • ANPD coordenará a regulação de IA, aplicará sanções e zelará pelos direitos fundamentais.
  • Criado o Sistema Nacional de Regulação e Governança de IA (SIA), incluindo órgãos reguladores, especialistas e fóruns de cooperação.

Poder público:

  • Sistemas de IA devem registrar usos e garantir interoperabilidade.
  • Riscos não mitigáveis implicam suspensão do uso.
  • Incentivo à inovação e proteção dos trabalhadores, com foco em adaptação e letramento digital.

Direitos dos afetados:

  • Direito à informação, privacidade, não discriminação e explicação de decisões.
  • Supervisão humana para prevenir riscos aos direitos fundamentais.

Leia  aqui o a íntegra do projeto

 

Fonte: CUT

Deixar comentário

Matérias relacionadas