Agora na Lei com Dr. Marcelo Fortes - A regulamentação da Inteligência Artificial pela UE

19/06/2023

O Direito corre atrás dos avanços e mudanças de uma sociedade. A marcação deve ser cerrada, sob pena de incontáveis prejuízos aos cidadãos, face à ausência absoluta de regulamentação. Nos dias atuais, estamos enfrentando o avanço da IA – Inteligência Artificial –, que está avançando de forma assustadoramente positiva (ou negativa, a depender do olhar).

A União Europeia, sempre na vanguarda jurídica destes acontecimentos, aprovou nesta semana a lei para a regulamentação e a utilização da Inteligência Artificial. Trata-se da primeira lei abrangente do mundo sobre a IA. Outros países estão avançando também no tema, como os Estados Unidos, o Canadá e a China. O Brasil, como sempre, caminha a passos lentos sobre o assunto.

A prioridade do Parlamento Europeu é garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Os sistemas de IA devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais. O Parlamento quer também estabelecer uma definição uniforme e neutra em termos tecnológicos para a IA, de modo a ser aplicada em futuros sistemas de IA.

Sabemos que a IA pode trazer muitos benefícios, especialmente nas áreas de saúde, transportes, energia e sustentabilidade. Por outro lado, em que pese muitos sistemas de IA representem um risco mínimo, a legislação europeia analisa os eventos de risco que ela denomina como “risco inaceitável”. Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos. Estes sistemas incluem:

(i) manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças; pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, caraterísticas pessoais sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial.
(ii) Podem ser permitidas algumas exceções. Por exemplo, os sistemas de pós-identificação biométrica a distância, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.

Em seguida, a legislação trata dos sistemas de “risco elevado”. Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de elevado risco e serão divididos em duas categorias.
(i) Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.
(ii) Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE: identificação biométrica e categorização de pessoas singulares, gestão e funcionamento de infraestruturas essenciais, educação e formação profissional, emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria, acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos, aplicação da lei gestão da migração, do asilo e do controle das fronteiras, assistência na interpretação jurídica e na aplicação da lei.

Por fim, o texto trata de “Inteligência Artificial Generativa”. O exemplo maior desta modalidade de IA é o famoso ChatGPT, o que, de acordo com a nova legislação, teria de cumprir os requisitos de transparência:
(i) divulgar que o conteúdo foi gerado pela IA.
(ii) conceber o modelo para evitar que este gere conteúdos ilegais.
(iii) publicar resumos dos dados protegidos por direitos de autor utilizados para a formação.

Marcelo Fortes Giovannetti, graduado e pós-graduado em Direito pela PUC/SP, com especialização em Direito Empresarial do Trabalho, Direito Concorrencial e Regulatório FGV. Contato: marcelo.fortes@mfglaw.com.br.