Parlamento Europeu Regulamenta o Uso da Inteligência Artificial

06 de junho de 2024 - Direito Internacional

(Julia Gonçalves Cardoso)

O Parlamento Europeu aprovou, em março deste ano, o primeiro conjunto de normas destinado a regulamentar o uso da Inteligência Artificial (IA), o “AI Act”. O fato representa um importante passo para assegurar uma adoção ética e responsável da IA, com implicações que vão além das fronteiras do bloco europeu. A proposta geral da legislação visa proteger os direitos fundamentais, a democracia, o Estado de direito e, ao mesmo tempo, impulsionar a inovação e estabelecer a Europa como líder neste segmento.  As normas estabelecem uma regulamentação abrangente para os sistemas de Inteligência Artificial mediante a classificação deles conforme o grau de risco, definindo os limites de aplicação e uso.
As regras proíbem aplicações de IA que ameacem os direitos dos cidadãos, incluindo: (i) sistemas de categorização biométrica baseados em características sensíveis e raspagem não direcionada de imagens faciais da Internet ou imagens de CCTV (closed-circuit television, em inglês ou Circuito Fechado de TV) para criar bases de dados de reconhecimento facial; (ii) o reconhecimento de emoções no local de trabalho e nas escolas; (iii) a pontuação social (social scoring); (iv) o policiamento preditivo (quando se baseia apenas no perfil de uma pessoa ou na avaliação das suas características), e  (v) a IA que manipula o comportamento humano ou explora as vulnerabilidades das pessoas.
A legislação também apresenta uma série de barreiras para o uso de IA pelas forças policiais: a utilização de sistemas de identificação biométrica à distância pelas autoridades policiais é, em regra, proibida, exceto em situações enunciadas exaustivamente e definidas de modo restrito. Permitindo a aplicabilidade apenas se forem cumpridas salvaguardas rigorosas, nomeadamente se a sua utilização for limitada no tempo e lugar definido e se estiver sujeita a uma autorização judicial ou administrativa prévia específica. Tais utilizações podem incluir, por exemplo, a busca seletiva de uma pessoa desaparecida ou a prevenção de um ataque terrorista.
Os sistemas considerados de alto risco – como a generativa, oferecida por Gemini, do Google, ou ChatGPT, da OpenAI – possuem maiores obrigações, devido aos seus potenciais danos significativos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito. Esses sistemas devem (1) ser concebidos e desenvolvidos de modo a poderem ser supervisionados por humanos, (2) ser desenvolvidos com níveis apropriados de exatidão e cibersegurança, (3) antes da implementação de um sistema de risco elevado, deve ser realizada Avaliação de Impacto sobre Direitos Fundamentais e (4) ser objeto de sistema de gestão de riscos, entre outras obrigações.
O Regulamento estabelece obrigações de transparência e governança para os sistemas de IA, proibindo práticas prejudiciais e impondo requisitos específicos aos provedores desses sistemas. Além disso, prevê sanções para o descumprimento das disposições, podendo chegar a 7% do faturamento da empresa, além de outras sanções não pecuniárias. Ademais, os cidadãos da União Europeia poderão apresentar queixas sobre sistemas de inteligência artificial e receber explicações sobre decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
Embora o “AI Act” tenha sido aprovado, ainda não está totalmente em vigor. A lei entrará em vigor 20 dias após sua publicação no Jornal Oficial da União Europeia, prevista para maio de 2024. A partir dessa data, haverá um cronograma escalonado delineado para a aplicação de diferentes partes do regulamento.[1]


[1] https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138-FNL-COR01_PT.pdf