Parlamento Europeu aprova legislação histórica sobre Inteligência Artificial
Na quarta-feira, 13, o Parlamento Europeu aprovou o Regulamento Inteligência Artificial, que busca garantir a segurança e o respeito dos direitos fundamentais, ao mesmo tempo em que impulsiona simultaneamente a inovação tecnológica.
O regulamento, acordado nas negociações com os Estados-Membros em dezembro de 2023, foi aprovado pelos eurodeputados por 523 votos a favor, 46 votos contra e 49 abstenções, e visa proteger os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental contra a Inteligência Artificial de alto risco, promovendo simultaneamente a inovação e tornando a Europa líder neste domínio. O regulamento estabelece obrigações para a IA com base nos diferentes potenciais riscos e níveis de impacto.
Definição de Inteligência Artificial
O artigo 3º, nº1, do Regulamento defini os sistemas de Inteligência Artificial como:
” um sistema baseado em máquinas concebido para funcionar com vários níveis de
autonomia, que pode apresentar adaptabilidade após a implantação e que, por motivos explícitos ou
objetivos implícitos, infere, a partir das informações que recebe, como gerar resultados como
previsões, conteúdos, recomendações ou decisões que podem influenciar atividades físicas ou virtuais
ambientes.”
Aplicações proibidas – Inteligência Artificial de Risco Inaceitável
As novas regras proíbem determinadas aplicações de IA, consideradas de riscos inaceitáveis, que ameaçam os direitos dos cidadãos, incluindo sistemas de categorização biométrica baseados em características sensíveis e a recolha não direcionada de imagens faciais da Internet ou de televisão em circuito fechado para criar bases de dados de reconhecimento facial. Serão também proibidos o reconhecimento de emoções no local de trabalho e nas escolas, a classificação social, o policiamento preditivo (quando se baseia exclusivamente na definição de perfis de uma pessoa ou na avaliação das suas características) e a IA que manipula o comportamento humano ou explora as vulnerabilidades das pessoas.
Obrigações aplicáveis aos sistemas considerados de alto risco
Estão igualmente previstas obrigações claras para outros sistemas de IA, considerados de alto risco, devido aos seus potenciais danos significativos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito. Exemplos de utilizações de IA de alto risco incluem infraestruturas críticas, educação e formação profissional, emprego, serviços públicos e privados essenciais (nomeadamente os cuidados de saúde e a banca), determinados sistemas de aplicação da lei, migração e gestão das fronteiras, justiça e processos democráticos (por exemplo, influenciando eleições). Esses sistemas devem avaliar e reduzir os riscos, manter registos de utilização, ser transparentes e exatos e garantir a supervisão humana. Os cidadãos terão o direito de apresentar queixas sobre os sistemas de IA e de receber explicações sobre as decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
Requisitos de transparência
Os sistemas de IA de uso geral, considerados de riscos limitados, bem como os modelos de IA de uso geral em que tais sistemas se baseiam, devem cumprir determinados requisitos de transparência, incluindo o respeito pela legislação da UE sobre direitos de autor e publicar informação detalhada dos conteúdos usados para treino. Os modelos de IA de uso geral mais poderosos que possam colocar riscos sistémicos terão de cumprir requisitos adicionais, tais como realizar avaliações de modelos, avaliar e atenuar os riscos sistémicos e comunicar incidentes. Além disso, os conteúdos de imagem, áudio ou vídeo artificiais ou manipulados («falsificações profundas») devem ser claramente rotulados como tal.
Inteligência Artificial com risco mínimo ou inexistente
Os sistemas de IA com riscos insignificantes pode continuar sem regulamentação.
Isenções para fins de aplicação da lei
A utilização de sistemas de identificação biométrica à distância pelas autoridades policiais é, em princípio, proibida, exceto em situações enunciadas exaustivamente e definidas de modo restrito. A identificação biométrica à distância «em tempo real» só pode ser aplicada se forem cumpridas salvaguardas rigorosas, nomeadamente se a sua utilização for limitada no tempo e no âmbito geográfico e se estiver sujeita a uma autorização judicial ou administrativa prévia específica. Tais utilizações podem incluir, por exemplo, a busca seletiva de uma pessoa desaparecida ou a prevenção de um ataque terrorista. A utilização de sistemas de identificação biométrica à distância «em diferido» é considerada um caso de uso de alto risco, exigindo uma autorização judicial associada a uma infração penal.
Medidas de apoio à inovação
Terão de ser criados, a nível nacional dos Estados-membros, ambientes de testagem da regulamentação e de testes em condições reais e acessíveis a start-ups, a fim de desenvolver e treinar IA inovadoras antes da sua colocação no mercado. O Gabinete de Inteligência Artificial da União Europeia será criado para ajudar as empresas a começarem a cumprir as novas regras antes da entrada em vigor.
Próximos passos
O regulamento ainda terá de ser sujeito a uma verificação final pelos juristas-linguistas, prevendo‑se que venha a ser definitivamente adotado antes do final da legislatura (através do chamado «processo de retificação»). A legislação também tem ainda de ser formalmente apoiada pelo Conselho da União Europeia .
O regulamento entrará em vigor 20 dias depois da sua publicação no Jornal Oficial. Será plenamente aplicável 24 meses após entrar em vigor, exceto no que diz respeito: às práticas proibidas, cujas restrições serão aplicáveis seis meses após a data de entrada em vigor; aos códigos de conduta (nove meses após a entrada em vigor); às regras para a IA de uso geral, incluindo a governação (12 meses após a entrada em vigor); às obrigações para os sistemas de alto risco (36 meses).