A União Europeia (UE) está liderando a corrida para regulamentar a inteligência artificial (IA). Colocando fim a três dias de negociações, o Conselho Europeu e o Parlamento Europeu chegaram hoje mais cedo a um acordo provisório sobre o que deverá tornar-se a primeira regulamentação abrangente da IA no mundo.
Carme Artigas, secretária de Estado espanhola para a digitalização e IA, classificou o acordo como uma “conquista histórica” num comunicado de imprensa. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre o incentivo à inovação e adoção segura e confiável da IA em toda a UE e a proteção dos “direitos fundamentais” dos cidadãos.
O projecto de legislação foi proposto pela primeira vez pela Comissão Europeia em Abril de 2021. O parlamento e os estados membros da UE votarão para aprovar o projeto de legislação no próximo ano, mas as regras só entrarão em vigor em 2025.
A Lei da IA foi concebida utilizando uma abordagem baseada no risco, em que quanto maior o risco que um sistema de IA representa, mais rigorosas são as regras. Para conseguir isso, o regulamento classifica as IAs para identificar aquelas que representam “alto risco”.
As IAs consideradas não ameaçadoras e de baixo risco estarão sujeitas a “obrigações de transparência muito leves”. Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para permitir que os utilizadores tomem decisões informadas.
Para IAs de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:
Supervisão Humana: A lei exige uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes de sistemas de IA de alto risco. Isso significa ter humanos informados, monitorando e supervisionando ativamente a operação do sistema de IA. O seu papel inclui garantir que o sistema funcione conforme pretendido, identificando e abordando potenciais danos ou consequências não intencionais e, em última análise, responsabilizando-se pelas suas decisões e ações.
Transparência: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é crucial para construir confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre os algoritmos subjacentes, dados de treinamento e possíveis tendências que podem influenciar os resultados do sistema.
Governança de dados: A Lei de IA enfatiza práticas responsáveis de dados, com o objetivo de prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos.
Gestão de riscos: A identificação e mitigação proativa de riscos se tornarão um requisito fundamental para IAs de alto risco. Os desenvolvedores devem implementar estruturas robustas de gestão de riscos que avaliem sistematicamente possíveis danos, vulnerabilidades e consequências não intencionais de seus sistemas.
Proibição de certos usos de IA
O regulamento proibirá completamente a utilização de certos sistemas de IA cujos riscos são considerados “inaceitáveis”. Por exemplo, o uso de IA de reconhecimento facial em áreas públicas será proibido, com exceções para uso pelas autoridades policiais.
O regulamento também proíbe IA que manipulam o comportamento humano, utilizam sistemas de pontuação social ou exploram grupos vulneráveis. Além disso, a legislação também proibirá sistemas de reconhecimento emocional em áreas como escolas e escritórios, bem como a recolha de imagens de imagens de vigilância e da Internet.