Ícone do site Criptonizando

União Europeia avança em regulação do mercado de IA

Europa

A União Europeia (UE) está liderando a corrida para regulamentar a inteligência artificial (IA). Colocando fim a três dias de negociações, o Conselho Europeu e o Parlamento Europeu chegaram hoje mais cedo a um acordo provisório sobre o que deverá tornar-se a primeira regulamentação abrangente da IA ​​no mundo.

Carme Artigas, secretária de Estado espanhola para a digitalização e IA, classificou o acordo como uma “conquista histórica” num comunicado de imprensa. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre o incentivo à inovação e adoção segura e confiável da IA ​​em toda a UE e a proteção dos “direitos fundamentais” dos cidadãos.

O projecto de legislação foi proposto pela primeira vez pela Comissão Europeia em Abril de 2021. O parlamento e os estados membros da UE votarão para aprovar o projeto de legislação no próximo ano, mas as regras só entrarão em vigor em 2025.

A Lei da IA ​​foi concebida utilizando uma abordagem baseada no risco, em que quanto maior o risco que um sistema de IA representa, mais rigorosas são as regras. Para conseguir isso, o regulamento classifica as IAs para identificar aquelas que representam “alto risco”.

As IAs consideradas não ameaçadoras e de baixo risco estarão sujeitas a “obrigações de transparência muito leves”. Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para permitir que os utilizadores tomem decisões informadas.

Para IAs de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:

Supervisão Humana: A lei exige uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes de sistemas de IA de alto risco. Isso significa ter humanos informados, monitorando e supervisionando ativamente a operação do sistema de IA. O seu papel inclui garantir que o sistema funcione conforme pretendido, identificando e abordando potenciais danos ou consequências não intencionais e, em última análise, responsabilizando-se pelas suas decisões e ações.

Transparência: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é crucial para construir confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre os algoritmos subjacentes, dados de treinamento e possíveis tendências que podem influenciar os resultados do sistema.

Governança de dados: A Lei de IA enfatiza práticas responsáveis ​​de dados, com o objetivo de prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados ​​para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos.

Gestão de riscos: A identificação e mitigação proativa de riscos se tornarão um requisito fundamental para IAs de alto risco. Os desenvolvedores devem implementar estruturas robustas de gestão de riscos que avaliem sistematicamente possíveis danos, vulnerabilidades e consequências não intencionais de seus sistemas.

Proibição de certos usos de IA

O regulamento proibirá completamente a utilização de certos sistemas de IA cujos riscos são considerados “inaceitáveis”. Por exemplo, o uso de IA de reconhecimento facial em áreas públicas será proibido, com exceções para uso pelas autoridades policiais.

O regulamento também proíbe IA que manipulam o comportamento humano, utilizam sistemas de pontuação social ou exploram grupos vulneráveis. Além disso, a legislação também proibirá sistemas de reconhecimento emocional em áreas como escolas e escritórios, bem como a recolha de imagens de imagens de vigilância e da Internet.

Receba artigos sobre Bitcoin e Criptomoedas no seu email

*Obrigatório
Sair da versão mobile