AI Act: O 1º primeiro regulamento sobre Inteligência Artificial
Algumas tecnologias de Inteligência Artificial (IA) já existem há mais de 50 anos, contudo os avanços no poder computacional, a possibilidade de uso de enormes quantidades de dados e o desenvolvimento de novos algoritmos, deram origem a uma IA generativa cada vez mais poderosa.
Respostas regulamentares díspares por parte de cada país corriam o risco de fragmentar o mercado interno. Por esse motivo, tornou-se uma prioridade na União Europeia regulamentar estes sistemas tecnológicos e os riscos associados, num quadro-jurídico comum.
O Regulamento da União Europeia (UE) sobre IA é a primeira lei abrangente sobre este tema no mundo. Procura dirimir situações como os riscos para a saúde, a segurança, os direitos fundamentais, o Estado de Direito e o ambiente.
Aplica-se a todos intervenientes públicos e privados dentro e fora da UE, desde que o sistema de IA seja colocado no mercado da União ou a sua utilização afete pessoas localizadas na UE.
O Regulamento categoriza as aplicações de IA em 4 níveis de risco:
- Risco mínimo: Os sistemas de IA podem ser desenvolvidos e utilizados sujeitos à legislação existente, sem obrigações legais adicionais.
- Alto-Risco: Um número limitado de sistemas de IA definidos na proposta podem criar um impacto adverso na segurança das pessoas ou nos seus direitos fundamentais e, por isso, são considerados de alto risco. Por exemplo, sistemas biométricos de identificação, categorização e reconhecimento de emoções.
- Risco Inaceitável: Conjunto muito limitado de utilizações prejudiciais da IA que contrariam os valores da UE são proibidas, nomeadamente: pontuação social para fins públicos e privados; exploração de vulnerabilidades de pessoas; identificação biométrica remota em tempo real em espaços acessíveis ao público pelas autoridades policiais; categorização biométrica de pessoas com base em dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical ou crenças religiosas, entre outros.
- Risco específico: Para determinados sistemas de IA são impostos requisitos de transparência específicos quando existe um risco claro de manipulação (por exemplo, através da utilização de chatbots). Os usuários devem estar cientes de que estão a interagir com uma máquina.
A maioria das obrigações recai sobre os “fornecedores” de sistemas de IA de alto risco, ou seja, os desenvolvedores da tecnologia.
Contudo, também os “implantadores” têm algumas obrigações, ou seja, as pessoas singulares ou coletivas que implantam um sistema de IA a título profissional. Por exemplo, um banco que compre uma ferramenta IA.
Os fornecedores de modelos de IA de finalidade geral devem fornecer documentação técnica, instruções de uso, cumprir os direitos de propriedade intelectual e publicar um resumo sobre o conteúdo utilizado.
Esta legislação estabelece um quadro sancionatório que pode ir até 35 milhões de euros ou 7% do volume de negócios anual do ano financeiro anterior.
Assim, se desenvolve tecnologia ou procura implementar tecnologia AI terceira no seu negócio, procure apoio jurídico e garanta o compliance para o seu negócio.