Os Estados-Membros e o Parlamento Europeu chegaram a acordo na quarta-feira, 6 de Maio, à noite para proibir na União Europeia (UE) os serviços de inteligência artificial (IA) que possam “despir” pessoas sem o seu consentimento.
A iniciativa surge na sequência da introdução, há alguns meses, de uma funcionalidade no Grok, o assistente de IA da rede social X, que permitia aos utilizadores solicitar a criação de montagens hiper-realistas (ou deepfakes) de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.
O caso gerou indignação em muitos países e levou a UE a abrir uma investigação.
Na terça-feira, a primeira-ministra italiana, Giorgia Meloni, condenou veementemente as fotos falsas de si própria geradas por IA, classificando os deepfakes como uma “ferramenta perigosa”.
De acordo com o Parlamento Europeu, a nova proibição visa sistemas que possam criar imagens, vídeos e sons de natureza pornográfica com crianças, ou representações das partes íntimas de uma pessoa identificável, ou imagens dessa pessoa envolvida em actividade sexual, sem o seu consentimento.
As novas regras entrarão em vigor em 2 de Dezembro. A partir dessa data, os sistemas de IA deverão estar equipados com medidas de segurança que os impeçam de gerar este tipo de conteúdo.
A medida foi adoptada no âmbito de uma revisão da legislação europeia sobre a IA, ou Lei da IA, uma lei pioneira formalmente aprovada há dois anos.
Nessa ocasião, os 27 Estados-Membros e os eurodeputados acordaram ainda, conforme proposto pela Comissão Europeia, adiar a entrada em vigor de novas regras destinadas a regular a actividade dos chamados sistemas de IA de alto risco, ou seja, aqueles que operam em áreas sensíveis como a segurança, a saúde ou os direitos fundamentais.
As regras deveriam entrar em vigor já em Agosto, mas a Comissão quis dar mais tempo às empresas para se adaptarem ao novo quadro.
A principal alteração em relação à proposta da Comissão é que os Estados-Membros e os eurodeputados adoptaram datas fixas para o adiamento, enquanto Bruxelas tinha proposto um calendário mais flexível.
As novas datas são 2 de Dezembro de 2027 para os sistemas “autónomos” de alto risco e 2 de Agosto de 2028 para os sistemas integrados noutros programas ou produtos.
O acordo foi alcançado numa altura em que as preocupações com os riscos associados à IA voltaram à discussão na UE nas últimas semanas devido ao Mythos, o novo modelo da “startup” norte-americana Anthropic.
A Anthopic decidiu não disponibilizar o Mythos ao público em geral, mas apenas a um grupo restrito de empresas norte-americanas, devido à excepcional capacidade do modelo de identificar vulnerabilidades críticas de programação, que poderiam desencadear uma crise de cibersegurança.
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: feeds.feedburner.com









