Venderam-nos o fim do mundo. Hegseth comprou

0
1

Na última sexta-feira de Fevereiro, o secretário da defesa dos Estados Unidos, Pete Hegseth, fez um ultimato a Dario Amodei, CEO da Anthropic: acesso irrestrito ao Claude ou todas as agências federais cessariam o uso dos seus produtos e a esta passaria a ser designada como um risco de segurança. Amodei recusou. Horas depois, a OpenAI chegava a acordo com o Pentágono.

Ao longo da última década, duas visões dominaram a conversa sobre inteligência artificial em São Francisco, onde nasceram a Anthropic e a OpenAI. Uns receiam que uma IA superinteligente destrua a humanidade. Outros prometem que a mesma superinteligência vai curar o cancro e acabar com a pobreza. Parecem opiniões opostas, mas não são. As duas partilham a mesma obsessão central: a IA é a tecnologia mais importante da história e vai mudar o mundo à escala civilizacional (talvez para nos destruir, talvez para nos salvar).

A recusa da Anthropic assenta em dois pontos: o Claude não poderia ser usado para vigilância em massa de cidadãos nem para alimentar armas sem supervisão humana. A primeira é uma questão de direitos fundamentais. A segunda não exige nenhuma discussão filosófica. Basta aceitar um facto técnico: os sistemas de IA actuais alucinam, produzindo informação falsa com total convicção. Armas autónomas baseadas nesta tecnologia seriam inevitavelmente imprevisíveis. O Claude já estava integrado nos sistemas militares americanos através da Palantir, empresa cujo software foi utilizado no planeamento dos ataques ao Irão.

“A Anthropic é uma empresa de IA da esquerda radical, fora de controlo e gerida por pessoas que não fazem a mínima ideia do que é o mundo real”, declarou Donald Trump, no seu estilo habitual.

Apesar de tudo, a última parte não é totalmente descabida. Afinal, Amodei passou anos a avisar que a IA vai acabar com o mundo como o conhecemos.

Mas o CEO da Anthropic não alterou subitamente a sua posição. O que mudou foi o enquadramento político: uma cláusula de responsabilidade passou a ser uma declaração de guerra ideológica. Quando se passam anos a insinuar que quem controla a IA controla o futuro, não nos deveria surpreender quando um governo decide que concorda e que não precisa de pedir permissão para a usar.

No dia em que assinou o acordo, Altman prometeu no X preferir ser preso a cumprir uma ordem inconstitucional, acrescentando: “Tentei imaginar como me sentiria no dia seguinte a um ataque aos Estados Unidos ou a uma nova arma biológica que poderíamos ter ajudado a prevenir”.

Dias depois, disse aos funcionários: “As decisões operacionais pertencem ao governo. Talvez achem que o ataque ao Irão foi bom e a invasão da Venezuela, má”, segundo a CNBC. “Não vos cabe a vocês decidir isso.”

As declarações foram recebidas com resistência interna e protestos organizados pelo movimento QuitGPT. Milhares cancelaram as suas subscrições do ChatGPT e fizeram download do Claude, catapultando o chatbot da Anthropic para o n.º 1 na App Store.

Entretanto, os danos reais da IA actual continuam a crescer. Em 2023, havia 500 mil deepfakes online. Em 2025, mais de 8 milhões. A maioria é pornografia não consensual e quase todas as vítimas são mulheres. A fraude financeira com vozes e rostos gerados por IA já atinge milhares de milhões de dólares.

Não são riscos especulativos, mas recebem uma fracção da atenção política dedicada a debater se uma futura superinteligência pode, um dia, eliminar a humanidade. Os danos concretos da IA actual, como o cibercrime, a desinformação e os deepfakes, são sistematicamente subvalorizados porque o melodrama do risco existencial é mais interessante e melhor financiado.

A convicção com que a administração Trump entrou nesta disputa não é invenção de Hegseth. É uma ideia construída pelos techbros de São Francisco, como Amodei e Altman, numa linguagem em que ainda falam, com o objectivo de fazer das suas empresas as mais poderosas e valiosas do mundo.

Do que precisamos e que nos tem faltado é uma avaliação realista do que a IA é hoje, considerando-a, como a qualquer outra tecnologia, uma ferramenta poderosa, mas falível, e não como um deus programado num centro de dados.

Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: feeds.feedburner.com