Em 1816, René Laennec inventou o estetoscópio. O instrumento permitia ouvir o que antes era inaudível: o coração, os pulmões, o interior do corpo vivo.
Foi uma conquista médica extraordinária. Foi também o primeiro objeto a interpor-se fisicamente entre o médico e o doente. O toque direto, que durante séculos definira o ato clínico, começou a ser substituído por uma mediação técnica. A prática da medicina ganhou precisão e perdeu proximidade, e ganhou e perdeu ao mesmo tempo, sem que ninguém tivesse deliberado sobre essa troca.
Neil Postman, que se dedicou a pensar a relação entre a tecnologia e a sociedade, defendia que todas as tecnologias carregam esta dualidade: são, simultaneamente, uma bênção e um fardo. Propôs uma pergunta que deveria acompanhar qualquer inovação. Não “o que é que esta tecnologia faz?”, mas algo que nem sempre parece óbvio: “o que é que esta tecnologia desfaz?” É a segunda pergunta que raramente fazemos. E é essa pergunta que devemos fazer sobre a inteligência artificial na saúde.
A história da medicina mostra porquê. Os raios-X, descobertos em 1895, tornaram o corpo transparente sem necessidade de cirurgia. Mas foi adotado com entusiasmo antes de se compreenderem os efeitos da radiação, e o preço dessa transparência levou décadas a revelar-se. O registo clínico eletrónico, que se generalizou no final do século XX, prometia integração e eficiência. Trouxe ambas, mas trouxe também burocracia digital e uma fadiga dos profissionais que ainda não encontraram solução.
O padrão repete-se: cada tecnologia na medicina não se limitou a acrescentar uma capacidade ao que já existia. Mudou o sistema inteiro. A consulta, depois do estetoscópio, já não era a mesma consulta. O hospital, depois do registo eletrónico, já não era o mesmo hospital.
Quando se introduz uma tecnologia num sistema, não ficamos com o que tínhamos mais uma ferramenta. Ficamos com um mundo diferente.
Com a inteligência artificial está a acontecer o mesmo, só que mais depressa. A bênção é real e já não é promessa. Sistemas de IA analisam imagens médicas com uma precisão que, em contextos controlados, rivaliza com a de especialistas experientes. Algoritmos de triagem ajudam a organizar o acesso aos cuidados de saúde. Ferramentas de transcrição libertam médicos e enfermeiros de tarefas administrativas que consomem horas sem acrescentar valor clínico. Quando bem implementadas, estas aplicações melhoram a prestação de cuidados. Negar isto seria desonesto.
Mas o fardo também já é visível para quem queira ver.
Há três problemas que me parecem os mais preocupantes, dois facilmente identificáveis e um terceiro, que é o mais subtil e, por isso, o mais perigoso.
Primeiro, o enviesamento. Os sistemas de IA são treinados com dados que refletem as populações de onde foram recolhidos. Um algoritmo desenvolvido com dados predominantemente norte-americanos ou do norte da Europa, quando aplicado a uma população portuguesa, pode não servir a quem mais precisa. Desigualdades que já existem são amplificadas, e a automatização dá-lhes uma aparência de objetividade que as torna mais difíceis de contestar.
A opacidade é o segundo. Muitos dos sistemas atualmente em uso funcionam como caixas negras: produzem resultados sem explicar como chegaram a eles. Quando um algoritmo contribui para uma decisão clínica errada, quem responde? A pergunta não tem ainda uma resposta satisfatória.
O terceiro problema, como referi, é mais insidioso. Cal Newport, em Digital Minimalism, argumenta que a maior parte das pessoas adota a tecnologia por defeito, sem nunca avaliar se o benefício compensa aquilo que se perde. Aceitamos ferramentas novas porque existem, porque toda a gente usa, porque recusar parece anacrónico. Newport defende o oposto: que cada tecnologia deveria ser adotada com intencionalidade, apenas quando o seu valor é claro e o custo é aceitável.
Na saúde, este argumento tem um peso particular. A conveniência de um chatbot que faz triagem não dispensa a pergunta sobre o que acontece à relação com o doente quando o primeiro contacto com o sistema de saúde é mediado por uma máquina. A rapidez de um diagnóstico automatizado não elimina a necessidade de saber quem o valida e o que acontece quando falha. Em saúde, adotar por defeito tem custos que não se medem em eficiência, mas, antes, em vida.
Há duas coisas que, no mínimo, deveriam mudar. A primeira é a exigência de transparência. Quando nos é oferecida uma ferramenta digital em saúde, temos o direito de perguntar que dados utiliza, quem a validou, o que acontece quando falha e quem assume a responsabilidade. Não é necessário ser informático para fazer estas perguntas. É necessário saber que são questões legítimas e que merecem resposta. A segunda é a proteção daquilo que a tecnologia não substitui: o tempo de escuta, a presença, a relação entre quem cuida e quem é cuidado. Há dimensões do cuidado em saúde que não são digitalizáveis, e reconhecê-lo não é resistência à mudança. É apenas lucidez.
É também por isso que a formação se torna decisiva. Não basta ensinar a usar ferramentas digitais. É preciso formar pessoas capazes de compreender o que essas ferramentas fazem e, com igual rigor, o que desfazem. A Faculdade de Medicina da Universidade do Porto criou a licenciatura em Saúde Digital e Inovação Biomédica, já no seu segundo ano de funcionamento, exatamente com este propósito: preparar profissionais que saibam habitar este território com competência técnica e sentido crítico. Não entusiastas da tecnologia nem céticos de profissão. Pessoas que saibam fazer as perguntas certas e que não se contentem com respostas fáceis.
Da próxima vez que nos apresentarem uma nova tecnologia em saúde – e vai acontecer com frequência crescente –, vale a pena resistir ao impulso de perguntar apenas o que ela faz. A pergunta que importa, na medicina como em tudo o resto, é outra: o que é que ela nos tira?
O autor escreve segundo o acordo ortográfico de 1990
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: feeds.feedburner.com



