L’Ai non serve senza medici preparati

0
1

Di recente Elon Musk ha sostenuto che, nel giro di pochi anni, studiare medicina diventerà completamente inutile. Secondo la sua visione, l’intelligenza artificiale e i sistemi automatizzati saranno in grado di diagnosticare, decidere e intervenire meglio dei medici, rendendo superflua la formazione di nuovi professionisti.

È un messaggio che rischia di avere conseguenze concrete. Arriva come una sberla a chi ha già scelto questo percorso e alle famiglie che lo sostengono con sacrifici importanti. Ma soprattutto si inserisce in un momento delicatissimo per i sistemi sanitari, che stanno affrontando una carenza crescente di personale qualificato, particolarmente grave in alcune aree della medicina.

Il motivo per cui questa tesi è così pericolosa è che appare plausibile. L’intelligenza artificiale sta mostrando capacità impressionanti, soprattutto in ambiti ben definiti come l’analisi delle immagini radiologiche e istologiche o l’elaborazione di grandi quantità di dati clinici e genomici. In questi contesti i risultati sono spesso eccellenti, talvolta superiori a quelli umani. Da qui, però, il salto di Musk è arbitrario. La medicina, infatti, non è la somma di prestazioni tecniche ad alta accuratezza. È un processo decisionale che si svolge in condizioni lontane dall’ideale: dati incompleti, informazioni eterogenee, quadri clinici in evoluzione. Ma è anche – e forse prima di tutto – cura: empatia, ascolto, capacità di comprendere la persona oltre i suoi dati. In questo contesto di complessità, non basta individuare correlazioni. Bisogna stabilire quali siano rilevanti, quali plausibili, quali utili a orientare una scelta. È un passaggio che non riguarda la potenza di calcolo, ma il giudizio critico, la relazione, l’etica e la responsabilità. Proprio per queste ragioni, l’ingresso dell’intelligenza artificiale nella medicina non riduce il bisogno di competenze: lo rende più alto.

Serve, prima di tutto, una solida cultura scientifica che consenta ai medici di leggere i dati senza farsi ingannare. Senza dimestichezza con concetti come rischio assoluto e rischio relativo, sensibilità e specificità, falsi positivi e falsi negativi, l’output dell’algoritmo rischia di essere accettato per quello che appare, non valutato per quello che vale.

Ma non basta. Va rafforzato ciò che è sempre stato il cuore della medicina: il ragionamento clinico. La capacità di integrare dati e contesto, di leggere una storia nel tempo, di tenere insieme dimensioni biologiche e sociali. L’intelligenza artificiale lavora su ciò che le viene fornito; la pratica clinica, invece, inizia proprio dove i dati non sono completi, dove i casi si discostano dai modelli, dove le situazioni più complesse — e spesso più rilevanti — non rientrano nelle categorie standard.

A questo si aggiunge una nuova forma di alfabetizzazione. Non per trasformare i medici in informatici, ma per capire cosa fa — e cosa non fa — un modello: su quali dati è stato addestrato, in quali condizioni funziona bene, dove invece può fallire.

C’è infine un aspetto che raramente entra nel racconto tecnologico: la validazione. In medicina non basta che una tecnologia funzioni. Deve dimostrare, con studi rigorosi, di funzionare meglio delle alternative, in contesti reali. Deve essere integrata nei percorsi clinici, deve prevedere responsabilità chiare, deve essere valutata per gli errori che può generare. È un processo lungo, incompatibile con i tempi indicati da Musk.

Per tutte queste ragioni, l’idea che nel giro di pochi anni l’intelligenza artificiale possa rendere inutile studiare medicina non è una previsione sul futuro: è una lettura superficiale del presente. L’intelligenza artificiale cambierà profondamente la medicina, ma non la sostituirà. Più entrerà nella pratica clinica, più avremo bisogno di medici preparati per utilizzarla in modo consapevole.

Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: lastampa.it