L’algoritmo non ammette attese o ritardi. L’intelligenza artificiale sta ridisegnando i perimetri del mercato finanziario italiano, trasformando banche e assicurazioni in laboratori tecnologici dove l’efficienza si scontra con l’incertezza delle nuove regole. «L’intelligenza artificiale (AI) è sempre più diffusa nel settore finanziario italiano: sperimentazione e adozione stanno crescendo velocemente, soprattutto nel campo dell’intelligenza artificiale generativa», mette in luce l’Organizzazione per la cooperazione e lo sviluppo economico (Ocse).
Il nuovo rapporto scatta una fotografia nitida di un sistema nazionale in bilico tra la corsa necessaria al progresso e la fragilità delle tutele, dove ormai il 39% degli operatori integra questi strumenti nei processi quotidiani per non perdere terreno in una competizione globale che viaggia alla velocità del silicio. La rivoluzione silenziosa dei numeri descrive una geografia del credito e del rischio che ha già scelto da che parte stare, pur mantenendo un approccio estremamente guardingo.
Settore assicurazioni alla guida
Il settore assicurativo guida questa trasformazione profonda con una penetrazione tecnologica che tocca il 70% degli intervistati, staccando il comparto bancario fermo al 59% e lasciando indietro i gestori dei mercati finanziari che si attestano su un più cauto 31 per cento. L’Ocse analizza questa dinamica spiegando che «tra i principali settori finanziari, quello assicurativo presenta la più alta percentuale di impiego dell’AI, seguito dal settore bancario», rilevando come le applicazioni siano ancora concentrate su binari sicuri e consolidati.
Scostamento di bilancio, Meloni: “Non escludiamo nulla, vogliamo dare risposte”
La maggior parte delle imprese italiane utilizza infatti queste tecnologie per l’ottimizzazione dei processi interni e le funzioni di supporto, ambiti dove il margine di errore è gestibile e il ritorno economico immediato. «I casi d’uso dell’intelligenza artificiale segnalati con la frequenza maggiore includono l’analisi dei dati, la sintesi di contenuti testuali, l’individuazione e la prevenzione delle frodi e le attività di contrasto al riciclaggio di denaro», prosegue il documento.
Questa strategia di piccoli passi, si rimarca, riflette il timore di affidare decisioni vitali, come l’erogazione di prestiti o la gestione di portafogli complessi, a sistemi di cui non si governano ancora appieno le logiche interne. Eppure, la spinta verso la General-Purpose AI (GpAI) appare inarrestabile. L’84% delle società italiane dichiara di aver già implementato o di stare sviluppando modelli linguistici avanzati.
Italia dipendente da fornitori esteri
Il punto di rottura di questo ecosistema risiede nella sovranità tecnologica e nella concentrazione del potere digitale nelle mani di pochi giganti stranieri. Il rapporto lancia un allarme chiaro sulla dipendenza strutturale dell’Italia dai fornitori esterni, un fattore che espone il fianco a rischi sistemici imprevedibili. «Tra le imprese italiane che impiegano l’intelligenza artificiale, vi è attualmente una forte dipendenza dai servizi di AI forniti da terzi, con una notevole concentrazione tra i quattro principali fornitori», si legge nelle conclusioni degli analisti parigini.
Questo legame ombelicale con i colossi del cloud e dei software stranieri crea un collo di bottiglia pericoloso. «Quasi il 75% degli intervistati riferisce di utilizzare servizi cloud di terze parti per l’AI, mentre il 39% si avvale di modelli di GPAI implementati da terzi», si nota nel rapporto. La scelta di soluzioni “chiavi in mano” è dettata dalla necessità di abbattere i costi di sviluppo, ma genera una vulnerabilità che l’Italia fatica a gestire, in special modo sul fronte della protezione dei dati sensibili e della continuità operativa. Se un grande fornitore dovesse subire un blackout o un attacco informatico, l’intero sistema finanziario nazionale rischierebbe la paralisi.

In questo scenario, la diffidenza verso il software open-source rimane alta, poiché le imprese temono che la trasparenza del codice possa compromettere la sicurezza delle transazioni e la proprietà intellettuale. L’impatto sulla produttività è evidente, secondo l’Ocse, con tre quarti delle aziende che dichiarano incrementi significativi dell’efficienza, ma il prezzo da pagare è una riorganizzazione radicale delle strutture di vigilanza interna.
La finanza italiana, si spiega nell’analisi, ha risposto finora con la prudenza del controllo umano costante, una sorta di freno a mano tirato su un motore potenzialmente esplosivo. «La metà degli intervistati utilizza la supervisione umana (human-in-the-loop) come principale presidio, rilevando che la maggior parte delle applicazioni ha livelli di autonomia limitati o nulli», osserva l’Ocse. Questa scelta di campo serve a garantire che la responsabilità finale resti sempre in capo a un operatore in carne e ossa, ma evidenzia anche una cronica mancanza di fiducia nella piena automazione.
Ritardo sulla difesa cyber
Il ritardo più preoccupante riguarda però la difesa cibernetica, dove il divario tra adozione tecnologica e protezione rimane ampio. «Quasi la metà dei partecipanti non ha ancora adottato alcuna misura di protezione contro le minacce informatiche specifiche dell’AI», denuncia il rapporto, segnando un punto di debolezza che potrebbe costare caro in un momento in cui gli attacchi hacker diventano sempre più sofisticati. A questo si aggiunge la difficoltà strutturale nel reperire capitale umano qualificato.
Vale a dire che un operatore su quattro fatica a trovare esperti capaci di gestire queste macchine, mentre un terzo segnala che la scarsa qualità dei dati alimentati nei sistemi rischia di produrre analisi distorte o errate. Il futuro della finanza tricolore si gioca sulla capacità del regolatore di offrire una bussola sicura in un mare di norme spesso sovrapposte e contraddittorie. Gli operatori chiedono voce e chiarezza, spaventati da una burocrazia che rischia di trasformare l’AI Act europeo in un ostacolo insormontabile anziché in una garanzia di tutela.

«L’incertezza normativa e il potenziale disallineamento delle regole sono i vincoli regolamentari citati comunemente al più ampio impiego dell’AI nella finanza, soprattutto dalle imprese più piccole, a causa delle risorse limitate», sottolinea il documento. La preoccupazione è che il recepimento delle nuove direttive europee si scontri con le leggi di settore già esistenti, creando un corto circuito interpretativo. «Un partecipante all’indagine su cinque ha indicato la mancanza di chiarezza normativa come ostacolo, in particolare per quanto riguarda il recepimento del regolamento dell’Ue sull’intelligenza artificiale (AI Act) e la sua interazione con la regolamentazione già esistente», viene rimarcato.
L’Ocse suggerisce quindi un cambio di passo urgente attraverso politiche che possano «promuovere e sostenere la chiarezza e la semplificazione del quadro regolamentare e di supervisione, al fine di rafforzare la sorveglianza, ridurre l’incertezza normativa e assicurare aspettative coerenti a livello della Ue». Solo attraverso sandbox regolamentari dinamiche e una governance «proporzionata al rischio», l’Italia potrà davvero cavalcare la rivoluzione digitale, trasformando l’intelligenza artificiale da minaccia per la stabilità a motore di una crescita economica che oggi appare quanto mai necessaria.
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: lastampa.it









