4 min
Per Frederiek Van Holle (DPAM) l’intelligenza artificiale non è un progetto IT ma un cambio di modello. Il vantaggio competitivo si sposta dalla singola decisione alla capacità dell’intera organizzazione di apprendere e adattarsi nel tempo. Ecco i rischi e le opportunità per i gestori
Ricerca dei clienti, personalizzazione dei prodotti, costruzione dei portafogli, analisi dei rischi. Con la corsa dell’intelligenza artificiale che procede senza sosta, si sprecano tra gli addetti ai lavori le ipotesi sugli ambiti in cui questa tecnologia possa impattare l’industria del risparmio gestito. Non senza effetti di coda, peraltro, come dimostra il crollo in Borsa subito la scorsa settimana dai principali titoli di settore in scia alla notizia del lancio di un software potenzialmente in grado di sostituire i consulenti finanziari. Eppure, la vera sfida portata dagli algoritmi così come la fonte dei maggiori vantaggi ad essi collegati potrebbe risiedere altrove. Ne è convinto Frideriek Van Holle, head of Technology & Innovation di DPAM, che in un paper di recente pubblicazione ha sottolineato come la rivoluzione di Chat GPT & affini abbia come principale effetto quello di cambiare l’economia dell’intelligenza stessa: rendendo scalabile l’apprendimento e imponendo di ripensare dati, governance e architettura operativa. Un punto di vista che porta con sé conseguenze chiare: chi la affronta come un semplice strumento di efficienza rischia un successo tecnico senza vero vantaggio strategico.
📰 Leggi anche “Reti di consulenza: con l’AI 100 miliardi in più in 5 anni“
L’industria ha già attraversato diverse ondate tecnologiche, cosa rende l’attuale fase guidata dall’intelligenza artificiale strutturalmente diversa dalle precedenti?
Si distingue perché non è semplicemente l’ennesima ventata di innovazione. Se i modelli quantitativi o il trading elettronico hanno introdotto cambiamenti di tipo incrementale, l’IA promette di modificare in modo radicale l’economia dell’intelligenza e di rendere accessibili su larga scala sia la cognizione sia la risoluzione dei problemi. Questo cambiamento è trainato dalla crescita esponenziale dei dati, dall’aumento della potenza di calcolo e da algoritmi sempre più avanzati. Il risultato è una trasformazione nel modo in cui le organizzazioni apprendono e si adattano. Il vantaggio competitivo risiede nella capacità di istituzionalizzare l’apprendimento, più che nel prendere singole decisioni di elevata qualità.
Nel vostro paper sostenete che l’IA non è principalmente una questione tecnologica, ma di modello operativo. Sotto questo, quali elementi organizzativi di un asset manager sono oggi meno compatibili con un’adozione efficace do questa tecnologia? Quali saranno maggiormente impattati e in che modo?
Molte case di gestione sono ancora organizzate in team verticali e operano secondo logiche funzionali non integrate, con una proprietà dei dati frammentata e sistemi legacy progettati più per il controllo che per l’apprendimento. Tutte caratteristiche che ostacolano la creazione di cicli di feedback e rallentano l’apprendimento organizzativo. Ecco perché gli ambiti maggiormente impattati saranno proprio l’organizzazione delle informazioni, in cui si osserverà un passaggio verso una responsabilità guidata dal business, e l’architettura operativa, che dovrà essere riprogettata per abilitare l’apprendimento continuo e integrare la governance con l’accountability. In altre parole, l’adozione dell’IA richiede passare a un apprendimento adattivo esteso a tutta l’istituzione.
📰 Leggi anche “Vanguard: l’AI riscrive le regole dell’economia globale“
Quanto è distante oggi il settore da questo tipo di ‛learning loop’? E quali sono i principali ostacoli per realizzarlo?
Il settore è ancora lontano dal raggiungere veri cicli di apprendimento continuo. I dati sono spesso frammentati o definiti in modo non coerente e l’apprendimento rimane episodico, emergendo da analisi ex post piuttosto che da meccanismi di feedback sistematici. Tra i principali ostacoli figurano le architetture dati legacy, strutture organizzative poco integrate, una gestione delle informazioni guidata dall’IT e una resistenza culturale al cambiamento. È inoltre fondamentale integrare governance ed etica fin dalle fasi iniziali, così come investire nel lavoro sui dati di base prima di procedere al deployment dei modelli di intelligenza artificiale.
Molti operatori stanno affrontando l’IA come un progetto IT o di pura efficienza operativa. Quali rischi vede in questo approccio “strumentale” e quali opportunità si perdono se non è l’organizzazione nel suo complesso a essere ripensata?
C’è la possibilità concreta di portare a un successo tecnico, ma senza una reale trasformazione organizzativa. I miglioramenti di efficienza rappresentano infatti una parte del valore non trascurabile, ma non dovrebbero essere l’unico obiettivo perché si rischia di perdere l’opportunità di accelerare l’apprendimento e riutilizzare le conoscenze internamente. Tutti errori che impediscono di bloccare nuove opzioni strategiche in un contesto di mercato sempre più affollato e competitivo. In altre parole, senza ripensare il modello operativo nel suo insieme, non è possibile sfruttare pienamente il potenziale degli algoritmi in termini di miglioramento continuo e adattabilità scalabile.
📰 Leggi anche “Investimenti, il 13% dei risparmiatori italiani si affida all’AI“
Guardando avanti, il valore aggiunto degli asset manager si sposterà più dalla qualità delle singole decisioni alla capacità dell’organizzazione di apprendere nel tempo?
Il valore strategico per gli asset manager si sta spostando verso la capacità dell’organizzazione di apprendere e adattarsi. L’intelligenza artificiale consente cicli di feedback più stretti e un apprendimento cumulativo, rendendo adattabilità e reattività le nuove fonti di vantaggio durevole. Come accennato, in un certo senso le conoscenze sono state svalutate dall’IA. Ciò non significa che il contributo umano sarà meno importante: l’IA cambia il ruolo dell’esperienza, permettendo di spostare l’attenzione umana dall’analisi ripetitiva verso attività come l’interpretazione e la supervisione o la decisione strategica. In questo modo le decisioni critiche restano ancorate alla discrezionalità professionale e alla responsabilità fiduciaria, essenziali in un settore regolamentato e basato sulla fiducia. Inoltre, integrare la supervisione umana nei processi abilitati dagli algoritmi aiuta a mantenere accountability oltre che trasparenza e standard etici.
Esiste il rischio che l’adozione dell’IA entri in tensione con i modelli di governance e controllo tipici del settore? Più in generale, quali minacce sistemiche vede emergere per chi la integra nei processi decisionali?
L’adozione dell’IA può mettere alla prova i tradizionali modelli di governance. Per evitare un compromesso tra adattabilità e disciplina del rischio, la governance deve essere integrata nel design dei sistemi, garantendo trasparenza, tracciabilità e responsabilità chiara. La supervisione umana rimane centrale e la governance dovrebbe evolvere di pari passo con l’integrazione dell’IA. I rischi sistemici includono la rapida propagazione di errori e bias, perdita di controllo, frammentazione, non conformità regolamentare e un’eccessiva dipendenza da partner esterni. Considerare la governance come un abilitatore strategico è essenziale per bilanciare adattabilità e gestione del rischio.
📰 Leggi anche “Banche e assicurazioni puntano sugli agenti AI“
Eppure, l’ondata di ribassi sui titoli del risparmio gestito scatenata la scorsa settimana dalla notizia di un software in grado di replicare il lavoro di un consulente lascia trasparire che il mercato fiuti anche un rischio di sostituzione …
La reazione del mercato sottolinea una maggiore sensibilità nei confronti dei potenziali sconvolgimenti causati dall’intelligenza artificiale nei servizi finanziari ma sono dell’opinione che si raggiungerà un equilibrio sostenibile. Le competenze umane saranno sempre più integrate, anziché sostituite, dai progressi dell’IA. L’essenza della consulenza finanziaria e il rapporto più ampio con il cliente rimangono fondamentalmente incentrati sull’uomo, il che è sia necessario sia auspicabile. È chiaro però che le aziende che non sono disposte ad adottare e integrare queste soluzioni rischiano di diventare rapidamente irrilevanti.
Nel paper afferma a tal proposito che “non agire” non è un’opzione neutrale. Come potrebbe manifestarsi, nel medio-lungo termine, la divergenza tra operatori abilitati dall’IA e quelli che restano fermi nel mercato dell’asset management?
La divergenza si manifesterà gradualmente, con le aziende che integrano l’IA in grado di apprendere più rapidamente e adattarsi più facilmente ai cambiamenti. Sebbene le differenze a breve termine possano essere mascherate da elementi come regolamentazione e rapporti con i clienti, il divario sottostante in termini di capacità di apprendimento e adattabilità si allargherà nel tempo. Dall’esterno può sembrare che alcune aziende siano già allineate, mentre in realtà stanno ancora gestendo il percorso trasformativo. Quando si verificano mutamenti di mercato o regolamentari, chi non ha agito potrebbe avere difficoltà a colmare il divario, rischiando la competitività a lungo termine.
📰 Leggi anche “Banche e IA, 5 imperativi per un futuro smart senza rischi“
Considerando le barriere all’ingresso, la regolamentazione e le relazioni consolidate con la clientela, perché il rischio di rimanere indietro viene spesso sottovalutato dagli incumbent?
Non è chiaro se gli incumbent sottovalutino questo rischio. Alcuni fattori, come le barriere percepite all’ingresso, protezioni regolamentari e solide relazioni con i clienti, possono creare un senso di sicurezza e mascherare la reale velocità del cambiamento. La necessità di reattività e adattabilità può però emergere in momenti critici, come le turbolenze di mercato. In questi contesti, gli incumbent potrebbero avere difficoltà a recuperare il divario rispetto a chi ha già istituzionalizzato apprendimento e trasformazione.
Guardando ai prossimi 3–5 anni, quali sono le scelte strategiche più rilevanti che un asset manager dovrebbe compiere oggi per non limitarsi a “sperimentare” con l’IA?
Gli asset manager dovrebbero considerare i dati come un patrimonio strategico, riprogettare l’architettura operativa per favorire apprendimento e governance, integrare fin dall’inizio etica e trasparenza, istituzionalizzare l’apprendimento, creare team dedicati alla trasformazione e misurare i progressi in base alla capacità di apprendimento piuttosto che sui tradizionali indicatori di output. Queste scelte garantiranno che l’adozione dell’IA vada oltre la fase sperimentale e produca un impatto duraturo.
Se dovesse lasciare un messaggio ai CEO dell’asset management, qual è l’errore più pericoloso da evitare nell’approccio all’intelligenza artificiale?
L’errore più pericoloso consiste nel considerare l’IA come una semplice iniziativa in ambito IT. I decision maker devono comprendere che richiede un ripensamento fondamentale del modello operativo, della gestione dei dati e dell’apprendimento organizzativo. Questa è la priorità numero uno. Non farlo comporta il rischio di ottenere un successo tecnico senza una vera e propria trasformazione, causando una divergenza irreversibile rispetto ai concorrenti più adattivi. Il commitment deve partire dall’alto, con una chiara comunicazione delle ambizioni e del percorso da seguire.
📍Per approfondire vai al Cornestone Megatrend
Vuoi ricevere ogni mattina le notizie di FocusRisparmio? Iscriviti alla newsletter
Registrati sul sito, entra nell’area riservata e richiedila selezionando la voce “Voglio ricevere la newsletter” nella sezione “I MIEI SERVIZI”.