RISK MANAGEMENT THOUGHT LEADERSHIP

Sign up to Newsletter

AI & Risk Management: fattori abilitanti, use case e sfide future

White paper


AI & Risk Management: le ragioni di un matrimonio

Le soluzioni di Intelligenza Artificiale (AI) si diffondono a velocità impressionante e con un impatto dirompente, rinnovando in diversi settori i modelli di business, sempre più caratterizzati da processi digitali, automatizzati e improntati all’efficienza. 

In ambito finanziario, l’ondata Fintech e Insurtech che al giorno d’oggi sta trasformando i processi operativi e di business vede l’Intelligenza Artificiale ricoprire un ruolo fondamentale. 

In realtà l’AI affonda le proprie radici già nel 1950, quando Alan Turing ideò il “Test di Turing” per misurare la capacità di una macchina di mettere in atto un comportamento intelligente, equivalente o indistinguibile da uno umano. Dal Test di Turing ad oggi sono stati fatti enormi passi avanti e i contributi per arrivare alle più evolute tecniche di AI arrivano da svariate discipline, dalla neurologia all’informatica, dalla neurobiologia alla matematica, per citarne alcune. Ed è proprio la sua natura multidisciplinare a rendere difficile una definizione univoca di AI, che può variare in base all’ambito di osservazione. 

Ma se l’Intelligenza Artificiale esiste già da 70 anni, perché solo adesso assistiamo ad una sua diffusione così dilagante, che trova poi terreno fertile in ambito Risk Management? I motivi sono sostanzialmente due: la disponibilità di una grande mole di dati, di diversa natura e generati da diversi fonti, (i cosiddetti Big Data: messaggi vocali, testi, immagini etc.), e la disponibilità – raggiunta solo di recente – di una crescente potenza computazionale, necessaria per poterli elaborare, ad esempio mediante il cloud computing. E non sorprende che queste tecniche vengano poi applicate nel Risk Management, da sempre caratterizzato da task e mindset di natura quantitativa e dalla necessità di raccogliere e analizzare dati per valutare le probabilità di accadimento degli eventi di rischio e l’impatto delle loro conseguenze. 

Tra i vantaggi che il Risk Management può conseguire adottando le tecniche di Intelligenza Artificiale c’è senz’altro il miglioramento dell’efficienza operativa – derivante dall’automazione dei processi, con annessi riduzione di tempi, effort umano e costi – ma anche una vera e propria evoluzione dei modelli di misurazione dei rischi e dei sistemi di prevenzione e monitoraggio. È infatti possibile affiancare ai modelli statistici tradizionali modelli di Machine Learning più evoluti, in grado di aumentarne performance e potere predittivo. 

Dal punto di vista tecnologico, per raggiungere una piena convergenza tra questi due mondi servirà sempre più sviluppare piattaforme “aperte”, che consentano a analisti e data scientist di implementare le proprie logiche e metodologie in linguaggi di programmazione come Python o R, che dispongono di sterminate librerie open-source che ben si sposano con le più avanzate tecniche di AI. 

 

AI & Risk Management: gli ambiti di applicazione

Gli use case in ambito Risk Management spaziano dal Credit al Liquidity Risk fino all’Operational e Reputational Risk, solo per citarne alcuni. 

In ambito credito, ad esempio, molteplici sono le applicazioni dei modelli di AI per il calcolo dei principali fattori di rischio come la PD (Probability of Default) e la LGD (Loss Given Default), nonché per la creazione di modelli di credit scoring gestionali, tipicamente impiegati dalle banche nel processo di erogazione del credito per accettare o meno la richiesta di finanziamento. I modelli di credit scoring basati su tecniche di AI consentono di valutare il merito creditizio del richiedente sfruttando una base informativa molto più ampia rispetto a quelle tradizionali, comprendente dati strutturati e non, come ad esempio i movimenti di conto corrente (sempre più importanti anche in ottica PSD2). L’AI può essere utilizzata anche nell’ambito dei sistemi di “Early Risk Alert”, ad esempio attraverso tecniche di screening web che rilevano le news negative relative alle società (downgrade, situazioni di dissesto, licenziamenti etc.), utili agli intermediari per valutare il rischio di credito della clientela corporate.

In ottica Liquidity Risk si possono sfruttare ancora dati transazionali come la tempestività di pagamento di bollette e fatture, o la regolarità nella ricezione dello stipendio, che, insieme ad altre informazioni come il livello di cultura finanziaria e la frequenza delle operazioni, sono utili per valutare la probabilità di abbandono del cliente o di prepagamento del mutuo. 

Nella sfera dell’Operational Risk, invece, le tecniche di AI possono essere utilizzate nell’analisi dei reclami e delle note legali, al fine di classificarne le cause, individuare eventuali correlazioni tra gli “event type” e scoprire potenziali nuovi fenomeni che generano perdite operative. Tali informazioni sono utili anche a dare una diversa priorità ai reclami e intervenire proattivamente per prevenire le perdite, consentendo così una riduzione dei costi legati alla loro gestione e una più puntuale stima del capitale da accantonare a copertura del rischio. 

In questo senso, le tecniche di AI possono essere dunque utili per ridurre i costi operativi, di questi tempi una delle principali leve per recuperare redditività, vista la compressione dei ricavi e della marginalità derivanti dall’attività di intermediazione tradizionale (calo dovuto a vari fattori: bassi tassi di interesse, erosione dei margini da parte di Fintech e BigTech e, non ultimo, l’impatto del Covid-19). 

L’AI è infine utile anche per la gestione di rischi emergenti come il Cyber Risk. Tra le varie applicazioni, citiamo le tecniche di Natural Language Processing (NLP) per l’identificazione di URL malevoli, impiegati per commettere crimini informatici, o i modelli di Unsupervised Anomaly Detection, utilizzati per analizzare le interazioni di un utente con un sito web o un'applicazione, individuando così i possibili truffatori.

 

AI & Risk Management: le sfide per il futuro

Per prima cosa, per poter cogliere a pieno le opportunità dell’Intelligenza Artificiale, le funzioni di Risk Management devono investire in formazione, al fine di sviluppare le skill necessarie a presidiare processi sempre più digitalizzati, caratterizzati da una crescente interazione uomo-macchina. Lo sviluppo di tali competenze è necessario sia per la gestione del processo che per l’interpretazione dei risultati. La formazione diventa un fattore abilitante, fondamentale per stare al passo di un’offerta di servizi finanziari, che arrivi da Fintech o da BigTech, sempre più veloci e user friendly, i cui punti di forza risiedono nell’efficienza operativa, la digitalizzazione e la customer experience.

Ma è necessario che l’applicazione dell’Intelligenza Artificiale, in un contesto regolamentato come quello bancario, tenga in considerazione anche la replicabilità e l’interpretabilità dei risultati, al fine di sdoganarne l’utilizzo per i processi interni. In questo senso potrebbe essere utile l’adozione di framework metodologici e di governance volti a garantire l’utilizzo responsabile degli algoritmi. Tale approccio dovrebbe includere anche un’appropriata documentazione sui limiti dei modelli applicati e sui dataset utilizzati, in modo da limitare la obscurity delle tecniche e garantire il rispetto dei vincoli etici.

L’etica è l’altro grande tema nell’applicazione dell’Intelligenza Artificiale. È infatti necessario garantire che le azioni compiute dagli algoritmi, nonché i risultati prodotti, che stanno alla base delle scelte di business dell’intermediario, non siano affetti da bias o siano potenzialmente discriminatori per alcune categorie di utenti. Su questo fronte le autorità stanno intervenendo con l’obiettivo di promuovere un'Intelligenza Artificiale affidabile (si vedano ad esempio le linee guida “The Ethics Guidelines for Trustworthy Artificial Intelligence” pubblicate dalla Commissione Europea). Tre le componenti fondamentali individuate per garantire l’affidabilità delle soluzioni di AI: legalità, eticità e robustezza, quest’ultima da intendersi sia dal punto di vista tecnico che sociale visto che, anche con le migliori intenzioni, i sistemi di AI possono dar luogo a impatti negativi non intenzionali. Ciascuna componente in sé è necessaria ma non sufficiente: per assicurare che tecniche siano davvero affidabili, devono essere presenti tutti e tre i fattori. 

L’evoluzione delle tecniche di AI verso una maggiore interpretabilità – rispettando l’etica – rappresenta in ultima analisi la sfida più grande degli anni a venire. Tuttavia essa presuppone anche un cambiamento culturale nel mondo dei servizi finanziari, non solo a livello di singole funzioni degli intermediari, ma anche di Autorità di Vigilanza, che devono acquisire sempre più competenze per comprendere a pieno il funzionamento, i limiti e le potenzialità dell’AI, ed esercitare così al meglio i poteri ispettivi che competono loro.