“Il ruolo dell’Explainable Artificial Intelligence all’interno del progetto” – Enrico Ferrari, Head of R&D projects di Rulex

L’importanza dell’Explainable Artificial Intelligence in SInISA

Durante il progetto verrà utilizzata la piattaforma Rulex per impostare indagini approfondite sull’infrastruttura di data space che SInISA realizzerà. Il focus sarà orientato all’utilizzabilità del risultato sia dalla Governance Clinica che da parte della pratica clinica. A questo scopo, oltre ad altri metodi più consolidati, si utilizzerà il metodo Logic Learning Machine (metodo proprietario di Rulex e mai impiegato prima nell’ambito della AML), che consente di ottenere direttamente modelli espressi sotto forma di regole intelligibili implementando in modo naturale il paradigma dell’eXplainable AI (XAI). In questo modo si arriverà ad un approccio cognitivo, in cui i risultati dei sistemi di AI sono al servizio dell’esperto clinico e a sua volta l’esperienza dell’esperto clinico viene impiegata per raffinare i risultati degli algoritmi.

Ma cos’è l’XAI e qual è il suo ruolo all’interno del progetto SInISA?

L’AI spiegabile (XAI) è un insieme di processi e metodi che consentono agli utenti umani di comprendere e considerare affidabili i risultati e gli output generati mediante algoritmi di machine learning.

“Gli algoritmi di XAI – spiega Enrico Ferrari, Head of R&D project di Rulex – rispondono alla domanda di maggior trasparenza nei sistemi di intelligenza artificiale. L’AI sta supportando sempre di più l’uomo nel prendere decisioni delicate e la tematica è quella di capire se possiamo davvero fidarci delle decisioni prese da un sistema di Intelligenza Artificiale. A questo scopo è essenziale che l’umano sia in grado di comprendere quali meccanismi di ragionamento di IA ha usato per prendere le decisioni. Questa è l’intelligenza artificiale spiegabile ed è un punto chiave anche come ribadito da vari documenti dell’UE per assicurarsi che tutti i metodi e algoritmi basati sull’IA siano davvero utilizzabili in contesti critici come quello medico”

Gli screening basati su indagini genetiche possono partire, come abbiamo visto, dalla capacità predittive di certe mutazioni. L’approfondimento di queste correlazioni dovrà al tempo stesso dare sempre più garanzia di affidabilità e congruenza e su questo la XAI può giocare un ruolo determinante.

Come affrontare le problematiche del Machine Learning

Nonostante sia una disciplina che ha avuto i suoi sviluppi più importanti negli anni 80, il machine learning solo recentemente, grazie alla maggiore diffusione di dati e alle risorse computazionali a basso costo in grado di trattarli in modo efficace, sta diventando tecnologia matura e in grado di entrare effettivamente nei processi di ricerca e di business. 

Le problematiche che ancora si stanno registrando nell’adozione di tali tecniche sono legate principalmente alla difficoltà nel colmare il gap tra gli skill tecnici (statistici, programmatori, ecc) e profili business che devono prendere decisioni basate sui risultati derivanti dai dati (Challenges of AI adoption). Questo aspetto è ulteriormente enfatizzato dalla carenza di personale con skill in ambito di data science. Due elementi possono contribuire a colmare questo gap:

  • Un design business-oriented delle soluzioni software per l’AI. Con business-oriented si intende che i risultati delle tecniche di AI devono essere accessibili allo stakeholder di settore: dall’esperto di credito al ricercatore in ambito medico.
  • L’applicazione di tecniche in grado di fornire risultati interpretabili e comprensibili.

Nonostante l’ampio interesse sul tema, sono pochi i metodi, e ancora meno i prodotti business-oriented, fondati su una XAI “piena”. La maggior parte dei metodi si limita al paradigma dell’Explained Black Box, (cioè orientati a costruire layer di “traduzione” delle black box in termini comprensibili con conseguente riduzione della qualità del modello) oppure alla cosiddetta weak XAI che fornisce spiegazioni parziali e non sempre comprensibili a un utente senza skill in ambito statistico. Al contrario l’utilizzo di modelli comprensibili consente non solo di arricchire la conoscenza sul sistema studiato, ma anche di integrare la conoscenza già disponibile (ad esempio regole già note dall’esperienza umana).
Il tema dell’Explainable Artificial Intelligence (XAI) sta diventando uno degli argomenti di dibattito più sentiti soprattutto in ambito europeo (si consideri a titolo di esempio, anche in ottica di “Right to Explanation” come sancito dal GDPR (Recital 71). 

Considerata l’elevata sensibilità dei dati e dei risultati, il tema dell’Explainable AI è ovviamente particolarmente rilevante in ambito medico. Questo è uno degli ostacoli maggiori che si sono riscontrati per l’adozione più sistematica di tecniche di machine learning in ambito medico.
Lo scopo di questo progetto è di colmare almeno parzialmente questo gap utilizzando la piattaforma Rulex.

Il binomio uomo-AI

Come ben noto, la combinazione tra le potenzialità dell’AI e le conoscenze e la flessibilità del cervello umano consente di raggiungere i migliori risultati. In termini pratici, questo significa che il medico potrà aggiungere regole già note oppure potrà correggere e integrare le regole estratte automaticamente dai dati. Il contributo della parte clinica sarà pertanto fondamentale sia in fase di design sia in fase di estrazione e valutazione dei risultati.

Torna in alto