L’Intelligenza Artificiale deve essere spiegabile e soprattutto deve farsi capire dagli utenti che la usano
Le organizzazioni si stanno affidando sempre di più all’Intelligenza Artificiale e ai modelli di apprendimento automatico, ma non è tutto rose e fiori quello che promette l’intelligenza artificiale ed una delle loro maggiori preoccupazioni è “come possono garantirne l’affidabilità”.
Tra le promesse dell’Intelligenza Artificiale (AI) troviamo il miglioramento della comprensione umana attraverso l’automazione del processo decisionale, ovvero gli algoritmi di AI possono “aiutare le persone a scoprire informazioni che prima non potevano conoscere“, come dichiara Josh Parenteau, Director of Market Intelligence di Tableau. [1]
Nel contempo, secondo Gartner entro il 2020 l’AI sarà utilizzata dall’85% dei CIO [2], quindi nei prossimi anni si avranno un numero sempre maggiore di organizzazioni che dipenderanno sempre più dai modelli di apprendimento automatico. Con un crescendo di preoccupazioni su come avere la certezza che i suggerimenti forniti dagli algoritmi di AI siano affidabili, corretti ed etici.
L’AI come una BlackBox
Oggigiorno molte delle applicazioni di apprendimento automatico non consentono di capirne appieno il loro funzionano o la logica che ne sta dietro per un effetto chiamato “BlackBox”, secondo per cui i modelli di apprendimento automatico sono per lo più scatole nere. [3][4][5]
Tale caratteristica è considerata uno dei più grandi problemi dell’applicazione delle tecniche di AI, essa rende le decisioni della macchina non trasparenti e spesso incomprensibili anche agli occhi degli esperti o degli stessi sviluppatori, il che riduce la fiducia nel ML nello specifico e nell’IA in generale.
Quindi comprendere le ragioni che stanno alla base delle previsioni degli algoritmi di AI oggi è di fondamentale importanza in quanto tale comprensione può non solo infondere una fiducia maggiore negli algoritmi di AI, ma anche fornire spunti sul modello o effettuare operazioni di debug [6].
Uno dei motivi di un così forte interesse nella comprensione dei processi che stanno dietro a tali algoritmi troviamo anche l’aumento della sensibilità pubblica verso la privacy attraverso l’introduzione di varie legislazioni a livello internazionale come il GPDR che impongono livelli elevati di protezione della sfera privata e allo stesso tempo trasparenza nel trattamento delle informazioni, cosa che attualmente gli algoritmi di AI faticano ad realizzare.
Il tutto si traduce in un crescente bisogno di trasparenza negli algoritmi di AI, essa è cruciale per un’efficace distribuzione dei sistemi intelligenti non solo per garantire che i modelli funzionino così come sono stati progettati ma anche per infondere fiducia negli utilizzatori, così che possano prendere decisioni senza timore di fare scelte sbagliate.
Il bisogno di trasparenza nell’ambito dell’AI ha portato alla crescita della cosiddetta eXplainable AI (XAI), che rappresenta un insieme di tecniche che permettono di comprendere e presentare una visione trasparente dei modelli di apprendimento automatico e degli algoritmi di AI in generale.
Che cos’è l’eXplainable AI (XAI): l’AI spiegabile
L’eXplainable AI non è un campo nuovo, esistevano architetture di ragionamento per supportare sistemi IA complessi già dagli anni 80’, quindi la spiegabilità è vecchia almeno quanto la prima IA e può essere vista come una naturale conseguenza del design dei sistemi di intelligenza artificiale. [1]
Ma oggi, data la portata dei cambiamenti introdotta dagli algoritmi di AI, la spiegabilità (comprensione) degli algoritmi di AI è tornata alla ribalta. Il futuro dell’IA, probabilmente, dipenderà dalla sua capacità di consentire alle persone di collaborare con le macchine per risolvere problemi complessi. Come ogni collaborazione efficiente, ciò richiede una buona comunicazione, fiducia, chiarezza e comprensione e l’eXplainable AI ha appunto lo scopo di affrontare tali sfide. [9]
Ad esempio i leader di settore nelle organizzazioni ed in particolare quelle che hanno a che fare con decisioni con una forte componente di rischio richiedono ai team di utilizzare modelli più comprensibili e di fornire documentazione di come i modelli sono stati costruiti. [7]
Cosa si intende esattamente con questa AI spiegabile?
L’articolo [7] esprime che l’attuali tecnologie di deep learning sono in grado di elaborare enormi volumi di dati, identificando gli schemi nascosti, e fornendo nuovi suggerimenti attraverso l’utilizzo di enormi basi di dati, ma tutte queste abilità di inferire in automatico conclusioni ha il limite di non spiegarne il ragionamento e le ragioni che stanno dietro a tali deduzioni.
Quest’ultimo può essere realizzato attraverso l’Explainable AI che mira a spiegare perché la AI è giunta a una determinata conclusione e con quali modalità.
Ciò può essere fondamentale in ambiti come la ricerca medica sul cancro, in cui anche da un punto di vista etico, prima di sottoscrivere la correttezza dei suggerimenti se ne deve verificare le fonti della letteratura accademica in materia, e comprendere perché l’algoritmo sia giunto a quel dato risultato. [7]
L’eXplainable AI è importante per l’human-in-the-loop
L’eXplainable AI mira a creare una serie di tecniche che producono modelli più spiegabili, mantenendo al contempo un livello elevato delle funzionalità di ricerca, apprendimento, pianificazione e prestazioni nel ragionamento: ottimizzazione, accuratezza, precisione; e nel contempo consentire agli utenti umani di comprendere, fidarsi adeguatamente e gestire efficacemente la generazione emergente di sistemi di intelligenza artificiale realizzando realmente quello che viene chiamato human-in-the-loop. [9] [3]
Le iniziative di rendere l’AI trasparente hanno innescato diversi sforzi accademici e industriali che hanno prodotto tecnologie e risultati che forniscono spiegazioni principalmente alle esigenze degli ingegneri di intelligenza artificiale. [8]
Tuttavia, ci sono ben pochi lavori nel fornire spiegazioni che supportino le esigenze di proprietari di aziende, sviluppatori di software e consumatori che svolgono tutti ruoli significativi nello sviluppo del servizio e nel ciclo di utilizzo.
Dunque per avere un impatto dirompente nelle organizzazioni, è necessario avere fiducia nell’AI e come chiarisce Takashige il successo dell’AI dipende anche dalla capacità d’introdurre una AI diversa, umano-centrica, in grado di superare i limiti di quella attuale: in altre parole più adatta a collaborare con le persone per arrivare alla co-creazione di nuovo valore e innovazione. [7]
Come dimostra un recente workshop tonutosi alla conferenza AAAI-19 [10] il quale ha chiesto ad esperti di tutto il mondo di rispondere a domande del tipo “Cosa è eXplainable AI (XAI)? Perché è importante? Quali sono le metriche per le spiegazioni? In quali campi d’applicazione è fondamentale?”, ma soprattuto “Come Funziona?”
Rispondere a queste domande può essere utile perché, come esprime l’articolo di IBM [11], “Rendere l’intelligenza artificiale più trasparente potrebbe essere la chiave per la sua adozione più ampia.”
Tuttavia, l’impatto dell’eXplainable AI potrebbe non essere sempre positivo, ad esempio se le aziende fossero costrette a rivelare dettagli sui propri algoritmi potrebbe significare che stanno in effetti divulgando idee e proprietà intellettuale. E non è tutto: sorgono poi domande su cosa intendiamo esattamente per “spiegabile”?
Dunque è chiaro che questo campo è ancora tutto da definire, ma certamente uno dei trend futuri da tenere d’occhio.
l’Articolo su Researchgate:
- [ITA] Che cos’è l’eXplainable AI e perché è importante
- [ENG] What is the Explainable-Ai and why is important
Riferimenti:
- [1] https://www.tableau.com/it-it/reports/business-intelligence-trends/machine-learning
- [2] https://www.gartner.com/smarterwithgartner/2018-will-mark-the-beginning-of-ai-democratization/?_fsi=hncFpMGP
- [3] Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?” (pp. 1135–1144). https://doi.org/10.1145/2939672.2939778
- [4] Explainable AI: The New 42? – Randy Goebel
- [5] Current Advances, Trends and Challenges of Machine Learning and Knowledge Extraction: From Machine Learning to Explainable AI – Andreas Holzinger
- [6] Kulesza, T., Burnett, M., Wong, W-K. & Stumpf, S. (2015). Principles of Explanatory Debugging to personalize interactive machine learning. In: O. Brdiczka & P Chau (Eds.), Proceedings of the 20th International Conference on Intelligent User Interfaces. (pp. 126-137). New York, USA: ACM. ISBN 9781450333061
- [7] https://www.zerounoweb.it/analytics/cognitive-computing/fujitsu-la-nostra-ai-spiega-il-perche-delle-sue-conclusioni/
- [8] Evaluating Explanations by Cognitive Value, Ajay Chander
- [9] https://xaitutorial2019.github.io/
- [10] https://aaai.org/Conferences/AAAI-19/aaai19tutorials/
- [11] https://www.intel.it/content/www/it/it/it-managers/explainable-ai.html
Immagini
- https://medium.com/ritual-design/culture-meets-artificial-intelligence-a2ad6dc82bb7
- https://www.scientificamerican.com/article/the-search-for-a-new-test-of-artificial-intelligence/
- https://m.sohu.com/n/482461485/?wscrid=95360_7
Cosa ne pensi? Dimmelo su Twitter @_domenicomonaco oppure su Linkedin linkedin.com/in/domenicomonaco