<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	
	xmlns:georss="http://www.georss.org/georss"
	xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#"
	>

<channel>
	<title>Intelligenza Artificiale Archivi - Domenico Monaco</title>
	<atom:link href="https://blog.domenicomonaco.it/intelligenza-artificiale/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>Un Blog sulle Persone e le Tecnologie</description>
	<lastBuildDate>Wed, 23 Mar 2022 10:42:22 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>

<image>
	<url>https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2018/10/cropped-icon_monaco_domenico-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>Intelligenza Artificiale Archivi - Domenico Monaco</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">145023925</site>	<item>
		<title>3° ed. Artificial Intelligence: Learn to Fly! Innovare con l’AI, ma con i piedi per terra</title>
		<link>https://blog.domenicomonaco.it/202007262367/3-ed-artificial-intelligence-learn-to-fly-innovare-con-lai-ma-con-i-piedi-per-terra/</link>
		
		<dc:creator><![CDATA[Domenico Monaco]]></dc:creator>
		<pubDate>Sun, 26 Jul 2020 08:12:02 +0000</pubDate>
				<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Explainable artificial intelligence]]></category>
		<category><![CDATA[osservatori digitali]]></category>
		<category><![CDATA[Politecnico Milano]]></category>
		<guid isPermaLink="false">http://blog.domenicomonaco.it/?p=2367</guid>

					<description><![CDATA[<p>“da dove veniamo e dove stiamo andando” cit. Il 20 Febbraio scorso ho avuto la fortuna di partecipare all&#8217;evento gratuito organizzato dall&#8217;Osservatorio Digital Innovation del Politecnico di Milano con argomento &#8220;Innovare con l&#8217;Intelligenza artificiale, ma con i piedi per terra&#8221; in cui intervenivano alcune delle aziende italiane che la utilizzano o stanno investendo in essa....</p>
<p>L'articolo <a href="https://blog.domenicomonaco.it/202007262367/3-ed-artificial-intelligence-learn-to-fly-innovare-con-lai-ma-con-i-piedi-per-terra/">3° ed. Artificial Intelligence: Learn to Fly! Innovare con l’AI, ma con i piedi per terra</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3 class="sottotitolo">“da dove veniamo e dove stiamo andando” cit.</h3>
<p>Il 20 Febbraio scorso ho avuto la fortuna di partecipare all&#8217;evento gratuito organizzato dall&#8217;Osservatorio Digital Innovation del Politecnico di Milano con argomento &#8220;Innovare con l&#8217;Intelligenza artificiale, ma con i piedi per terra&#8221; in cui intervenivano alcune delle aziende italiane che la utilizzano o stanno investendo in essa.</p>
<p>Di seguito vi propongo delle slide riassuntive personali dell&#8217;evento arricchite di alcuni commenti personali.</p>
<p><iframe style="border: 1px solid #CCC; border-width: 1px; margin-bottom: 5px; max-width: 100%;" src="//www.slideshare.net/slideshow/embed_code/key/5xYsg4dWmVBc1B" width="595" height="485" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" allowfullscreen="allowfullscreen"> </iframe></p>
<div style="margin-bottom: 5px;"><strong> <a title="[Presentazione riassuntiva] Artificial Intelligence: Learn to Fly! Innovare con l’AI, ma con i piedi per terra" href="//www.slideshare.net/kiuz_it/presentazione-riassuntiva-artificial-intelligence-learn-to-fly-innovare-con-lai-ma-con-i-piedi-per-terra" target="_blank" rel="noopener noreferrer">[Presentazione riassuntiva] Artificial Intelligence: Learn to Fly! Innovare con l’AI, ma con i piedi per terra</a></strong></div>
<div></div>
<blockquote><p><strong>Cosa ne pensi? Dimmelo su Twitter <a href="https://twitter.com/_domenicomonaco">@_domenicomonaco</a> oppure su Linkedin <a href="http://linkedin.com/in/domenicomonaco/">linkedin.com/in/domenicomonaco</a></strong>
</p></blockquote>
<p>L'articolo <a href="https://blog.domenicomonaco.it/202007262367/3-ed-artificial-intelligence-learn-to-fly-innovare-con-lai-ma-con-i-piedi-per-terra/">3° ed. Artificial Intelligence: Learn to Fly! Innovare con l’AI, ma con i piedi per terra</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">2367</post-id>	</item>
		<item>
		<title>Leclerc e la Ferrari a Monaco: un esempio di AI-based Decision Making</title>
		<link>https://blog.domenicomonaco.it/201905261661/leclerc-e-la-ferrari-a-monaco-un-esempio-di-ai-based-decision-making/</link>
		
		<dc:creator><![CDATA[Domenico Monaco]]></dc:creator>
		<pubDate>Sun, 26 May 2019 11:24:07 +0000</pubDate>
				<category><![CDATA[Data Analitycs]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Interazione uomo-macchina]]></category>
		<category><![CDATA[Automotive]]></category>
		<category><![CDATA[data analytics]]></category>
		<category><![CDATA[decision making]]></category>
		<category><![CDATA[formula1]]></category>
		<category><![CDATA[sport]]></category>
		<guid isPermaLink="false">http://blog.domenicomonaco.it/?p=1661</guid>

					<description><![CDATA[<p>Il GP di Monaco 2019 di Formula 1 vede Charles Leclerc partire dalla 15° posizione per un errore di strategia della scuderia Ferrari Il giovane pilota francese è incappato in un errore di strategia che a mio parere è un&#8217;ottimo esempio di Ai-based Decision Making, gli elementi ci sono tutti: c&#8217;è un manager, un obiettivo,...</p>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201905261661/leclerc-e-la-ferrari-a-monaco-un-esempio-di-ai-based-decision-making/">Leclerc e la Ferrari a Monaco: un esempio di AI-based Decision Making</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3 class="subtitle-post">Il GP di Monaco 2019 di Formula 1 vede Charles Leclerc partire dalla 15° posizione per un errore di strategia della scuderia Ferrari</h3>
<p>Il giovane pilota francese è incappato in un errore di strategia che a mio parere è un&#8217;ottimo esempio di <a href="https://books.google.it/books?hl=it&amp;lr=&amp;id=Yqq4gmjgkP8C&amp;oi=fnd&amp;pg=PP6&amp;dq=intelligent+decision+making:+an+ai-based+approach&amp;ots=YfAt8AlbPy&amp;sig=nP4FTZnkMoYY8JY-5W0RZFqE-LU#v=onepage&amp;q=intelligent%20decision%20making%3A%20an%20ai-based%20approach&amp;f=false">Ai-based Decision Making</a>, gli elementi ci sono tutti: c&#8217;è un manager, un obiettivo, delle decisioni da prendere in tempi brevissimi, una strategia, dei dati e un software per il supporto alle decisioni che tra le altre cose fa uso di intelligenza artificiale (AI).</p>
<p>La domanda è: <strong>quando e quanto fidarsi di un sistema basato su Intelligenza artificiale ed il ruolo del manager.</strong></p>
<p>Non sto qui a dilungarmi su come funziona la Formula 1, basti capire che durante le qualifiche lo scopo è percorrere la pista nel minor tempo possibile, tale tempo determinerà poi la posizione di partenza della gara. Il tutto con delle regole: un numero limitato di gomme e un numero prefissato sessioni dalle quali si può essere eliminati.</p>
<p>Il gioco di strategia si condensa nella capacità di fare un tempo sufficientemente basso da “passare alla successiva sessione” usando il minimo numero di gomme morbide e senza “mostrare il vero potenziale dell’auto” in quel circuito allo scopo di sfoderare l’asso nella manica alla fine.</p>
<p>É qui che le decisioni del manager della scuderia si fanno cruciali.</p>
<h3>Ai-based Decision Making nelle organizzazioni</h3>
<p>Oggi, nelle aziende come nella Formula 1, le decisioni si fanno sempre più complesse e si basano su un numero di dati sempre maggiore, per tali motivi si utilizzano sistemi basati anche su tecniche di intelligenza artificiale: questo processo decisionale prende il nome di AI-based Decision Making, un ambito di ricerca che studia la relazione tra i sistema a supporto delle decisioni, l’intelligenza artificiale e la capacità delle persone di prendere decisioni corrette.</p>
<p>Questo implica tutta una serie di problematiche come un’enorme quantità di dati, la solidità del sistema predittivo, la capacità dell’operatore umano di mettere in dubbio la decisione dell’AI, fattori di fiducia/sfiducia, robustezza e trasparenza dell’AI, ed infine informazioni sufficienti a supportare il processo decisionale.</p>
<p>Così, il ruolo del manager è diventato più complicato, perché ha un suggeritore AI-based che gode di un&#8217; hype (inflacted expectations) esagerato, ma che è fallibile tanto quanto un operatore umano.</p>
<p>Per capire questo complesso processo decisionale basato su software dotati di algoritmi di intelligenza artificiale vorrei analizzare cos’è successo nella scuderia Ferrari.</p>
<h3>Come funzionano le qualifiche in F1?</h3>
<p>Le qualifiche si dividono in 3 sessioni (Q1, Q2 e Q3) dove [bwin]:</p>
<ul>
<li>Q1 – Tutti i piloti hanno 18 minuti per uscire in pista e segnare il loro miglior tempo, alla fine della sessione le 6 monoposto più lente sono eliminate e le rimanenti passano alla fase successiva;</li>
<li>Q2 – dura 15 minuti e i piloti scendono nuovamente in pista per fare un nuovo giro veloce. La Q2 è fondamentale perché le monoposto che vi partecipano partiranno in gara con gli stessi pneumatici con cui hanno fatto il loro miglior tempo nella Q2. Alla fine del Q2 altre 6 macchine saranno eliminate mentre le più veloci vanno alla fase finale.</li>
<li>Q3 – i piloti restanti si sfidano in una sessione di 12 minuti in cui solitamente ogni pilota effettua due giri veloci. La monoposto più veloce si aggiudica la Pole Position.</li>
</ul>
<h3>Cosa è successo a Charles Leclerc a Monaco?</h3>
<p>Charles Leclerc non si era fermato alla pesa, dunque il team lo ha avvisato e lo ha accompagnato al box della Federazione per effettuare la procedura, alla fine della quale è rientrato nel suo garage. Qui l&#8217;errore di valutazione della squadra che lo ha penalizzato. [Sky Sport]</p>
<figure id="attachment_1668" aria-describedby="caption-attachment-1668" style="width: 1500px" class="wp-caption alignnone"><img data-recalc-dims="1" fetchpriority="high" decoding="async" data-attachment-id="1668" data-permalink="https://blog.domenicomonaco.it/201905261661/leclerc-e-la-ferrari-a-monaco-un-esempio-di-ai-based-decision-making/f1-2019-monaco-sab-10/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?fit=1500%2C1000&amp;ssl=1" data-orig-size="1500,1000" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="f1-2019-monaco-sab-10" data-image-description="" data-image-caption="" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?fit=300%2C200&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?fit=1024%2C683&amp;ssl=1" tabindex="0" role="button" class="wp-image-1668 size-full" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?resize=1500%2C1000" alt="Charles Leclerc" width="1500" height="1000" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?w=1500&amp;ssl=1 1500w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?resize=300%2C200&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?resize=768%2C512&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/f1-2019-monaco-sab-10.jpg?resize=1024%2C683&amp;ssl=1 1024w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1668" class="wp-caption-text">Charles Leclerc</figcaption></figure>
<p>Leclerc non è stato fatto tornare in pista nel momento in cui i tempi di tutti i piloti che andavano abbassandosi, questo a differenza di Vettel che rientrato in pista per migliorarsi ed evitare l’eliminazione dalla Q1. Il tempo per rientrare c’era. La Q1 termina, ma il ferrarista ha un tempo non sufficiente per passare in Q2, dunque viene eliminato.</p>
<p>Leclerc: &#8220;Io ho chiesto per sapere se fossimo sicuri di farcela. Non ho ricevuto risposta. Poi, a un minuto dalla fine, hanno scoperto che era troppo tardi. Sono più deluso che arrabbiato”.</p>
<p>Come spiega [Motorsport]: durante le sessioni di qualifica un sistema informatico calcola automaticamente il tempo sul giro sufficiente per poter stare tranquilli, se si è sotto quel tempo si evita di rientrare in pista e consumate gomme utili magari nella sessione successiva o in gara.</p>
<p>Ma i sistemi informatici sono fallibili, quindi è qui che le valutazioni in tempo reale degli ingegneri entrano in gioco e “valutano il da farsi”,  serve della vera intelligenza umana, non artificiale.</p>
<p>Il problema è che oggi le attività della Formula 1 sono sempre più specializzate e frammentate al fine di raggiungere un’efficienza impensabile anche solo dieci anni fa.</p>
<p>Paradossalmente è stato il giovane Charles Leclerc a mettere in dubbio il suggerimento dei software, attribuendo ad ognuno dei piloti in pista il corretto peso specifico, ma la squadra lo ha fatto desistere, fidandosi di ciò che solitamente non sbaglia mai (il software).</p>
<p>Leclerc, perplesso:, &#8220;Dovrei uscire, penso che siamo un po&#8217; troppo a rischio”, ha detto via-radio Charles ai suoi ingegneri, “No, abbiamo i dati e crediamo che tu sia al sicuro”, è stata la risposta.</p>
<h3>AI-based Decision Making</h3>
<p>Questo esempio che ho descritto da ricostruzioni di [Motorsport] e [Sky Sport] a mio parere è un ottimo esempio di Ai-based Decision Making, in qui la complessità nel prendere decisioni giusta è comunque in gran parte derivata dalla capacità di valutare la situazione d’insieme, ma quest’ultima arricchita dal fattore Artificial Intelligence (AI).</p>
<p><img data-recalc-dims="1" decoding="async" data-attachment-id="1669" data-permalink="https://blog.domenicomonaco.it/201905261661/leclerc-e-la-ferrari-a-monaco-un-esempio-di-ai-based-decision-making/a1049-5-1140x641/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?fit=1140%2C641&amp;ssl=1" data-orig-size="1140,641" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="a1049.5-1140&#215;641" data-image-description="" data-image-caption="" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?fit=300%2C169&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?fit=1024%2C576&amp;ssl=1" tabindex="0" role="button" class="alignnone size-full wp-image-1669" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?resize=1140%2C641" alt="" width="1140" height="641" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?resize=1140%2C641&amp;ssl=1 1140w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?resize=300%2C169&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?resize=768%2C432&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/05/a1049.5-1140x641.jpeg?resize=1024%2C576&amp;ssl=1 1024w" sizes="(max-width: 1000px) 100vw, 1000px" /></p>
<p>Ma cosa succede? Succede che oltre alla situazione in pista bisogna valutare il suggerimento del software, che sappiamo, si basa su un enorme quantità di dati, enormi capacità di calcoli ed algoritmi che “Dio solo sa cosa fanno&#8221; e quindi potenzialmente potrebbe aver “visto” qualcosa che noi banali esseri umani non siamo stati in grado di vedere.</p>
<p>É proprio questa “fiducia” nelle capacità del software che può portare in errore chi deve prendere una decisione, spinto quest’ultimo magari ad ignorare il proprio istinto in favore di un software che “fino ad oggi” non ha mai sbagliato.</p>
<p>In realtà tutto questo è riduttivo rispetto al problema delle decisioni basate su software di intelligenza artificiale, ma a mio parere è un ottimo esempio che mostra come un operatore umano deve essere messo in condizione di confutare le decisioni del software basato su AI, ma questo per essere fatto necessita di tutta una serie di soluzioni che vanno dall’uso di UX/UI adatte, dati ed informazioni a sufficienza a supporto della decisione dell’operatore.</p>
<h4>Fonti:</h4>
<ul>
<li>[Motorsport] <a href="https://it.motorsport.com/f1/news/fattaccio-ferrari-quando-lintelligenza-artificiale-conta-piu-della-logica/4396075/">https://it.motorsport.com/f1/news/fattaccio-ferrari-quando-lintelligenza-artificiale-conta-piu-della-logica/4396075/</a></li>
<li>[Sky Sport] <a href="https://it.eurosport.com/formula-1/leclerc-mastica-amaro-ho-chiesto-piu-volte-se-il-tempo-fosse-sufficiente-sono-deluso_sto7290958/story.shtml">https://it.eurosport.com/formula-1/leclerc-mastica-amaro-ho-chiesto-piu-volte-se-il-tempo-fosse-sufficiente-sono-deluso_sto7290958/story.shtml</a></li>
<li>[bwin] <a href="https://sports.bwin.it/it/news/altri-sport/formula-1-il-regolamento-di-prove-e-qualifiche">https://sports.bwin.it/it/news/altri-sport/formula-1-il-regolamento-di-prove-e-qualifiche</a></li>
</ul>
<blockquote><p><strong>Cosa ne pensi? Dimmelo su Twitter <a href="https://twitter.com/_domenicomonaco">@_domenicomonaco</a> oppure su Linkedin <a href="http://linkedin.com/in/domenicomonaco/">linkedin.com/in/domenicomonaco</a></strong>
</p></blockquote>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201905261661/leclerc-e-la-ferrari-a-monaco-un-esempio-di-ai-based-decision-making/">Leclerc e la Ferrari a Monaco: un esempio di AI-based Decision Making</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1661</post-id>	</item>
		<item>
		<title>AI-enabled User-Interface: linee guida per la progettazione di interfacce</title>
		<link>https://blog.domenicomonaco.it/201904170990/ai-enabled-user-interface-linee-guida-per-la-progettazione-di-interfacce/</link>
		
		<dc:creator><![CDATA[Domenico Monaco]]></dc:creator>
		<pubDate>Wed, 17 Apr 2019 17:28:08 +0000</pubDate>
				<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Interazione uomo-macchina]]></category>
		<category><![CDATA[Psicologia e Tecnologia]]></category>
		<category><![CDATA[User-Experience & User-Interface]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[explainable ai]]></category>
		<category><![CDATA[Explainable artificial intelligence]]></category>
		<category><![CDATA[ui]]></category>
		<category><![CDATA[user-interface]]></category>
		<category><![CDATA[ux]]></category>
		<category><![CDATA[UX/UI]]></category>
		<guid isPermaLink="false">http://blog.domenicomonaco.it/?p=1490</guid>

					<description><![CDATA[<p>Tra le rivoluzioni più importanti nel campo dell’informatica possiamo annoverare senza dubbio la successione di interfacce uomo-macchina sempre più coinvolgenti che hanno cambiato i paradigmi di utilizzo degli strumenti informatici. A partire dalle interfacce a caratteri dei primi terminali che hanno sostituito i criptici vecchi terminali a luci intermittenti, poi sostituti dalle interfacce dei sistemi...</p>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201904170990/ai-enabled-user-interface-linee-guida-per-la-progettazione-di-interfacce/">AI-enabled User-Interface: linee guida per la progettazione di interfacce</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Tra le rivoluzioni più importanti nel campo dell’informatica possiamo annoverare senza dubbio la successione di interfacce uomo-macchina sempre più coinvolgenti che hanno cambiato i paradigmi di utilizzo degli strumenti informatici. A partire dalle interfacce a caratteri dei primi terminali che hanno sostituito i criptici vecchi terminali a luci intermittenti, poi sostituti dalle interfacce dei sistemi oprativi ad icone (Apple, Xerox, Microsoft ecc.) e per concludere oggi le ormai consolidate tecnologie touch degli smartphone, e cosi via si potrebbe andare avanti per altre centro parole.</p>
<p>Ma oggi abbiamo una nuova criticità da risolvere: l’utilizzo su larga scala delle tecniche di AI. Se si vuole che abbia lo stesso livello di popolarità è necessario affiancarla da interfacce appositamente realizzate, ma non basta che siano “coinvolgenti”.</p>
<p>Per questo motivo ho iniziato una ricerca personale mirata ad esplorare qual’è lo stato dell’arte attuale delle user-interface a supporto delle tecniche di AI.Uno dei primi articoli che ho trovato è quello di Naïma van Esch intitolato “<a href="https://blog.prototypr.io/how-to-design-for-ai-enabled-ui-77e144e99126">How to design for AI-enabled UI</a>” [1] che ho deciso di tradurre in italiano ed arricchire di commenti personali.</p>
<p>Premetto che alcune parti possono apparire superficiali ed ingenue, ma è un primo articolo che ho deciso di tradurre e studiare che sarà arricchito in futuro.</p>
<h4>Introduzione</h4>
<p>L’intelligenza artificiale è ancora considerata come una tecnologia nascente (da un certo punto di vista), anche se esiste all’incirca dal 1950. Più precisamente è considerata nuova in quanto solo oggi grazie alla crescente potenza di calcolo e la disponibilità di grandi basi dati si possono apprezzare i primi risultati tangibili. Oggi l&#8217;intelligenza artificiale sta rapidamente sostituendo e supportando attività umane ripetitive e complesse attraverso processi mirati a risolvere precisi compiti.</p>
<p>Il termine intelligenza artificiale (AI) si riferisce a quell’insieme di tecniche ed algoritmi che imitano le funzioni cognitive tipicamente umane come l&#8217;apprendimento e la risoluzione di problemi.</p>
<p>Ma, come ho discusso in un’altro articolo (<a href="http://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/">Che cos&#8217;è l’eXplainable AI e perché è importante &#8211; [8]</a>), tali tecniche sono per lo più scatole nere che possono produrre effetti si sfiducia ed ansia negli utilizzatori finali. In oltre l&#8217;intelligenza artificiale è comunque un software realizzato da umani, dunque soggetto ad errori e pregiudizi tanto quanto il suoi creatori. Infine, l&#8217;intelligenza artificiale non &#8220;capisce” e non &#8220;impara&#8221; esattamente come accade per gli esseri umani, ma più banalmente segue istruzioni (complesse) per la quale è stata programmata, oppure non è in grado di comprendere sfumature o contesto.</p>
<p>In oltre alcune delle tecniche di AI sono ancora troppo facili da “ingannare” come il caso fatto emergere dal team di Google che ha dimostrato che basta un adesivo di un tostapane psichedelico per ingannare un sistema di riconoscimento delle immagine. [2][3]</p>
<p>Oppure come il recente caso della Autopilot di Tesla ingannata attraverso l’applicazione di adesivi applicati sulla strada che hanno indotto in errore il software dell’auto forzandola a cambiare erroneamente corsia.</p>
<p>E se ricordate anche durante il celebre evento del Super Bowl uno spot di Alexa che mostrava diverse disavventure degli utenti dell’assistente vocale, ma questo spot mandò in tilt milioni dispositivi in tutto il mondo semplicemente attivandolo da remoto attraverso l’audio dei dispositivi TV. [4]</p>
<p>E questi sono solo alcuni dei casi più iconici e divertenti, ma come questi potrebbero esisterne tantissimi altri e dalle implicazioni più rilevanti.</p>
<p>Secondo l’autrice dell’articolo [1], gli esempi di “fallimenti” delle AI sono dovuti al fatto che molti degli algoritmi di AI sono alimentati da big data che rappresentano situazioni ideali senza considerare quei “piccoli dati” relativi a situazioni impreviste o scenari critici. Ecco perché è importante per i progettisti non solo prevedere gli scenari ideali (dove tutto va come il previsto), ma soprattutto far emergere e preparare adeguatamente l’algoritmo di AI a quelli imprevisti.</p>
<h4>Quante tipologie di AI esistono?</h4>
<p>Secondo Chris Noessel, l&#8217;intelligenza artificiale può essere suddivisa in tre categorie [5] [6]:</p>
<ul>
<li>Artificial Narrow Intelligence (ANI): detta anche Intelligenza artificiale ristretta, intelligenza che può apprendere e dedurre, ma non può generalizzare &#8211; solitamente focalizzata su un compito. Questa è fondamentalmente l&#8217;intelligenza artificiale che esiste oggi;</li>
<li>Artificial General Intelligence (AGI): Intelligenza generale, un&#8217;intelligenza di una macchina simile a quella di un cervello umano;</li>
<li>Artificial Super Intelligence (ASI): la super intelligenza, un&#8217;intelligenza che supererebbe di gran lunga quella degli umani;</li>
</ul>
<p>Nell’articolo che ho cercato di tradurre e riassumere quando parla di Intelligenza Artificiale si riferisce all’Artificial Narrow Intelligence (ANI), ovvero la cosiddetta Intelligenza Artificiale ristretta.</p>
<h4>Cosa sono le AI-enabled User-Interface?</h4>
<p>Perché l&#8217;intelligenza artificiale sia utilizzata dagli esseri umani, è necessaria un&#8217;interfaccia utente, questo come qualsiasi cosa realizzata attraverso le tecnologie informatiche e non. L&#8217;interfaccia utente in questo caso è il mezzo attraverso il quale si realizzano le interazioni tra uomo e macchina e quindi in questo caso tra uomo ed AI.</p>
<figure id="attachment_1501" aria-describedby="caption-attachment-1501" style="width: 1024px" class="wp-caption alignnone"><img data-recalc-dims="1" loading="lazy" decoding="async" data-attachment-id="1501" data-permalink="https://blog.domenicomonaco.it/201904170990/ai-enabled-user-interface-linee-guida-per-la-progettazione-di-interfacce/chatbot-ai-human-interaction-1024x582/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?fit=1024%2C582&amp;ssl=1" data-orig-size="1024,582" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="Ai-enabled User-Interface" data-image-description="&lt;p&gt;Ai-enabled User-Interface&lt;/p&gt;
" data-image-caption="&lt;p&gt;Ai-enabled User-Interface&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?fit=300%2C171&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?fit=1024%2C582&amp;ssl=1" tabindex="0" role="button" class="size-full wp-image-1501" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?resize=1024%2C582" alt="Ai-enabled User-Interface" width="1024" height="582" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?resize=1024%2C582&amp;ssl=1 1024w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?resize=300%2C171&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/chatbot-AI-human-interaction-1024x582.jpg?resize=768%2C437&amp;ssl=1 768w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1501" class="wp-caption-text">Ai-enabled User-Interface</figcaption></figure>
<p>Quindi una delle domande che si pone l’autrice dell’articolo è: Quali sono le AI-enabled User Interface?</p>
<p>L’autrice usa un’interessante definizione che in lingua Italiana dovrebbe essere più o meno: &#8220;È un’interfaccia con funzioni cognitive simulate atte a facilitare l’interazione uomo e macchina.&#8221;</p>
<p>In realtà non dobbiamo andar così lontano per trovare un’esempio di queste interfacce con “funzioni cognitive simulate”, ne sono certamente un esempio Amazon Alexa, il termostato Nest, Jarvis, IBM Watson, iRobot Roomba, Netflix e Spotify e moltissime altre. Queste sono solo forse gli esempi più lampanti dell’utilizzo dell’intelligenza artificiale si vedano le funzioni di auto-completamento di Google o gli effetti fotografici di Instagram che invece sono sicuramente basati su tecniche di AI, ma non lo sembrano o per lo meno non lo percepiamo.</p>
<p>L&#8217;intelligenza artificiale è implementata ovunque, ad esempio un motore di ricerca, dietro la libreria fotografica o in un aspirapolvere, ma l’interfaccia con essa potrebbe essere più o meno evidente in base alle necessità di interazione.</p>
<p>In particolare nell&#8217;interfaccia utente AI-Enabled, l&#8217;intelligenza artificiale ha la capacità di comprendere i comandi dell&#8217;utente e presentare all&#8217;utente le risposte più affini (si spera) agli obiettivi utente sulla base di tutti i dati disponibili che possiede. Dunque in questo senso l&#8217;interazione con l&#8217;AI dovrà essere facile, semplice, efficiente ed efficace in modo che gli utenti possano raggiungere facilmente i loro obiettivi.</p>
<p>Dunque oggi una delle sfide che i progettisti devono affrontare è come progettare un&#8217;interfaccia di tipo AI-Enabled con la quale gli utenti possano interagire naturalmente ed in modo fiducioso. A tal proposito l’autrice propone alcuni principi per la progettazioni di interfacce AI-enabled User-Interface.</p>
<h4>Principi di progettazione per AI-enabled User Interface</h4>
<p>L’autrice espone alcuni principi di progettazione di AI-enabled User Interface emersi attraverso il suo lavoro di progettazione delle UX a supporto di tecnologie AI, raggruppandoli in quattro principi di base che possono essere applicati durante la progettazione di interfacce di tipo Ai-Enaled.</p>
<figure id="attachment_1504" aria-describedby="caption-attachment-1504" style="width: 1800px" class="wp-caption alignnone"><img data-recalc-dims="1" loading="lazy" decoding="async" data-attachment-id="1504" data-permalink="https://blog.domenicomonaco.it/201904170990/ai-enabled-user-interface-linee-guida-per-la-progettazione-di-interfacce/cover/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?fit=1800%2C993&amp;ssl=1" data-orig-size="1800,993" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="Ai-Enabled User-Interface" data-image-description="&lt;p&gt;Ai-Enabled User-Interface&lt;/p&gt;
" data-image-caption="&lt;p&gt;Ai-Enabled User-Interface&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?fit=300%2C166&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?fit=1024%2C565&amp;ssl=1" tabindex="0" role="button" class="size-full wp-image-1504" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?resize=1800%2C993" alt="Ai-Enabled User-Interface" width="1800" height="993" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?w=1800&amp;ssl=1 1800w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?resize=300%2C166&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?resize=768%2C424&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/04/cover.jpg?resize=1024%2C565&amp;ssl=1 1024w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1504" class="wp-caption-text">AI-Enabled User-Interface</figcaption></figure>
<p>Le categorie sono quattro:</p>
<ul>
<li>gestione delle scoperte e delle aspettative;</li>
<li>design per il perdono;</li>
<li>trasparenza dei dati e sartoria;</li>
<li>privacy, sicurezza e controllo;</li>
</ul>
<p>&#8230; ma andiamo con ordine.</p>
<h4>1. Gestione delle scoperte e delle aspettative dell&#8217;utente</h4>
<p>Per iniziare è necessario definire bene le aspettative degli utenti per evitare che essi si costruiscano false aspettative rispetto all’interfaccia AI-enaled</p>
<ol>
<li>Gli utenti devono essere consapevoli di ciò che lo strumento può e non può fare &#8211; Questo perché le persone non hanno ancora familiarità con l&#8217;intelligenza artificiale e quindi il design dell’interfaccia deve possedere più dettagli “guida” possibili. É necessario gestire le aspettative utenti e lasciare che l’utente capisca quali siano le possibilità che lo strumento offre, come impara e cosa deve fare l&#8217;utente per raggiungere i propri obiettivi. Ad esempio, l&#8217;unica aspettativa che rispetto ad un dispenser di cibo animali domestici è quello di nutrire il mio gatto più volte al giorno senza la mia presenza fisica. Tuttavia, l&#8217;alimentatore intelligente di Petnet offre più funzionalità, in particolare l&#8217;intelligenza artificiale utilizza il peso del gatto, età, razza e livello di attività per somministrare la corretta porzione di cibo giornaliera, tali funzionalità devono essere resi chiari affinché l&#8217;utente sappia quali sono le sue potenzialità; [7]</li>
<li>Gli utenti dovrebbero aspettarsi il la massima qualità nelle risposte a seguito di un&#8217;input minimo &#8211; In questo senso è necessario progettare il sistema in modo che l&#8217;utente possa aspettarsi un prodotto di valore ottenuto da un’<em>input naturale</em>. <strong>L&#8217;input naturale può essere definito come un&#8217;input che l’utente considera come naturale rispetto al suo modo di comunicare e a i suoi obiettivi, in altre parole è definibile come input a “costo -cognitivo- zero”.</strong> L’interfaccia dovrebbe essere facile da usare, efficiente e deve permettere di raggiungere gli obiettivi dell&#8217;utente in modo semplice ed efficiente. Nell&#8217;esempio del dispenser di cibo per gatti questo si potrebbe tradurre in un’unica configurazione iniziale, oppure in una serie di notifiche che avvisano l’utente che la scorta di cibo si sta esaurendo. In altri termini l’utente deve solo configurare l’oggetto e ripristinare la scorta di cibo;</li>
<li>L&#8217;interfaccia dovrebbe assecondare un suo utilizzo per scopi inaspettati &#8211; L&#8217;uso dell&#8217;AI nella vita quotidiana delle persone è ancora in una fase iniziale dunque gli utenti potrebbero scoprire la possibilità di utilizzare la tecnologia in modi per cui non è stata progettata. Ecco perché progettare per la scoperta è fondamentale in ottica di scoprire le -inaspettate- possibilità dell&#8217;uso dello strumento AI. Con un esempio naive, immaginiamo di aver perso un orecchino di piccole dimensioni in un grande tappeto, potrei semplicemente avviare il mio Roomba e lasciarlo vagare per la stanza, con la certezza che lui sonderà l&#8217;intero pavimento e alcuni minuti dopo ritrovare l&#8217;orecchino nel contenitore estraibile della polvere;</li>
<li>Informare l&#8217;utente sugli imprevisti &#8211; l&#8217;AI commetterà degli errori, quasi sicuramente, perché i progettisti umani che l’hanno realizzata sono inclini all&#8217;errore e non sono onniscienti, quindi è quasi certo che gli utenti incontreranno scenari che i progettisti non hanno previsto e incluso negli algoritmi. Dunque è necessario fare in modo che l’utente sappia che potrebbero esserci degli errori e quando ci sono di renderli evidenti. Questo punto è talmente critico rispetto alla progettazione di interfacce utente a supporto delle AI che l&#8217;autrice ha dedicato un&#8217;intero principio di seguito.</li>
</ol>
<h4>2. Design per il perdono dell’AI</h4>
<p>L&#8217;intelligenza artificiale commetterà errori. Dunque è necessario progettare l&#8217;interfaccia utente in modo che gli utenti siano inclini a perdonarlo e/o mitigare l’effetto.</p>
<ol>
<li>Progetta lo strumento in modo che gli utenti perdonino l’AI quando commette errori &#8211; Uno dei modi per progettare per il perdono è utilizzare un&#8217;interfaccia utente che simula creature o oggetti che gli esseri umani sono già naturalmente inclini a perdonare, ad esempio l&#8217;umorismo utilizzato da Siri o Alexa;</li>
<li>Progettazione un’interfaccia che permetta di utilizzare l&#8217;intelligenza artificiale senza connettività Internet &#8211; È importante evitare di progettare l&#8217;interfaccia utente che si basa esclusivamente sulla connettività Internet, gli utenti dovrebbero ottenere valore dall&#8217;AI indipendentemente dal fatto che sia connesso a Internet, oppure un problema inaspettato nella connettività non dovrebbe degradare eccessivamente le capacità dell’AI;</li>
</ol>
<h4>3. Trasparenza dei dati e personalizzazione</h4>
<p>É necessario realizzare un’interfaccia che sia trasparente nella raccolta dei dati e offrire agli utenti la possibilità di personalizzare tale raccolta</p>
<ol>
<li>L’interfaccia dovrebbe comunicare trasparenza nell’utilizzo dei dati utente, offrire loro la possibilità di monitorare i dati raccolti e personalizzare le modalità di raccolta degli stessi. Non è necessario mostrare i funzionamenti interni degli algoritmi all&#8217;utente, ma è importante menzionare quali dati vengono utilizzati affinché quest’ultimo ne sia consapevole;</li>
<li>É necessario progettare gli input utente tali da abilitare l’algoritmo di AI di apprendere, in oltre gli algoritmi di AI &#8211; spesso &#8211; non sono in grado di applicare il contesto o la semantica a tali dati, dunque è necessario fornire agli utenti la possibilità di personalizzare i dati in modo da fornire all’algoritmo di AI contesto ed il significato di tali dati. Le macchine, oggigiorno hanno ancora bisogno degli esseri umani per costruire un contesto intorno ai dati e questo è possibile realizzarlo tramite feedback appositamente progettati rispetto agli obiettivi utente e l’algoritmo che si sta realizzando. Ne è un esempio “Google Translate” che offre la possibilità di scegliere considerata la migliore o addirittura di suggerire delle varianti;</li>
<li>Gli utenti dovrebbero essere in grado di regolare ciò che l&#8217;intelligenza artificiale ha imparato &#8211; l&#8217;AI si configura in base all&#8217;apprendimento automatico e al monitoraggio del comportamento dell&#8217;utente. Tuttavia, l&#8217;intelligenza artificiale commetterà errori e produrrà previsioni che gli utenti non desiderano. Pertanto, oltre a progettare per la scoperta e il perdono, offrire all&#8217;utente di personalizzare le previsioni a loro piacimento, ad es. regolando ciò che l&#8217;AI ha imparato. Questo è ciò che rende l&#8217;intelligenza artificiale particolare rispetto a quella umano, essa può essere regolata, aggiustata o addirittura azzerata, tutte cose che non possono accadere con gli esseri umani.</li>
</ol>
<h4>4. Privacy, sicurezza e controllo</h4>
<p>Guadagna la fiducia dell’utente fornendo il controllo sulla la privacy, la sicurezza e le funzionalità dell&#8217;intelligenza artificiale.</p>
<ol>
<li>É necessario progettare l’interfaccia in modo che faccia percepire la massima sicurezza possibile &#8211; Gli utenti, sapendo che l&#8217;intelligenza artificiale avrà dati personali cruciali, personali e riservati alla privacy, è importante che l&#8217;interfaccia utente faccia del suo meglio per proteggere i miei dati. Progettare questo nell&#8217;interfaccia utente non solo per consentire all&#8217;utente di percepire l&#8217;intelligenza artificiale, ma anche per proteggere i dati e proteggere la loro privacy;</li>
<li>Fornire degli esempi e delle funzionalità di test all’utente &#8211; Soprattutto quando un prodotto è nuovo, gli utenti vogliono verificare se può realmente offrire ciò che promette di fare. Quando l&#8217;utente sa che il prodotto offre effettivamente ciò che ha promesso di fare, l&#8217;utente si fiderà di più del prodotto. Questo è ancor giù importante per le tecnologie supportate da AI che allo stato attuale non godono ancora di sufficiente fiducia diffusa;</li>
<li>Progettare l’interfaccia in modo che l’utente possa prendere il controllo ogni volta che l&#8217;utente lo desidera. Ne è un esempio il sistema di Autopilot di Tesla che permette di prendere il controllo dell’auto in qualsiasi momento;</li>
<li>L&#8217;IA dovrebbe imparare dall’intervento (presa di controllo) dell&#8217;utente &#8211; Quando un utente interviene e prende il controllo dell&#8217;IA, lascia che l&#8217;AI impari da questo comportamento. L&#8217;intelligenza artificiale dovrebbe ricordare l&#8217;intervento al fine di dare un risultato migliore all&#8217;utente per la prossima volta;</li>
<li>L&#8217;IA non dovrebbe fare nulla senza il consenso dell&#8217;utente &#8211; l&#8217;AI dovrebbe chiedere revisioni e il permesso di eseguire compiti che hanno conseguenze significative. Sì, l&#8217;AI dovrebbe essere proattiva, tuttavia, l&#8217;utente è ancora il decisore finale e lui dovrebbe confermare se vogliono che l&#8217;AI faccia davvero una data azione;</li>
<li>L&#8217;IA dovrebbe informare gli utenti degli errori di sistema &#8211; Avvisare l&#8217;utente quando ci sono ostacoli nell’esecuzioni determinati compiti e offrire soluzioni per correggere l’evento critico.</li>
</ol>
<h4>Il takeaway</h4>
<p>Dunque, facciamo un breve riassunto da tenere sempre sottomano quando si progetta un&#8217;interfaccia AI-enabeld.</p>
<p>Quando si progetta per l&#8217;intelligenza artificiale, avere sempre in mente l&#8217;utente. Assicurati che il prodotto sia facile da usare, utile, efficiente e che sia considerato affidabile dagli utenti.</p>
<h5>1. Gestione delle scoperte e delle aspettative dell’utente: É necessario definire bene le aspettative degli utenti per evitare che essi si costruiscano false aspettative rispetto all’interfaccia AI-enaled</h5>
<ol>
<li>Gli utenti devono essere consapevoli di ciò che lo strumento può e non può fare;</li>
<li>Gli utenti dovrebbero aspettarsi il la massima qualità nelle risposte a seguito di un&#8217;input minimo;</li>
<li>Dovrebbe assecondare l’utilizzo dell’interfaccia a scopi inaspettati</li>
<li>Informare l&#8217;utente sugli imprevisti;</li>
</ol>
<p><b>2. Design per il perdono dell’AI: L&#8217;intelligenza artificiale commetterà errori. Dunque è necessario progettare l&#8217;interfaccia utente in modo che gli utenti siano inclini a perdonarlo e/o mitigare l’effetto</b></p>
<ol>
<li>Progettare lo strumento in modo che gli utenti perdonino l’AI quando commette errori</li>
<li>Progettazione un’interfaccia che permetta di utilizzare l&#8217;intelligenza artificiale senza connettività Internet</li>
</ol>
<p><strong>3. Trasparenza dei dati e personalizzazione: É necessario realizzare un’interfaccia che sia trasparente nella raccolta dei dati e offrire agli utenti la possibilità di personalizzare tale raccolta</strong></p>
<ol>
<li>L’interfaccia dovrebbe comunicare trasparenza nell’utilizzo dei dati utente;</li>
<li>É necessario progettare gli input utente tali da abilitare l’algoritmo di AI di apprendere, in oltre gli algoritmi di AI;</li>
<li>Gli utenti dovrebbero essere in grado di regolare ciò che l&#8217;intelligenza artificiale ha imparato;</li>
</ol>
<p><b>4. Privacy, sicurezza e controllo: Ottieni fiducia guidando la privacy, la sicurezza e la capacità di controllare l&#8217;intelligenza artificiale</b></p>
<ol>
<li>É necessario progettare l’interfaccia in modo che faccia percepire la massima sicurezza possibile;</li>
<li>Fornire degli esempi e delle funzionalità di test all’utente</li>
<li>Progettare l’interfaccia in modo che l’utente possa prendere il controllo ogni volta che l&#8217;utente lo desidera</li>
<li>L&#8217;IA dovrebbe imparare dall’intervento (presa di controllo) dell&#8217;utente</li>
<li>L&#8217;IA non dovrebbe fare nulla senza il consenso dell&#8217;utente</li>
<li>AI dovrebbe informare gli utenti degli errori di sistema</li>
</ol>
<h5>Riferimenti:</h5>
<ol>
<li>[1] <a href="https://blog.prototypr.io/how-to-design-for-ai-enabled-ui-77e144e99126">How to design for AI-enabled UI, Naïma van Esch </a></li>
<li>[2] <a href="https://gizmodo.com/this-simple-sticker-can-trick-neural-networks-into-thin-1821735479">A Simple Sticker Tricked Neural Networks Into Classifying Anything as a Toaster, Melanie Ehrenkranz</a></li>
<li>[3] <a href="https://arxiv.org/abs/1712.09665">Brown, Tom B., et al. &#8220;Adversarial patch.&#8221; arXiv preprint arXiv:1712.09665 (2017)</a></li>
<li>[4] <a href="https://www.macitynet.it/spot-amazon-alexa-super-bowl-2019">Lo spot Amazon Alexa del Super Bowl manda in blackout il pianeta, Daniele Piccinelli </a></li>
<li>[5] <a href="https://books.google.it/books?hl=it&amp;lr=&amp;id=SHo3DwAAQBAJ&amp;oi=fnd&amp;pg=PP1&amp;dq=Noessel,+C.+(2017).+Designing+Agentive+Technology.+Rosenfeld+Media&amp;ots=fDZtPE1SSy&amp;sig=CYyjXyuZPxiHTmv69YoDqvTtkvE#v=onepage&amp;q=Noessel%2C%20C.%20(2017).%20Designing%20Agentive%20Technology.%20Rosenfeld%20Media&amp;f=false">Noessel, C. (2017). Designing Agentive Technology. Rosenfeld Media</a></li>
<li>[6]<br />
<a href="https://blog.tagliaerbe.com/2016/02/intelligenza-artificiale.html">L’Intelligenza Artificiale: la rivoluzione che cambierà il mondo, Tagliaerbe</a></li>
<li>[7] <a href="https://www.petnet.io/">Petnet</a></li>
<li>[8] <a href="https://www.researchgate.net/publication/332303074_Che_cos'e_l'eXplainable_AI_e_perche_e_importante">Che cos&#8217;è l’eXplainable AI e perché è importante, Domenico Monaco</a></li>
</ol>
<blockquote><p><strong>Cosa ne pensi? Dimmelo su Twitter <a href="https://twitter.com/_domenicomonaco">@_domenicomonaco</a> oppure su Linkedin <a href="http://linkedin.com/in/domenicomonaco/">linkedin.com/in/domenicomonaco</a></strong>
</p></blockquote>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201904170990/ai-enabled-user-interface-linee-guida-per-la-progettazione-di-interfacce/">AI-enabled User-Interface: linee guida per la progettazione di interfacce</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1490</post-id>	</item>
		<item>
		<title>Explainable AI: cos&#8217;é l&#8217;AI spiegabile e perché è importante</title>
		<link>https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/</link>
		
		<dc:creator><![CDATA[Domenico Monaco]]></dc:creator>
		<pubDate>Wed, 27 Mar 2019 10:32:05 +0000</pubDate>
				<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Interazione uomo-macchina]]></category>
		<category><![CDATA[Psicologia e Tecnologia]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI spiegabile]]></category>
		<category><![CDATA[AI Trasparente]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[explainable ai]]></category>
		<category><![CDATA[Explainable artificial intelligence]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[HCI]]></category>
		<category><![CDATA[trasparenza]]></category>
		<guid isPermaLink="false">http://blog.domenicomonaco.it/?p=1403</guid>

					<description><![CDATA[<p>L&#8217;Intelligenza Artificiale deve essere spiegabile e soprattutto deve farsi capire dagli utenti che la usano Le organizzazioni si stanno affidando sempre di più all&#8217;Intelligenza Artificiale e ai modelli di apprendimento automatico, ma non è tutto rose e fiori quello che promette l’intelligenza artificiale ed una delle loro maggiori preoccupazioni è “come possono garantirne l’affidabilità”. Tra...</p>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/">Explainable AI: cos&#8217;é l&#8217;AI spiegabile e perché è importante</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3>L&#8217;Intelligenza Artificiale deve essere spiegabile e soprattutto deve farsi capire dagli utenti che la usano</h3>
<p>Le organizzazioni si stanno affidando sempre di più all&#8217;<strong>Intelligenza Artificiale</strong> e ai modelli di apprendimento automatico, ma non è tutto rose e fiori quello che promette l’intelligenza artificiale ed una delle loro maggiori preoccupazioni è “<strong>come possono garantirne l’affidabilità</strong>”.</p>
<p>Tra le promesse dell&#8217;Intelligenza Artificiale (AI) troviamo il miglioramento della comprensione umana attraverso l&#8217;automazione del processo decisionale, ovvero gli algoritmi di AI possono &#8220;<strong>aiutare le persone a scoprire informazioni che prima non potevano conoscere</strong>&#8220;, come dichiara Josh Parenteau, Director of Market Intelligence di Tableau. [1]</p>
<p>Nel contempo, secondo Gartner entro il 2020 l’AI sarà utilizzata dall’85% dei CIO [2], quindi nei prossimi anni si avranno un numero sempre maggiore di organizzazioni che dipenderanno sempre più dai modelli di apprendimento automatico. Con un crescendo di preoccupazioni su come avere la certezza che i suggerimenti forniti dagli algoritmi di AI siano affidabili, corretti ed etici.</p>
<h2>L&#8217;AI come una BlackBox</h2>
<p>Oggigiorno molte delle applicazioni di apprendimento automatico non consentono di capirne appieno il loro funzionano o la logica che ne sta dietro per un effetto chiamato “BlackBox”, secondo per cui i modelli di apprendimento automatico sono per lo più scatole nere. [3][4][5]</p>
<figure id="attachment_1413" aria-describedby="caption-attachment-1413" style="width: 1203px" class="wp-caption alignnone"><img data-recalc-dims="1" loading="lazy" decoding="async" data-attachment-id="1413" data-permalink="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/black_box_ai_vs_explainable_ai/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?fit=1203%2C599&amp;ssl=1" data-orig-size="1203,599" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="Blackbox AI VS eXplainable AI" data-image-description="&lt;p&gt;Blackbox AI VS eXplainable AI&lt;/p&gt;
" data-image-caption="&lt;p&gt;Blackbox AI VS eXplainable AI&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?fit=300%2C149&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?fit=1024%2C510&amp;ssl=1" tabindex="0" role="button" class="size-full wp-image-1413" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=1203%2C599" alt="Black box AI VS eXplainable AI" width="1203" height="599" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?w=1203&amp;ssl=1 1203w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=300%2C149&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=768%2C382&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=1024%2C510&amp;ssl=1 1024w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1413" class="wp-caption-text">Black box AI VS eXplainable AI; <a href="https://www.ritualdesignlab.org/">https://www.ritualdesignlab.org/</a></figcaption></figure>
<p>Tale caratteristica è considerata uno dei più grandi problemi dell’applicazione delle tecniche di AI, essa rende le decisioni della macchina non trasparenti e spesso incomprensibili anche agli occhi degli esperti o degli stessi sviluppatori, il che riduce la fiducia nel ML nello specifico e nell&#8217;IA in generale.</p>
<p>Quindi comprendere le ragioni che stanno alla base delle previsioni degli algoritmi di AI oggi è di fondamentale importanza in quanto tale comprensione può non solo infondere una fiducia maggiore negli algoritmi di AI, ma anche fornire spunti sul modello o effettuare operazioni di debug [6].</p>
<p>Uno dei motivi di un così forte interesse nella comprensione dei processi che stanno dietro a tali algoritmi troviamo anche l’aumento della sensibilità pubblica verso la privacy attraverso l’introduzione di varie legislazioni a livello internazionale come il GPDR che impongono livelli elevati di protezione della sfera privata e allo stesso tempo trasparenza nel trattamento delle informazioni, cosa che attualmente gli algoritmi di AI faticano ad realizzare.</p>
<p>Il tutto si traduce in un crescente bisogno di trasparenza negli algoritmi di AI, essa è cruciale per un&#8217;efficace distribuzione dei sistemi intelligenti non solo per garantire che i modelli funzionino così come sono stati progettati ma anche per infondere fiducia negli utilizzatori, così che possano prendere decisioni senza timore di fare scelte sbagliate.</p>
<p>Il bisogno di trasparenza nell’ambito dell’AI ha portato alla crescita della cosiddetta <strong>eXplainable AI (XAI)</strong>, che rappresenta un insieme di tecniche che permettono di comprendere e presentare una visione trasparente dei modelli di apprendimento automatico e degli algoritmi di AI in generale.</p>
<h2>Che cos’è l&#8217;eXplainable AI (XAI): l&#8217;AI spiegabile</h2>
<p>L’<strong>eXplainable AI</strong> non è un campo nuovo, esistevano architetture di ragionamento per supportare sistemi IA complessi già dagli anni 80’, quindi la <em>spiegabilità</em> è vecchia almeno quanto la prima IA e può essere vista come una naturale conseguenza del design dei sistemi di intelligenza artificiale. [1]</p>
<p>Ma oggi, data la portata dei cambiamenti introdotta dagli algoritmi di AI, la <em>spiegabilità</em> (comprensione) degli algoritmi di AI è tornata alla ribalta. Il futuro dell&#8217;IA, probabilmente, dipenderà dalla sua capacità di consentire alle persone di collaborare con le macchine per risolvere problemi complessi. Come ogni collaborazione efficiente, ciò richiede una buona comunicazione, fiducia, chiarezza e comprensione e l&#8217;eXplainable AI ha appunto lo scopo di affrontare tali sfide. [9]</p>
<figure id="attachment_1414" aria-describedby="caption-attachment-1414" style="width: 2511px" class="wp-caption alignnone"><img data-recalc-dims="1" loading="lazy" decoding="async" data-attachment-id="1414" data-permalink="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/contex_ai_industry/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?fit=2511%2C793&amp;ssl=1" data-orig-size="2511,793" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="Contesti AI" data-image-description="&lt;p&gt;Contesti AI&lt;/p&gt;
" data-image-caption="&lt;p&gt;Contesti AI&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?fit=300%2C95&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?fit=1024%2C323&amp;ssl=1" tabindex="0" role="button" class="size-full wp-image-1414" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=2511%2C793" alt="Contesti AI" width="2511" height="793" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?w=2511&amp;ssl=1 2511w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=300%2C95&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=768%2C243&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=1024%2C323&amp;ssl=1 1024w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?w=2000&amp;ssl=1 2000w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1414" class="wp-caption-text">Contesti AI</figcaption></figure>
<p>Ad esempio i leader di settore nelle organizzazioni ed in particolare quelle che hanno a che fare con decisioni con una forte componente di rischio richiedono ai team di utilizzare modelli più comprensibili e di fornire documentazione di come i modelli sono stati costruiti. [7]</p>
<blockquote><p>Cosa si intende esattamente con questa AI <em>spiegabile</em>?</p></blockquote>
<p>L’articolo [7] esprime che l’attuali tecnologie di deep learning sono in grado di elaborare enormi volumi di dati, identificando gli schemi nascosti, e fornendo nuovi suggerimenti attraverso l’utilizzo di enormi basi di dati, ma tutte queste abilità di inferire in automatico conclusioni ha il limite di non spiegarne il ragionamento e le ragioni che stanno dietro a tali deduzioni.</p>
<p>Quest&#8217;ultimo può essere realizzato attraverso l’Explainable AI che mira a spiegare perché la AI è giunta a una determinata conclusione e con quali modalità.</p>
<p>Ciò può essere fondamentale in ambiti come la ricerca medica sul cancro, in cui anche da un punto di vista etico, prima di sottoscrivere la correttezza dei suggerimenti se ne deve verificare le fonti della letteratura accademica in materia, e comprendere perché l’algoritmo sia giunto a quel dato risultato. [7]</p>
<h2>L&#8217;eXplainable AI è importante per l&#8217;human-in-the-loop</h2>
<p>L’<strong>eXplainable AI</strong> mira a creare una serie di tecniche che producono modelli più spiegabili, mantenendo al contempo un livello elevato delle funzionalità di ricerca, apprendimento, pianificazione e prestazioni nel ragionamento: ottimizzazione, accuratezza, precisione; e nel contempo consentire agli utenti umani di comprendere, fidarsi adeguatamente e gestire efficacemente la generazione emergente di sistemi di intelligenza artificiale realizzando realmente quello che viene chiamato <strong>human-in-the-loop</strong>. [9] [3]</p>
<p>Le iniziative di rendere l’AI trasparente hanno innescato diversi sforzi accademici e industriali che hanno prodotto tecnologie e risultati che forniscono spiegazioni principalmente alle esigenze degli ingegneri di intelligenza artificiale. [8]</p>
<p>Tuttavia, ci sono ben pochi lavori nel fornire spiegazioni che supportino le esigenze di proprietari di aziende, sviluppatori di software e consumatori che svolgono tutti ruoli significativi nello sviluppo del servizio e nel ciclo di utilizzo.</p>
<figure id="attachment_1420" aria-describedby="caption-attachment-1420" style="width: 2560px" class="wp-caption alignnone"><img data-recalc-dims="1" loading="lazy" decoding="async" data-attachment-id="1420" data-permalink="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/human-in-a-loop-tesla-autonomous-car/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?fit=2560%2C1440&amp;ssl=1" data-orig-size="2560,1440" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="human in a loop tesla autonomous car" data-image-description="&lt;p&gt;Esempio di human-in-a-loop della Tesla&lt;/p&gt;
" data-image-caption="&lt;p&gt;Esempio di human-in-a-loop della Tesla&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?fit=300%2C169&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?fit=1024%2C576&amp;ssl=1" tabindex="0" role="button" class="wp-image-1420 size-full" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=2560%2C1440" alt="Esempio di Human-in-a-Loop della Tesla" width="2560" height="1440" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?w=2560&amp;ssl=1 2560w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=300%2C169&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=768%2C432&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=1024%2C576&amp;ssl=1 1024w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?w=2000&amp;ssl=1 2000w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1420" class="wp-caption-text">Esempio di Human-in-a-Loop della Tesla</figcaption></figure>
<p>Dunque per avere un impatto dirompente nelle organizzazioni, è necessario avere fiducia nell’AI e come chiarisce Takashige il successo dell’AI dipende anche dalla capacità d’introdurre una AI <em>diversa</em>, umano-centrica, in grado di superare i limiti di quella attuale: in altre parole più adatta a collaborare con le persone per arrivare alla co-creazione di nuovo valore e innovazione. [7]</p>
<p>Come dimostra un recente workshop tonutosi alla conferenza AAAI-19 [10] il quale ha chiesto ad esperti di tutto il mondo di rispondere a domande del tipo &#8220;Cosa è eXplainable AI (XAI)? Perché è importante? Quali sono le metriche per le spiegazioni? In quali campi d’applicazione è fondamentale?”, ma soprattuto “Come Funziona?”</p>
<p>Rispondere a queste domande può essere utile perché, come esprime l’articolo di IBM [11], &#8220;Rendere l’intelligenza artificiale più trasparente potrebbe essere la chiave per la sua adozione più ampia.”</p>
<p>Tuttavia, l’impatto dell’<strong>eXplainable AI</strong> potrebbe non essere sempre positivo, ad esempio se le aziende fossero costrette a rivelare dettagli sui propri algoritmi potrebbe significare che stanno in effetti divulgando idee e proprietà intellettuale. E non è tutto: sorgono poi domande su cosa intendiamo esattamente per “<strong><em>spiegabile</em></strong>”?</p>
<p>Dunque è chiaro che questo campo è ancora tutto da definire, ma certamente uno dei trend futuri da tenere d’occhio.</p>
<h4>l&#8217;Articolo su Researchgate:</h4>
<ul>
<li>[ITA] <a href="https://www.researchgate.net/publication/332303074_Che_cos'e_l'eXplainable_AI_e_perche_e_importante">Che cos&#8217;è l’eXplainable AI e perché è importante</a></li>
<li>[ENG] <a href="https://www.researchgate.net/publication/332858862_What_is_the_Explainable-Ai_and_why_is_important">What is the Explainable-Ai and why is important</a></li>
</ul>
<h3>Riferimenti:</h3>
<ul>
<li>[1] <a href="https://www.tableau.com/it-it/reports/business-intelligence-trends/machine-learning">https://www.tableau.com/it-it/reports/business-intelligence-trends/machine-learning</a></li>
<li>[2] <a href="https://www.gartner.com/smarterwithgartner/2018-will-mark-the-beginning-of-ai-democratization/?_fsi=hncFpMGP">https://www.gartner.com/smarterwithgartner/2018-will-mark-the-beginning-of-ai-democratization/?_fsi=hncFpMGP</a></li>
<li>[3] Ribeiro, M. T., Singh, S., &amp; Guestrin, C. (2016). “Why Should I Trust You?” (pp. 1135–1144). <a href="https://dl.acm.org/citation.cfm?doid=2939672.2939778">https://doi.org/10.1145/2939672.2939778</a></li>
<li>[4] <a href="https://hal.inria.fr/hal-01934928/document">Explainable AI: The New 42? &#8211; Randy Goebel </a></li>
<li>[5] <a href="https://graz.pure.elsevier.com/en/publications/current-advances-trends-and-challenges-of-machine-learning-and-kn">Current Advances, Trends and Challenges of Machine Learning and Knowledge Extraction: From Machine Learning to Explainable AI &#8211; Andreas Holzinger</a></li>
<li>[6] <a href="http://openaccess.city.ac.uk/13819/">Kulesza, T., Burnett, M., Wong, W-K. &amp; Stumpf, S. (2015). Principles of Explanatory Debugging to personalize interactive machine learning. In: O. Brdiczka &amp; P Chau (Eds.), Proceedings of the 20th International Conference on Intelligent User Interfaces. (pp. 126-137). New York, USA: ACM. ISBN 9781450333061</a></li>
<li>[7] <a href="https://www.zerounoweb.it/analytics/cognitive-computing/fujitsu-la-nostra-ai-spiega-il-perche-delle-sue-conclusioni/">https://www.zerounoweb.it/analytics/cognitive-computing/fujitsu-la-nostra-ai-spiega-il-perche-delle-sue-conclusioni/</a></li>
<li>[8] <a href="https://hal.inria.fr/hal-02060044">Evaluating Explanations by Cognitive Value, Ajay Chander</a></li>
<li>[9] <a href="https://xaitutorial2019.github.io/">https://xaitutorial2019.github.io/</a></li>
<li>[10] <a href="https://aaai.org/Conferences/AAAI-19/aaai19tutorials/">https://aaai.org/Conferences/AAAI-19/aaai19tutorials/</a></li>
<li>[11] <a href="https://www.intel.it/content/www/it/it/it-managers/explainable-ai.html">https://www.intel.it/content/www/it/it/it-managers/explainable-ai.html</a></li>
</ul>
<h4>Immagini</h4>
<ul>
<li><a href="https://medium.com/ritual-design/culture-meets-artificial-intelligence-a2ad6dc82bb7">https://medium.com/ritual-design/culture-meets-artificial-intelligence-a2ad6dc82bb7</a></li>
<li><a href="https://www.scientificamerican.com/article/the-search-for-a-new-test-of-artificial-intelligence/">https://www.scientificamerican.com/article/the-search-for-a-new-test-of-artificial-intelligence/</a></li>
<li><a href="https://m.sohu.com/n/482461485/?wscrid=95360_7">https://m.sohu.com/n/482461485/?wscrid=95360_7</a></li>
</ul>
<blockquote><p><strong>Cosa ne pensi? Dimmelo su Twitter <a href="https://twitter.com/_domenicomonaco">@_domenicomonaco</a> oppure su Linkedin <a href="http://linkedin.com/in/domenicomonaco/">linkedin.com/in/domenicomonaco</a></strong>
</p></blockquote>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/">Explainable AI: cos&#8217;é l&#8217;AI spiegabile e perché è importante</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1403</post-id>	</item>
	</channel>
</rss>
