<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	
	xmlns:georss="http://www.georss.org/georss"
	xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#"
	>

<channel>
	<title>HCI Archivi - Domenico Monaco</title>
	<atom:link href="https://blog.domenicomonaco.it/tag/hci/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>Un Blog sulle Persone e le Tecnologie</description>
	<lastBuildDate>Wed, 23 Mar 2022 10:42:24 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>

<image>
	<url>https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2018/10/cropped-icon_monaco_domenico-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>HCI Archivi - Domenico Monaco</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">145023925</site>	<item>
		<title>Scopri che virus sei ed aiutaci sconfiggere il COVID [Fake news clickbait]</title>
		<link>https://blog.domenicomonaco.it/202004302260/scopri-che-virus-sei-ed-aiutaci-sconfiggere-il-covid/</link>
		
		<dc:creator><![CDATA[Domenico Monaco]]></dc:creator>
		<pubDate>Thu, 30 Apr 2020 18:46:33 +0000</pubDate>
				<category><![CDATA[Comunicazione]]></category>
		<category><![CDATA[Interazione uomo-macchina]]></category>
		<category><![CDATA[Social Media]]></category>
		<category><![CDATA[User-Experience & User-Interface]]></category>
		<category><![CDATA[bisogni utente]]></category>
		<category><![CDATA[COVID]]></category>
		<category><![CDATA[HCI]]></category>
		<category><![CDATA[social media]]></category>
		<category><![CDATA[user centred design]]></category>
		<category><![CDATA[user needs]]></category>
		<category><![CDATA[UXD]]></category>
		<category><![CDATA[XD]]></category>
		<guid isPermaLink="false">http://blog.domenicomonaco.it/?p=2260</guid>

					<description><![CDATA[<p>Vuoi sconfiggere anche tu il COVID?  Scopri che virus sei! E&#8217; volutamente un titolo clickbait. Ma volevo catturare la tua attenzione per parlare dell&#8217;App Immuni Non voglio entrare nel merito del Si, App Immuni, No App Immuni&#8230; bla bla. Tanto so già che sarà disponibile a emergenza COVID finita. Voglio parlare invece del suo scopo...</p>
<p>L'articolo <a href="https://blog.domenicomonaco.it/202004302260/scopri-che-virus-sei-ed-aiutaci-sconfiggere-il-covid/">Scopri che virus sei ed aiutaci sconfiggere il COVID [Fake news clickbait]</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3 class="sottotitolo"><span class="evidenziato">Vuoi sconfiggere anche tu il COVID?  Scopri che virus sei!</span></h3>
<p>E&#8217; volutamente un titolo <a href="https://it.wikipedia.org/wiki/Clickbait">clickbait</a>. Ma volevo catturare la tua attenzione per parlare dell&#8217;<a href="https://www.ilsole24ore.com/art/download-dati-notifiche-ecco-come-funzionera-l-app-tracciare-contagio-ADvrNfN">App Immuni</a></p>
<p>Non voglio entrare nel merito del Si, <em>App Immuni, No App Immuni&#8230;</em> bla bla. Tanto so già che sarà disponibile a emergenza COVID finita.</p>
<p><span class="evidenziato">Voglio parlare invece del suo <strong>scopo e dei bisogni dell&#8217;utente</strong> che dovrebbe soddisfare.</span></p>
<p><strong>Io non ho &#8220;il bisogno di essere tracciato&#8221;.</strong><br />
Questo é un bisogno di qualcun altro.</p>
<p>Pensaci, tu <strong class="evidenziato">ti fai tracciare da qualsiasi cosa perché in quel momento percepisci il servizio reso da un App più importante della privacy persa.</strong></p>
<p>Tanto da dimenticarti che stai regalando dati.</p>
<p>Invece, se vieni obbligato ad installare <strong class="evidenziato">un App che ha il solo scopo di tracciare i tuoi spostamenti senza avere in cambio un servizio di valore</strong>&#8230; Chiaramente ci pensi due volte ad installarla.</p>
<p>O mi sbaglio?</p>
<p>Semplicemente tu utente: <strong class="evidenziato">non hai motivo di installare l&#8217;App Immuni perché non risponde a nessun bisogno immediato.</strong></p>
<blockquote><p>Tu persona normale ti fai domande del tipo:<br />
<strong>&#8220;A cosa serve questa app!? Cosa ci posso fare?&#8221;.</strong></p></blockquote>
<p>Se la risposta è:<br />
&#8220;Niente. Serve a spiare gli spostamenti delle persone per impedire di contagiarsi&#8230;&#8221;.</p>
<p>Poi non si sa come. Perché l&#8217;App me lo direbbe dopo. Oppure, non so, se io so di essere positivo magari non attivo l&#8217;App se devo andare in giro illegalmente.</p>
<p>Bhe! Allora ha senso essere scettici.</p>
<p>Non sto qui a sostenere che non vada installata o che non serva a nulla o ancora peggio che sia una violazione gravissima della nostra privacy.</p>
<p><strong class="evidenziato">Sostengo invece che a prescindere dalla privacy, l&#8217;App deve soddisfare almeno un bisogno dell&#8217;utente.</strong></p>
<p>E per farlo servono due cose</p>
<ol>
<li><strong>Un paio di funzionalità</strong> quel tantino <strong>utili</strong> nell&#8217;immediato;</li>
<li><strong>Comunicazione</strong>. Tanta, tanta comunicazione <strong>fatta bene.</strong></li>
</ol>
<p>Invece ci hanno tartassato con &#8220;<strong>Fatti tracciare che poi un giorno forse risolveremo sto casino!</strong>&#8220;.</p>
<p>Moh, che pure a metterci un claim tipo</p>
<h3>Che virus sei? Scoprilo ed aiutaci a sconfiggere il COVID!</h3>
<p>Insieme ad un campagna di informazione e sensibilizzazione sulla questione. Non so tipo linee guida per evitare il contagio. Numeri utili. Ospedali e punti di primo soccorso.</p>
<p>Così. Magari <em><strong>sarebbe potuto essere d&#8217;effetto.</strong></em></p>
<blockquote><p><strong>Cosa ne pensi? Dimmelo su Twitter <a href="https://twitter.com/_domenicomonaco">@_domenicomonaco</a> oppure su Linkedin <a href="http://linkedin.com/in/domenicomonaco/">linkedin.com/in/domenicomonaco</a></strong>
</p></blockquote>
<p>L'articolo <a href="https://blog.domenicomonaco.it/202004302260/scopri-che-virus-sei-ed-aiutaci-sconfiggere-il-covid/">Scopri che virus sei ed aiutaci sconfiggere il COVID [Fake news clickbait]</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">2260</post-id>	</item>
		<item>
		<title>Explainable AI: cos&#8217;é l&#8217;AI spiegabile e perché è importante</title>
		<link>https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/</link>
		
		<dc:creator><![CDATA[Domenico Monaco]]></dc:creator>
		<pubDate>Wed, 27 Mar 2019 10:32:05 +0000</pubDate>
				<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Interazione uomo-macchina]]></category>
		<category><![CDATA[Psicologia e Tecnologia]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI spiegabile]]></category>
		<category><![CDATA[AI Trasparente]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[explainable ai]]></category>
		<category><![CDATA[Explainable artificial intelligence]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[HCI]]></category>
		<category><![CDATA[trasparenza]]></category>
		<guid isPermaLink="false">http://blog.domenicomonaco.it/?p=1403</guid>

					<description><![CDATA[<p>L&#8217;Intelligenza Artificiale deve essere spiegabile e soprattutto deve farsi capire dagli utenti che la usano Le organizzazioni si stanno affidando sempre di più all&#8217;Intelligenza Artificiale e ai modelli di apprendimento automatico, ma non è tutto rose e fiori quello che promette l’intelligenza artificiale ed una delle loro maggiori preoccupazioni è “come possono garantirne l’affidabilità”. Tra...</p>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/">Explainable AI: cos&#8217;é l&#8217;AI spiegabile e perché è importante</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3>L&#8217;Intelligenza Artificiale deve essere spiegabile e soprattutto deve farsi capire dagli utenti che la usano</h3>
<p>Le organizzazioni si stanno affidando sempre di più all&#8217;<strong>Intelligenza Artificiale</strong> e ai modelli di apprendimento automatico, ma non è tutto rose e fiori quello che promette l’intelligenza artificiale ed una delle loro maggiori preoccupazioni è “<strong>come possono garantirne l’affidabilità</strong>”.</p>
<p>Tra le promesse dell&#8217;Intelligenza Artificiale (AI) troviamo il miglioramento della comprensione umana attraverso l&#8217;automazione del processo decisionale, ovvero gli algoritmi di AI possono &#8220;<strong>aiutare le persone a scoprire informazioni che prima non potevano conoscere</strong>&#8220;, come dichiara Josh Parenteau, Director of Market Intelligence di Tableau. [1]</p>
<p>Nel contempo, secondo Gartner entro il 2020 l’AI sarà utilizzata dall’85% dei CIO [2], quindi nei prossimi anni si avranno un numero sempre maggiore di organizzazioni che dipenderanno sempre più dai modelli di apprendimento automatico. Con un crescendo di preoccupazioni su come avere la certezza che i suggerimenti forniti dagli algoritmi di AI siano affidabili, corretti ed etici.</p>
<h2>L&#8217;AI come una BlackBox</h2>
<p>Oggigiorno molte delle applicazioni di apprendimento automatico non consentono di capirne appieno il loro funzionano o la logica che ne sta dietro per un effetto chiamato “BlackBox”, secondo per cui i modelli di apprendimento automatico sono per lo più scatole nere. [3][4][5]</p>
<figure id="attachment_1413" aria-describedby="caption-attachment-1413" style="width: 1203px" class="wp-caption alignnone"><img data-recalc-dims="1" fetchpriority="high" decoding="async" data-attachment-id="1413" data-permalink="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/black_box_ai_vs_explainable_ai/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?fit=1203%2C599&amp;ssl=1" data-orig-size="1203,599" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="Blackbox AI VS eXplainable AI" data-image-description="&lt;p&gt;Blackbox AI VS eXplainable AI&lt;/p&gt;
" data-image-caption="&lt;p&gt;Blackbox AI VS eXplainable AI&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?fit=300%2C149&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?fit=1024%2C510&amp;ssl=1" tabindex="0" role="button" class="size-full wp-image-1413" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=1203%2C599" alt="Black box AI VS eXplainable AI" width="1203" height="599" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?w=1203&amp;ssl=1 1203w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=300%2C149&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=768%2C382&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/black_box_ai_vs_explainable_ai.png?resize=1024%2C510&amp;ssl=1 1024w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1413" class="wp-caption-text">Black box AI VS eXplainable AI; <a href="https://www.ritualdesignlab.org/">https://www.ritualdesignlab.org/</a></figcaption></figure>
<p>Tale caratteristica è considerata uno dei più grandi problemi dell’applicazione delle tecniche di AI, essa rende le decisioni della macchina non trasparenti e spesso incomprensibili anche agli occhi degli esperti o degli stessi sviluppatori, il che riduce la fiducia nel ML nello specifico e nell&#8217;IA in generale.</p>
<p>Quindi comprendere le ragioni che stanno alla base delle previsioni degli algoritmi di AI oggi è di fondamentale importanza in quanto tale comprensione può non solo infondere una fiducia maggiore negli algoritmi di AI, ma anche fornire spunti sul modello o effettuare operazioni di debug [6].</p>
<p>Uno dei motivi di un così forte interesse nella comprensione dei processi che stanno dietro a tali algoritmi troviamo anche l’aumento della sensibilità pubblica verso la privacy attraverso l’introduzione di varie legislazioni a livello internazionale come il GPDR che impongono livelli elevati di protezione della sfera privata e allo stesso tempo trasparenza nel trattamento delle informazioni, cosa che attualmente gli algoritmi di AI faticano ad realizzare.</p>
<p>Il tutto si traduce in un crescente bisogno di trasparenza negli algoritmi di AI, essa è cruciale per un&#8217;efficace distribuzione dei sistemi intelligenti non solo per garantire che i modelli funzionino così come sono stati progettati ma anche per infondere fiducia negli utilizzatori, così che possano prendere decisioni senza timore di fare scelte sbagliate.</p>
<p>Il bisogno di trasparenza nell’ambito dell’AI ha portato alla crescita della cosiddetta <strong>eXplainable AI (XAI)</strong>, che rappresenta un insieme di tecniche che permettono di comprendere e presentare una visione trasparente dei modelli di apprendimento automatico e degli algoritmi di AI in generale.</p>
<h2>Che cos’è l&#8217;eXplainable AI (XAI): l&#8217;AI spiegabile</h2>
<p>L’<strong>eXplainable AI</strong> non è un campo nuovo, esistevano architetture di ragionamento per supportare sistemi IA complessi già dagli anni 80’, quindi la <em>spiegabilità</em> è vecchia almeno quanto la prima IA e può essere vista come una naturale conseguenza del design dei sistemi di intelligenza artificiale. [1]</p>
<p>Ma oggi, data la portata dei cambiamenti introdotta dagli algoritmi di AI, la <em>spiegabilità</em> (comprensione) degli algoritmi di AI è tornata alla ribalta. Il futuro dell&#8217;IA, probabilmente, dipenderà dalla sua capacità di consentire alle persone di collaborare con le macchine per risolvere problemi complessi. Come ogni collaborazione efficiente, ciò richiede una buona comunicazione, fiducia, chiarezza e comprensione e l&#8217;eXplainable AI ha appunto lo scopo di affrontare tali sfide. [9]</p>
<figure id="attachment_1414" aria-describedby="caption-attachment-1414" style="width: 2511px" class="wp-caption alignnone"><img data-recalc-dims="1" decoding="async" data-attachment-id="1414" data-permalink="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/contex_ai_industry/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?fit=2511%2C793&amp;ssl=1" data-orig-size="2511,793" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="Contesti AI" data-image-description="&lt;p&gt;Contesti AI&lt;/p&gt;
" data-image-caption="&lt;p&gt;Contesti AI&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?fit=300%2C95&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?fit=1024%2C323&amp;ssl=1" tabindex="0" role="button" class="size-full wp-image-1414" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=2511%2C793" alt="Contesti AI" width="2511" height="793" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?w=2511&amp;ssl=1 2511w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=300%2C95&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=768%2C243&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?resize=1024%2C323&amp;ssl=1 1024w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/contex_ai_industry.png?w=2000&amp;ssl=1 2000w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1414" class="wp-caption-text">Contesti AI</figcaption></figure>
<p>Ad esempio i leader di settore nelle organizzazioni ed in particolare quelle che hanno a che fare con decisioni con una forte componente di rischio richiedono ai team di utilizzare modelli più comprensibili e di fornire documentazione di come i modelli sono stati costruiti. [7]</p>
<blockquote><p>Cosa si intende esattamente con questa AI <em>spiegabile</em>?</p></blockquote>
<p>L’articolo [7] esprime che l’attuali tecnologie di deep learning sono in grado di elaborare enormi volumi di dati, identificando gli schemi nascosti, e fornendo nuovi suggerimenti attraverso l’utilizzo di enormi basi di dati, ma tutte queste abilità di inferire in automatico conclusioni ha il limite di non spiegarne il ragionamento e le ragioni che stanno dietro a tali deduzioni.</p>
<p>Quest&#8217;ultimo può essere realizzato attraverso l’Explainable AI che mira a spiegare perché la AI è giunta a una determinata conclusione e con quali modalità.</p>
<p>Ciò può essere fondamentale in ambiti come la ricerca medica sul cancro, in cui anche da un punto di vista etico, prima di sottoscrivere la correttezza dei suggerimenti se ne deve verificare le fonti della letteratura accademica in materia, e comprendere perché l’algoritmo sia giunto a quel dato risultato. [7]</p>
<h2>L&#8217;eXplainable AI è importante per l&#8217;human-in-the-loop</h2>
<p>L’<strong>eXplainable AI</strong> mira a creare una serie di tecniche che producono modelli più spiegabili, mantenendo al contempo un livello elevato delle funzionalità di ricerca, apprendimento, pianificazione e prestazioni nel ragionamento: ottimizzazione, accuratezza, precisione; e nel contempo consentire agli utenti umani di comprendere, fidarsi adeguatamente e gestire efficacemente la generazione emergente di sistemi di intelligenza artificiale realizzando realmente quello che viene chiamato <strong>human-in-the-loop</strong>. [9] [3]</p>
<p>Le iniziative di rendere l’AI trasparente hanno innescato diversi sforzi accademici e industriali che hanno prodotto tecnologie e risultati che forniscono spiegazioni principalmente alle esigenze degli ingegneri di intelligenza artificiale. [8]</p>
<p>Tuttavia, ci sono ben pochi lavori nel fornire spiegazioni che supportino le esigenze di proprietari di aziende, sviluppatori di software e consumatori che svolgono tutti ruoli significativi nello sviluppo del servizio e nel ciclo di utilizzo.</p>
<figure id="attachment_1420" aria-describedby="caption-attachment-1420" style="width: 2560px" class="wp-caption alignnone"><img data-recalc-dims="1" decoding="async" data-attachment-id="1420" data-permalink="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/human-in-a-loop-tesla-autonomous-car/" data-orig-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?fit=2560%2C1440&amp;ssl=1" data-orig-size="2560,1440" data-comments-opened="0" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="human in a loop tesla autonomous car" data-image-description="&lt;p&gt;Esempio di human-in-a-loop della Tesla&lt;/p&gt;
" data-image-caption="&lt;p&gt;Esempio di human-in-a-loop della Tesla&lt;/p&gt;
" data-medium-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?fit=300%2C169&amp;ssl=1" data-large-file="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?fit=1024%2C576&amp;ssl=1" tabindex="0" role="button" class="wp-image-1420 size-full" src="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=2560%2C1440" alt="Esempio di Human-in-a-Loop della Tesla" width="2560" height="1440" srcset="https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?w=2560&amp;ssl=1 2560w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=300%2C169&amp;ssl=1 300w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=768%2C432&amp;ssl=1 768w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?resize=1024%2C576&amp;ssl=1 1024w, https://i0.wp.com/blog.domenicomonaco.it/wp-content/uploads/2019/03/Human-In-a-loop-tesla-autonomous-car.png?w=2000&amp;ssl=1 2000w" sizes="(max-width: 1000px) 100vw, 1000px" /><figcaption id="caption-attachment-1420" class="wp-caption-text">Esempio di Human-in-a-Loop della Tesla</figcaption></figure>
<p>Dunque per avere un impatto dirompente nelle organizzazioni, è necessario avere fiducia nell’AI e come chiarisce Takashige il successo dell’AI dipende anche dalla capacità d’introdurre una AI <em>diversa</em>, umano-centrica, in grado di superare i limiti di quella attuale: in altre parole più adatta a collaborare con le persone per arrivare alla co-creazione di nuovo valore e innovazione. [7]</p>
<p>Come dimostra un recente workshop tonutosi alla conferenza AAAI-19 [10] il quale ha chiesto ad esperti di tutto il mondo di rispondere a domande del tipo &#8220;Cosa è eXplainable AI (XAI)? Perché è importante? Quali sono le metriche per le spiegazioni? In quali campi d’applicazione è fondamentale?”, ma soprattuto “Come Funziona?”</p>
<p>Rispondere a queste domande può essere utile perché, come esprime l’articolo di IBM [11], &#8220;Rendere l’intelligenza artificiale più trasparente potrebbe essere la chiave per la sua adozione più ampia.”</p>
<p>Tuttavia, l’impatto dell’<strong>eXplainable AI</strong> potrebbe non essere sempre positivo, ad esempio se le aziende fossero costrette a rivelare dettagli sui propri algoritmi potrebbe significare che stanno in effetti divulgando idee e proprietà intellettuale. E non è tutto: sorgono poi domande su cosa intendiamo esattamente per “<strong><em>spiegabile</em></strong>”?</p>
<p>Dunque è chiaro che questo campo è ancora tutto da definire, ma certamente uno dei trend futuri da tenere d’occhio.</p>
<h4>l&#8217;Articolo su Researchgate:</h4>
<ul>
<li>[ITA] <a href="https://www.researchgate.net/publication/332303074_Che_cos'e_l'eXplainable_AI_e_perche_e_importante">Che cos&#8217;è l’eXplainable AI e perché è importante</a></li>
<li>[ENG] <a href="https://www.researchgate.net/publication/332858862_What_is_the_Explainable-Ai_and_why_is_important">What is the Explainable-Ai and why is important</a></li>
</ul>
<h3>Riferimenti:</h3>
<ul>
<li>[1] <a href="https://www.tableau.com/it-it/reports/business-intelligence-trends/machine-learning">https://www.tableau.com/it-it/reports/business-intelligence-trends/machine-learning</a></li>
<li>[2] <a href="https://www.gartner.com/smarterwithgartner/2018-will-mark-the-beginning-of-ai-democratization/?_fsi=hncFpMGP">https://www.gartner.com/smarterwithgartner/2018-will-mark-the-beginning-of-ai-democratization/?_fsi=hncFpMGP</a></li>
<li>[3] Ribeiro, M. T., Singh, S., &amp; Guestrin, C. (2016). “Why Should I Trust You?” (pp. 1135–1144). <a href="https://dl.acm.org/citation.cfm?doid=2939672.2939778">https://doi.org/10.1145/2939672.2939778</a></li>
<li>[4] <a href="https://hal.inria.fr/hal-01934928/document">Explainable AI: The New 42? &#8211; Randy Goebel </a></li>
<li>[5] <a href="https://graz.pure.elsevier.com/en/publications/current-advances-trends-and-challenges-of-machine-learning-and-kn">Current Advances, Trends and Challenges of Machine Learning and Knowledge Extraction: From Machine Learning to Explainable AI &#8211; Andreas Holzinger</a></li>
<li>[6] <a href="http://openaccess.city.ac.uk/13819/">Kulesza, T., Burnett, M., Wong, W-K. &amp; Stumpf, S. (2015). Principles of Explanatory Debugging to personalize interactive machine learning. In: O. Brdiczka &amp; P Chau (Eds.), Proceedings of the 20th International Conference on Intelligent User Interfaces. (pp. 126-137). New York, USA: ACM. ISBN 9781450333061</a></li>
<li>[7] <a href="https://www.zerounoweb.it/analytics/cognitive-computing/fujitsu-la-nostra-ai-spiega-il-perche-delle-sue-conclusioni/">https://www.zerounoweb.it/analytics/cognitive-computing/fujitsu-la-nostra-ai-spiega-il-perche-delle-sue-conclusioni/</a></li>
<li>[8] <a href="https://hal.inria.fr/hal-02060044">Evaluating Explanations by Cognitive Value, Ajay Chander</a></li>
<li>[9] <a href="https://xaitutorial2019.github.io/">https://xaitutorial2019.github.io/</a></li>
<li>[10] <a href="https://aaai.org/Conferences/AAAI-19/aaai19tutorials/">https://aaai.org/Conferences/AAAI-19/aaai19tutorials/</a></li>
<li>[11] <a href="https://www.intel.it/content/www/it/it/it-managers/explainable-ai.html">https://www.intel.it/content/www/it/it/it-managers/explainable-ai.html</a></li>
</ul>
<h4>Immagini</h4>
<ul>
<li><a href="https://medium.com/ritual-design/culture-meets-artificial-intelligence-a2ad6dc82bb7">https://medium.com/ritual-design/culture-meets-artificial-intelligence-a2ad6dc82bb7</a></li>
<li><a href="https://www.scientificamerican.com/article/the-search-for-a-new-test-of-artificial-intelligence/">https://www.scientificamerican.com/article/the-search-for-a-new-test-of-artificial-intelligence/</a></li>
<li><a href="https://m.sohu.com/n/482461485/?wscrid=95360_7">https://m.sohu.com/n/482461485/?wscrid=95360_7</a></li>
</ul>
<blockquote><p><strong>Cosa ne pensi? Dimmelo su Twitter <a href="https://twitter.com/_domenicomonaco">@_domenicomonaco</a> oppure su Linkedin <a href="http://linkedin.com/in/domenicomonaco/">linkedin.com/in/domenicomonaco</a></strong>
</p></blockquote>
<p>L'articolo <a href="https://blog.domenicomonaco.it/201903271403/che-cosa-e-explainable-ai-e-perche-e-importante/">Explainable AI: cos&#8217;é l&#8217;AI spiegabile e perché è importante</a> sembra essere il primo su <a href="https://blog.domenicomonaco.it">Domenico Monaco</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1403</post-id>	</item>
	</channel>
</rss>
