Leclerc e la Ferrari a Monaco: un esempio di AI-based Decision Making

Il GP di Monaco 2019 di Formula 1 vede Charles Leclerc partire dalla 15° posizione per un errore di strategia della scuderia Ferrari

Il giovane pilota francese è incappato in un errore di strategia che a mio parere è un’ottimo esempio di Ai-based Decision Making, gli elementi ci sono tutti: c’è un manager, un obiettivo, delle decisioni da prendere in tempi brevissimi, una strategia, dei dati e un software per il supporto alle decisioni che tra le altre cose fa uso di intelligenza artificiale (AI).

La domanda è: quando e quanto fidarsi di un sistema basato su Intelligenza artificiale ed il ruolo del manager.

Non sto qui a dilungarmi su come funziona la Formula 1, basti capire che durante le qualifiche lo scopo è percorrere la pista nel minor tempo possibile, tale tempo determinerà poi la posizione di partenza della gara. Il tutto con delle regole: un numero limitato di gomme e un numero prefissato sessioni dalle quali si può essere eliminati.

Il gioco di strategia si condensa nella capacità di fare un tempo sufficientemente basso da “passare alla successiva sessione” usando il minimo numero di gomme morbide e senza “mostrare il vero potenziale dell’auto” in quel circuito allo scopo di sfoderare l’asso nella manica alla fine.

É qui che le decisioni del manager della scuderia si fanno cruciali.

Ai-based Decision Making nelle organizzazioni

Oggi, nelle aziende come nella Formula 1, le decisioni si fanno sempre più complesse e si basano su un numero di dati sempre maggiore, per tali motivi si utilizzano sistemi basati anche su tecniche di intelligenza artificiale: questo processo decisionale prende il nome di AI-based Decision Making, un ambito di ricerca che studia la relazione tra i sistema a supporto delle decisioni, l’intelligenza artificiale e la capacità delle persone di prendere decisioni corrette.

Questo implica tutta una serie di problematiche come un’enorme quantità di dati, la solidità del sistema predittivo, la capacità dell’operatore umano di mettere in dubbio la decisione dell’AI, fattori di fiducia/sfiducia, robustezza e trasparenza dell’AI, ed infine informazioni sufficienti a supportare il processo decisionale.

Così, il ruolo del manager è diventato più complicato, perché ha un suggeritore AI-based che gode di un’ hype (inflacted expectations) esagerato, ma che è fallibile tanto quanto un operatore umano.

Per capire questo complesso processo decisionale basato su software dotati di algoritmi di intelligenza artificiale vorrei analizzare cos’è successo nella scuderia Ferrari.

Come funzionano le qualifiche in F1?

Le qualifiche si dividono in 3 sessioni (Q1, Q2 e Q3) dove [bwin]:

  • Q1 – Tutti i piloti hanno 18 minuti per uscire in pista e segnare il loro miglior tempo, alla fine della sessione le 6 monoposto più lente sono eliminate e le rimanenti passano alla fase successiva;
  • Q2 – dura 15 minuti e i piloti scendono nuovamente in pista per fare un nuovo giro veloce. La Q2 è fondamentale perché le monoposto che vi partecipano partiranno in gara con gli stessi pneumatici con cui hanno fatto il loro miglior tempo nella Q2. Alla fine del Q2 altre 6 macchine saranno eliminate mentre le più veloci vanno alla fase finale.
  • Q3 – i piloti restanti si sfidano in una sessione di 12 minuti in cui solitamente ogni pilota effettua due giri veloci. La monoposto più veloce si aggiudica la Pole Position.

Cosa è successo a Charles Leclerc a Monaco?

Charles Leclerc non si era fermato alla pesa, dunque il team lo ha avvisato e lo ha accompagnato al box della Federazione per effettuare la procedura, alla fine della quale è rientrato nel suo garage. Qui l’errore di valutazione della squadra che lo ha penalizzato. [Sky Sport]

Charles Leclerc
Charles Leclerc

Leclerc non è stato fatto tornare in pista nel momento in cui i tempi di tutti i piloti che andavano abbassandosi, questo a differenza di Vettel che rientrato in pista per migliorarsi ed evitare l’eliminazione dalla Q1. Il tempo per rientrare c’era. La Q1 termina, ma il ferrarista ha un tempo non sufficiente per passare in Q2, dunque viene eliminato.

Leclerc: “Io ho chiesto per sapere se fossimo sicuri di farcela. Non ho ricevuto risposta. Poi, a un minuto dalla fine, hanno scoperto che era troppo tardi. Sono più deluso che arrabbiato”.

Come spiega [Motorsport]: durante le sessioni di qualifica un sistema informatico calcola automaticamente il tempo sul giro sufficiente per poter stare tranquilli, se si è sotto quel tempo si evita di rientrare in pista e consumate gomme utili magari nella sessione successiva o in gara.

Ma i sistemi informatici sono fallibili, quindi è qui che le valutazioni in tempo reale degli ingegneri entrano in gioco e “valutano il da farsi”,  serve della vera intelligenza umana, non artificiale.

Il problema è che oggi le attività della Formula 1 sono sempre più specializzate e frammentate al fine di raggiungere un’efficienza impensabile anche solo dieci anni fa.

Paradossalmente è stato il giovane Charles Leclerc a mettere in dubbio il suggerimento dei software, attribuendo ad ognuno dei piloti in pista il corretto peso specifico, ma la squadra lo ha fatto desistere, fidandosi di ciò che solitamente non sbaglia mai (il software).

Leclerc, perplesso:, “Dovrei uscire, penso che siamo un po’ troppo a rischio”, ha detto via-radio Charles ai suoi ingegneri, “No, abbiamo i dati e crediamo che tu sia al sicuro”, è stata la risposta.

AI-based Decision Making

Questo esempio che ho descritto da ricostruzioni di [Motorsport] e [Sky Sport] a mio parere è un ottimo esempio di Ai-based Decision Making, in qui la complessità nel prendere decisioni giusta è comunque in gran parte derivata dalla capacità di valutare la situazione d’insieme, ma quest’ultima arricchita dal fattore Artificial Intelligence (AI).

Ma cosa succede? Succede che oltre alla situazione in pista bisogna valutare il suggerimento del software, che sappiamo, si basa su un enorme quantità di dati, enormi capacità di calcoli ed algoritmi che “Dio solo sa cosa fanno” e quindi potenzialmente potrebbe aver “visto” qualcosa che noi banali esseri umani non siamo stati in grado di vedere.

É proprio questa “fiducia” nelle capacità del software che può portare in errore chi deve prendere una decisione, spinto quest’ultimo magari ad ignorare il proprio istinto in favore di un software che “fino ad oggi” non ha mai sbagliato.

In realtà tutto questo è riduttivo rispetto al problema delle decisioni basate su software di intelligenza artificiale, ma a mio parere è un ottimo esempio che mostra come un operatore umano deve essere messo in condizione di confutare le decisioni del software basato su AI, ma questo per essere fatto necessita di tutta una serie di soluzioni che vanno dall’uso di UX/UI adatte, dati ed informazioni a sufficienza a supporto della decisione dell’operatore.

Fonti:

Cosa ne pensi? Dimmelo su Twitter @_domenicomonaco oppure su Linkedin linkedin.com/in/domenicomonaco