EO_507

DIGITAL EXPLAINABLE AI Le basi del processo decisionale di un algoritmo La fiducia e la “dipendenza” dalle decisioni prese dalle ap- plicazioni basate sull’apprendimento automatico hanno recentemente indotto alcune organizzazioni che si occu- pano di etica a livello sia professionale sia per i consuma- tori a sollevare alcune preoccupazioni. Per comprendere in chemodo i sistemi ML determinano la probabilità di un risultato, è senza dubbio utile una breve analisi del loro funzionamento. L’apprendimento automatico utilizza un algoritmo per imitare il processo decisionale del cervello umano. I neu- roni del cervello vengono replicati in unmodello matema- tico della rete neurale umana per generare un algoritmo. In maniera analoga al cervello umano, l’algoritmo della rete neurale artificiale (ANN – Artificial Neural Network) può inferire, ovvero dedurre, un risultato sulla base del- le conoscenze acquisite con un certo grado di probabilità. Come succede a tutte le persone dal momento stesso in cui nascono, la rete neurale artificiale sviluppa le proprie co- noscenze mediante l’apprendimento. L’addestramento di una rete ANN è di fondamentale importanza per ogni mo- dello di apprendimento automatico. Inoltre, per svolgere compiti (task) specifici esistono differenti tipi di modelli di reti neurali: una rete neurale convoluzionale (CNN – Con- volutional Neural network), a esempio, è più adatta per espletare compiti di riconoscimento di immagini, men- tre una rete neurale ricorrente (RNN – Recurrent Neural Network) è più indicata per l’elaborazione del parlato. Il modello acquisisce conoscenza attraverso l’elaborazione di una notevole mole di dati di addestramento. Nel caso di una rete CNN, sono necessarie decine di migliaia di imma- gini di differenti tipi di animali, abbinate al loro nome, per un’applicazione che prevede il riconoscimento di animali. Sono necessarie molteplici immagini di ciascuna specie e sesso, oltre a immagini riprese da varie angolazioni e in diverse condizioni di illuminazione. Una volta che il mo- dello è stato addestrato, la fase di test inizia con dati di immagini di prova che il modello non ha ancora elaborato. Il modello a questo punto può inferire un risultato in base alle probabilità per ciascuna immagine di prova. Le proba- bilità di trarre inferenze (dove per inferenza si intende il ragionamento fatto da un algoritmo per trarre conclusioni a partire dalle premesse) aumentano con l’incremento dei dati forniti durante l’addestramento e l’utilizzo di una rete neurale sempre più ottimizzata. Gli sviluppatori di applicazioni possono installare e far girare il modello di apprendimento automatico nel mo- mento in cui le probabilità di trarre inferenze relative a un compito specifico siano sufficientemente elevate. Una semplice applicazione industriale di apprendimento automatico basata sull’elaborazione ai margini della rete (edge) è il monitoraggio delle condizioni di un motore me- diante la verifica della sua firma vibrazionale. E’ possibi- le registrare un insieme dettagliato di firme vibrazionali tramite l’aggiunta di un sensore di vibrazione (piezoelet- trico, MEMS o un microfono digitale) a un motore indu- striale. Prendendo in esamemotori non istallati sul campo affetti da guasti meccanici noti (come ad esempio cusci- netti usurati, problemi di pilotaggio e così via) è possibile arricchire e completare i dati di addestramento. Il modello risultante può monitorare su base continuativa un moto- re e fornire informazioni dettagliate a ciclo continuo circa lo stato di salute del motore stesso. Reti neurali di questo tipo che girano su microcontrollori a basso consumo sono denominate TinyML. AI spiegabile: concetti di base Come evidenziato in precedenza, l’uscita di alcune appli- cazioni basate sull’apprendimento automatico ha susci- tato alcune perplessità a causa dei fatto che tale uscita (i risultati ottenuti) è in qualche modo distorta (affetta da bias, ovvero da un errore imputabile ad assunzioni errate nel processo di apprendimento automatico). Ci sono pa- recchi aspetti da prendere in considerazione nel dibattito che verte sul fatto che gli algoritmi di apprendimento au- tomatico e di intelligenza artificiale possano essere affet- ti da bias, ed è opinione ampiamente condivisa che tutti i risultati ottenuti tramite l’apprendimento automatico dovrebbero essere più trasparenti, equi, etici e morali. Le reti neurali, nella maggior parte dei casi, operano come vere e proprie “black box”: i dati vengono immessi nella “scatola” la quale produce il risultato. Il modello, quin- di, non fornisce alcun dettaglio circa le modalità seguite per determinare il risultato. In generale, c’è una crescente esigenza di comprendere le basi su cui poggia la decisione presa da un algoritmo. I risultati dovrebbero essere leciti ed etici, da qui l’introduzione dell’AI spiegabile. In questo articolo verranno delineati solamente alcuni L’apprendimento automatico è così divenuto rapidamente parte integrante della vita quotidiana delle persone che fanno affidamento in misura sempre maggiore sulla sua capacità di prendere decisioni in tempi brevi ELETTRONICA OGGI 507 - GENNAIO/FEBBRAIO 2023 46

RkJQdWJsaXNoZXIy Mzg4NjYz