Intelligenza artificiale

Explainable AI (XAI): più trasparenza e fiducia nel manifatturiero con il progetto Ue XMANAI



Indirizzo copiato

Deep Blue partecipa al progetto per migliorare il modo in cui macchine ed esseri umani interagiscono nell’industria manifatturiera rendendo più affidabile, comprensibile e rilevante il comportamento degli algoritmi di AI grazie all’Intelligenza Artificiale Spiegabile (XAI)

Pubblicato il 23 mag 2024



Shutterstock_2281453509 (1)

Ottimizzare l’interazione tra macchine ed esseri umani nell’industria manifatturiera grazie all’Explainable AI (XAI). Questo l’obiettivo a cui sta lavorando Deep Blue, tra le prime PMI italiane ed europee per progetti di ricerca e innovazione vinti e realizzati all’interno del programma quadro Horizon Europe, assieme il consorzio europeo del Progetto XMANAI, guidato da TXT E-Solutions spa. Il team di specialisti Deep Blue si impegna nello specifico a rendere i comportamenti degli algoritmi di Intelligenza Artificiale (AI) affidabili, comprensibili e pertinenti attraverso un approccio human-centered, promuovendo così la fiducia e l’efficacia delle nuove tecnologie intelligenti nell’ambiente lavorativo.

Che cos’è e come implementare la Explainable AI

L’Intelligenza Artificiale Spiegabile (XAI), dall’inglese Explainable AI, mira a svelare i meccanismi che regolano il processo decisionale dell’intelligenza artificiale. Questa trasparenza è fondamentale per accrescere la fiducia degli operatori umani nelle nuove tecnologie, soprattutto in settori come il manifatturiero dove le decisioni automatizzate possono avere un impatto significativo sulla sicurezza e sulla produttività.

La “AI Explainability” si riferisce alla capacità di fornire all’utente informazioni chiare, affidabili e pertinenti con il livello appropriato di dettaglio e con tempistiche adeguate sul modo in cui un’applicazione di intelligenza artificiale o machine learning produce i suoi risultati.

Trasparenza sui processi decisionali per migliorare l’interazione uomo-macchina

Uno dei modi in cui è possibile implementare la Explainable AI riguarda la visualizzazione dei dati vale a dire rappresentazioni grafiche o visive dei dati utilizzati dal modello e dei passaggi interni del modello stesso, per mostrare come sono state prese le decisioni. Questo può includere grafici, diagrammi o mappe che visualizzano il flusso di dati e le interazioni all’interno degli algoritmi.

Un’altra modalità è quella che prevede l’identificazione dei fattori e delle variabili più influenti che hanno contribuito a una decisione, evidenziando quali input hanno avuto un impatto maggiore sui risultati. Questo permette agli utenti di comprendere quali variabili sono state considerate dal modello e come hanno influenzato le decisioni finali.

Ancora, la Explainable AI può essere raggiunta con l’interpretazione del modello: tecniche che permettono di attribuire un peso a ciascuna variabile di input e mostrare come queste variabili influenzano le previsioni del modello. Questo aiuta gli utenti a capire quali sono le caratteristiche più rilevanti considerate dal modello e come contribuiscono alle sue previsioni.

Infine, spiegazioni in linguaggio naturale o in forma di testo che descrivono il processo decisionale del modello in modo comprensibile agli esseri umani. Questo tipo di spiegazione è particolarmente utile perché fornisce una descrizione dettagliata e facilmente comprensibile del ragionamento dietro le decisioni dell’AI.

Liberare il potenziale dell’Explainable AI: il progetto europeo XMANAI

Dimostrare il valore dell’Explainable AI nella risoluzione dei problemi di produzione e nell’innalzamento del livello di fiducia nell’innovazione tecnologica. Con questa missione è nato il Progetto XMANAI, frutto della collaborazione tra 15 partner provenienti da sette Paesi europei, tra cui Italia, Germania, e Spagna che fa leva sulla combinazione di competenze provenienti dalla ricerca, dall’industria e dall’accademia.

All’interno del progetto, Deep Blue è incaricata di definire gli scenari futuri in cui è coinvolta l’AI spiegabile, e di studiare le possibili interazioni tra utente e AI per offrire la massima spiegabilità, per limitare l’errore umano e migliorare l’efficienza complessiva. Impegno che si traduce nella ricerca e nello sviluppo di strumenti e metodologie per la progettazione di esperienze d’uso innovative delle AI.

Quattro i casi studio del settore manifatturiero affrontati nel progetto, tutti con applicazioni su diversi ambiti del business aziendale. Dalla manutenzione preventiva e risoluzione dei problemi delle macchine a controllo numerico; alla ottimizzazione della produzione di una catena di montaggio, per valutare quali fattori incidono sul raggiungimento o meno degli obiettivi di produzione; passando per il supporto alla business intelligence, per fare una previsione della domanda a supporto del piano operativo aziendale; e arrivare al supporto agli operatori nello svolgere operazioni di misurazione complesse e migliorarne l’accuratezza.

Un tool per interfacciarsi facilmente con l’AI in produzione

“In XMANAI abbiamo lavorato alla visualizzazione dei dati, testando rappresentazioni dell’esito di alcuni passaggi interni e dei risultati delle analisi dei modelli di AI. Questo ci ha permesso di supportare la comprensione del processo decisionale degli algoritmi e di evidenziare quali input hanno guidato le previsioni, fornendo così una chiara spiegazione dei risultati ottenuti e garantendo una maggiore trasparenza e comprensione. Questo risultato si inserisce all’interno dell’idea che abbiamo in Deep Blue di sviluppare strumenti e metodologie per la progettazione di esperienze d’uso innovative delle AI, in special modo nel settore manufatturiero” ha commentato Linda Napoletano, Director e responsabile dell’Area Manufacturing in Deep Blue.

Il tool UXAI, sviluppato all’interno del progetto, consente di suggerire le migliori visualizzazioni di dati per fare previsioni, creare scenari, controllare la produzione o analizzare modelli e tendenze. Seguendo le indicazioni del tool, per esempio, sono state progettate e testate interfacce che permettono agli operatori di esplorare anomalie, fare previsioni e analizzare tendenze in modo intuitivo e informativo, migliorando così l’efficacia delle decisioni aziendali, come nel caso italiano di CNH Industrial.

Il caso studio italiano che ha coinvolto CNH

Con una storia di oltre 180 anni alle spalle, CNH è un’azienda mondiale specializzata nella produzione di macchinari, tecnologie e servizi per agricoltura, movimento terra e servizi finanziari. Nell’ambito del progetto XMANAI, CNH ha collaborato con partner europei per realizzare un caso di studio presso lo stabilimento di Modena, lavorando a stretto contatto con i colleghi del dipartimento R&D di San Matteo. Questo impianto produttivo è responsabile della produzione di 15.000 treni di trasmissione all’anno, destinati ai trattori assemblati negli impianti CNH di tutto il mondo.

Il caso di studio ha focalizzato l’attenzione sui tempi di fermo macchina che interrompono la produzione e sulla programmazione della manutenzione, problematiche comuni a molte aziende manifatturiere. L’utilizzo della piattaforma XMANAI, basata sulla Explainable AI, ha permesso agli operatori di diagnosticare in modo efficiente gli errori delle macchine e di prevedere la fine della vita dei componenti. Questo approccio consente di gestire in modo ottimale il magazzino, garantendo la disponibilità dei pezzi di ricambio necessari per interventi manutentivi tempestivi. Di conseguenza, l’efficienza produttiva complessiva del sito è stata migliorata, riducendo significativamente i tempi e i costi associati ai fermi macchina non pianificati.

Articoli correlati

Articolo 1 di 3