La trasparenza risolve questo problema utilizzando modelli facilmente interpretabili, alcuni dei quali tratteremo nella prossima sezione. La spiegazione risolve questo problema "decomprimendo la scatola nera" o tentando di ottenere informazioni dettagliate dal modello di apprendimento automatico, spesso utilizzando metodi statistici.
Cos'è la spiegazione del modello?
La spiegazione del modello è un concetto ampio di analisi e comprensione dei risultati forniti dai modelli ML. Viene spesso utilizzato nel contesto di modelli "black-box", per i quali è difficile dimostrare, in che modo il modello è arrivato a una decisione specifica.
Che cos'è la spiegazione nell'apprendimento profondo?
Spiegabilità (indicata anche come "interpretabilità") è il concetto che un modello di apprendimento automatico e il suo output possono essere spiegati in un modo che "ha senso" per un essere umano a un livello accettabile … Altri, come i sistemi di deep learning, pur essendo più performanti, restano molto più difficili da spiegare.
Cosa significa Spiegabilità nel contesto di un sistema di intelligenza artificiale?
Andrew Maturo, analista di dati, SPR. "IA spiegabile in termini semplici significa AI che è trasparente nelle sue operazioni in modo che gli utenti umani siano in grado di comprendere e fidarsi delle decisioni Le organizzazioni devono porre la domanda: puoi spiegare come la tua IA l'ha generata intuizione o decisione specifica?" –
Che cos'è un problema di spiegazione?
Le persone hanno un'apparente avversione per le decisioni da scatola nera che le influenzano finanziariamente, dal punto di vista sanitario e in dozzine di altri modi mentre allo stesso tempo sono ignare di alcuni diversi tipi di decisioni. … Quando l'IA prende queste decisioni, si sente la richiesta di spiegabilità.