Black Box AI si riferisce a un sistema di intelligenza artificiale il cui processo decisionale è opaco o difficile da interpretare per gli esseri umani. In altre parole, anche se il sistema fornisce risultati o previsioni, il modo in cui arriva a queste conclusioni non è facilmente comprensibile o spiegabile.
Questo fenomeno è comune nei modelli di machine learning avanzati, come le reti neurali profonde, dove la complessità dell’architettura e delle relazioni tra i dati rende difficile tracciare il ragionamento dietro una specifica decisione. Il problema della Black Box AI solleva preoccupazioni in ambiti come la trasparenza, l’affidabilità e l’etica dell’IA, specialmente in settori critici come la sanità, la finanza e la giustizia.