Een van de grote problemen die de omarming van kunstmatige intelligentie in de weg staan, is het black box-idee waarin de machine komt met een oplossing die niet herleid kan worden, omdat een machine zoveel variabelen in acht neemt dat hij tot oplossingen komt die we zelf niet kunnen voorzien. In de machine gebeurt van alles en als die een antwoord uitspuugt, moet je het maar geloven - en daar hebben mensen moeite mee.

Van bijvoorbeeld iets als een zelfrijdende auto verwacht je wel dat de software aangeeft hoe hij tot een beslissing is gekomen. De University of Georgia Tech bewijst aan de hand van een AI die de klassieke game Frogger speelt dat je een interface kunt bouwen die in grove lijnen aangeeft waarom hij X of Y doet. De bedoeling is dat gebruikers daardoor meer vertrouwen krijgen in de AI, omdat ze enige inzicht hebben in het beslissingsproces.

Om te testen of het systeem voldoende is voor vleeszakken, presenteerden de wetenschappers per Frogger-actie drie rechtvaardigingen: eentje die een mens schreef, eentje die de AI leverde en eentje die willekeurig werd gegenereerd. De menselijke uitleg kwam vaak hoger uit, maar AI-uitleg die in de omgeving in acht nam en aangaf zich bewust te zijn van specifieke gevaren werd ook hoog gewaardeerd.