Ingenieurs gebruiken cognitieve psychologie om erachter te komen hoe KI's denken en deze meer verantwoordelijk maken.
Ingenieurs van kunstmatige intelligentie hebben een probleem: zij weet het vaak niet wat hun creaties denken.
Naarmate kunstmatige intelligentie groeit in complexiteit en prevalentie, wordt het ook krachtiger. AI heeft al rekening gehouden met beslissingen over die naar de gevangenis gaat en die een lening ontvangt. Er zijn suggesties die AI zou moeten bepalen die de beste kans krijgt om te leven wanneer een zelfrijdende auto geconfronteerd wordt met een onvermijdelijke crash.
Het definiëren van AI is glad en groeit nog meer, omdat startups het modewoord verspillen aan wat ze ook doen. Het wordt algemeen aanvaard als elke poging om menselijke intelligentie en capaciteiten te apen. Een subset die is opgestart zijn neurale netwerken, systemen die 'leren' zoals mensen doen door middel van training, waarbij ervaring wordt omgezet in netwerken van gesimuleerde neuronen. Het resultaat is geen code, maar een onleesbare, verwarde massa van miljoenen - in sommige gevallen miljarden - van kunstmatige neuronen, wat verklaart waarom degenen die moderne AI's maken verward kunnen worden over hoe ze taken oplossen.
De meeste onderzoekers zijn het eens uitdaging van het begrijpen van AI is aan het drukken. Als we niet weten hoe een kunstmatige geest werkt, hoe kunnen we dan zijn vooroordelen vaststellen of zijn fouten voorspellen?