Künstliche Intelligenzen, speziell selbstlernende neuronale Netze, machen vielen Menschen Angst. Der Grund: Sie können in fortgeschrittenen Entwicklungsstadien Entscheidungen unter derart komplexen Annahmen treffen, dass sie für Menschen nicht mehr verständlich sind. Man weiß also nicht, warum sie etwas so entscheiden, wie sie es entscheiden. Eine höhere Akzeptanz und damit Nutzbarkeit von KI-Systemen, schreibt der Economist, ließe sich erreichen, wenn jene ihre Aktionen erklären könnten. Zu den ersten Forschungsaktivitäten in diese Richtung gehört laut Economist das Projekt „Explainable AI“ (XAI) der Defence Advanced Research Projects Agency (DARPA); Bild: Logo.