neuronales_netzForscher am Massachusetts Institute of Technology sollen es geschafft haben, dass aus maschinellem Lernen gewonnene Erkenntnisse nachvollziehbar werden, so dass ihre Relevanz und Korrektheit sich beweisen lassen, heißt es auf der Wissenschafts-Site Eurekalert!. Damit wäre eine prinzipielle Schwäche Künstlicher Intelligenz in Form neuronaler Netze (Bild: Wikimedia) behoben, die ja – wie das menschliche Hirn – als Blackbox funktionieren: Eingespeiste Informationen werden an einer Vielzahl von Knotenpunkten verarbeitet und weitergereicht, ohne dass einzelne Knoten identifizierbar sind, geschweige denn ihre Beiträge zum Endergebnis. – Tao Lei, Regina Barzilay und Tommi Jaakkola vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT werden ihr Forschungspapier in der kommenden Woche auf einer wissenschaftlichen Konferenz in Austin/Texas vorstellen.