Forscher foppt Künstliche Intelligenz

Posted by in Allgemein

Diese Seite teilen:

Selbstlernende Algorithmen lassen sich mit mit „feindlichen Beispielen“ (adversarial examples) hinters Licht führen. Wie Anish Athalye im Open AI Blog behauptet, funktioniert das in der Bilderkennung entgegen verbreiteten Annahmen auch dann, wenn Bilder beim maschinellen Lernen aus verschiedenen Perspektiven analysiert werden – allerdings nur mit speziellen Bildern. Wie der Doktorand am Massachusetts Institute of Technology (MIT) ausführt, lassen sich solche „robusten“ feindlichen Bilder mithilfe einer Methode erzeugen, die kleinste Störungen im Bildaufbau dazu nutzt, gezielt Fehler bilderkennender Software zu provozieren. Er zeigt als Beispiel das Bild einer Katze (siehe Screenshot), die von der Software mal korrekt, mal jedoch als Desktop Computer identifiziert wird. – Die Erkenntnis könnte weitreichende Konsequenzen für die Entwicklung des autonomen Fahrens haben, warnt Athalye. Denn in dieser Domäne gehe man bisher davon aus, dass die verwendeten Bilderkennungsverfahren durch wechselnde Perspektiven praktisch fehlersicher seien.