Mordende Ehefrau oder Mensch mit Regenschirm?

Sie sieht Mord und Totschlag überall: US-Forscher haben die
erste psychopathische künstliche Intelligenz vorgestellt. Der
Algorithmus namens "Norman" wurde von Wissenschaftlern am
renommierten Massachusetts Institute of Technology (MIT)
geschaffen.
Bild 1 von 1

Sie sieht Mord und Totschlag überall: US-Forscher haben die erste psychopathische künstliche Intelligenz vorgestellt. Der Algorithmus namens "Norman" wurde von Wissenschaftlern am renommierten Massachusetts Institute of Technology (MIT) geschaffen.

 © Felix Kästle - dpa/AFP
12.06.2018 - 12:12 Uhr

Sie sieht Mord und Totschlag überall: US-Forscher haben die erste psychopathische künstliche Intelligenz vorgestellt. Der Algorithmus namens "Norman", benannt nach Alfred Hitchcocks Filmfigur Norman Bates, wurde von Wissenschaftlern am renommierten Massachusetts Institute of Technology (MIT) geschaffen. Er sei ein Beispiel dafür, was passiere, wenn künstliche Intelligenz mit einseitigen Infos gefüttert werde, erklärten die Forscher. Mit "Norman" wollen sie auf Gefahren hinweisen.

Für das Experiment versorgte das Forscherteam die künstliche Intelligenz ausschließlich mit Inhalten, in denen es um sterbende Menschen geht. Sie bedienten sich aus Beiträgen im Netzwerk Reddit. Anschließend zeigten sie "Norman" eine Reihe von Tintenklecks-Bildern, angelehnt an den psychodiagnostischen Rorschachtest. Die Antworten ihres Psychopathen, was wohl darauf zu sehen sei, verglichen die MIT-Forscher mit denen einer anderen künstlichen Intelligenz, die "normal" geschaffen wurde.

Die Ergebnisse sind furchteinflößend: Während der "gesunde" Algorithmus auf einem Bild "Menschen, die eng beieinander stehen" sah, antwortete "Norman": "Ein Mann, der aus dem Fenster springt." Einen anderen Tintenklecks identifizierte die künstliche Intelligenz als "Person mit einem Regenschirm", während "Norman" darin einen Mann sah, "der von seiner schreienden Frau erschossen wird". Der psychopathische Algorithmus entdeckte außerdem Menschen, die durch einen Stromschlag getötet, überfahren oder in eine Teigmaschine gezogen werden - während die andere künstliche Intelligenz Vögel und eine Hochzeitstorte erkannte.

Beim maschinellen Lernen seien die Daten, mit denen die Maschine gefüttert werde, von zentraler Bedeutung, sie könnten "ihr Verhalten signifikant beeinflussen", fassen die Forscher ihr Experiment zusammen. Ihr Ziel ist es, auf die Gefahren bei künstlicher Intelligenz hinzuweisen und das Bewusstsein dafür zu schärfen.

Wenn ein Algorithmus als ungerecht oder voreingenommen wahrgenommen werde, sei der Übeltäter oftmals nicht die künstliche Intelligenz selbst, sondern die Daten, mit denen sie gefüttert wurde, erklärten die MIT-Forscher. Auf der Internetseite norman-ai.mit.edu haben sie "Normans" Antworten zusammengetragen. Dort bitten sie Nutzer, den Test selbst zu machen und ihre Antworten einzusenden - damit "Norman" repariert werden kann.

Quelle: 2018 AFP
Top-Themen
Die lang ersehnte Gehaltserhöhung bleibt aus? Steuerfreie Extras vom Chef können das wieder wettmachen. Wir zeigen ...mehr
Bäume sind schön und ein Zufluchtsort für viele Tiere wie Vögel und Insekten. Doch Bäume können auch Schäden ...mehr
Der US-Senat hat eine Einigung von Präsident Donald Trump mit dem chinesischen Telekommunikationsriesen ZTE ...mehr
Anzeige
Börse
DAX
Name Letzter %
DAX    
MDAX    
TecDAX    
Nikkei 225    
Anzeige
Anzeige
Top-Artikel
Ob großer Familieneinkauf oder die Besorgungen für einen Single-Haushalt: Beim Einkauf lässt sich viel Geld sparen, wenn man günstige Discounter Angebote sucht und Preise vergleicht.mehr
"Ich bin doch nicht blöd" oder "Bin ich schon drin?": Spielen Sie unser Quiz und erraten Sie, welcher Slogan zu welcher Marke gehört! mehr
Eine wichtige Zusatz-Qualifikation: Lernen Sie schnell und einfach das Zehn-Finger-Tippsystem!mehr
Anzeige