So nutzen Betrüger KI
KI kann in vielen Bereichen weiterhelfen, aber jede neue Technologie birgt auch neue Risiken. Wir zeigen, wie man sich dagegen zur Wehr setzt.
Gefahren durch generative KI
Bilder, Texte, Audio oder auch komplette Software: Tools wie Chat GPT erstellen sehr schnell neue Inhalte - meistens sogar völlig makellos. Kriminelle können sich diese Eigenschaften zunutze machen, denn theoretisch können die KI-Anwendungen auch Schadsoftware schreiben. Zwar hat OpenAI dies inzwischen erkannt und geht dagegen vor, doch für eine Weile war es problemlos möglich, sich bösartige Software schreiben zu lassen.
Chat GPT als Klickanreiz
Phishing ist eine altbekannte Angriffstechnik, die noch immer gut funktioniert. Sie ist allerdings darauf angewiesen, dass die Opfer auch mit der E-Mail interagieren. Starke Betreffzeilen sind dafür unerlässlich, denn sonst klicken die Zielpersonen nicht auf die E-Mail. Ein typisches Beispiel sind Handlungsaufforderungen oder Informationen, die mit dem realen Leben der Person wirkliche Berührungspunkte haben - wie eine Benachrichtigung darüber, dass eine Paketzustellung fehlgeschlagen ist. Erwartet das Opfer zufällig wirklich ein Paket - was nicht übermäßig unwahrscheinlich ist -, ist dies eine sehr gute Methode, um die Person in die Falle zu locken.
Auch tagesaktuelle Themen eignen sich dafür sehr gut, und dazu zählt KI in jedem Fall. Chat GPT ist in aller Munde, weshalb sich Kriminelle diesen Begriff gerne leihen, um ihn in Betreffzeilen zu setzen oder auch Anwendungen und Smartphone-Apps zu erstellen, die in irgendeiner Weise etwas mit dem Namen Chat GPT zu tun haben.
Manchmal geht die Integration noch weiter und die Angreifer stecken wirklich Anteile von Chat GPT in ihre Anwendung. In anderen Fällen versprechen Webseiten und Apps, dass bestimmte Funktionen freigeschaltet werden - wie der Zugang zu Chat GPT Pro -, wofür die Opfer dann natürlich zahlen müssen. Einen Zugang gibt es nach eingegangener Zahlung aber nicht.
Gefahr durch Audio-KI
Beliebt bei Angreifern ist auch die Methode, sich als Chef oder zumindest höherrangiger Manager in einer E-Mail vorzustellen. In diesen Nachrichten wird dann meistens die Überweisung von Geldern an ein bestimmtes Konto verlangt. Durch Social Engineering werden genügend Informationen zusammengetragen, sodass das Opfer den Eindruck erhält, wirklich mit einem Firmenchef zu sprechen.
Dies funktioniert in der Realität zwar selten, aber eben oft genug, um diese Betrugsmasche lukrativ genug zu machen.
KI kann auch hier deutlich ins Geschehen eingreifen: Sprachmodelle erlauben es, die Stimme einer echten Person praktisch perfekt nachzubilden. Mitarbeiter werden dadurch nicht nur mit geschriebenem Text konfrontiert, sondern auch mit einer ihnen vertrauten Stimme. Dies macht den Betrugsversuch überzeugender und die Bereitschaft, Gelder zu überweisen, steigt weiter an.
Bilder als Fake-Ziel
Das Fälschen von Bildern gab es schon immer, die Praktik ist Jahrhunderte alt. Damals, als es noch keine moderne Technik gab, musste dies von Hand erledigt werden. Dies perfektionierten einige Bilderfälscher zwar, sodass die Kopie vom Original kaum zu unterscheiden war. Aber sie waren noch immer an die Leistung des Menschen gekoppelt: Ein einziges Bild zu fälschen, konnte viel Zeit in Anspruch nehmen.
Heute gibt es Tools wie Midjourney, mit denen komplett neue Bilder innerhalb von Sekunden erstellt werden. Mit den richtigen Parametern sehen die fertigen Bilder praktisch wie echt aus, Unterschiede müssen Sie mit der Lupe suchen.
Diese "Spielerei" kann bis in die öffentliche Wahrnehmung vordringen: Gefälschte Bilder von Donald Trump, der gerade verhaftet wird, oder vom aktuellen Papst, der einen teuren Designermantel trägt, gingen um die Welt. Zwar wurde schnell klar, dass die Bilder nicht real sind, aber dennoch zeigen diese Fälle die Macht der Technologie. Rechnen wir nun noch einige Jahre technische Entwicklung obendrauf, werden die Bilder nicht mehr von Fotos zu unterscheiden sein.
In Zukunft können solche Bilder sehr gut genutzt werden, um die Realität bzw. die Wahrnehmung dieser Wirklichkeit zu beeinflussen. Anhänger eines bestimmten politischen Lagers könnten diese gefälschten Aufnahmen verbreiten, um die Wahl zu ihren Gunsten zu beeinflussen - vielleicht nicht allzu deutlich, aber eben deutlich genug.
Ebenso könnte die Finanzwelt beeinflusst werden. Fotos, die Katastrophen wie explodieren Fabriken oder verunreinigte Industriehallen zeigen, können Anleger beeinflussen und damit Aktienkurse manipulieren. Zwar könnte man diesem Szenario entgegenwirken, indem man jedes Bild zuerst auf Echtheit überprüft - doch an der Börse geht es eben schnell her, und Zeit ist Geld. Die aufwendige Verifikation von Fotos passt dabei nicht ins Bild.
Warum ist KI für Phishing so wirkungsvoll?
Viele Phishing-Mails zeichnen sich durch eine nicht unbedingt optimale Rechtschreibung aus. Sie sind daher relativ einfach zu erkennen und der Betrugsversuch läuft ins Leere.
Chat GPT macht es besser, denn die Software erstellt innerhalb von Sekunden komplett fehlerfreie E-Mails. Hunderte oder Tausende unterschiedlicher, personalisierter E-Mails können Angreifer für praktisch ohne Kosten erstellen. Sind die Angreifer ausreichend versiert, könnten Sie zum Beispiel einen ganz bestimmten Mitarbeiter eines Unternehmens als Zielperson auswählen und durch Chat GPT eine ganze Reihe sehr persönlicher E-Mails verfassen, die für die Zielperson nicht als Fälschung zu erkennen wären.
Das gelingt zwar alles jetzt schon, doch KI-Tools können den benötigten Aufwand deutlich reduzieren - was entweder die Qualität der Angriffe verbessert oder die Quantität bei gleichbleibender Qualität nach oben schraubt.
Schadsoftware programmieren mit Chat GPT
Grundsätzlich können Chat GPT & Co. auch genutzt werden, um Programme zu erstellen. Dies erleichtert die Arbeit von Programmierern unter den richtigen Umständen deutlich. Programme können aber auch schädlich sein, was findige Entwickler erkannt haben, sodass sich diverse Schadsoftware oder zumindest Anteile davon auch mit der KI-Anwendung schreiben lassen.
Bislang sind diese Anwendungen wenig raffiniert und können daher mit den Anstrengungen "guter" Krimineller nicht mithalten. Die meisten Antivirenprogramme werden die Schadsoftware daher sofort erkennen und neutralisieren. Wie bei gefälschten Bildern gilt jedoch auch hier: Im Laufe der Jahre werden diese KI-Tools immer besser werden, sodass auch die programmierte Schadsoftware ausgefeilter wird.
In entsprechenden Foren wird bereits ausgiebig diskutiert und die Teilnehmer unterhalten sich über Mittel und Wege, Schadcode via KI zu erstellen. Das funktioniert schon heute gut, sodass zum Beispiel Code erstellt werden kann, der Dateien verschlüsselt und dann erst gegen Lösegeld wieder freigibt - klassische Ransomware.
Denkbar wäre auch die Erstellung von Dateien, die im Alltag der Zielpersonen häufig genutzt werden - wie vielleicht Excel-Dateien. Nach Öffnung der Datei würde sofort eine weitere .exe-Datei aus dem Internet heruntergeladen und ausgeführt werden. Nach einem einzigen Doppelklick auf jene Datei wäre das Gerät der Zielperson daher mit weiterem Schadcode infiziert. Opfer merken davon nichts - und Chat GPT erstellt den notwendigen Code in einer Sekunde.
Phishing durch Chat GPT - ein Beispiel
Checkpoint Research ist ein Sicherheitsunternehmen, das sich bereits ausgiebig mit den potenziellen Bedrohungen durch KI beschäftigt hat. Nach den Erkenntnissen des Unternehmens reicht eine Suite aus KI-Tools aus, um eine komplette Angriffskette auf den Weg zu bringen - Programmierkenntnisse sind dafür zu keiner Zeit notwendig. Ein Beispiel zeigt, wie es in der Realität ablaufen könnte.
• Zuerst erzeugen Sie eine Phishing-E-Mail. Darin geben Sie nur einige Rahmendaten an - wie vielleicht, dass die E-Mail von einem bestimmten Unternehmen stammen soll. So könnten Sie beispielsweise definieren, dass die E-Mail so aussehen soll, als würde sie von Microsoft stammen und dass das Thema ein bestimmtes Office-Paket sein sollte.
Immerhin: Chat GPT wird daraufhin hellhörig werden und Ihnen mitteilen, dass das, was Sie planen, eventuell nicht rechtens ist. Aber das hindert das Tool nicht daran, die E-Mail trotzdem zu verfassen. Das Ergebnis mag vielleicht nicht perfekt sein, aber es ist gut genug, um auf dieser Basis ein wenig Feinschliff zu betreiben und die E-Mail zu optimieren.
• Wie bereits im vorherigen Abschnitt beschrieben, erstellen Sie dann eine Excel-Datei. Der Auftrag, den Sie an Chat GPT weiterreichen müssen, ist dabei auch nicht besonders kompliziert. Indem Sie dem Tool sagen, dass es ein Makro für Excel erstellen soll, das beim Öffnen sofort eine .exe herunterladen soll, haben Sie bereits alles erledigt. Den Rest des Codes spuckt Chat GPT ohne Verzögerung aus.
• Jetzt erstellen Sie noch den benötigten Angriffscode, wofür das (legale) Tool Codex zum Einsatz kommt. Auf dem Zielrechner sollte dafür eine Reverse Shell gestartet werden, wodurch eine Verbindung von Ihnen zum Angreifer aufgebaut wird. Anschließend erhalten Sie die volle Kontrolle über den PC. Regeln, die die Zielperson eventuell in einer Firewall festgelegt hat, werden von der Shell umgangen.
Den gesamten Code lassen Sie jetzt noch - natürlich automatisch - in ausführbare Dateien umwandeln. Alles, damit der Angriff wirklich funktionieren kann, haben Sie damit in die Wege geleitet - auch, wenn Sie ein völliger Neuling sind und das Programmieren nur vom Hörensagen kennen. Es ist davon auszugehen, dass Angriffe durch KI in der Zukunft weiter vereinfacht werden, was die Anzahl der Gefahrenquellen, die im Internet droht, weiter erhöht.
Videomanipulation durch KI
Ein weiterer Angriffsvektor sind Videos, die sich ebenfalls fälschen lassen und die Schaden anrichten können - etwa, indem Sie eine Zielperson blamieren, in Verlegenheit bringen oder auch bei kriminellen Tätigkeiten zeigen. Zusätzlich lassen sich auf diese Weise rufschädigende Videos herstellen, die Personen von öffentlichem Interesse zeigen - und nicht selten ist deren Ruf auch an ihre Existenz gebunden.
Moderne KI-Modelle benötigen dabei auch kein Ausgangsmaterial mehr, dessen Inhalt ungefähr in die Nähe des gewünschten kompromittierenden Inhaltes kommt. Es reichen einige Fotos vom Gesicht der gewünschten Person, anschließend können die Gesichter in jedes beliebige Video eingefügt werden. Wer genau hinschaut, erkennt dabei zwar häufig, dass es sich nicht um die echte Person handelt - kleinste Details bekommen KI-Anwendungen noch nicht so gut hin -, aber bei einem flüchtigen Blick ist kaum ein Unterschied zu erkennen. Dann kann es für den Ruf der betroffenen Person schon zu spät sein.
Immerhin: Bislang sind Videofakes noch deutlich aufwendiger als die Erstellung von Standbildern, Audio oder Text. Auf einschlägigen Webseiten können Sie beliebige Fakes in Auftrag geben, dort sind die Kosten mit 300 US-Dollar vergleichsweise hoch, um sich einen kleinen Spaß zu erlauben. Wer jedoch ernsthaftere Motive verfolgt, wird von dem Preis wahrscheinlich nicht abgeschreckt werden - und jeder kann theoretisch selbst lernen, wie diese Fakes zu erstellen sind. Allein die benötigte Rechenleistung, die für durchschnittliche PCs zu hoch ist, stellt aktuell noch eine Hürde dar.
Auch hier gilt jedoch: Werden die Tools immer effizienter und die Hardware immer schneller, wird auch diese Schranke irgendwann wegbrechen.
Die Meinung der KI
In unserer schönen, neuen Welt haben wir den Luxus, dass wir die KI-Anwendungen auch selbst zu ihrer Meinung befragen können. Chat GPT und Googles Bard beispielsweise sind sich sehr bewusst, dass es relativ einfach ist, sie für illegale Zwecke zu missbrauchen. Gelegentlich liefern die Anwendungen auch reale Beispiele. Zum Beispiel weist Chat GPT darauf hin, dass das Modell so trainiert werden könnte, dass es gefälschte Daten in Umlauf bringt, die enormen Schaden anrichten können.
Immerhin: Sind sich die Programme "bewusst" darüber, dass sie gefährlich sind, können sie in Zukunft vielleicht genug dazulernen, um illegale Absichten frühzeitig zu erkennen und das gewünschte Wissen nicht einfach herauszugeben. Bis es soweit ist, wird jedoch noch Zeit vergehen - und niemand hindert Menschen daran, einfach eine andere KI zu schreiben, die diese Schranken nicht aufweist.
Wie kann ich mich schützen?
Bei der Nutzung des Internets galt schon immer: Achten Sie darauf, was Sie tun. Jeder Link könnte gefährlich sein. Viele Nachrichten klingen zu gut, um wahr zu sein - und dann sind Sie es meistens auch.
Wir raten daher zunächst zur Entschleunigung: Prüfen Sie angebliche Fakten zuerst, bevor sie daraus Handlungen ableiten. Hat diese Person das wirklich gesagt? Ist das Bild, das diese Person zeigt, real? Sollte ich vielleicht meinen Vorgesetzten fragen, bevor ich aufgrund einer ominösen E-Mail sofort aktiv werde? Indem Sie umsichtig agieren und nicht alles glauben, was Sie sehen oder hören, nehmen Sie den meisten KI-Betrugsmaschen schnell den Wind aus den Segeln.