Was ist dunkle KI?
Unter dunkler KI, auch als "böse KI" bezeichnet, versteht man die Verwendung von künstlicher Intelligenz für bösartige Zwecke, etwa für Cyberangriffe, Betrug, Scams, Desinformationskampagnen und Datenschutzverletzungen. Dabei werden in manchen Fällen KI-Programme mit dem ausdrücklichen Zweck entwickelt, sie für diese Vergehen einzusetzen; in anderen Fällen werden hingegen neutrale oder nützliche KI-Programme für schädliche Vorhaben zweckentfremdet.
Dunkle KI wird normalerweise von Cyberkriminellen wie Hackern, Betrügern und anderen zwielichtigen Gestalten verwendet, um ihre Machenschaften zu entwickeln oder in die Tat umzusetzen. Sie können auf diese Weise möglicherweise raffiniertere Angriffe oder Betrugsmaschen schneller und wesentlich leichter starten.
Laut manchen Definitionen gilt jedoch auch KI, die in Kriegshandlungen eingesetzt wird, als dunkle KI. So hat beispielsweise Israel KI-Programme zur leichtere Bestimmung von Zielen in Gaza eingesetzt. Und im Krieg Russlands gegen die Ukraine haben beide Seiten KI eingesetzt, um beispielsweise Schlachtfelddaten zu analysieren.
Weitere Bedenken wegen der Rolle künstlicher Intelligenz bei der Kriegsführung kamen im Februar 2025 auf, als Google ein lang etablierte Verbot aufhob, das die Verwendung von KI zur Entwicklung von Überwachungstools und Waffen untersagte.
Beispiele für dunkle KI
Beispiele für dunkle KI sind unter anderem böswillig erstellte Deepfakes für Manipulation und Rufschädigung, generative KI-Programme zum Verfassen betrügerischer Nachrichten und KI-gestützte Software, die Cyberangriffe erleichtern soll.
KI kann für vielerlei zwielichtige Machenschaften eingesetzt werden, darunter Deepfakes und diverse Betrugsmaschen.
Deepfake-KI
Deepfakes sind KI-generierte Medien, die eine Person möglichst genau imitieren, etwa ihr Gesicht, ihre Gewohnheiten oder ihre Stimme. Deepfake-Videos werden oft als witzige Filmclips erstellt, mit denen jemand Politiker, Sportler und Prominente aufs Korn nimmt; sie können aber auch dazu verwendet werden, den Ruf einer Person zu schädigen oder Fake News zu verbreiten.
Das Thema Deepfake-Pornografie wird in der Debatte über das Schadpotenzial dieser Technologie zunehmend wichtig. So kam es beispielsweise in Schulen in Südkorea und Spanien zu regelrechten Deepfake-Epidemien, wobei Kinder explizite Deepfake-Videos ihrer Klassenkameraden erstellten und weitergaben.
Viele Prominente, etwa die Sängerin Taylor Swift, der Twitch-Streamer Pokimane und die US-amerikanische Abgeordnete Alexandria Ocasio-Cortez, waren ebenfalls Opfer von Deepfakes.
KI-Desinformation
Bei KI-Desinformation nutzt der Täter KI, um gefälschte, irreführende oder ungeprüfte Nachrichtenmeldungen und andere Ressourcen zu erstellen und zu verbreiten. Diese Desinformationen werden oft mithilfe von Deepfakes verbreitet. So haben beispielsweise im Krieg Russlands gegen die Ukraine staatliche Akteure und Partisanen wiederholt Deepfakes genutzt, um Desinformationen und Propaganda zu verbreiten.
Diese Videos sind zwar möglicherweise für manche Betrachter als Fälschungen erkennbar. Mit zunehmendem Fortschritt dieser Technologie werden Deepfakes jedoch immer realitätsgetreuer. Die Folge könnten größere Erfolge bei Desinformationskampagnen von Staaten und Einzelpersonen sein.
Online verbreiten sich Websites mit KI-generierten Fake News, oft mit URLs, die denen seriöser, bekannter Organisationen wie CBS, der BBC, ESPB und NBC ähnlich sind. In manchen Fällen nutzen diese Websites KI, um Artikel der Websites, die sie imitieren, zusammenzufassen und zu replizieren. Dadurch kann es zu seltsamen Formulierungen kommen, oder Artikel können sonderbar aufgebaut sein, was faktische Fehler und irreführende Nachweisen zur Folge hat.
Andere Websites mit dunkler KI existieren eigens zum Zweck der Verbreitung von Fake News. So stellt sich beispielsweise USNewsper.com als seriöse nationale Nachrichtenquelle in den USA dar, allerdings wurde der Vorwurf erhoben, dass es sich um eine in Litauen registrierte KI-generierte Website handele. Die Website geriet ins Gerede wegen unzutreffender Behauptungen, dass der Rückzug von Joe Biden bei der US-amerikanischen Präsidentenwahl 2024 eine Falschmeldung sei.
Phishing-KI
Betrüger können mithilfe dunkler KI ihre Phishing-Kampagnen ausfeilen und rationalisieren: Bei diesen Kampagnen werden Nachrichten aus scheinbar seriösen Quellen verschickt, um Malware zu verbreiten oder die Opfer dazu zu verleiten, vertrauliche Informationen preiszugeben oder Geld zu senden.
Dabei können Cyberkriminelle seriöse Large Language Models (LLMs) nutzen, um Betrugs-E-Mails realistischer wirken zu lassen. Bei ChatGPT und anderen beliebten LLMs gibt es zwar Einschränkungen, etwa Filter zur Inhaltsmoderierung, Echtzeit-Datenbeschränkungen, nur begrenzte technische Details und ethische und rechtliche Nutzungsrichtlinien. Diese lassen sich jedoch durch sorgfältige Formulierungen umgehen. Betrüger können jedoch auch dunkle GPTs nutzen: Programme, die genau wie ChatGPT funktionieren – aber ohne die Schutzmaßnahmen.
Betrüger können mithilfe dunkler KI auch Opfer recherchieren und gezielt ins Visier nehmen, wobei sie sich die Fähigkeit von KI zunutze machen, große Mengen öffentlich zugänglicher Informationen sehr schnell zu verarbeiten. Sie können diese Daten rasch aus Quellen wie den sozialen Medien und Personensuchseiten zusammensuchen, um potenzielle Opfer zu identifizieren und zu entscheiden, welche Betrugsmasche jeweils am leichtesten zum Ziel führt.
Nachdem sie jemanden ausgewählt haben, könnten sie dessen biografische Daten in einen dunklen GPT hochladen und dann mithilfe von KI überzeugende und personalisierte Phishing-Nachrichten generieren. Dadurch können Betrüger potenziell SMS- oder E-Mail-Angriffe wesentlich schnelle entwickeln.
KI-Betrug
Unter KI-Betrug versteht man die Verwendung von KI zur Manipulation von Personen, Systemen oder Unternehmen für finanzielle Gewinne oder andere unrechtmäßige Vorteile. Beispielsweise haben Betrüger mithilfe von Deepfake-Bildern des Schauspielers Brad Pitt einer Frau in Frankreich eine romantische Beziehung mit diesem vorgegaukelt und sie um 800.000 USD betrogen.
Das ist nicht der einzige Fall von KI-Betrug mithilfe von Prominenten-Deepfakes. Viele Unternehmen haben KI-generierte Imitate von Prominenten zur Werbung für ihre Produkte verwendet. Dazu gehören Fälschungen von Tom Hanks für eine Versicherung für Zahnbehandlungen, Jennifer Aniston für ein Nahrungsergänzungsmittel und Taylor Swift für ein Giveaway von Le Creuset-Geschirr – das sich als Betrug erwies.
Fälle von Investitionsbetrug mit KI sind ebenfalls aufgetreten, sodass FINRA (die Financial Industry Regulatory Authority) Warnungen an Investoren herausgeben musste. So haben Empfehlungen durch Deepfake-Prominente und gefälschte Firmenwebsite sogenannte "Pump-and-Dump"-Modelle ermöglicht; dabei treiben die Betrüger den Preis von Aktien in die Höhe, nur um dann am Höhepunkt zu verkaufen und die Investoren auf den Verlusten sitzen zu lassen.
KI-Betrüger nutzen dunkle KI auch zur Manipulation in den sozialen Medien. Indem sie mithilfe von KI Hunderte von gefälschten Konten auf Plattformen wie X erstellen und betreiben, lassen sie ihre Betrugsmaschen glaubwürdiger wirken.
KI-Hacking
Zu den folgenschwersten Verwendungen dunkler KI gehört ihre Verwendung beim Hacking. Hacker können mithilfe von KI-Programmen das Passwort-Cracking beschleunigen, Sicherheitssysteme umgehen, Hacks automatisieren und Daten schürfen. Es ist wichtig, zu beachten, dass KI nicht unfehlbar ist: Es gibt Möglichkeiten, sich gegen KI-Hacks zu verteidigen. Beispielsweise können starke, eindeutige Passwörter dazu beitragen, das durch Passwort-Cracking-Verfahren bedingte Risiko zu senken.
Beispiele für dunkle GPTs
Dunkle GPTs sind Large Language Models (LLMs), die für bösartige Zwecke verwendet werden. Sie verwenden eine als ANI (Artificial Narrow Intelligence) bezeichnete Form von KI, um Chatbots zu erstellen. Diese GPTs sind oft gehackte oder durch Jailbreak manipulierte Versionen seriöser LLMs; in manchen Fällen handelt es sich jedoch um Spezialentwicklungen für bösartige Zwecke.
FraudGPT
FraudGPT ist vielleicht der bekannteste dunkle GPT. Er ist im Darknet erhältlich und wird als Universallösung für Cyberkriminelle angepriesen. Er eignet sich für eine ganze Reihe krimineller Vorhaben: Malware zu schreiben, betrügerische Nachrichten und gefälschte Webseiten. Darüber hinaus kann FraudGPT in Netzwerken, Systemen und Anwendungen Lecks und Sicherheitslücken aufspüren sowie die Websites, Märkte und Gruppen beobachten, auf die die Kriminellen es abgesehen haben.
WormGPT
WormGPT ist ein dunkler GPT speziell zum Erstellen von Malware und anderen Schadcodes. Er ist ausschließlich im Darknet erhältlich und ist vor allem vor allem bei BEC-Angriffen (Business Email Compromise) aufgefallen. WormGPT wurde mithilfe von Hacking-Verfahren aus der realen Welt trainiert und dadurch eines der gefährlichsten Tools zur Malware-Entwicklung, die es gibt.
PoisonGPT
PoisonGPT wurde als Lehrbeispiel für dunkle KI entwickelt. PoisonGPT wurde von einer französischen Cybersicherheitsfirma entwickelt, um zu demonstrieren, wie rasch Open Source-LLMs durch bösartige Akteure mit Desinformation "vergiftet" werden konnten.
So können Sie sich vor Bedrohungen durch künstliche Intelligenz schützen
Sie können Ihren Schutz vor Bedrohungen durch dunkle KI verbessern, indem Sie starke Passwörter und Multi-Faktor-Authentifizierung verwenden, Ihre Onlinepräsenz begrenzen, E-Mails und SMS-Nachrichten sorgfältig prüfen und sich an nachprüfbare Nachrichten aus zuverlässiger Quelle halten. Hier ein genauerer Blick auf wichtige Schritte zur Verteidigung gegen KI-Angriffe:
-
Vorsicht bei Ihr Kommunikation: Nehmen Sie sich die Zeit, E-Mails und SMS-Nachrichten sorgfältig zu untersuchen, bevor Sie darauf reagieren. Das gilt auch dann, wenn sie von einem Freund oder Familienmitglied, von Kollegen oder Unternehmen zu kommen scheinen.
-
Überprüfen Sie die Quellen: Überprüfen Sie den Wahrheitsgehalt der Inhalte, die Sie online lesen, um nicht auf KI-Desinformation hereinzufallen. Wenn Sie beispielsweise auf eine scheinbar wichtige Meldung in den Nachrichten stoßen, sollten Sie sie nicht unbesehen glauben, sondern zuerst nachprüfen, ob dieselbe Meldung auch in anderen bekannten Quellen erscheint.
-
Achten Sie auf Unstimmigkeiten: Wenn Sie den Verdacht haben, ein Deepfake-Video vor sich zu haben, achten Sie auf Details wie Gesicht und Hals und auf Audiofehler, um festzustellen, ob das Video gefälscht ist oder nicht Wenn etwas verdächtig wirkt, gibt es meist gute Gründe.
-
Verwenden Sie starke Passwörter: Verwenden Sie grundsätzlich eindeutige, komplexe Passwörter für Ihre Online-Konten. Sollte eines Ihrer Passwörter durch einen Passwort-Cracking-Angriff mit dunkler KI geknackt werden, sind zumindest Ihre übrigen Konten nicht unmittelbar gefährdet.
-
Aktivieren Sie die Zwei-Faktor-Authentifizierung: Mit der Zwei-Faktor-Authentifizierung (2FA) gewinnen Sie eine weitere Schutzschicht für Ihre Konten, da Hacker auf diese Weise auch dann keinen Zugriff erhalten, wenn sie Ihr Passwort haben.
-
Verwenden Sie wirksame Internetsicherheit: Ein zuverlässiges Antivirenprogramm kann zum Schutz Ihres Systems beitragen und Viren und andere Malware entfernen, die womöglich installiert wird, falls Sie auf einen Phishing-Angriff hereinfalle oder auf einen Link auf einer gefälschten Website klicken.
-
Beschränken Sie Ihre Onlinepräsenz: Für Deepfakes ist Quellmaterial erforderlich, um daraus ein Abbild zu erstellen. Sie können das Risiko, dass Ihr Bild gestohlen wird, reduzieren, indem Sie möglichst wenige Fotos und Videos online teilen – oder zumindest angemessene Privatsphäreeinstellungen in Ihrem Facebook-Profil und anderen Konten in den sozialen Medien festlegen.
-
Beschränken Sie Online-Daten auf ein Minimum: Teilen Sie online möglichst wenige Informationen wie Ihren Geburtstag, Ihren Arbeitsplatz, Ihre engere Familie usw.: Dadurch stehen Betrügern oder Hackern nur wenige Daten zum Erstellen überzeugender Phishing-E-Mails oder anderer Betrugsmaschen zur Verfügung, mit denen sie Sie hereinlegen könnten.
Schützen Sie sich wirksamer vor dunkler KI
Dunkle KI entwickelt sich laufend weiter – ein wichtiger Faktor, der Cyberbedrohungen überzeugender und gefährlicher macht denn je. Von Deepfakes und KI-gestützten Phishing-Angriffen bis hin zu raffinierten Hacking-Tools: Cyberkriminelle nutzen KI, um Sicherheitslücken auszunutzen und Informationen zu manipulieren, um ihre finsteren Ziele zu erreichen.
Schützen Sie sich, indem Sie Avira Free Antivirus herunterladen: die Komplettlösung zum Erkennen und Blockieren von Betrug, Malware und Phishing-Versuchen.