Was ist KI?
Im Grunde genommen ist künstliche Intelligenz eine Art Computerprogramm. Sie kann weder denken, schlussfolgern noch fühlen, vermittelt aber den Eindruck, dass sie es kann. Sie wird durch einen komplexen Prozess, der riesige Datensätze und Feedback umfasst, "trainiert", um Muster zu erkennen. Aufgrund dieses Trainings kann sie textbasierte Ausgaben erstellen, komplexe Aufgaben bewältigen und sogar ihre eigene Leistung verbessern.
Diese Fähigkeit bezeichnen wir als maschinelles Lernen, obwohl KI-Programme nicht genau wie Menschen lernen. Sie verlassen sich ausschließlich auf Mustererkennung, um Anfragen zu beantworten oder auf Befehle zu reagieren, und sagen voraus, was eine "gute" Ausgabe darstellt. Sie tun dies, indem sie auf die Daten zurückgreifen, mit denen sie trainiert wurden.
KI wurde entwickelt, um Aufgaben zu übernehmen, die traditionell von Menschen ausgeführt wurden.
Warum ist KI so gefährlich?
KI ist in den letzten Jahren immer leistungsfähiger und allgegenwärtiger geworden und wird für alles Mögliche eingesetzt. So gibt es Algorithmen, die bestimmen, welche Anzeigen und Posts Sie in den Social Media sehen, und Systeme, die Ärzten bei der Erkennung von Krankheiten helfen. Aber in den falschen Händen kann KI missbraucht werden. Sie kann beispielsweise bestehende Online-Bedrohungen wie Phishing verstärken, indem sie Betrügern ermöglicht, Social-Engineering- und andere Angriffe effizienter auszuführen.
Außerdem sind KI-textbasierte Antworten manchmal unzuverlässig, falsch oder gar erfunden – die sogenannten Halluzinationen. Das heißt, auch die leistungsstärksten KI-Modelle machen Fehler. Diese können harmlos sein, etwa die falsche Antwort auf die Frage, wie viele 'r' das Wort 'strawberry' enthält, aber sie können auch besorgniserregend sein. Nämlich dann, wenn sie falsche Behauptungen generieren und diese als Fakten präsentieren. Ohne angemessene Vorkehrungen könnten Benutzer KI-generierten Text mit Fehlern in Hausaufgaben einreichen oder in Zeitungsartikeln veröffentlichen, was zu einer Weiterverbreitung von Fehlinformationen führt.
Darüber hinaus wurde die Nutzung von KI laut einer aktuellen MIT-Studie mit Auswirkungen auf Gehirn und Verhalten in Verbindung gebracht, und die Technologie wirft unzählige Fragen zu Privatsphäre, Datenschutz und Ethik auf.
Was sind die Risiken der künstlichen Intelligenz?
KI hat völlig neue Risiken mit sich gebracht und bestehende verschärft. Weil KI ohne weiteres zugänglich ist, nehmen auch kriminelle Anwendungen zu. Ein Beispiel sind Deepfakes, die für Identitätsbetrug verwendet werden. Angesichts des rasanten Tempos der KI-Entwicklung ist es für sicherheitsbewusste Einzelpersonen, Strafverfolgungsbehörden und private Organisationen schwierig, Schritt zu halten.
Datenschutzrisiken
Datenschutz gehört zu den größten Sorgen, die Fachleute im Zusammenhang mit KI äußern. Diese Systeme sind nur so stark wie die Daten, auf denen sie trainiert werden. Dies können auch Ihre eigenen Daten sein, personenbezogene Informationen oder die Aufzeichnungen der Gespräche, die Sie mit KI-Tools führen.
ChatGPT von OpenAI speichert beispielsweise Ihre Daten und den Gesprächsverlauf mindestens 30 Tage. Hinzu kommt, dass es bisher kaum Vorschriften für KI gibt – weder allgemein noch speziell zum Datenschutz. So werden Szenarien, die einst nach Science-Fiction klangen, etwa "vorhersagende" Polizeialgorithmen zur Überwachung von Bürgern, in den USA plötzlich Realität.
Deepfakes und Fehlinformationen
Deepfakes sind mit KI-generierte Videos oder Sprachclips, die täuschend echt wirken und Menschen Dinge sagen oder tun lassen, die nie passiert sind. Jede Technologie kann in falsche Hände geraten, von der Verbreitung politischer Desinformationskampagnen oder Fake News bis hin zur Erstellung von Stimmklonen, die später bei Vishing-Angriffen verwendet werden. Sehen Sie sich dieses MIT-Projekt zu Deepfakes an, um mehr darüber zu erfahren, wie man sie erkennt.
KI-gestützte Betrügereien
Die KI-Technologie hat die Tür zu effektiveren und effizienteren Cyberangriffen geöffnet: Sie gibt Betrügern beispielsweise bessere Tools, um Ihre Daten zu sammeln und zu verkaufen, und ermöglicht es Amateur-Betrügern auf der ganzen Welt, überzeugende, fehlerfreie Betrugsnachrichten zu schreiben. Die Federal Communications Commission (FCC) warnt davor, Anrufe von unbekannten Nummern anzunehmen. Schon ein einfaches "Ja" gegenüber einem Betrüger, der Ihre Stimme aufnimmt, könnte ausreichen, damit dieser in Ihrem Namen betrügerische Zahlungen autorisieren kann.
KI kann Betrügern helfen, raffinierter vorzugehen, doch sie kann Ihnen ebenso helfen, sich besser zu schützen. Schauen Sie sich unser KI-gestütztes Betrugserkennungs-Tool an, das Sie dabei unterstützt, Scams zu blockieren und Ihre Geräte frei von Malware zu halten.
KI-generierte Malware-Angriffe
KI-Programme wie ChatGPT können nicht nur Text und Bilder generieren. Sie sind auch in der Lage, Malware-Programme zu schreiben, die für ausgeklügelte Cyberangriffe verwendet werden können. Kriminelle können jede Technologie für ihre Zwecke nutzen, aber KI macht es ihnen noch leichter, Schaden anzurichten. OpenAI hat sogar zugegeben, dass sie wissen, dass dies geschieht, und mehrere Berichte veröffentlicht, die detailliert beschreiben, wie sie derartige KI-Bedrohungen abschwächen.
Mit KI-Bias umgehen
KI lernt aus Daten – und übernimmt auch deren Fehler. Wenn Trainingsdaten Vorurteile ("Bias") enthalten, spiegelt sich diese Voreingenommenheit auch in den KI-Ergebnissen. Voreingenommenheit kann in vielen Formen auftreten, sei es durch unvollständige oder fehlerhafte Daten oder durch menschliche Voreingenommenheit bei der Entscheidung, welche Daten wichtig genug sind, um einbezogen zu werden, und welche nicht. Oft verstärken sich diese Effekte gegenseitig und machen die Ungleichheiten noch größer.
Was die Experten sagen
"KI-Forscher sind hauptsächlich Männer, die aus bestimmten ethnischen Gruppen stammen, in Gegenden mit hohem sozioökonomischem Status aufgewachsen sind und in den meisten Fällen Menschen ohne Behinderungen sind."
Olga Russakovsky, Assistenzprofessorin im Fachbereich Informatik an der Princeton University,
The New York Times
Laut UNESCO wurden von den rund 7.000 natürlichen Sprachen weltweit nur etwa 100 zum Trainieren der führenden Chatbots genutzt. Das kann neue Ungleichheiten schaffen, etwa wenn Stellenbewerbungen durch KI-Systeme voreingenommen bewertet werden.
Menschliche Interaktivität
KI-gesteuerte Kommunikation und Interaktionen werden zunehmend allgegenwärtig. Immer mehr Menschen wenden sich an KI, statt selbst eine Websuche durchzuführen oder therapeutische Hilfe in Anspruch zu nehmen. Dieses Potenzial für eine zunehmende Abhängigkeit könnte zu geringerer Empathie und reduzierten sozialen Fähigkeiten sowie zu mehr Einsamkeit und dem Verlust zwischenmenschlicher Beziehungen führen.
Darüber hinaus gibt es auch Bedenken hinsichtlich der physischen Sicherheit bei bestimmten Einsatzbereichen oder Arten von KI. Die Technologie könnte potenziell zu medizinischen Fehldiagnosen, Maschinenstörungen und sogar zu direkten körperlichen Schäden führen, wie zum Beispiel, als ein Schachroboter während eines Turniers seinem jungen Gegner den Finger einklemmte und brach.
Rechtliche Verantwortung
Wenn solche Unfälle passieren, gibt es bisher wenig Präzedenzfälle in Bezug auf die rechtliche Situation – ist die KI haftbar? Oder ist der Programmierer schuld, oder das Unternehmen, das sie implementiert hat, oder der menschliche Bediener? In einem speziellen Fall, bei dem ein selbstfahrendes Uber-Auto einen Fußgänger tötete, wurde der Testfahrer als schuldig befunden.
Die potenziellen Gefahren von KI für die Menschheit
In größerem Maßstab können KI-Systeme direkte oder indirekte Bedrohungen für die Menschheit und den Planeten darstellen. Von autonomen Waffen über Umweltzerstörung bis hin zu bröckelnden ethischen Grundsätzen und potenziell unvorhergesehenen zukünftigen Konsequenzen – steht viel auf dem Spiel.
Ethische Fragen rund um KI
Wenn es um Ethik geht, schneidet KI bisher eher schlecht ab. Lehrer haben mit Schülern aller Altersgruppen zu kämpfen, die KI zum Schreiben von Aufsätzen oder zum Betrügen bei Hausaufgaben und Prüfungen verwenden, und dieses Problem wird auch bestehen bleiben. Eine Studie zeigt, dass sogar Medizinstudenten zunehmend KI in ihren Kursen verwenden und sie "anderen traditionellen Ressourcen wie Professoren, Lehrbüchern und Vorlesungen" vorziehen.
Es ist wichtig, sich stets bewusst zu sein, dass KI Daten nutzt, um schnell eine Frage zu beantworten, und oft falsche Informationen liefert. Dies ist eine Schwäche der KI-Technologie – sie "weiß" nichts, sondern berechnet nur, welche Wortfolge auf Basis ihres Trainings am wahrscheinlichsten die richtige Antwort ist.
Eine weitere ethische Frage wird durch die Verwendung von generativer KI bei der Schaffung von Kunst und kreativem Schreiben aufgeworfen. Während viele Menschen KI dafür loben, dass sie jedem die Möglichkeit gibt, Kunst zu schaffen, werden KI-Modelle mit Bildern, Musik und literarischen Werken von echten Menschen trainiert, oft ohne entsprechende Anerkennung oder Vergütung – und auch ohne das Einverständnis der Künstlerin oder des Künstlers.
Ein Beispiel dafür, was der KI-Bildgenerator Leonardo erstellen kann.
Die New York Times verklagte OpenAI und Microsoft im Jahr 2023 (der Fall ist noch nicht abgeschlossen) mit der Anschuldigung, Millionen von Artikeln ohne Erlaubnis zum Trainieren von ChatGPT verwendet zu haben. Künstlerisch Tätige haben sich ebenfalls zur Wehr gesetzt, indem sie ihre Kunstwerke mit Programmen verändert haben, die darauf ausgelegt sind, die KI, die sie zu verwenden versucht, in die Irre zu führen oder zu "vergiften".
Umweltauswirkungen von KI
Die vorstehenden Beispiele sind Möglichkeiten, wie Menschen KI genutzt oder missbraucht haben. Doch keine dieser Eigenschaften ist der KI von Natur aus eigen. Jede Technologie hinterlässt Spuren in der Umwelt – und erste Studien zeigen, dass sie bei KI besonders deutlich sind.
KI benötigt leistungsstarke Computerchips, die hauptsächlich aus nicht erneuerbaren Ressourcen hergestellt werden. Und weil die Nachfrage nach KI ständig steigt, entstehen auch immer mehr Rechenzentren.
Was die Experten sagen
"Was generative KI charakterisiert, ist die Leistungsdichte, die sie benötigt. Im Prinzip ist es nur Rechenleistung, aber ein generatives KI-Trainingscluster könnte sieben- oder achtmal mehr Energie verbrauchen als eine typische Rechenlast."
Die Kühlung dieser riesigen Rechenzentren erfordert eine Menge Wasser. Weltweit wird geschätzt, dass die KI-bezogene Infrastruktur bald sechsmal mehr Wasser verbrauchen wird als Dänemark, was angesichts der Tatsache, dass ein Viertel der Menschheit bereits keinen Zugang zu sauberem Wasser hat, ökologische Alarmglocken läuten lassen könnte.
Nicht alles ist jedoch negativ. Es gibt auch positive Entwicklungen. Sogar das UN-Umweltprogramm verwendet KI – um zu erkennen, wenn Öl- und Gasanlagen Methangas lecken. Solche Fortschritte in der KI-Technologie lassen Hoffnungen aufkommen, dass sie uns helfen könnte, große Probleme wie den Klimawandel anzugehen.
Wie KI-Risiken gemindert werden
So, das war ganz schön viel. Also lassen Sie uns einmal tief durchatmen. Es gibt nicht nur Risiken – KI bietet auch viele Vorteile, wie die Automatisierung sich wiederholender Aufgaben, die Minimierung menschlicher Fehler und das Identifizieren von Krebszellen.
Sie müssen sich in dieser seltsamen neuen Welt nicht allein zurechtfinden. Hier ist eine Momentaufnahme, wie KI-Risiken auf verschiedenen Ebenen der Gesellschaft gemindert werden.
-
Was Regierungen tun: Das Gesetz über künstliche Intelligenz der EU trat im August 2024 in Kraft und kontrolliert Hochrisikosysteme, die in Bereichen wie Gesundheitswesen, Strafverfolgung, Bildung oder Wahlen eingesetzt werden. Zusätzlich haben über 190 Länder die unverbindlichen Empfehlungen der UNESCO zur ethischen Nutzung von KI angenommen.
-
Was Unternehmen tun: 78 % der Unternehmen nutzen KI. Sie gestalten bereits Arbeitsabläufe um, um KI zu implementieren, und ernennen leitende Führungskräfte in kritischen Governance-Rollen. Um Bedrohungen effektiv zu mindern und die KI-Leistung zu verfolgen, sollten Unternehmen regelmäßige Tests und Überwachungen durchführen, robuste Governance-Rahmenwerke einrichten und Datenschutz, Sicherheit, Rechenschaftspflicht und Transparenz priorisieren.
-
Was Sie tun können: Entscheiden Sie selbst, ob Sie KI nutzen möchten, und lernen Sie, sie verantwortungsvoll zu verwenden. Bleiben Sie auf dem neuesten Stand der Entwicklungen nicht nur in der Technologie selbst, sondern auch in den möglichen Schäden, die sie anrichten kann: einschließlich Betrug, Datenschutzverletzungen und anderen Cybersicherheitsproblemen.
Sichern Sie Ihr digitales Leben mit Avast
Da KI zunehmend Einfluss auf unser Leben nimmt, ist es völlig normal, sich Fragen zu stellen, wohin diese Reise führen wird. Aber was auch immer Sie tun – behalten Sie die Kontrolle über Ihre digitale Privatsphäre und Sicherheit mit Avast Free Antivirus. Avast Free Antivirus erkennt Bedrohungen in Echtzeit. Es beinhaltet eine KI-gestützte Schutzfunktion gegen Betrugsversuche, die für Sie arbeitet – nicht gegen Sie. Damit Sie sich keine Sorgen machen müssen. Helfen Sie, Ihr Gerät zu schützen und sich kostenlos gegen Hacker, Betrug und Malware zu verteidigen.