Im neuesten Bericht der Google Threat Intelligence Group (GTIG) mit dem Titel „Adversarial Misuse of Generative AI“ werfen die Experten einen Blick auf die wachsende Bedrohung durch den Missbrauch generativer KI-Modelle wie Gemini. Dabei wird aufgezeigt, wie Cyberkriminelle und staatlich unterstützte Akteure zunehmend KI für ihre Angriffe nutzen. Der Bericht untersucht, wie diese Bedrohungsakteure die Technologie missbrauchen und welche Herausforderungen sich bei der Absicherung solcher fortschrittlichen Systeme stellen.
Generative KI als Werkzeug für Cyberangriffe
Google erläutert, dass Bedrohungsakteure generative KI wie Gemini vor allem in drei Bereichen einsetzen: Recherche, Fehlerbehebung im Code und Erstellung von Inhalten. Statt neue, innovative Techniken zu entwickeln, automatisieren diese Gruppen bestehende Angriffsmethoden und steigern ihre Effizienz – der Missbrauch von KI beschleunigt die Angriffsprozesse und macht sie produktiver.
1. Einsatz von Gemini durch APT-Akteure
APT-Akteure (Advanced Persistent Threats) sind für ihre langwährenden, gut geplanten Angriffe bekannt. Sie setzen Gemini gezielt in mehreren Phasen des Angriffszyklus ein – von der Recherche von Zielinfrastrukturen über das Aufspüren von Schwachstellen bis hin zur Entwicklung von Exploits. Zudem wird Gemini verwendet, um bösartige Skripte zu erstellen und Umgehungstechniken zu entwickeln.
Bemerkenswert ist, dass vor allem iranische APT-Akteure Gemini intensiv nutzen. Sie setzen die KI sowohl für die Erforschung von Hosting-Anbietern als auch für die Schwachstellenanalyse von Zielorganisationen ein. Im Gegensatz dazu verwenden russische APT-Akteure Gemini nur begrenzt – was auf unterschiedliche Taktiken und Techniken innerhalb dieser Gruppen hinweist.
2. Nutzung von Gemini durch IO-Akteure (Information Operations)
Neben den APT-Gruppen greifen auch IO-Akteure (Information Operations) auf generative KI zurück. Ihr Ziel ist es, die öffentliche Wahrnehmung zu beeinflussen und Desinformation zu verbreiten. Gemini hilft ihnen bei der Erstellung von Personas, der Gestaltung von Botschaften, der Übersetzung von Inhalten und der Erhöhung ihrer Reichweite.
Hier zeigen sich erneut iranische IO-Akteure als die größten Nutzer von Gemini. Drei Viertel der Nutzung durch IO-Akteure entfielen auf diese Gruppe. Chinesische und russische IO-Akteure hingegen setzten Gemini primär für allgemeine Recherchen und Content-Erstellung ein.
Sicherheitsvorkehrungen von Gemini und ihre Auswirkungen
Obwohl Gemini in vielfältiger Weise genutzt wird, schützt das Modell durch integrierte Sicherheitsmechanismen vor missbräuchlicher Nutzung. Der Bericht hebt hervor, dass bei aufwändigeren oder bösartigen Anfragen automatisch Sicherheitsreaktionen ausgelöst werden, die den Missbrauch verhindern. So wurden Phishing-Angriffe über Gmail, Datendiebstahl und die Entwicklung eines Chrome-Infostealers blockiert.
Die Sicherheitsmaßnahmen von Gemini erweisen sich also als ein effektiver Schutz gegen die Versuche, die KI für bösartige Zwecke zu missbrauchen. Sie wirken als eine wichtige Barriere, die es Bedrohungsakteuren erschwert, ihre Angriffe erfolgreich durchzuführen.
Misslungenes Umgehen der Sicherheitsmaßnahmen und fehlende maßgeschneiderte Angriffe
Interessanterweise beobachteten die Experten, dass Bedrohungsakteure bislang keine maßgeschneiderten Angriffe auf generative KI-Modelle wie GPT oder Prompt-Angriffe durchgeführt haben. Stattdessen griffen sie auf öffentliche Jailbreak-Prompts zurück, in der Hoffnung, die Sicherheitsvorkehrungen von Gemini zu umgehen. Diese Versuche blieben jedoch weitgehend erfolglos, was zeigt, dass die bestehenden Sicherheitsvorkehrungen den Missbrauch durch einfache Methoden effektiv verhindern.
Ausblick: Weiterentwicklung der Sicherheitsmechanismen und der Umgang mit Bedrohungen
Der Bericht von Google bietet eine wertvolle Einsicht in die aktuelle Bedrohungslage im Bereich generative KI und deren potenziellen Missbrauch durch Cyberkriminelle und staatlich unterstützte Akteure. Zwar wird Gemini in verschiedenen Szenarien genutzt, um Angriffe effizienter zu gestalten, doch die Sicherheitsmechanismen des Modells erweisen sich bislang als wirksam, um schwerwiegendere Angriffsversuche zu verhindern.
Dennoch bleibt der Missbrauch von generativer KI ein wachsendes Risiko, das nicht ignoriert werden darf. Unternehmen und Sicherheitsbehörden sind daher gefordert, kontinuierlich KI-gesteuerte Angriffe zu überwachen und die Sicherheitsstandards weiterzuentwickeln. Nur durch die konsequente Weiterentwicklung von Schutzmaßnahmen gegen den Missbrauch von generativer KI kann das Potenzial dieser Technologie für schadhafte Zwecke eingeschränkt und gleichzeitig ihre legitime Nutzung gefördert werden.