Die rasante Entwicklung künstlicher Intelligenz verändert nicht nur Wirtschaft und Wissenschaft, sondern auch die Schattenökonomie des Cyberraums. Der aktuelle Bericht „AI Threat Tracker“ der Google Threat Intelligence Group (GTIG) zeichnet ein präzises, zugleich alarmierendes Bild dieser neuen digitalen Front. Was vor wenigen Jahren noch als experimentelles Terrain galt – die Nutzung generativer KI durch Angreifer – ist mittlerweile zu einem festen Bestandteil des modernen Cyberkriminalitätsökosystems geworden.
Der Bericht knüpft an frühere Analysen an, insbesondere an die Studie Adversarial Misuse of Generative AI vom Januar 2025, und dokumentiert einen klaren Wendepunkt: Angreifer verwenden KI nicht mehr nur zur Steigerung ihrer Produktivität oder zur Automatisierung bekannter Angriffsmuster. Sie beginnen, mit den strukturellen Möglichkeiten generativer Systeme zu experimentieren. Diese Entwicklung hat eine neue Qualität erreicht – nämlich die Fähigkeit, Angriffe während der Ausführung adaptiv zu gestalten.
Besonders aufschlussreich ist die Beobachtung sogenannter „Just-in-Time“-KI in Malware-Familien wie PROMPTFLUX und PROMPTSTEAL. Diese Schadprogramme greifen während ihrer Laufzeit auf Large Language Models (LLMs) zurück, um ihren Code dynamisch zu verändern und bösartige Funktionen situativ zu generieren. Es handelt sich um ein frühes, aber deutlich erkennbares Stadium autonomer Malware, die nicht mehr statisch programmiert, sondern lernfähig und kontextbewusst agiert. Damit verwischt sich die Grenze zwischen Software und Akteur – ein entscheidender Paradigmenwechsel in der digitalen Bedrohungslandschaft.
Parallel dazu gewinnen sozialpsychologische Angriffsformen an Raffinesse. Die GTIG beschreibt, wie Bedrohungsakteure Social-Engineering-Strategien einsetzen, um die Sicherheitsmechanismen gängiger KI-Modelle zu umgehen. In ihren Prompts treten sie als vermeintliche Studierende oder Sicherheitsexperten auf, um von Chatbots wie Gemini geschützte Informationen zu erhalten. Das zeigt nicht nur die Anpassungsfähigkeit der Angreifer, sondern auch die inhärente Verwundbarkeit offener KI-Systeme, die zwischen Hilfsbereitschaft und Missbrauch ständig neu austariert werden müssen.
Auch staatlich geförderte Akteure aus Ländern wie Nordkorea, Iran und China setzen generative Modelle in allen Phasen ihrer Operationen ein – von der Informationsbeschaffung über Phishing-Kampagnen bis zur technischen Unterstützung komplexer Kommandostrukturen. Diese Integration von KI in den gesamten Angriffszyklus markiert eine strategische Professionalisierung, die weit über den improvisierten Missbrauch früherer Jahre hinausgeht.
Besonders brisant ist schließlich der Befund eines gereiften Untergrundmarkts für KI-Tools. Google identifiziert eine wachsende Zahl multifunktionaler Werkzeuge, die Phishing, Malware-Entwicklung und Schwachstellenanalyse kombinieren. Derartige Plattformen senken die Eintrittsbarrieren drastisch und demokratisieren damit gewissermaßen das Verbrechen. Selbst technisch weniger versierte Täter erhalten Zugang zu Fähigkeiten, die früher hochspezialisierten Gruppen vorbehalten waren.
Billy Leonard, technischer Leiter der GTIG, bringt es auf den Punkt: Zwar nutzen viele Angreifer bekannte KI-Plattformen wie Gemini, doch deren Sicherheitsvorkehrungen drängen sie zunehmend in den kriminellen Untergrund, wo unregulierte Modelle ohne Beschränkungen operieren. Diese Verschiebung deutet auf eine gefährliche Asymmetrie hin – je stärker legale Anbieter ihre Systeme absichern, desto attraktiver werden unkontrollierte Alternativen.
Googles Antwort auf diese Entwicklung besteht in einer doppelten Strategie: der aktiven Störung feindlicher Aktivitäten und der fortlaufenden Integration neuer Erkenntnisse in die eigenen Sicherheitsarchitekturen. Damit versucht das Unternehmen, den Schutz seiner Nutzer und Plattformen auf eine neue, KI-bewusste Basis zu stellen.
Der AI Threat Tracker dokumentiert damit nicht nur eine technologische Evolution, sondern eine gesellschaftliche Herausforderung. Die Fähigkeit, künstliche Intelligenz kreativ zu missbrauchen, wird zunehmend zur zentralen Waffe in der digitalen Auseinandersetzung. Die Verteidigung dagegen erfordert mehr als technische Gegenmaßnahmen – sie verlangt ein tiefes Verständnis der Wechselwirkung zwischen menschlicher List, maschineller Lernfähigkeit und den ethischen Grenzen, die beide Seiten zu überschreiten bereit sind.
In dieser neuen Realität ist die Grenze zwischen Intelligenz und Täuschung schmaler geworden als je zuvor.
Quelle: https://services.google.com/fh/files/misc/advances-in-threat-actor-usage-of-ai-tools-en.pdf

