TÜV Rheinland: KI-Systeme effektiv absichern

November 4, 2025

Die Anforderungen an IT-Sicherheit steigen durch generative KI und Large Language Models.

Neue Anforderungen an IT-Sicherheit durch generative KI und Large Language Models / Bedrohungen erkennen, Schwachstellen schließen – Penetration Testing als wirksame Maßnahme / Whitepaper mit Handlungsempfehlungen für Unternehmen

Generative Künstliche Intelligenz (KI) revolutioniert nicht nur zahlreiche Branchen, sie schafft auch neue Angriffsflächen und sicherheitstechnische Herausforderungen – etwa, wenn Unternehmen große Sprachmodelle in Chatbots, Assistenzsystemen oder automatisierten Entscheidungsprozessen einsetzen. Doch welche spezifischen Risiken entstehen bei der Nutzung von Large Language Models (LLMs)? Darauf geht TÜV Rheinland im aktuellen Whitepaper „Ist Ihr KI-System sicher?“ ein. Zudem zeigen die Cybersecurity-Fachleute, wie Unternehmen ihre KI-Anwendungen effektiv absichern können.

Angriffe durch manipulierte Eingaben und Trainingsdaten möglich

Das Whitepaper beschreibt, wie KI-Systeme angegriffen werden können. Ein Beispiel sind sogenannte Prompt Injections, bei denen Angreifer mit ihrer Eingabe das Modell manipulieren, damit es sich unvorhersehbar verhält oder Informationen preisgibt – und zwar solche, die nicht zugänglich sein sollten. Weitere Risiken sind der unsichere Umgang mit den Ergebnissen der generativen KI – etwa, indem Nutzer nicht validierte Codes ausführen – und die Manipulation von Trainingsdaten durch einen Angreifer.

Sowohl Angriffe als auch der falsche Umgang mit KI-Ergebnissen können fatale Folgen haben: von Datenlecks über fehlerhafte Entscheidungen bis hin zu wirtschaftlichen Schäden. Daher ist ein systematisches Risikomanagement für Unternehmen unerlässlich – nicht zuletzt fordern dies auch zunehmend Regulierungen wie der EU AI Act. „Unternehmen müssen ihre Sicherheitskonzepte anpassen, um den Risiken von KI-Systemen gerecht zu werden“, erklärt Daniel Hanke, Experte für KI-Sicherheit bei TÜV Rheinland.

Penetration Testing als Schlüssel zur KI-Sicherheit

Eine der wirksamsten Maßnahmen, um Bedrohungen frühzeitig zu erkennen und Schwachstellen zu schließen, ist das Penetration Testing (Pentest): Im kontrollierten Rahmen simulieren Fachleute dabei Angriffe auf KI-Systeme, um potenzielle Schwachstellen zu identifizieren und zu beheben. Methoden wie Black-Box- und Gray-Box-Tests werden dabei an die Anforderungen von generativer KI angepasst. „KI-Systeme sind komplex und intransparent. Das erfordert neue Testansätze. Durch regelmäßige Penetration Tests können Unternehmen ihre Systeme widerstandsfähig machen und somit regulatorische Vorgaben erfüllen. Außerdem stärken sie so das Vertrauen von Partnern und Kunden“, so Hanke weiter.

Generative KI: Innovationskraft mit Verantwortung

TÜV Rheinland unterstützt Unternehmen umfassend beim sicheren Einsatz von KI – von der Durchführung professioneller Penetration Tests über datenbasierte Risikoanalysen bis hin zur Zertifizierung nach international gültigen Standards wie der ISO 42001. „Wer die Chancen generativer KI nutzen will, muss ihrer Sicherheit oberste Priorität einräumen. So lässt sich das Potenzial dieser Technologien verantwortungsvoll erschließen“, betont KI-Experte Daniel Hanke.

Weitere Informationen sowie das Whitepaper unter: www.tuv.com/pentest.

Related Articles

Newsletter 2026

Deutsche Newsletter SEC GLOBAL: ES DACH NL 5-2026 30.01.2026 https://conta.cc/3NJk23v SEC GLOBAL: ES DACH NL 4-2026 23.01.2026 https://conta.cc/3Ly6PtD ES DACH NL Promo - Dallmeier Jan 21.1.2026 https://conta.cc/4bHMegV SEC GLOBAL: ES DACH NL 3-2026 16.01.2026...

EuGH schafft klare Regeln für Body-Cams

Datenschutz und Sicherheit im öffentlichen Raum neu justiert Mit seinem Urteil vom 18. Dezember 2025 (C-422/24) hat der Europäische Gerichtshof (EuGH) eine zentrale Weichenstellung für den Einsatz von Body-Cams in Europa vorgenommen. Im Mittelpunkt der Entscheidung...

Share This