Von Jochen Koehler, Vice President Sales EMEA bei Cycode
Large Language Models schreiben Code in Sekunden. Was zunächst nach einem neuen Level an Effizienz klingt, hat allerdings auch eine Schattenseite: Sicherheit ist bislang kein integraler Bestandteil von KI-basierter Softwareentwicklung.
Programmieren ist dank GenAI heute so einfach wie nie zuvor. Fast jeder kann damit in kürzester Zeit mehr oder weniger funktionierenden Code erzeugen. Doch Studien schlagen Alarm: Rund 62 Prozent aller KI-generierten Codes enthalten Fehler oder Sicherheitslücken. Noch kritischer wird es, wenn KI-unterstützte Verbesserungen mehrfach hintereinander eingesetzt werden – denn nach nur fünf Iterationen steigt die Zahl schwerwiegender Schwachstellen um fast 38 Prozent.
Damit stellt sich eine zentrale Frage: Wird Code unsicherer, je häufiger KI im Entwicklungsprozess eingesetzt wird? Die Antwort hängt zweifellos von Modell, Trainingsdaten und menschlicher Aufsicht ab. Fest steht jedoch: Ohne Sensibilisierung und gezielte Gegenmaßnahmen kann das Versprechen von Effizienz schnell zum Risiko werden. GenAI optimiert auf Funktionalität – nicht auf Sicherheit oder Resilienz. Das verschiebt das Gleichgewicht zwischen Innovation und Stabilität zunehmend zulasten sicherer Software.
“Künstliche Intelligenz kann ein mächtiges Werkzeug in der Softwareentwicklung sein – aber nur, wenn Sicherheit von Anfang an mitgedacht wird. Dazu gehören strukturierte Code-Reviews, automatisierte Schwachstellenanalysen und die konsequente Anwendung von Security-by-Design-Prinzipien. Wer trotz automatisierter Code-Generierung das letzte Wort behält, kann die Vorteile von KI nutzen, ohne neue Risiken zu schaffen. Die Zukunft der Softwareentwicklung hängt also nicht nur davon ab, wie schnell Maschinen Code schreiben – sondern wie verantwortungsvoll wir ihn prüfen.” (Jochen Koehler, Vice President Sales EMEA bei Cycode)




