Safer Internet Day: Künstliche Intelligenz sicher einsetzen

Februar 13, 2023

Safer Internet Day: Lernende Systeme – Die Plattform für Künstliche Intelligenz

Künstliche Intelligenz (KI) hat in den letzten Jahren große Fortschritte erzielt. Bereits heute sind KI-Systeme im Internet im Einsatz – auch in sensiblen Bereichen wie der Medizin oder im autonom fahrenden Auto ist sie an Entscheidungen beteiligt. KI kann uns im Alltag unterstützen, wird sie böswillig manipuliert, jedoch großen Schaden richten. Mit welchen Herausforderungen für die IT-Sicherheit der Einsatz von KI verbunden ist und wie sich KI-Systeme und die zugrunde liegenden Daten vor Angriffen schützen lassen, erläutert Prof. Dr. Ahmad-Reza Sadeghi. Er ist Leiter des System Security Lab an der Technischen Universität Darmstadt und Mitglied der Plattform Lernende Systeme.

Herr Sadeghi, welche neuen Herausforderungen entstehen durch KI-Systeme für die IT-Sicherheit?
Algorithmen oder KI-basierte Systeme sind fragil aus der Sicht der Sicherheit, da sie sehr datenabhängig sind. Man kann sie leicht und insbesondere verdeckt manipulieren. Je fortgeschrittener die Systeme werden, desto fortschrittlicher sind auch die Angriffe. Das größte Risiko ist unser Anwendungsverhalten: Wenn KI-Systeme eines Tages wirklich weite Teile unseres Alltags automatisieren und Entscheidungen für uns treffen, ist auch unsere Abhängigkeit von diesen Systemen viel größer. Also können auch potenzielle Angreifer viel größeren Schaden anrichten. Eine weitere Herausforderung ist, dass gängige IT-Sicherheitssysteme nicht ohne Weiteres auf KI-Systeme übertragen werden können. Zudem möchte man die Performance der Modelle nicht durch Sicherheitsmaßnahmen einschränken.

Wie können wir KI-Systeme und ihre Daten vor Angriffen schützen?
Man muss neue Wege gehen, um KI-Algorithmen zu sichern. Ich habe mich in meiner Forschung auch stark mit angewandter Kryptografie beschäftigt, also dem Rechnen mit verschlüsselten Daten. Die rein kryptografischen Lösungen sind noch nicht skalierbar, gerade bei riesigen KI-Modellen mit teils Milliarden Parametern. Also werden derzeit auch algorithmische Verbesserungen sowie Hardware-basierte Lösungen für KI-Sicherheit erforscht. Ein weiteres interessantes Feld ist der Einsatz von KI für sicherheitskritische Systeme, also Algorithmen, die vor Angriffen schützen.

In Bezug auf den Datenschutz stellt verteiltes maschinelles Lernen eine wichtige Möglichkeit dar. Dabei greift jedes Endgerät auf das jeweilige aktuelle Modell zu und trainiert es lokal mit einem eigenen Datensatz. Mögliche personenbezogene Daten müssen so nicht über einen zentralen Server geschickt werden. Das erhöht unter anderem die Privatsphäre, etwa im medizinischen Kontext. Krankenhäuser teilen keine medizinischen Daten untereinander, können aber über verteiltes maschinelles Lernen mit ihren Daten dennoch die gleichen Systeme trainieren und so zusammenarbeiten. Allerdings existieren auch mehr Angriffspunkte, wenn Daten und KI-Modelle über mehr Systeme verteilt werden. Einzelne Rechner könnten unter Kontrolle gebracht werden, per Software oder weil etwa Personen in einer Institution mit den Angreifern kollaborieren. Wenn das geschieht, kann das Gesamtmodell manipuliert werden.

Was muss passieren, damit Sicherheit im KI-Zeitalter gewährleistet werden kann?
Wir müssen den Begriff der Sicherheit im KI-Kontext weiter fassen als bisher. KI-Entscheidungen haben eine hohe Reputation und werden oft als neutral und unvoreingenommen angesehen. Sie spiegeln jedoch oft nur die Daten wider, die für das Training der KI-Systeme verwendet wurden – und damit auch menschliches Verhalten, Gewohnheiten und Vorurteile. Dies zeigt, dass gesellschaftlichen Faktoren bei der Entwicklung von KI-Systemen mehr Aufmerksamkeit gewidmet werden muss. Auch die Auswirkungen von KI-Systemen auf unsere Gesellschaft müssen eingehender untersucht werden. Während KI-Anwendungen für den Finanzmarkt, in der Medizin oder im Rechtsbereich offensichtlich als kritische Anwendungen zu erkennen sind, welche umfassend analysiert und überprüft werden müssen, können Folgen anderer KI-Anwendungen wie die Empfehlungsalgorithmen von Facebook, Twitter und Google leicht übersehen werden. Das sind die Echo-Kammern, die unsere Gesellschaften verändern. Ich sorge mich nicht vor Terminatoren, sondern vor den schleichenden Auswirkungen sozialer Medien auf demokratische Länder und ihre Wahlsysteme. KI hält für Wirtschaft und Gesellschaft viele Chancen bereit. Ihr volles Potenzial werden wir aber nur ausschöpfen können, wenn wir die Technologie sicher, privatheitschützend sowie ethisch verantwortungsvoll entwickeln und einsetzen.

Related Articles

Vom Ohren öffnen und hinschauen

Vom Ohren öffnen und hinschauen

Forschende der FH St. Pölten publizieren neuen Artikel über audiovisuelle Datenanalyse Forschende der Fachhochschule St. Pölten publizierten einen State-of-the Art-Report für integrierte audiovisuelle Datenanalyse im Rahmen des Projekts SoniVis. Das Team von SoniVis...

Neueste Entwicklungen im Bereich des Flughafenmanagements

Neueste Entwicklungen im Bereich des Flughafenmanagements

SITA stellt neueste Entwicklungen im Bereich des Flughafenmanagements vor Markteinführung einer KI-gestützten Plattform nach Test mit GREATER TORONTO AIRPORTS AUTHORITY in Kanada vor SITA,Technologieunternehmen der Luftverkehrsbranche, hat auf der Passenger Terminal...

Führungsrolle bei digitalen Innovationen? Industrie ist gespalten

Führungsrolle bei digitalen Innovationen? Industrie ist gespalten

Eine Hälfte der Industrie ordnet sich im globalen Vergleich vorne ein, die andere sieht Deutschland im Mittelfeld oder hinten Morgen startet die Hannover Messe Digitale Zwillinge ganzer Maschinenparks, KI-unterstützte Predictive Maintenance oder autonome Roboter im...

Share This