Künstliche Intelligenz und Sicherheit – ein Blick auf die aktuellen Entwicklungen
04.05.23 / Dr. Markus Ermes
aus dem Netzwerk Insider Mai 2023
Moderne KIs und Sprachmodelle, allen voran ChatGPT, sind in aller Munde. Die Möglichkeiten scheinen geradezu grenzenlos, und die Ergebnisse sehen auf den ersten Blick sehr gut aus. Doch nur auf den ersten. Schaut man genauer hin, ergeben sich interessante und auch ein wenig beängstigende Herausforderungen, die ich in diesem Standpunkt kurz erläutern und mit Beispielen untermauern möchte:
- Das blinde Vertrauen in die von KI gemachten Aussagen und die angegebenen Quellen
- Die Möglichkeit, Nachrichten sehr glaubwürdig zu fälschen und Menschen zu diskreditieren
- Social Engineering auf Steroiden
- Informationsabfluss durch die KI
- Unsichere Software durch von der KI geschriebenen Quellcode
Vertrauen in die „unfehlbare“ Technologie
Die erste Herausforderung, die die neuen Systeme hervorbringt, ist hauptsächlich menschlicher Natur und betrifft uns, die wir viel mit Informationstechnologie zu tun haben, nicht direkt. Dennoch werden wir damit wahrscheinlich häufiger Erfahrung sammeln dürfen, als uns lieb ist.
Denn viele Menschen, die sich mit den Grundlagen künstlicher Intelligenz und deren Grenzen nicht auskennen und auch nicht auskennen können oder müssen, werden den Aussagen der Automaten mehr Vertrauen entgegenbringen, als angebracht ist. Dass ChatGPT und Konsorten auch sehr grobe Fehler mit absoluter Überzeugung präsentieren, ist schon mehrfach aufgefallen. Zwar gab die KI in bestem wissenschaftlichen Stil auch Quellen inkl. Autor, Titel und Publikationsjahr aus, auf Nachfrage gestand sie dann jedoch, die Quellen erfunden zu haben. Und verwunderlich ist das nicht: Hier liegen einfach die Grenzen eines Sprachmodells: Wenn eine KI alles irgendwo mal gelesen hat, besteht auch immer die Chance, falsche Texte und Informationen zu reproduzieren oder aus dem Datensatz falsch zusammenzusetzen. Doch viele Menschen sind leider immer noch der Meinung, dass Computer keine Fehler machen. Hier wird viel Aufklärung notwendig sein.
Das Ganze wird noch deutlich interessanter, wenn man ein Sprachmodell explizit dazu einsetzt, Falschmeldungen zu erzeugen:
Fake News durch KI
Viele der großen Sprachmodelle sind mittlerweile zu guten Teilen durch Reverse Engineering reproduziert, sodass man mit ausreichenden Ressourcen auch eigene Versionen auf die Beine stellen kann. Und hier kann man dann wichtige Mechanismen und Filter explizit abschalten und dadurch beliebige Texte erzeugen, inkl. menschenverachtender oder diskriminierender Aussagen.
Und das ist natürlich für Desinformations- und Propaganda-Kampagnen Gold wert. In Verbindung mit KI-gestützten Verfahren zur Erzeugung von Bildern kann man sehr einfach sehr glaubwürdige Nachrichten erzeugen, deren Wahrheitsgehalt gleich null ist.
Es gab hier schon einige Beispiele, sowohl amüsante als auch sehr bedenkliche.
Zu den amüsanteren Auswüchsen gehörte das Foto des Papstes in Designer-Kleidung. Viele Menschen haben das Foto für echt gehalten, doch war es von einer KI generiert worden.
Als absolutes Negativ-Beispiel für die Fähigkeiten eines Sprachmodells möchte ich noch einen Fall erwähnen, in dem eine Lehrkraft in den USA beinahe ihren Job verloren hätte, weil ein Artikel im Internet aufgetaucht ist, inklusive Quellenangabe, in dem ihr schweres Fehlverhalten bei einer Klassenfahrt nach Alaska vorgeworfen wurde. Es kam (glücklicherweise) schnell heraus, dass alles nur erfunden war. Eine Klassenfahrt nach Alaska hatte es nie gegeben.
Wir sehen also: Ein komplexes Sprachmodell kann zu Fehlern nicht nur neigen, sondern auch explizit für die Erstellung von Falschmeldungen eingesetzt werden. Und hat man glaubwürdige Falschmeldungen, kann man diese auch benutzen, um Menschen direkter zu beeinflussen: Das (nicht mehr ganz so) klassische Social Engineering!
Social Engineering mit KI-Unterstützung
Durch KIs kann man Material erzeugen, mit dem sich Mitarbeiter erpressen lassen. Gerade in der IT kann das interessant werden: Man muss sein Opfer lediglich dazu bringen, „nur“ eine Webseite zu besuchen oder Zugangsdaten preiszugeben. Was bei normalen Mitarbeitern schon ärgerlich genug ist und zu einer Kompromittierung des Netzes oder einem Ransomware-Befall führen kann, kann bei einem Administrator zu einer Katastrophe werden.
Doch hier hört der „Nutzen“ von KI für Social Engineering noch lange nicht auf! Schon längst gibt es Angriffe, in denen die Stimme einer Person vorgegaukelt wird, gegebenenfalls inklusive Video der Person durch Nutzung von Deepfakes, um Geld oder Zugriffe zu erschwindeln. Gerade erst gab es in den USA einen Fall, in dem Kriminelle eine Mutter davon überzeugen konnten, dass ihre Tochter entführt wurde und sie Lösegeld zahlen soll. Die Stimme der Tochter wurde durch eine KI nachgeahmt. Dadurch war die Mutter der Überzeugung, wirklich mit ihrer entführten Tochter zu reden.
Damit ergeben sich durch KI ganz neue Möglichkeiten für Angreifer. Zwar ist es auch mit KI nicht möglich, „mal eben“ in ein Netzwerk einzubrechen, doch kommt man wesentlich einfacher und zuverlässiger an das schwächste Glied der Kette: den Menschen.
Informationsabfluss in die KI
Bisher habe ich mich darauf konzentriert, dass die KI als Angriffswerkzeug genutzt wird. Es kann jedoch auch anders kommen: Die KI ist so nützlich, dass man sie für verschiedene Aufgaben nutzt. Und die Ergebnisse in vielen verschiedenen Bereichen sind wirklich sehr beeindruckend. Doch die besten Texte kommen aus einer KI natürlich nur, wenn diese auch ausreichende Informationen erhält. Und wenn man hier nicht vorsichtig ist, kann es – meist versehentlich – passieren, dass vertrauliche Informationen an die KI gehen, die in Antworten für andere Nutzer irgendwann wiederauftauchen können. So geschehen bei Samsung, wo drei Ingenieure ChatGPT genutzt haben, um Texte zu generieren. Dabei sind viele vertrauliche Details zu Produkten in die Fragen an ChatGPT eingeflossen. Wie bei den meisten Dingen, die einmal im Internet gelandet sind, muss man hier leider sagen: Das Zurückholen oder Löschen dieser Informationen ist nahezu aussichtslos. Dass ChatGPT dabei eine ziemliche Blackbox ist, macht es nicht besser!
Quellcode von der KI
Zu guter Letzt sind die Programmierfähigkeiten von ChatGPT und Konsorten ebenfalls sehr beeindruckend. Es gibt ein Beispiel, in dem ein (zugegeben sehr einfaches) Computerspiel komplett von ChatGPT entwickelt wurde, und der Nutzer von ChatGPT sich nur noch um die grafischen und akustischen Assets kümmern musste. Wen es interessiert: Hier wurde „Flappy Bird“ nachgebaut.
Dieses Beispiel ist dabei noch recht spaßig. Doch wenn KIs häufiger Quellcode erzeugen, muss man auch damit rechnen, dass sicherheitsrelevante Fehler auftreten. Schließlich sucht sich eine KI die häufigsten Antworten auf eine Frage heraus, in diesem Fall häufige Lösungsansätze beim Programmieren. Wenn nun aber bestimmte Fehler auch von Menschen häufig gemacht werden, ist die Wahrscheinlichkeit hoch, dass auch eine KI diese Fehler macht. Betrifft dies Anwendungen, die aus dem Internet erreichbar sind, erhöht sich die Angriffsfläche.
Interessanterweise sieht man jedoch genau hier auch einen positiven Aspekt von KIs: Zwar können KIs Fehler machen, sie können sie allerdings auch finden. So kann man ebenso Quellcode auf Fehler oder Sicherheitslücken überprüfen lassen. Unter der Annahme, dass darin nichts Vertrauliches zu finden ist (s.o.), ist es auf diese Weise möglich, Fehler zu finden und zu beseitigen, bevor eine Anwendung live geht. Findet die KI dabei alle Fehler? Natürlich nicht. Doch vielleicht fallen ein paar Fehler auf, die man selbst einfach nicht oder nicht mehr sieht!
Fazit
Die aktuelle Generation von Sprachmodellen und KIs ist sehr beeindruckend, kann jedoch auch in beeindruckender Weise die Sicherheit gefährden. In den meisten Fällen geht es dabei um den klassischen Angriff auf die Schwachstelle Mensch: Hier kann eine KI es den Angreifern wesentlich einfacher machen. Dem kann man, wie in vielen Dingen in der IT-Sicherheit, eigentlich nur mit Schulungen und Awareness begegnen.
Allerdings sollte man immer darauf achten, was einer KI mitgeteilt wird und was man sie programmieren lässt. Korrekt eingesetzt ist sie ein mächtiges Werkzeug, falsch eingesetzt eine Quelle von Vertraulichkeitsverlust und Sicherheitslücken.