Eine KI auf Reddit – Noch einmal gut gegangen

17.11.20 / Dr. Markus Ermes

Nehmen wir an, Forscher entwickeln eine Künstliche Intelligenz (KI), die so guten Text erzeugt und so schwer von einem Menschen zu unterscheiden ist, dass die Forscher ihre Ergebnisse nicht, wie sonst üblich, veröffentlichen. Stattdessen stellen sie nur einen (kostenpflichtigen) Zugriff auf eine API zur Verfügung. Der Grund: Sie haben extreme Angst vor Missbrauch in allen möglichen Situationen. Was wäre weiter, wenn andere Forscher einen Zugriff hätten, um klar definierte, ungefährliche Experimente damit durchzuführen? Man könnte annehmen, dass irgendjemand diese Experimente dann doch wieder für weniger ehrbare Zwecke einsetzt.

Dass dieses Szenario nicht mehr nur hypothetisch ist, hat sich in den letzten Wochen auf Reddit gezeigt. Hier haben Unbekannte ein öffentlich zugängliches Interface zur KI „GPT-3“ genutzt, um auf Userfragen zu antworten. Dabei war dieses spezielle Interface (Philosopher AI) explizit nicht für ernste Kommunikation gedacht, sondern zur Beantwortung künstlicher, sinnloser Fragen.

In diesem Fall ist noch mal alles gut gegangen. Die KI hat sogar in den meisten Fällen sinnvolle, sogar hilfreiche Antworten geben können. Der Extremfall war die Antwort der KI auf die Frage eines (realen) Nutzers, der Selbstmordgedanken formulierte. Glücklicherweise war die Antwort der KI hier ebenfalls sinnvoll. Ob sie in diesem Fall hilfreich war, wird vielleicht nie abschließend beantwortet werden können.

Aber wenn die KI so gut war, wie ist sie dann aufgefallen? Ganz einfach: Ein Student hat den „Nutzer“ beobachtet und gesehen, dass er im Durchschnitt einmal pro Minute gepostet hat, während „er“ online war. Aufgrund der Länge der Texte und den teilweise sehr spezifischen Informationen war es aber nahezu ausgeschlossen, dass ein Mensch all diese Posts verfasst hat.

Was kann man daraus lernen? KIs werden immer besser, auch in Bereichen, die man bisher dem Menschen vorbehalten sah. Einerseits eröffnet dies immer neue und aufregende Einsatzmöglichkeiten, Probleme zu lösen und die Kundenzufriedenheit zu erhöhen. Auf der anderen Seite können all diese Funktionen auch mit weniger edlen Absichten eingesetzt werden. In Kombination mit Tools wie Deepfake zur Manipulation von Videos ergeben sich erschreckende Szenarien. KI wird uns also auch weiterhin im Guten wie im Schlechten beschäftigen.