Künstliche Intelligenz – ein Thema, mit dem sich zukünftig jeder in allen möglichen Lebensbereichen auseinandersetzen muss. Derzeit ist vor allem in den jüngeren Generationen die generative künstliche Intelligenz von hoher Bedeutung. Systeme wie ChatGPT scheinen vor allem bei Schülern und Studenten eine Antwort auf alles zu sein. „Fasse mir bitte dieses Buch zusammen“, „Korrigiere mir meine Hausarbeit auf Rechtschreibung“, „Schreibe mir einen Aufsatz über das Thema XY“, „Erstelle mir einen Sport- und Ernährungsplan, der meine Ziele verfolgt“. Alles Fragen und Aufgaben, die das generative KI-Tool ChatGPT lösen kann.
Generative KI-Systeme sind mittlerweile für viele Alltagshelfer. Sie werden täglich gebraucht, aber was steckt eigentlich dahinter? Wie arbeiten solche Systeme? Kann ich ihnen vertrauen? Was muss ich bei der Nutzung beachten? – Auf all diese Fragen soll dieser Blog grobe Antworten geben. Die Nutzung von generativer KI ist nämlich hilfreich, kann aber auch Risiken mit sich bringen, die jeder Nutzer beachten sollte.
Was steckt überhaupt hinter generativer KI?
Generative KI ist eine Form der künstlichen Intelligenz, welche Inhalte für bestimmte Anlässe generieren soll. Systeme wie Chat-GPT basieren häufig auf Large-Language-Modellen (LLMs). LLMs sind Modelle, die Deep Learning in der natürlichen Sprachverarbeitung und der natürlichen Sprachgenerierung nutzen. Deep-Learning-Systeme bringen sich selbst bei, die richtige Antwort zu finden, indem sie diese aus einem großen Datenblock an Trainingsdaten herausfiltern. Sie verwenden dazu mindestens drei Schichten an Daten, in der Praxis tausende an Daten- und Rechenschichten, um das Modell zu trainieren. Deep-Learning-Modelle extrahieren durch unüberwachtes Lernen Merkmale und Beziehungen, wodurch sie das gesuchte Ergebnis aus Rohdaten herausfiltern können. LLMs sollen dazu beitragen, dass generative KI Funktionen des menschlichen Gehirns simuliert und Prozesse effizient automatisiert.
Wo begegnet mir generative KI im Alltag?
Generative KI wird beispielsweise als Spamfilter in E-Mail-Verteilern genutzt, im Marketing, in Kombination mit Smart Home oder als Suchmaschine. KI-Tools wie diese werden in den letzten Jahren – seit dem „Durchbruch“ des Tools ChatGPT – vor allem auch in Schulen und Universitäten genutzt. Schüler lassen ihre Hausaufgaben von ChatGPT lösen, wollen Antworten auf Nachrichten von Freunden oder Partnern von dem Tool generieren lassen oder nutzen es zu Recherchezwecken. Auch in den Universitäten werden Abschlussarbeiten davon korrigiert oder gar geschrieben, Pläne für jegliche Lebenssituationen wie Sport, Essen, Tagesplanungen etc. werden erstellt und Meinungen und Listen zu verschiedenen Themen ausgegeben. Vor allem zu schnellen Recherchen und kurzen Themenübersichten wird dieses KI-Tool zur Hilfe hinzugezogen. Doch nicht nur in Schulen wird ChatGPT verwendet. Ebenso nutzen Unternehmen das Tool zu Recherchezwecken oder zum Korrigieren von Unterlagen. Das System ist zwar dazu gemacht, lernt allerdings nie aus und muss daher mit Vorsicht und Skepsis verwendet werden – dabei heißt es Achtung vor falschen Quellen, Fake News und Missbrauch von Datenschutz.
Welche Risiken birgt die Nutzung von ChatGPT?
Wichtig bei der Nutzung solcher generativen Systemen ist der vorsichtige Umgang mit personenbezogenen Daten. Diese Tools sind noch nicht ausreichend sicher, um Manipulationen vollständig auszuschließen. Die eingegebenen Daten werden von dem System verarbeitet – und das, wie oben erwähnt, auf mehreren Rechenschichten. Dabei werden Daten analysiert und gespeichert, die eigentlich geschützt bleiben und nicht in die Hände von Cyberkriminellen gelangen sollten.
Des Weiteren lernt das System aus Testdaten. Es ist kein studierter Professor oder Spezialist. Es zieht Daten aus dem Internet, die dort von jeder beliebigen Person hochgeladen werden können, wodurch sie nicht unbedingt der Wahrheit entsprechen. Es können belegte Aussagen oder Spekulationen als Fakten ausgegeben werden. Dies ist ein Risiko bei der Nutzung zu Recherchezwecken. Die Informationen, die einem als Antwort zurückgegeben werden, können wahr sein, müssen es aber nicht. ChatGPT kann dadurch also auch Fehlinformationen oder veraltete Informationen liefern, was viele Nutzer nicht wissen oder nicht richtig beachten.
Daher ist bei der Nutzung von generativer KI immer Vorsicht geboten! Eine Statistik von Digital Affin besagt zudem, dass 2023 die Phishing-Angriffe weltweit um fast 60 % angestiegen sind. Dieser drastische Anstieg wird von der Website auf den Einsatz von generativer KI zurückgeführt, da die Angriffe darüber in Form von Voice Phishing und Deepfake Phishing stattfinden.
Wie nutze ich also generative KI richtig?
Es heißt nicht umsonst: „Ein Computer ist nur so schlau wie sein Entwickler“. Ein Mensch ist nicht in allem ein Profi, also gilt das ebenso für die Technik. Ein generatives KI-Tool soll das menschliche Gehirn simulieren, und wir Menschen sind nicht perfekt, auch wir machen Fehler und verbreiten, wenn auch unbewusst, manchmal falsche Informationen. Daher muss bei Systemen wie ChatGPT immer auf eine vorsichtige und vernünftige Nutzung geachtet werden. Dazu die folgenden Hinweise:
- Generative KI-Tools nur aus seriösen Quellen installieren
- Keine personenbezogenen Daten oder in Unternehmen keine internen oder Kundendaten in generative KI-Systeme eingeben
- Keine Dokumente hochladen, die vertrauliche Informationen oder sensible Daten enthalten
- Die ausgegebenen Informationen auf Korrektheit überprüfen
- Angegebene Quellen auf ihre Zuverlässigkeit und Existenz überprüfen
- Links und Anhänge, die das Tool ausgibt, vorher auf Vertraulichkeit überprüfen
- Generative KI immer als Informationsquelle mit angeben. Soll dies vermieden werden, müssen alle Quellen nachverfolgt und auf Vertraulichkeit überprüft werden
Generative KI-Systeme sind sehr nützlich für die Automatisierung in Unternehmen o.Ä., dennoch müssen sie wie bei allem, was das Internet betrifft, mit Vorsicht genutzt werden. KI-Tools wie ChatGPT sind sehr gut für einen groben Themenüberblick, Ideen-Sammlungen und Rechtschreib-Korrekturen. Als zuverlässige Quelle sollten sie jedoch nicht genutzt werden, denn auch Deep-Learning-Systeme lernen nie aus.