Die Krux des aktuellen Internet- und Computerzeitalters – KI in Form von ChatGPT

Kaum eine technologische Entwicklung hat in so kurzer Zeit so viel Aufmerksamkeit seit der Veröffentlichung im Jahr 2022 erregt wie ChatGPT – ein KI-Modell, das innerhalb weniger Sekunden Antworten, Aufsätze, Gedichte oder sogar Programmcode erzeugen kann. Es ist mehr als nur ein digitales Spielzeug: Für viele steht es sinnbildlich für den tiefgreifenden Wandel, den künstliche Intelligenz in unsere Gesellschaft, Arbeitswelt und Bildung bringt.

Doch was genau steckt hinter diesem digitalen Wunderkind? Wie funktioniert ChatGPT, worin liegen seine Stärken – und wo lauern möglicherweise auch Gefahren? In diesem Artikel werfen wir einen klaren Blick auf die Technologie, ihr Potenzial und ihre Schattenseiten.

Was ist ChatGPT?

ChatGPT ist ein sogenanntes Sprachmodell, entwickelt von OpenAI. Es basiert auf der GPT- (Generative Pre-trained Transformer) Architektur, einer Form von künstlicher Intelligenz, die auf maschinellem Lernen basiert. GPT-Modelle sind in der Lage, menschenähnliche Texte zu generieren – von einfachen Antworten auf Fragen bis hin zu kompletten Aufsätzen, Gedichten, Programmcode oder sogar Dialogen in natürlicher Sprache.

Das „Chat“ in ChatGPT steht dafür, dass dieses Modell speziell für die Interaktion im Dialog trainiert wurde. Es versucht nicht nur, korrekte Antworten zu liefern, sondern auch den Kontext des Gesprächs zu verstehen und logisch darauf aufzubauen.

Wie funktioniert ChatGPT?

Die Basis von ChatGPT ist ein sogenanntes neuronales Netzwerk, das mit gewaltigen Datenmengen trainiert wurde – darunter Bücher, Webseiten, Forenbeiträge, wissenschaftliche Texte und vieles mehr. Ziel ist es, Sprache statistisch zu verstehen und auf dieser Basis Wahrscheinlichkeiten für das nächste passende Wort zu berechnen.

ChatGPT ist nicht „intelligent“ im menschlichen Sinne. Es hat kein Bewusstsein, kein Verständnis von Wahrheit oder Lüge, und es denkt nicht aktiv nach. Stattdessen ahmt es Sprache nach, basierend auf Mustern aus seinem Training.

Das Modell wird in zwei Phasen trainiert:

  1. Pretraining: Hier lernt es, Sprache zu „verstehen“, indem es riesige Mengen an Textdaten durchläuft.
  2. Finetuning mit menschlichem Feedback (RLHF): Hier wird das Modell gezielt auf menschliches Verhalten abgestimmt, um nützlichere und höflichere Antworten zu geben.

Wofür kann man ChatGPT nutzen?

Die Anwendungsmöglichkeiten sind vielfältig:

  • Texterstellung und -überarbeitung (z. B. E-Mails, Artikel, Berichte)
  • Programmierung und Codeanalyse
  • Sprachliche Übersetzungen
  • Hausaufgabenhilfe oder Nachhilfe
  • Ideenfindung und Brainstorming
  • Simulation von Gesprächen oder Rollenspielen
  • Kundenservice und Chatbots

Zudem wird es in vielen Branchen als Assistenzsystem eingesetzt – z. B. im Gesundheitswesen, in der Softwareentwicklung oder im Bildungsbereich.

Welche Gefahren birgt ChatGPT?

So hilfreich ChatGPT auch ist – der Einsatz bringt auch Risiken mit sich, über die man sich im Klaren sein sollte:

Fehlinformationen

ChatGPT kann überzeugend falsche Informationen liefern. Es gibt keine Garantie dafür, dass die Antworten immer korrekt sind. Das Modell „halluziniert“ manchmal – es denkt sich Fakten aus, wenn keine passende Information im Training enthalten ist.

Verstärkung von Vorurteilen

Da ChatGPT auf bestehenden Texten aus dem Internet trainiert wurde, kann es auch unbeabsichtigt Bias (Voreingenommenheiten) und Stereotype reproduzieren – zum Beispiel bei Themen wie Geschlecht, Ethnie oder Religion.

Datenschutz

Auch wenn ChatGPT keine persönlichen Daten speichert, können Nutzer versehentlich sensible Informationen eingeben. In Unternehmen ist Vorsicht geboten: Interne Informationen sollten nicht leichtfertig in eine KI eingegeben werden, die von einem Drittanbieter betrieben wird.

Abhängigkeit und Kompetenzverlust

Wenn man sich zu sehr auf KI verlässt, besteht die Gefahr, eigene Fähigkeiten zu verlernen – besonders beim Schreiben, Recherchieren oder Programmieren.

Missbrauchspotenzial

ChatGPT kann auch für Phishing, Fake-News-Erstellung, Propaganda oder Social Engineering missbraucht werden. Deshalb ist der verantwortungsvolle Umgang und eine klare Regulierung essenziell.

Gefahr der Bequemlichkeit – Wenn Denken überflüssig wird

Eine oft übersehene, aber tiefgreifende Gefahr im Umgang mit ChatGPT ist die Verlockung zur Bequemlichkeit. Warum sich mit komplexen Fragen, Texten oder Programmcodes auseinandersetzen, wenn ein Klick genügt, um eine fertige Antwort zu erhalten? Genau darin liegt das Risiko: Wer sich zu sehr auf KI verlässt, läuft Gefahr, eigene Kompetenzen zu vernachlässigen oder zu verlernen.

Besonders im Bildungsbereich oder bei kreativen Tätigkeiten kann das zu einem Problem werden. Wenn Schüler Aufgaben nicht mehr selbst durchdenken, sondern von einer KI erledigen lassen, bleibt das tiefere Verständnis auf der Strecke. Auch in der Berufswelt kann der übermäßige Einsatz von KI dazu führen, dass kritisches Denken, Recherchefähigkeit oder sprachlicher Ausdruck verkümmern.

Die Technik nimmt einem nicht nur Arbeit ab – sie nimmt einem mitunter auch den Antrieb, sich weiterzuentwickeln. Deshalb gilt: ChatGPT sollte als Werkzeug verstanden werden, nicht als Ersatz für Denken und Lernen.

Die Gefahr der zugrunde liegenden Datenquellen

Ein weiteres bedeutendes Problem bei der Nutzung von KI-Modellen wie ChatGPT sind die Datenquellen, auf denen diese Modelle basieren. KI-Systeme wie ChatGPT lernen durch die Analyse riesiger Mengen an Texten aus dem Internet, Büchern, wissenschaftlichen Artikeln und vielen weiteren Quellen. Das bedeutet, dass alles, was in diesen Quellen enthalten ist – ob wahr, ungenau oder sogar absichtlich verzerrt – auch in die KI „hineingelernt“ wird.

Wenn also bereits Fehlinformationen, falsche Daten oder verzerrte Darstellungen in den Trainingsdaten vorhanden sind, werden diese Fehler auch in den Antworten der KI reproduziert. Das gilt nicht nur für offensichtliche Fakes oder Propaganda, sondern auch für subtile Verzerrungen, wie sie in verschiedenen kulturellen, politischen oder sozialen Kontexten vorkommen können. Dies bedeutet, dass ChatGPT – auch wenn es technisch beeindruckend ist – nicht zwangsläufig „wahr“ oder „objektiv“ antwortet, sondern die bestehenden Verzerrungen und Fehler der verwendeten Daten widerspiegeln kann.

Gerade in einer Zeit, in der Fake News und Desinformation ein wachsendes Problem darstellen, wird es immer schwieriger, zwischen echten und erfundenen Informationen zu unterscheiden. KI-Modelle wie ChatGPT können versehentlich zur Verbreitung von falschen oder manipulativen Inhalten beitragen, indem sie unreflektiert und ohne jede Quellenkritik Daten wiedergeben, die nicht korrekt sind. Besonders gefährlich wird dies, wenn Nutzer ohne kritische Reflexion den Antworten der KI vertrauen und diese als Wahrheit akzeptieren.

Erfahrungen mit ChatGPT

Exakt hier folgen eigene Erfahrungen von KI wie ChatGPT, die ich in den vergangenen Monaten in verschiedenen Bereichen machen konnte.

Texte wie Anschreiben, eMails kann man ChatGPT zum, ich sage einmal, Verbessern vorlegen. Das ist ganz praktikabel, wenn man seine Texte auf Form, Korrektness, Stil trimmen will, vor allem wenn man unter dem Einfluss von Emotionen getextet hat.
Aber wichtig ist immer der Prompt. Also eine gezielte Eingabe oder Frage, mit der man eine KI wie ChatGPT dazu bringt, eine bestimmte Antwort, Information oder kreative Leistung zu erzeugen.
Je nachdem wie man hier formuliert, wie klar und präzise man hier bleibt, desto besser ist es für das Ergebnis.

Allerdings ist bereits die Krux mit der KI ChatGPT. Obwohl wie bereits erwähnt, die KI nicht denken kann und keinerlei menschliche Züge hat, verhält sie sich – zumindest wenn es komplex wird – eigenwillig und teilweise sogar sehr dumm.

Woran mache ich das fest?

Wenn ich zum Beispiel mir Programm-Code generieren lasse, vielleicht für eine Aufgabe wie „Mache aus dieser Liste in der Variablen eine Liste ohne jegliche Kommta.“, dann klappt das sehr. Ich bekomme den Code in der von mir gewünschten Programmiersprache.
Sobald ein umfangreicheres Problem lösen will, mache ich das besser selber, weil das Sichhinarbeiten, das Nacharbeiten und Testen mehr Zeit beansprucht, als wenn man es selber macht. Man bekommt zwar etwas, aber meistens „vergisst“ die ChatGPT Zusammenhänge, die man sogar präzisse beschrieben hatte. Und das Resultat ist, dass der Code nicht das macht wozu er eigentlich dienen sollte.
Lästig ist auch, dass ChatGPT teilweise nicht versteht, was man ihr aufgetragen hatte. Das kann sehr frutierend werden. „So etwas wird als Künstliche Intelligenz bezeichnet? Und ist nicht in der Lage kausale Bedingungen korrekt in der logischen Reihenfolge zu verstehen, geschweige denn korrekt abzubilden!“ Das ist meistens ziemlich amüsant, wie sich ChatGPT anfängt zu entschuldigen, dass es die Geduld des Kommunikationspartners überstrapaziert hat.
Man bekommt teilweise sogar noch Zusätzliches „untergeschoben“, was so nicht gewollt war.
Das ist ein sehr guter Übergang zu einem anderen Manko.

ChatGPT ist schon sehr übereifrig. Wenn man nur eine Code-Sequenz wissen will und aber das Problem näher beschrieben hat, dann wir einem gleich ein ganzes Programm hingeknallt. Oder will man nur kurz zu einem Thema etwas wissen, liefert ChatGPT sehr oft komplette Abhandlungen. Also eigentlich mehr als gewünscht, so dass man quasi prompten muss „So will ich nicht wissen, maximal drei Sätze!“.

Ein besonders problematischer Punkt sind die sogenannten Halluzinationen. Wenn ChatGPT keine ausreichenden Daten hat, um eine präzise Antwort zu liefern, wird es kreativ – oft zu kreativ. Anstatt zu sagen: „Tut mir leid, ich habe keine Daten dazu“, erfindet es einfach Informationen, die nicht korrekt sind. Wer über kein tieferes Hintergrundwissen zu einem Thema verfügt, könnte diese falschen Informationen als wahr ansehen, was eine erhebliche Gefahr darstellt. In solchen Fällen kann ChatGPT mehr schaden als nützen.



ChatGPT ist zweifellos eine der beeindruckendsten technologischen Entwicklungen der letzten Jahre. Es eröffnet neue Möglichkeiten im Bereich Kommunikation, Bildung und Arbeit – bringt aber auch Herausforderungen mit sich, die nicht unterschätzt werden dürfen. Ich selber sehe in ChatGPT eher eine praktikable Suchmaschine, die mir zu einer Frage – vorausgesetzt der Prompt war gut gesetzt – die Informationen zusammengefasst liefert. Die ich auch erlangen kann, wenn ich mit viel Zeit viele Links in den Suchmaschinen Google, DuckDuckGo, Bing etc. besuche und durchforste. Aber selbst jetzt bin ich der kritischen Nacharbeit verpflichtet. Denn auch die von mir gefundenen Quellen können durchaus Fakes und gezielte Fehlinformationen enthalten.

Wer die Technik kennt, ihre Grenzen versteht und sie mit Bedacht einsetzt, kann enorm von ihr profitieren. Aber wie bei jeder mächtigen Technologie gilt: Der Mensch entscheidet, ob sie zum Werkzeug des Fortschritts – oder zur Quelle neuer Probleme wird.