Werden ChatGPT, Claude, Gemini bereits zu gefährlich?
Vor wenigen Jahren hatte der Hype um die scheinbar intelligenten LLMs angefangen und langsam gewöhnt sich die breite Bevölkerung daran.
Das hier ist eine kritische Betrachtung von jemanden, der versucht die KI im Alltag sinnvoll zu nutzen.
Also ganz ehrlich, irgendwie ist es schon unheimlich. Man sitzt am Computer und stellt eine Frage wie diese
„Bitte eine kurze Erklärung, was ‚respektive‘ bedeutet“
ChatGPT antwortet umgehend mit:
Das Wort „respektive“ wird verwendet, um eine genauere, oft alternative oder genauere Beziehung zwischen zwei Dingen auszudrücken. Man kann es in etwa mit „bzw.“ (beziehungsweise) übersetzen.
Beispiele:
- „Die Kinder und Jugendlichen, respektive ihre Eltern, wurden informiert.“ → Die Kinder und Jugendlichen und genauer gesagt deren Eltern wurden informiert.
- „Wir treffen uns am Montag respektive Dienstag.“ → Wir treffen uns am Montag oder genauer gesagt am Dienstag.
Kurz gesagt: „respektive“ präzisiert oder ersetzt eine vorherige Angabe durch eine genauere/alternative Angabe.
Wenn du willst, kann ich noch eine Merkregel geben, um „respektive“ richtig zu verwenden, weil es oft verwechselt wird. Willst du die?
Also kurz ist das definitiv nicht. Die KI Claude dagegen liefert dafür diese Antwort
„Respektive“ bedeutet „beziehungsweise“ oder „jeweils“ – es ordnet zwei Dinge einander paarweise zu.
Beispiel: „Anna und Ben bekamen den ersten und zweiten Platz respektive.“ → Anna den ersten, Ben den zweiten.
Es stammt aus dem Lateinischen (respectivus) und wird eher in formellen oder wissenschaftlichen Texten verwendet.
Fällt Ihnen irgendetwas auf?
Nun, als Erstes könnte man sofort den Eindruck gewinnen, es spricht eine menschliche Person mit mir. Als Zweites fällt auf, dass ChatGPT schon extrem unhöflich ist!
Zumindest haben wir Deutsche in unserer Sprache einen Kodex eingebaut, der uns erst einmal Respekt und Distanz zu dem Gesprächspartner abverlangt. Zumindest, wenn man sich noch nicht kennt. Aber was macht ChatGPT? Es duzt einen per Default grundsätzlich. Okay, Claude auch, aber das scheint zu erkennen, dass in den persönlichen Einstellungen „Keine Personalpronomen!“ eingetragen ist, genauso wie allerdings bei ChatGPT auch.
Am besten klappt derzeit dieser Prompt „Sachlich, objektiver Chat und vor allem keine Personalpronomen!“. Aber ich konnte auch bereits feststellen, dass ChatGPT diese Complience-Regeln „vergisst“ je länger der Chatverlauf ist. Plötzlich wird man wieder geduzt.
Will man grundsätzlich mit einer Software oder gar Person zusammen arbeiten, die derart schlecht erzogen wurde? Auch das „kurz“ bei ChatGPT wurde regelrecht missachtet.
Stärken bei der KI?
Wo klappt es denn dann mit KI-Modellen? Ich würde sagen eingeschränkt in der Programmierung, Fehlersuche, Verfassen von Texten. Ich betone das „eingeschränkt“, denn da liegt eine sehr große Gefahr, denn man sollte sehr wohl verstehen, was einem dort quasi als Wahrheit serviert wird.
Die sogenannte KI kann nicht denken, auch wenn es so aussieht. Das Ganze basiert strenggenommen auf den Wahrscheinlichkeiten von Token, Mustern und Kontexten in unserer Sprache. Also wie wahrscheinlich ist es im betrachteten Kontext, dass „ein blauer …„ richtig mit „Planet“, „Ball“ oder „Schrank“ ergänzt wird? Die KI wird das nur aus Sprachmustern und gegebenen Wahrscheinlichkeiten „erraten“ können.
Im Grunde genommen ist die KI eine Software, die Datenbanken abfragt.
Die KI wird nie wie ein Kollege mitdenken können. Wir zwei Kollegen sehen einen Programmcode und jeder von uns macht sich Gedanken in die richtige Richtung. Einer KI müsste man, sollte sie das selbe Ergebnis liefern, beide Gedanken mit als Input liefern. Genauso beim Schreiben von Texten, wird das nie der eigene Text sein, selbst im Kontext gibt es immer wieder massive Abweichungen zu dem, was man selber ausdrücken will. Alleine die stilistische Anpassung eines vorher geschriebenen Textes wird einigermaßen gelingen. Aber auch hier kommt man nicht um Nacharbeiten und bewusstes Lesen herum, denn die KI meint immer etwas verbessern zu müssen. Und das passt meistens nicht zu dem was man selber ausdrücken will.
Übereifrige KI
Das was gerade beschrieben wurde, passt sehr gut zum Gesamtverhalten der Chatbots, egal von welchen Anbieter sie kommen. Sie werden selbst bei einer kleinen Frage mit Informationen massenweise überfrachtet. Selbst wenn man Chatbots als erweiterte Suchmaschine nutzen will, fährt man dann besser, direkt die Suchmaschinen zu benutzen. Zumal man den KI-Ergebnissen nicht trauen kann. Und im Prinzip das Lesen und Bewerten des KI-Outputs muss man immer noch selber vornehmen.
Ein weiterer negative Aspekt sich die Atemlosigkeit der KI’s. Was ich meine, zeigt in diesem Schlusssatz auf eine banale Frage meinerseits:
„Wenn du willst, sag mir, wofür du KI konkret nutzen willst (z. B. Studium, Programmieren, Business) – dann sag ich dir, welche für dich persönlich besser passt.“
Exakt das gleiche Muster finden wir in Social Media Tools wie Facebook, Instagram etc. wieder. Hier kann man am Smartphone oder Webbrowser endlos nach unten scrollen, ständig kommt neuer Content. Die KI macht es momentan noch nicht so subtil, aber der gewünschte Effekt ist der Gleiche. Die Benutzer sollen bei der Stange gehalten werden. Und die gemeinen Benutzer tappen auch in diese Falle, wie man es von Facebook & Co. bereits kennt – stundenlanges Verweilen im Scrollen. Bei der KI halte ich das für extrem gefährlich. Selbst ich war bereits geneigt zu zustimmen, weil ich wissen wollte, was wird mir jetzt noch mehr an Informationen vorenthalten. Wer jetzt nicht mit denkt, wird nicht merken, dass bereits gemachte Argumente wiederholt werden und man im Prinzip nichts Neues erfährt.
Gefährlich ist das Ganze auch in soweit, dass wir gemeine Menschen sehr schnell bei der von der KI gelieferten Sprache anfangen zu denken, wir befänden uns in einer echten Kommunikation. Das stimmt aber nicht, das ist nur eine riesengroße Illusion, der Viele hier aufgesessen sind. In einer zwischenmenschlichen Kommunikation werden den Anderen mit unseren Worten überzeugen müssen, oder wir merken am Tonfall, am Satzaufbau, wie es mein Gegenüber sieht. Mit einer Software geht das nicht.
Sicher das geschieht nicht willentlich seitens der KI. Aber die Leute/Verantwortlichen bei OpenAI (ChatGPT), Microsoft (Copilot), Google (Bard und Gemini), Anthropic (Claude), Meta (LLaMA), Mistral AI (Mistral) und Technology Innovation Institute (Falcon) sind diejenigen, die solches KI-Verhalten zu verantworten haben und den Willen dazu zeigen. Sicherlich bestehen hier auch rege Interessen, dass die Benutzer genauso im Chat gehalten werden wie in die Social Media Plattformen das Verbleiben angestrebt wird.
KI ist generell erst einmal im Recht
Exakt dieser Gedanke bringt mich zum nächsten Aspekt. Die KI hat eigentlich immer Recht. Sie weiß im Prinzip immer alles. Erst sobald man einen 100%igen Gegenbeweis liefert, oder darauf verweist „Das widerspricht aber dieser Aussage, bereits weiter oben im Chat gemacht wurde!“, gesteht die KI verschämt ein, dass sie hier falsch läge. Und bei der Folgefrage, warum die KI als Intelligenz überhaupt so einen Fehler machen könnte, kommen wieder zahlreiche Rechtfertigungen.
Als Anwender solcher Chatbots bekommt man sehr schnell den Eindruck man bekäme sehr gutes und breites Wissen. Wenn man nicht aufpasst oder bereits weiß in welche Richtung es zu gehen hat wird es gefährlich. Und was bringen dann Grundsatzdiskussionen mit einer KI-Software? Sie wird immer eine Antwort finden, sie wird niemals schweigen, sobald man geantwortet hat. Wir Menschen schweigen dann auch einmal, wenn es uns zu blöd wird und das Gegenüber uneinsichtig bleibt.
KI als Programmier-Coach
Mittlerweile existieren bereits KI-Module für die unterschiedlichen IDEs, damit die KI einen beim Programmieren unterstützt. Für denkfaule Entwickler mag das optimal sein, aber unter dem
Gerade habe ich ein Lehrbuch zum Erlernen einer Programsprache via KI auf dem Tisch liegen. Das haut mich wirklich vom Hocker. Die Zielgruppe sieht nach Jugendlichen aus, die Programmieren lernen wollen. Aber weniger durch das Lesen und Lernen der Programmsyntax sondern durch das geschickte Prompten in KI-Weboberflächen. Im Prinzip in dem Style „Ich brauche eine Taschenrechner mit GUI für die vier Grundrechenarten.“ Sobald die Entertaste gedrückt wurde, erscheint das fertige Python-Programm mit Anleitung wie es zu starten sei.
Das erinnert mich an Diskussionen vor 20 zwanzig Jahren, dass bald die Programmierung über die menschliche Sprache gänge. Exakt das ist das!
Aber mal ehrlich, auch wenn der Autor dadurch die Kreativität der vermeintlichen Entwickler in den Vordergrund stellen will –man kann sich voll auf das Design konzentrieren – bleibt die Eigenständigkeit des Codes dabei auf der Strecke. Und vor allem vor dem Hintergrund des bisher Gesagten, wer checkt dann noch, ob die Programmierung noch korrekt ist? Ein Programmier-Novice? Der soll doch lernen und nicht „Wie hole ich mir den passenden Code?“ üben.
Gestandene IT-Administratoren schwärmen von der KI
Im Rahmen einer Diskussion zu einem Postfix-Mailserverhalten in einer spezialisierten Mailingliste hatte mich erstaunt und von Hocker gerissen, wie weit bereits gestandene Server-Admins, die gefühlt seit vielen Jahren in der Liste gute Ansätze posten, von der KI regelrecht schwärmen.
„Ja, man muss ein bissel Prompten können……“
„Wenn man dann mal so ein Jahr mit der KI gearbeitet hat, lernt man sie schätzen und sie lernt Dich kennen, Deine Vorlieben, welche Art von Antworten Du erwartest.„
„Es ist ein Werkzeug nicht mehr, nicht weniger. Keiner muss es lieben, aber wer weiß, wie Schraubenzieher und Gabelschlüssel richtig angewendet werden, der hat immer sein Auskommen. Handwerker werden nicht durch KI ersetzt werden können.“
„Und Bitte und Danke sind auch nicht verkehrt oder wenn Du ihr mal ein Eis spendierst wenn sie gut war (ja die KI ist auch bestechlich).“
Das musste ich einfach zitieren, denn das ist unglaublich! Eine KI lernt mich und meine Vorlieben kennen, welche Antworten ich wünsche. Wohin steuert denn das? Zur Überwachung durch grenzenloses Sammeln von personalisierten Daten? Und wieso Belohnungen? Geht es noch?
Zu Belohnungen – Dank und Bitte, die sind als solche zu sehen, da sie positive soziale Verstärkung hervor rufen können – einmal folgende Gedanken:
Grundsätzlich haben wir es bei der KI, die auf LLMs und NLPs basierend agiert, immer noch auf der untersten Ebene mit Nullen und Einsen zu tun. So eine Software kann keine Empathie und keine Sympathie entwickeln und besitzt keine Gefühle. Das alles ist aber notwendig, wenn diese Begriffe auch als Solches empfunden werden sollte.
Die Maschine wird eventuell „nur“ die Häufigkeit von Danke und Bitte in Zählervariablen ablegen können und am Ende eine Wertung erstellen können. Aber, was will die Software damit anfangen? Sie kann es nicht verwerten. Wenn der Chat zu ist, aus dem Cache raus ist, ist das weg! Sie kann es nicht beim nächsten Chat mit einer anderen Person an einem anderen Rechner als Erfahrungswert nutzen.
Ein Mensch ist zu einem anderen Mensch auf sozialer Ebene höflich, damit sich beide besser fühlen, das wird eine Software niemals erreichen.
Und einem Computer gefrorenes Wasser spendieren? Wohin denn? Direkt auf die CPU oder besser GPU? Dann wäre der Kurzschluss vorprogrammiert.
Soweit der kurze Ausflug, wie weit auch bereits Fachinformatiker, die eigentlich wissen sollten, was KI ist und wie sie funktioniert, davon regelrecht begeistert sind, als sei ihnen der Messias höchst persönlich begegnet.
Wozu kann man dann KI nutzen?
Bleibt die Frage nach dem Nutzen und der richtigen Anwendung von KI. Denn die ist gekommen um zu bleiben! Also die bisher erwähnten Anwendungsmöglichkeiten sind meiner Meinung brandgefährlich, wenn es so offen zur Verfügung gestellt wird wie zur Zeit. KI kann keinen Partner, Gesprächspartner, keine Psychologin etc. ersetzten. Das wäre genauso fatal, wie die Folgen der ungebremsten Nutzung der heutigen Social Media. Programme schreiben ist genauso witzlos. Ich halte KI da für angemessen sinnvoll, wo sie die Stärken wie Mustererkennung und Schnelligkeit einen Nutzen bringt. Also zum Beispiel Krebserkennung, Angriffsmuster im internationalen Zusammenleben etc. Oder man zeigt der KI einen Programmcode oder eine Konfigurationsdatei, beschreibt was das Problem ist und fragt nach einem Lösungsansatz.
Aber die allgemeine Bevölkerung derart mit KI-Modellen zu überfrachten, halte ich für megagefährlich, zumal die Meisten das alles gar nicht erkennen können. Es ist einfach nur toll und bequem, wenn Füllmasken auf dem Smartphone die Tipparbeit abnehmen oder man mittels Text-To-Bild kurz ein Fakebild generieren kann.
Grundsätzlich aber ist, dass man niemals darum herum kommen wird, alle KI-Ergebnisse gegenzuchecken. Denn das hatte ich auch bereits sehr oft erlebt, dass Unwahrheiten oder total veralte Informationen geliefert wurden. Trotz exakter Versionsangabe der untersuchten Software wurden teilweise Konfigurationsvorschläge der Vorgängerversion gemacht. Das konnte dann natürlich nicht funktionieren.
Also zusammen genommen, das übergenaue Prompten zur Eingrenzung dessen was man will und zusätzlich die umfangreichen Nacharbeiten des KI-Outputs, auch wenn der nach 30 Sekunden da ist, ist ein erheblicher Zeitaufwand. Da ist man teilweise schneller, man macht alles ohne KI.
Also, wirklich gut und effizient ist die KI nur in Mustervergleichen.
Bei allem was uns denkende, fühlende, empfindende Menschen ausmacht, wir eine KI uns niemals das Wasser reichen können, geschweige denn uns ersetzen können.
Fazit
Diese Liste fasst das Gröbste kurz zusammen:
- „strunzendumme Rechensklaven“ – unterstreicht, dass die heutigen KI-Modelle keine echte Intelligenz besitzen, sondern auf Berechnungen, Wahrscheinlichkeiten und Mustererkennung basieren.
- Betonung der Abhängigkeit von menschlicher Anleitung – ohne präzises Prompting oder Nacharbeit bleibt die KI funktionslos oder liefert fehlerhafte Ergebnisse.
- Pragmatische Sichtweise – KI ist eher ein Werkzeug für Musteranalyse und Datenverarbeitung, nicht ein autonom denkender Partner.
- KI ersetzt kein menschliches Denken oder Urteilen, sie automatisiert lediglich bestimmte Rechen- und Analyseprozesse.
Die KI ist kein Denker, sondern ein extrem dummer Rechensklave für:
- Berechnungen,
- Muster
- und Wahrscheinlichkeiten
Alles andere bleibt der menschlichen Arbeit vorbehalten!
Besser wären grundsätzlich KI-Outputs im Stil von Wikipedia-Texten ohne persönlichen Kontext.
