KI "halluziniert" – und das ist ein echtes Problem
Es gibt einen Begriff, den du dir merken solltest: Halluzination. Das klingt dramatisch, beschreibt aber ein sehr konkretes Problem: KI erfindet manchmal Dinge, die nicht wahr sind – und tut das mit vollkommener Überzeugung.
Das kann sich so zeigen: Du fragst nach dem Autor eines Buches – KI nennt dir einen Namen, der erfunden ist. Du fragst nach einem Gesetz – KI zitiert einen Paragrafen, den es nicht gibt. Du fragst nach einer österreichischen Behörde – KI nennt dir eine Adresse, die falsch ist. All das klingt plausibel, ist korrekt formuliert und klingt wie eine echte Antwort. Und ist es doch nicht.
Warum passiert das? Weil KI kein Nachschlagewerk ist. Sie "weiß" keine Fakten – sie erzeugt Antworten, die sprachlich plausibel klingen. Das geht oft gut. Manchmal aber nicht. Und das Tückische: Du kannst es oft nicht sofort erkennen.
KI weiß nicht, was heute ist
Jede KI hat einen sogenannten Trainings-Cutoff – ein Datum, nach dem sie nichts mehr "gelernt" hat. ChatGPT zum Beispiel kennt keine Ereignisse, die nach seinem letzten Trainingsdatum passiert sind. Das heißt: Aktuelle Nachrichten, neue Gesetze, die letzten Wahlergebnisse, neue Produkte, aktuelle Preise – all das ist für KI ohne Internetanbindung schlicht nicht vorhanden.
Manche Tools wie Perplexity AI oder ChatGPT mit aktivierter Websuche können inzwischen im Internet recherchieren und so aktuellere Antworten liefern. Aber das ist nicht die Regel – und selbst dann solltest du kritisch sein. Für Fragen, wo Aktualität wichtig ist (Zugverbindungen, Öffnungszeiten, aktuelle Rechtslage), immer lieber direkt auf der offiziellen Website nachschauen.
KI hat kein echtes Verständnis
Das ist vielleicht die wichtigste Grenze – und die schwierigste, weil sie so gut versteckt ist. KI klingt, als würde sie verstehen. Aber sie versteht nicht im menschlichen Sinn.
Ein Mensch, der einen Text liest, versteht nicht nur die Wörter. Er versteht den Kontext dahinter: die soziale Situation, die emotionale Lage, die unausgesprochenen Annahmen. KI kombiniert Muster aus ihrem Training. Das funktioniert erstaunlich oft – aber eben nicht immer.
Ironie ist ein gutes Beispiel: Wenn du sagst "Ja, das war mal wieder ein toller Tag" und du dabei einen Unfall hattest, versteht ein Mensch sofort, dass du das zynisch meinst. KI versteht das manchmal – und manchmal nicht, besonders wenn der Kontext fehlt. Ähnliches gilt für Sarkasmus, kulturelle Anspielungen und feine Nuancen. Wenn du merkst, dass KI dich "falsch verstanden" hat, formuliere den Kontext klarer.
KI kann keine Gefühle haben – auch wenn es so klingt
Das verdient einen eigenen Abschnitt, weil es viele Menschen wirklich beschäftigt. Wenn ChatGPT schreibt "Ich verstehe, wie frustrierend das für dich sein muss" – dann klingt das empathisch. Es ist kein Beweis für ein Gefühl. Es ist das sprachliche Muster, das in der Trainingsdaten als angemessene Reaktion in dieser Situation vorkam.
KI hat kein Innenleben. Sie leidet nicht, wenn du unhöflich bist. Sie freut sich nicht wirklich, wenn du ihr dankst. Sie hat keine Interessen, keine Wünsche, keine Langeweile. Das zu wissen ist wichtig – nicht um KI kleiner zu reden, sondern um die Beziehung richtig einzuordnen. Du nutzt ein Werkzeug, das sich menschlich anfühlt. Das Werkzeug ist mächtig. Aber es ist kein Freund, kein Therapeut und kein Gegenüber im echten Sinn.
KI ersetzt keinen Arzt, keinen Anwalt, keinen Steuerberater
KI kann dir erklären, was Bluthochdruck ist. Sie kann dir sagen, welche Rechte Mieter in Österreich grundsätzlich haben. Sie kann dir erklären, wie die Einkommensteuer funktioniert. Das ist wertvoll – als Vorbereitung, als erste Orientierung, zum Verständnis.
Aber KI kann dir nicht sagen, ob deine konkreten Symptome auf eine bestimmte Krankheit hinweisen. Sie kann nicht beurteilen, ob dein Mietvertrag rechtlich hält. Sie kann keine Steuererklärung erstellen, die an deinen konkreten Fall angepasst ist und für die jemand haftet.
Der Unterschied ist Verantwortung. Ein Arzt, ein Anwalt, ein Steuerberater haften für ihre Aussagen. Sie kennen deinen Fall, deine Geschichte, deinen Kontext. KI tut das nicht – und übernimmt keine Verantwortung. Für wichtige Entscheidungen, die deine Gesundheit, dein Geld oder deine Rechtslage betreffen: Fachleute befragen. KI kann dir helfen, die richtigen Fragen zu stellen. Die Antworten liefert der Experte.
KI macht Fehler bei Mathematik und Logik
Das überrascht viele – schließlich sind Computer eigentlich gut mit Zahlen. Aber KI-Sprachmodelle sind keine Taschenrechner. Sie erzeugen Text, und Zahlen sind für sie Symbole wie andere Symbole auch.
In der Praxis bedeutet das: Einfache Rechnung wie 5 × 3 beherrscht KI problemlos. Aber komplexere Kettenrechnungen, Aufgaben mit mehreren Schritten, Bruchrechnung mit mehreren Variablen oder logische Rätsel – da kommt es öfter zu Fehlern als man denken würde. Ähnliches gilt für Logikaufgaben: Wenn du KI komplexe Wenn-Dann-Ketten oder Vergleiche gibst, schleichen sich manchmal Fehler ein, die du sofort siehst – wenn du aufmerksam bist.
Was tun? Bei Berechnungen, die wirklich stimmen müssen: lieber nachrechnen oder einen echten Taschenrechner verwenden. Manche KI-Tools haben inzwischen auch einen eingebauten "Code-Interpreter", der tatsächlich rechnet statt zu raten – das ist zuverlässiger.
Diese Grenzen zu kennen macht dich nicht zum KI-Skeptiker. Es macht dich zum klugen KI-Nutzer. KI ist außergewöhnlich gut in vielem – Texte schreiben, Ideen generieren, Erklärungen liefern, Entwürfe erstellen. Wenn du weißt, wo die Grenzen sind, setzt du KI dort ein, wo sie glänzt – und prüfst selbst, wo Genauigkeit wichtig ist.
Die 5 Dinge, die du immer selbst prüfen solltest
- Fakten und Quellen: Wenn KI eine Zahl, ein Datum, ein Zitat oder eine Quelle nennt, kurz selbst nachschauen – besonders bei wichtigen Entscheidungen.
- Aktuelle Informationen: Alles, was sich schnell ändert (Preise, Gesetze, Öffnungszeiten, aktuelle Ereignisse) lieber direkt auf der offiziellen Website prüfen.
- Medizinische und rechtliche Aussagen: Immer mit einem Fachmann besprechen, bevor du handelst.
- Berechnungen: Mathematische Ergebnisse mit einem Taschenrechner oder einer zweiten Quelle gegenchecken.
- Dein eigenes Gefühl: Wenn eine Antwort komisch klingt, zu perfekt ist oder irgendetwas nicht stimmt – vertraue deinem Bauchgefühl und prüfe nach. KI hat kein Unrechtsbewusstsein und widerspricht sich manchmal sogar selbst.
KI ist kein allwissender Geist und kein unfehlbares System. Sie halluziniert, kennt nichts Aktuelles, versteht nicht wirklich, hat keine Gefühle und ersetzt keinen Experten. Das klingt viel – ist aber kein Grund zur Enttäuschung. Es ist ein Grund zur Klarheit. Wenn du KI als mächtigen, aber fehlbaren Assistenten betrachtest – der dir Entwürfe liefert, Ideen gibt und Zeit spart, aber nicht das letzte Wort hat – dann wirst du nie enttäuscht sein. Und du wirst überraschend oft begeistert sein.