Was Künstliche Intelligenz heute kann, wo ihre Grenzen liegen — und warum sie kein Allwissender ist.
KI ist ein Werkzeug — wie ein Taschenrechner oder eine Suchmaschine. Es macht dich produktiver, aber es ersetzt nicht dein Denken.
LLM steht für Large Language Model — ein grosses Sprachmodell. Systeme wie ChatGPT, Claude oder Gemini basieren darauf.
Ein Sprachmodell ist im Kern eine hochkomplexe Wortvorhersage-Maschine. Es liest Text und berechnet statistisch, welches Wort als nächstes am wahrscheinlichsten kommt. Es "denkt" nicht — es rechnet.
Stell dir vor, du tippst auf deinem Handy eine Nachricht und die Tastatur schlägt das nächste Wort vor. Ein LLM macht genau das — nur millionenfach besser, mit dem Wissen aus riesigen Textmengen.
KI-Modelle können Dinge erfinden, die plausibel klingen, aber falsch sind. Das nennt man Halluzinationen. Es gibt drei Hauptgründe:
Wenn der KI spezifische Informationen fehlen, füllt sie die Lücke mit plausibel klingenden — aber oft falschen — Annahmen. Je weniger Kontext du gibst, desto mehr muss sie raten.
KI-Modelle sind darauf trainiert, stets hilfreich zu sein. Sie erfinden lieber eine Antwort, als zuzugeben: "Das weiss ich nicht."
Das Wissen eines Modells endet an einem bestimmten Datum. Alles, was danach passiert ist — neue Gesetze, aktuelle Ereignisse, aktuelle Daten — kennt es nicht, es sei denn, du gibst es aktiv mit.
Immer kritisch gegenlesen. Fakten prüfen. Und bei wichtigen Entscheidungen nie blind auf KI-Ausgaben vertrauen.
Was macht ein Large Language Model (LLM) im Kern?
Was ist eine "Halluzination" bei KI?