MODULE GLOSSAR
Nachschlagewerk

KI-Glossar

Alle wichtigen Begriffe rund um Künstliche Intelligenz — einfach und verständlich erklärt.

Agent AI Agent

Eine KI, die eigenständig mehrstufige Aufgaben erledigt. Im Gegensatz zu einem einfachen Chatbot kann ein Agent planen, Tools nutzen, im Internet suchen oder Code ausführen — und das alles ohne Zwischenschritte vom Nutzer.

AGI Artificial General Intelligence

Eine hypothetische KI, die jede intellektuelle Aufgabe mindestens so gut wie ein Mensch lösen kann — branchenübergreifend und ohne spezifisches Training. Existiert bisher nicht, ist aber das erklärte Ziel vieler KI-Unternehmen.

Anonymisierung Anonymization

Das Entfernen oder Ersetzen von personenbezogenen Daten (Namen, Geburtsdaten, etc.), bevor Texte in eine KI eingegeben werden. Wichtiger Datenschutz-Grundsatz bei der KI-Nutzung.

API Application Programming Interface

Eine Schnittstelle, über die Programme miteinander kommunizieren. KI-APIs erlauben es, Modelle wie GPT oder Claude in eigene Software, Websites oder Workflows einzubinden.

Bias Bias

Systematische Verzerrungen in KI-Antworten, die aus einseitigen Trainingsdaten stammen. Kann zu Diskriminierung oder falschen Annahmen führen — darum ist kritisches Prüfen von KI-Output wichtig.

Chain-of-Thought Chain-of-Thought

Eine Prompting-Technik, bei der man die KI auffordert, Schritt für Schritt zu denken. Verbessert die Ergebnisse bei komplexen Aufgaben deutlich — z.B. "Erkläre dein Vorgehen Schritt für Schritt."

Chatbot Chatbot

Eine Anwendung, die KI nutzt, um in Dialogform mit Menschen zu kommunizieren. Moderne Chatbots basieren auf LLMs und können komplexe Gespräche führen (z.B. ChatGPT, Claude).

Embedding Embedding

Die Umwandlung von Text in Zahlenvektoren, damit die KI Bedeutung und Ähnlichkeit berechnen kann. Grundlage für semantische Suche, Empfehlungen und RAG-Systeme.

Few-Shot / Zero-Shot Few-Shot / Zero-Shot

Zero-Shot: Die KI löst eine Aufgabe ohne Beispiele. Few-Shot: Du gibst 1–3 Beispiele im Prompt mit, damit die KI das Muster versteht. Mehr Beispiele = bessere Ergebnisse bei spezifischen Aufgaben.

Fine-Tuning Fine-Tuning

Das gezielte Nachtrainieren eines KI-Modells auf spezifischen Daten, um es für bestimmte Aufgaben oder Branchen zu spezialisieren. Das Basismodell wird dabei angepasst, nicht ersetzt.

Grounding Grounding

Die Verankerung von KI-Antworten in echten, überprüfbaren Quellen. Durch Grounding (z.B. via RAG oder Websuche) werden Halluzinationen reduziert und Antworten faktisch zuverlässiger.

Guardrails Guardrails

Sicherheitsregeln und Filter, die verhindern, dass eine KI schädliche, falsche oder unerwünschte Inhalte produziert. Können im System-Prompt, im Harness oder im Modell selbst verankert sein.

Halluzination Hallucination

Wenn eine KI plausibel klingende, aber faktisch falsche Informationen generiert. Entsteht durch fehlenden Kontext, Trainingslücken oder den Zwang, immer eine Antwort zu liefern.

Harness Harness / Orchestration Layer

Die Steuerungsschicht um ein KI-Modell herum. Ein Harness definiert, welche Tools der KI zur Verfügung stehen, wie Eingaben verarbeitet werden und welche Regeln gelten — quasi das "Betriebssystem" eines Agents.

Inferenz Inference

Der Moment, in dem ein trainiertes KI-Modell auf eine Eingabe reagiert und eine Antwort generiert. Training = Lernen, Inferenz = Anwenden. Jede Chatbot-Antwort ist eine Inferenz.

Kontext-Fenster Context Window

Die maximale Textmenge, die ein Modell gleichzeitig verarbeiten kann — sowohl Eingabe als auch Ausgabe. Ein grösseres Kontext-Fenster erlaubt längere Gespräche und mehr Hintergrundinformationen.

LLM Large Language Model

Ein grosses Sprachmodell, das auf riesigen Textmengen trainiert wurde. Es berechnet statistisch, welches Wort als nächstes am wahrscheinlichsten kommt. Beispiele: GPT-4, Claude, Gemini, Llama.

MCP Model Context Protocol

Ein offener Standard, der definiert, wie KI-Modelle mit externen Tools und Datenquellen kommunizieren. Ermöglicht es Agents, strukturiert auf Dateisysteme, APIs oder Datenbanken zuzugreifen.

Multimodal Multimodal

KI-Modelle, die nicht nur Text, sondern auch Bilder, Audio oder Video verarbeiten und generieren können. Beispiel: GPT-4o kann Bilder analysieren und beschreiben.

Open Source Open Source

KI-Modelle, deren Code und/oder Gewichte öffentlich zugänglich sind. Beispiele: Llama (Meta), Mistral. Können lokal betrieben werden — ein Vorteil für Datenschutz.

Prompt Prompt

Die Eingabe oder Anweisung, die du einer KI gibst. Je präziser der Prompt, desto besser das Ergebnis. Kann einfache Fragen oder komplexe Anweisungen mit Rolle, Kontext und Format enthalten.

Prompt Engineering Prompt Engineering

Die Kunst, Prompts so zu formulieren, dass die KI optimale Ergebnisse liefert. Umfasst Techniken wie Rollenangaben, Kontext-Setting, Beispiele und Formatvorgaben (z.B. RTCEF-Framework).

RAG Retrieval-Augmented Generation

Eine Methode, bei der die KI vor dem Antworten relevante Informationen aus einer externen Datenquelle abruft. Reduziert Halluzinationen und ermöglicht aktuelle, quellenbasierte Antworten.

Stichtag Knowledge Cutoff

Das Datum, bis zu dem ein KI-Modell trainiert wurde. Alles, was danach passiert ist, kennt es nicht — es sei denn, du gibst die Information aktiv im Prompt mit.

System-Prompt System Prompt

Eine versteckte Anweisung, die vor dem eigentlichen Gespräch an die KI gegeben wird. Definiert Verhalten, Tonalität und Einschränkungen. Der Nutzer sieht den System-Prompt in der Regel nicht.

Temperatur Temperature

Ein Parameter, der steuert, wie "kreativ" oder "zufällig" die KI-Antworten sind. Niedrige Temperatur = präziser und vorhersagbarer. Hohe Temperatur = kreativer und vielfältiger.

Token Token

Die kleinste Einheit, in die ein Text für die KI zerlegt wird. Ein Token kann ein Wort, ein Wortteil oder ein Satzzeichen sein. Längere Texte = mehr Tokens = mehr Rechenaufwand.

Training Training

Der Prozess, bei dem ein KI-Modell aus grossen Datenmengen Muster und Zusammenhänge lernt. Das Training bestimmt, was das Modell "weiss" — und wo sein Wissen endet (Stichtag).