Alle wichtigen Begriffe rund um Künstliche Intelligenz — einfach und verständlich erklärt.
Eine KI, die eigenständig mehrstufige Aufgaben erledigt. Im Gegensatz zu einem einfachen Chatbot kann ein Agent planen, Tools nutzen, im Internet suchen oder Code ausführen — und das alles ohne Zwischenschritte vom Nutzer.
Eine hypothetische KI, die jede intellektuelle Aufgabe mindestens so gut wie ein Mensch lösen kann — branchenübergreifend und ohne spezifisches Training. Existiert bisher nicht, ist aber das erklärte Ziel vieler KI-Unternehmen.
Das Entfernen oder Ersetzen von personenbezogenen Daten (Namen, Geburtsdaten, etc.), bevor Texte in eine KI eingegeben werden. Wichtiger Datenschutz-Grundsatz bei der KI-Nutzung.
Eine Schnittstelle, über die Programme miteinander kommunizieren. KI-APIs erlauben es, Modelle wie GPT oder Claude in eigene Software, Websites oder Workflows einzubinden.
Systematische Verzerrungen in KI-Antworten, die aus einseitigen Trainingsdaten stammen. Kann zu Diskriminierung oder falschen Annahmen führen — darum ist kritisches Prüfen von KI-Output wichtig.
Eine Prompting-Technik, bei der man die KI auffordert, Schritt für Schritt zu denken. Verbessert die Ergebnisse bei komplexen Aufgaben deutlich — z.B. "Erkläre dein Vorgehen Schritt für Schritt."
Eine Anwendung, die KI nutzt, um in Dialogform mit Menschen zu kommunizieren. Moderne Chatbots basieren auf LLMs und können komplexe Gespräche führen (z.B. ChatGPT, Claude).
Die Umwandlung von Text in Zahlenvektoren, damit die KI Bedeutung und Ähnlichkeit berechnen kann. Grundlage für semantische Suche, Empfehlungen und RAG-Systeme.
Zero-Shot: Die KI löst eine Aufgabe ohne Beispiele. Few-Shot: Du gibst 1–3 Beispiele im Prompt mit, damit die KI das Muster versteht. Mehr Beispiele = bessere Ergebnisse bei spezifischen Aufgaben.
Das gezielte Nachtrainieren eines KI-Modells auf spezifischen Daten, um es für bestimmte Aufgaben oder Branchen zu spezialisieren. Das Basismodell wird dabei angepasst, nicht ersetzt.
Die Verankerung von KI-Antworten in echten, überprüfbaren Quellen. Durch Grounding (z.B. via RAG oder Websuche) werden Halluzinationen reduziert und Antworten faktisch zuverlässiger.
Sicherheitsregeln und Filter, die verhindern, dass eine KI schädliche, falsche oder unerwünschte Inhalte produziert. Können im System-Prompt, im Harness oder im Modell selbst verankert sein.
Wenn eine KI plausibel klingende, aber faktisch falsche Informationen generiert. Entsteht durch fehlenden Kontext, Trainingslücken oder den Zwang, immer eine Antwort zu liefern.
Die Steuerungsschicht um ein KI-Modell herum. Ein Harness definiert, welche Tools der KI zur Verfügung stehen, wie Eingaben verarbeitet werden und welche Regeln gelten — quasi das "Betriebssystem" eines Agents.
Der Moment, in dem ein trainiertes KI-Modell auf eine Eingabe reagiert und eine Antwort generiert. Training = Lernen, Inferenz = Anwenden. Jede Chatbot-Antwort ist eine Inferenz.
Die maximale Textmenge, die ein Modell gleichzeitig verarbeiten kann — sowohl Eingabe als auch Ausgabe. Ein grösseres Kontext-Fenster erlaubt längere Gespräche und mehr Hintergrundinformationen.
Ein grosses Sprachmodell, das auf riesigen Textmengen trainiert wurde. Es berechnet statistisch, welches Wort als nächstes am wahrscheinlichsten kommt. Beispiele: GPT-4, Claude, Gemini, Llama.
Ein offener Standard, der definiert, wie KI-Modelle mit externen Tools und Datenquellen kommunizieren. Ermöglicht es Agents, strukturiert auf Dateisysteme, APIs oder Datenbanken zuzugreifen.
KI-Modelle, die nicht nur Text, sondern auch Bilder, Audio oder Video verarbeiten und generieren können. Beispiel: GPT-4o kann Bilder analysieren und beschreiben.
KI-Modelle, deren Code und/oder Gewichte öffentlich zugänglich sind. Beispiele: Llama (Meta), Mistral. Können lokal betrieben werden — ein Vorteil für Datenschutz.
Die Eingabe oder Anweisung, die du einer KI gibst. Je präziser der Prompt, desto besser das Ergebnis. Kann einfache Fragen oder komplexe Anweisungen mit Rolle, Kontext und Format enthalten.
Die Kunst, Prompts so zu formulieren, dass die KI optimale Ergebnisse liefert. Umfasst Techniken wie Rollenangaben, Kontext-Setting, Beispiele und Formatvorgaben (z.B. RTCEF-Framework).
Eine Methode, bei der die KI vor dem Antworten relevante Informationen aus einer externen Datenquelle abruft. Reduziert Halluzinationen und ermöglicht aktuelle, quellenbasierte Antworten.
Das Datum, bis zu dem ein KI-Modell trainiert wurde. Alles, was danach passiert ist, kennt es nicht — es sei denn, du gibst die Information aktiv im Prompt mit.
Eine versteckte Anweisung, die vor dem eigentlichen Gespräch an die KI gegeben wird. Definiert Verhalten, Tonalität und Einschränkungen. Der Nutzer sieht den System-Prompt in der Regel nicht.
Ein Parameter, der steuert, wie "kreativ" oder "zufällig" die KI-Antworten sind. Niedrige Temperatur = präziser und vorhersagbarer. Hohe Temperatur = kreativer und vielfältiger.
Die kleinste Einheit, in die ein Text für die KI zerlegt wird. Ein Token kann ein Wort, ein Wortteil oder ein Satzzeichen sein. Längere Texte = mehr Tokens = mehr Rechenaufwand.
Der Prozess, bei dem ein KI-Modell aus grossen Datenmengen Muster und Zusammenhänge lernt. Das Training bestimmt, was das Modell "weiss" — und wo sein Wissen endet (Stichtag).