KI-Begriffe im Glossar
Allgemeine KI-Terminologie: LLM, Embeddings, RAG, MCP, Prompt Engineering und Agent-Architekturen.
Agentic AI
Agentic AI ist der Oberbegriff für KI-Systeme, die autonom handeln, planen und Entscheidungen in komplexen Multi-Step-Umgebungen treffen.
Chain of Thought (CoT)
Chain of Thought ist eine Prompting-Technik, bei der das LLM Schritt für Schritt vor der finalen Antwort argumentiert, was die Genauigkeit bei komplexen Aufgaben drastisch erhöht.
ClaudeBot
ClaudeBot ist der Web-Crawler von Anthropic, der öffentliche Inhalte zum Training sowie zur Speisung von Claudes Such- und Recherche-Funktionen sammelt.
Context Window
Das Context Window ist die maximale Textmenge (Tokens), die ein LLM auf einmal verarbeiten kann — sein 'Gedächtnis' pro Interaktion.
Embedding
Ein Embedding ist eine numerische Vektor-Repräsentation von Text, Bild oder anderen Daten, mit der KI-Systeme semantische Ähnlichkeit berechnen können.
Few-Shot-Learning
Few-Shot-Learning ist die Technik, einem LLM wenige Beispiele im Prompt mitzugeben (In-Context-Learning), damit das Modell gewünschten Stil, Format oder Argumentation für neuen Input lernt.
Fine-Tuning
Fine-Tuning ist das Anpassen eines vortrainierten LLMs mit domänenspezifischen Daten, um besser bei Nischen-Tasks zu performen oder einen Stil zu matchen.
Foundation Model
Ein Foundation Model ist ein großskaliges KI-Modell, das auf breiten, diversen Daten trainiert wurde und anschließend für vielfältige spezifische Aufgaben angepasst werden kann — die Grundlage moderner generativer KI.
Function Calling (Tool Use)
Function Calling ist der Mechanismus, mit dem ein LLM entscheidet, eine externe Funktion oder API mit strukturierten Parametern aufzurufen, statt nur Text zu generieren.
Gemini
Gemini ist Googles Familie multimodaler Foundation Models, eingeführt im Dezember 2023, die Text, Bild, Audio und Video nativ verarbeitet.
Generative KI (GenAI)
Generative KI ist der Überbegriff für KI-Systeme, die neue Inhalte erzeugen — Text, Bild, Audio, Video oder Code — basierend auf trainierten Modellen statt bestehende Informationen abzurufen.
GPTBot
GPTBot ist der Web-Crawler von OpenAI, der öffentliche Web-Inhalte zum Training zukünftiger GPT-Modelle und für SearchGPT sammelt.
Guardrails
Guardrails sind die Sicherheitsmaßnahmen rund um ein LLM — Input-Filter, Output-Validierung und Monitoring — die verhindern, dass das Modell schädliche, ungenaue oder unbeabsichtigte Outputs erzeugt.
Jailbreak (LLM)
Ein Jailbreak ist eine Prompting-Technik, die ein LLM dazu bringt, seine Safety-Training-Regeln zu ignorieren und Inhalte zu erzeugen, die es sonst verweigern würde.
KI-Agent
Ein KI-Agent ist ein Softwaresystem um ein Sprachmodell, das autonom Aufgaben ausführt, Tools nutzt und in Iterationen Entscheidungen trifft, um ein Ziel zu erreichen.
LLMO (Large Language Model Optimization)
LLMO ist die Disziplin, Content und technische Konfiguration so zu optimieren, dass LLMs (ChatGPT, Claude, Gemini, Perplexity) Marke und Informationen in Antworten verwenden und zitieren.
Microsoft Copilot
Microsoft Copilot ist Microsofts KI-Assistent-Produktfamilie, basierend auf OpenAI-Modellen und Microsofts eigenen Modellen, integriert in Windows, Microsoft 365, Bing und Edge.
Model Context Protocol (MCP)
MCP ist ein offener Standard von Anthropic (2024), mit dem KI-Agenten einheitlich externe Tools, Datenbanken und Dienste nutzen können.
Multimodale KI
Multimodale KI kann gleichzeitig Text, Bilder, Audio und Video verarbeiten und generieren, im Gegensatz zu Systemen, die nur eine Modalität beherrschen.
PerplexityBot
PerplexityBot ist der Web-Crawler von Perplexity AI, der Inhalte für die Echtzeitnutzung in Perplexity-Antworten inklusive Quellenverweisen indexiert.
Prompt Injection
Prompt Injection ist eine Angriffstechnik, bei der ein böswilliger Nutzer oder eine externe Datenquelle einem LLM Anweisungen gibt, die den ursprünglichen System-Prompt überschreiben oder umgehen.
RLHF
RLHF (Reinforcement Learning from Human Feedback) ist die Trainingsmethode, bei der LLMs nach dem Pre-Training durch menschliche Bewerter feinjustiert werden, die Outputs vergleichen und einstufen.
SearchGPT
SearchGPT ist OpenAIs KI-gestütztes Suchprodukt, integriert in ChatGPT, das Echtzeit-Web-Ergebnisse mit LLM-Antworten inklusive Quellenverweisen kombiniert.
System-Prompt
Ein System-Prompt ist die initiale, versteckte Anweisung, die Verhalten, Persona und Grenzen eines LLM definiert, bevor der Nutzer etwas fragt.
Temperature
Temperature ist ein Sampling-Parameter zwischen 0 und 2, der steuert, wie zufällig ein LLM das nächste Token wählt — niedrig = deterministisch, hoch = kreativ.
Token
Ein Token ist die Basiseinheit, mit der ein LLM Text verarbeitet — typisch ein Sub-Wort-Fragment, etwa 4 Zeichen oder 0,75 Wörter im Englischen.
Trainingsdaten
Trainingsdaten sind die Sammlung von Texten, Bildern oder anderen Beispielen, aus denen ein KI-Modell Muster lernt, bevor es ausgerollt wird.
Transformer
Der Transformer ist die neuronale Netzwerkarchitektur, die seit 2017 fast allen modernen Sprachmodellen zugrundeliegt — GPT, Claude, Gemini und Llama.
Vektordatenbank
Eine Vektordatenbank ist eine spezialisierte Datenbank, die Vektor-Embeddings effizient speichert und Similarity-Suche erlaubt — essentiell für RAG-Systeme.
Zero-Shot-Learning
Zero-Shot-Learning ist die Fähigkeit eines LLM, eine Aufgabe korrekt auszuführen, ohne auch nur ein Beispiel im Prompt zu erhalten — rein aus Pre-Training.