KI

KI-Begriffe im Glossar

Allgemeine KI-Terminologie: LLM, Embeddings, RAG, MCP, Prompt Engineering und Agent-Architekturen.

Agentic AI

Agentic AI ist der Oberbegriff für KI-Systeme, die autonom handeln, planen und Entscheidungen in komplexen Multi-Step-Umgebungen treffen.

Chain of Thought (CoT)

Chain of Thought ist eine Prompting-Technik, bei der das LLM Schritt für Schritt vor der finalen Antwort argumentiert, was die Genauigkeit bei komplexen Aufgaben drastisch erhöht.

ClaudeBot

ClaudeBot ist der Web-Crawler von Anthropic, der öffentliche Inhalte zum Training sowie zur Speisung von Claudes Such- und Recherche-Funktionen sammelt.

Context Window

Das Context Window ist die maximale Textmenge (Tokens), die ein LLM auf einmal verarbeiten kann — sein 'Gedächtnis' pro Interaktion.

Embedding

Ein Embedding ist eine numerische Vektor-Repräsentation von Text, Bild oder anderen Daten, mit der KI-Systeme semantische Ähnlichkeit berechnen können.

Few-Shot-Learning

Few-Shot-Learning ist die Technik, einem LLM wenige Beispiele im Prompt mitzugeben (In-Context-Learning), damit das Modell gewünschten Stil, Format oder Argumentation für neuen Input lernt.

Fine-Tuning

Fine-Tuning ist das Anpassen eines vortrainierten LLMs mit domänenspezifischen Daten, um besser bei Nischen-Tasks zu performen oder einen Stil zu matchen.

Foundation Model

Ein Foundation Model ist ein großskaliges KI-Modell, das auf breiten, diversen Daten trainiert wurde und anschließend für vielfältige spezifische Aufgaben angepasst werden kann — die Grundlage moderner generativer KI.

Function Calling (Tool Use)

Function Calling ist der Mechanismus, mit dem ein LLM entscheidet, eine externe Funktion oder API mit strukturierten Parametern aufzurufen, statt nur Text zu generieren.

Gemini

Gemini ist Googles Familie multimodaler Foundation Models, eingeführt im Dezember 2023, die Text, Bild, Audio und Video nativ verarbeitet.

Generative KI (GenAI)

Generative KI ist der Überbegriff für KI-Systeme, die neue Inhalte erzeugen — Text, Bild, Audio, Video oder Code — basierend auf trainierten Modellen statt bestehende Informationen abzurufen.

GPTBot

GPTBot ist der Web-Crawler von OpenAI, der öffentliche Web-Inhalte zum Training zukünftiger GPT-Modelle und für SearchGPT sammelt.

Guardrails

Guardrails sind die Sicherheitsmaßnahmen rund um ein LLM — Input-Filter, Output-Validierung und Monitoring — die verhindern, dass das Modell schädliche, ungenaue oder unbeabsichtigte Outputs erzeugt.

Jailbreak (LLM)

Ein Jailbreak ist eine Prompting-Technik, die ein LLM dazu bringt, seine Safety-Training-Regeln zu ignorieren und Inhalte zu erzeugen, die es sonst verweigern würde.

KI-Agent

Ein KI-Agent ist ein Softwaresystem um ein Sprachmodell, das autonom Aufgaben ausführt, Tools nutzt und in Iterationen Entscheidungen trifft, um ein Ziel zu erreichen.

LLMO (Large Language Model Optimization)

LLMO ist die Disziplin, Content und technische Konfiguration so zu optimieren, dass LLMs (ChatGPT, Claude, Gemini, Perplexity) Marke und Informationen in Antworten verwenden und zitieren.

Microsoft Copilot

Microsoft Copilot ist Microsofts KI-Assistent-Produktfamilie, basierend auf OpenAI-Modellen und Microsofts eigenen Modellen, integriert in Windows, Microsoft 365, Bing und Edge.

Model Context Protocol (MCP)

MCP ist ein offener Standard von Anthropic (2024), mit dem KI-Agenten einheitlich externe Tools, Datenbanken und Dienste nutzen können.

Multimodale KI

Multimodale KI kann gleichzeitig Text, Bilder, Audio und Video verarbeiten und generieren, im Gegensatz zu Systemen, die nur eine Modalität beherrschen.

PerplexityBot

PerplexityBot ist der Web-Crawler von Perplexity AI, der Inhalte für die Echtzeitnutzung in Perplexity-Antworten inklusive Quellenverweisen indexiert.

Prompt Injection

Prompt Injection ist eine Angriffstechnik, bei der ein böswilliger Nutzer oder eine externe Datenquelle einem LLM Anweisungen gibt, die den ursprünglichen System-Prompt überschreiben oder umgehen.

RLHF

RLHF (Reinforcement Learning from Human Feedback) ist die Trainingsmethode, bei der LLMs nach dem Pre-Training durch menschliche Bewerter feinjustiert werden, die Outputs vergleichen und einstufen.

SearchGPT

SearchGPT ist OpenAIs KI-gestütztes Suchprodukt, integriert in ChatGPT, das Echtzeit-Web-Ergebnisse mit LLM-Antworten inklusive Quellenverweisen kombiniert.

System-Prompt

Ein System-Prompt ist die initiale, versteckte Anweisung, die Verhalten, Persona und Grenzen eines LLM definiert, bevor der Nutzer etwas fragt.

Temperature

Temperature ist ein Sampling-Parameter zwischen 0 und 2, der steuert, wie zufällig ein LLM das nächste Token wählt — niedrig = deterministisch, hoch = kreativ.

Token

Ein Token ist die Basiseinheit, mit der ein LLM Text verarbeitet — typisch ein Sub-Wort-Fragment, etwa 4 Zeichen oder 0,75 Wörter im Englischen.

Trainingsdaten

Trainingsdaten sind die Sammlung von Texten, Bildern oder anderen Beispielen, aus denen ein KI-Modell Muster lernt, bevor es ausgerollt wird.

Transformer

Der Transformer ist die neuronale Netzwerkarchitektur, die seit 2017 fast allen modernen Sprachmodellen zugrundeliegt — GPT, Claude, Gemini und Llama.

Vektordatenbank

Eine Vektordatenbank ist eine spezialisierte Datenbank, die Vektor-Embeddings effizient speichert und Similarity-Suche erlaubt — essentiell für RAG-Systeme.

Zero-Shot-Learning

Zero-Shot-Learning ist die Fähigkeit eines LLM, eine Aufgabe korrekt auszuführen, ohne auch nur ein Beispiel im Prompt zu erhalten — rein aus Pre-Training.

← Zurück zum vollständigen Glossar

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren