KI

Zero-Shot-Learning

Von Paul Brock·Aktualisiert am 24-04-2026
Kurz gesagt

Zero-Shot-Learning ist die Fähigkeit eines LLM, eine Aufgabe korrekt auszuführen, ohne auch nur ein Beispiel im Prompt zu erhalten — rein aus Pre-Training.

In einem Zero-Shot-Prompt bitten Sie das Modell direkt, die Aufgabe auszuführen, ohne Beispiele. Moderne LLMs (GPT-4, Claude 3.7) leisten zero-shot erstaunlich viel, weil sie während des Trainings Millionen ähnlicher Muster gesehen haben. Für einfache, eindeutige Aufgaben effizient; für Nuance oder firmenspezifische Outputs sind Few-Shot oder Fine-Tuning nötig.

Beispiel

Zero-Shot: 'Klassifiziere diese Bewertung als positiv oder negativ: [Bewertung]'. Keine Beispiele, keine Erklärung — das Modell weiß, was Sentiment-Klassifikation ist.

Häufig gestellte Fragen

Zero-Shot oder Few-Shot?

Zero-Shot für Standardaufgaben (Zusammenfassen, Übersetzen, Klassifizieren). Few-Shot, sobald ein bestimmtes Format, Ton oder Domänenkontext nötig ist.

Wann scheitert Zero-Shot?

Bei Nischen-Jargon, firmenspezifischen Formaten, seltenen Sprachen oder wenn das Modell vom Default abweichen muss. Dann: Few-Shot oder Fine-Tune.

Verwandte Begriffe

Weiterführende Links

  • → Unser Service: GEO

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren