Zero-Shot-Learning
Zero-Shot-Learning ist die Fähigkeit eines LLM, eine Aufgabe korrekt auszuführen, ohne auch nur ein Beispiel im Prompt zu erhalten — rein aus Pre-Training.
In einem Zero-Shot-Prompt bitten Sie das Modell direkt, die Aufgabe auszuführen, ohne Beispiele. Moderne LLMs (GPT-4, Claude 3.7) leisten zero-shot erstaunlich viel, weil sie während des Trainings Millionen ähnlicher Muster gesehen haben. Für einfache, eindeutige Aufgaben effizient; für Nuance oder firmenspezifische Outputs sind Few-Shot oder Fine-Tuning nötig.
Beispiel
Zero-Shot: 'Klassifiziere diese Bewertung als positiv oder negativ: [Bewertung]'. Keine Beispiele, keine Erklärung — das Modell weiß, was Sentiment-Klassifikation ist.
Häufig gestellte Fragen
Zero-Shot oder Few-Shot?
Zero-Shot für Standardaufgaben (Zusammenfassen, Übersetzen, Klassifizieren). Few-Shot, sobald ein bestimmtes Format, Ton oder Domänenkontext nötig ist.
Wann scheitert Zero-Shot?
Bei Nischen-Jargon, firmenspezifischen Formaten, seltenen Sprachen oder wenn das Modell vom Default abweichen muss. Dann: Few-Shot oder Fine-Tune.
Verwandte Begriffe
Weiterführende Links
- → Unser Service: GEO