KI

Embedding

Von Paul Brock·Aktualisiert am 22-04-2026
Kurz gesagt

Ein Embedding ist eine numerische Vektor-Repräsentation von Text, Bild oder anderen Daten, mit der KI-Systeme semantische Ähnlichkeit berechnen können.

Ein Embedding-Modell wandelt jedes Textstück in einen Vektor von Hunderten bis Tausenden Gleitkommazahlen. Text mit ähnlicher Bedeutung liegt in diesem Vektorraum nah beieinander. Anwendungen: semantische Suche, Clustering, Klassifikation, RAG-Retrieval. Populäre Modelle: OpenAI text-embedding-3, Voyage AI, Cohere, BGE-M3.

Beispiel

Eine Wissensbasis mit 10.000 Dokumenten wird embedded. Query 'wie funktioniert Open Banking' erzeugt ein Query-Embedding; die Vektordatenbank findet semantisch ähnliche Dokumente — auch solche ohne wörtlich 'Open Banking', aber mit 'PSD2 API'.

Häufig gestellte Fragen

Embeddings vs Keywords?

Embeddings: semantisch ('Auto' matcht 'Fahrzeug'). Keywords: lexikalisch (exakte Übereinstimmung). Moderne Suche ist hybrid.

Verwandte Begriffe

Weiterführende Links

Hilfe bei SEO oder GEO?

Wir helfen Bitcoin-, AI- und Fintech-Unternehmen, in Google und in KI-Suchmaschinen gefunden zu werden.

Termin vereinbaren