KI Datenbank

Vector Datenbank (Embeddings)

Semantische Suche mit Embeddings und Vektoren

Vector-Datenbanken speichern Bedeutung statt Text. Du wandelst Texte in Zahlen-Vektoren um und findest dann aehnliche Inhalte, auch wenn die Woerter komplett anders sind. Das ist die Technologie hinter ChatGPT-Plugins und RAG.

Pro-Tip — Der schnelle Weg
Supabase hat pgvector eingebaut. Du brauchst keine extra Datenbank, aktiviere einfach die Vector-Extension in deinem bestehenden Supabase-Projekt.
Seite 1
1

Embeddings verstehen

Ein Embedding ist ein Zahlen-Array das die Bedeutung eines Textes repraesentiert. Aehnliche Texte haben aehnliche Vektoren. OpenAI und andere bieten Embedding-APIs an.

// Text -> Vektor (1536 Dimensionen)
'Wie wird das Wetter?' -> [0.023, -0.041, 0.089, ...]
2

pgvector aktivieren

In Supabase aktivierst du die Vector-Extension mit einem SQL-Befehl. Dann erstellst du eine Tabelle mit einer vector-Spalte fuer die Embeddings.

CREATE EXTENSION IF NOT EXISTS vector;


CREATE TABLE documents (
id SERIAL PRIMARY KEY,
content TEXT,
embedding vector(1536)
);
3

Embeddings generieren

Nutz die OpenAI API oder ein lokales Modell um Texte in Vektoren umzuwandeln. Speicher den Vektor zusammen mit dem Originaltext in der Datenbank.

import OpenAI from 'openai'
const openai = new OpenAI()


const response = await openai.embeddings.create({
model: 'text-embedding-3-small',
input: 'Dein Text hier'
})
const vector = response.data[0].embedding
4

Semantisch suchen

Wandle die Suchanfrage in einen Vektor um und finde die aehnlichsten Eintraege. Die Cosine-Distanz misst wie aehnlich zwei Vektoren sind.

SELECT content, 1 - (embedding <=> query_vector) AS similarity
FROM documents
ORDER BY embedding <=> query_vector
LIMIT 5;
Seite 2
Warum das funktioniert
  • Semantische Suche findet Ergebnisse die Keyword-Suche verpasst
  • pgvector laeuft in deiner bestehenden Postgres-Datenbank
  • RAG macht KI-Chatbots die deine eigenen Daten kennen
  • Embeddings sind die Grundlage fuer personalisierte Empfehlungen
Tipps
  • text-embedding-3-small von OpenAI kostet fast nichts und reicht fuer die meisten Faelle
  • Chunke lange Texte in Absaetze bevor du Embeddings erstellst
  • Kombiniere Vector-Suche mit klassischen Filtern fuer bessere Ergebnisse
  • RAG bedeutet: relevante Dokumente finden und dem LLM als Kontext geben
Seite 3
Bereit für den nächsten Schritt?

KIWorld VibeCoding Masterclass

Du willst nicht nur einzelne Tools einrichten, sondern wirklich lernen wie du mit KI komplette Apps, Websites und SaaS-Produkte baust? Über 700 Videos — von Anfänger bis Fortgeschritten — in jedem Bereich. Von der Idee bis zum fertigen Produkt, ohne eine Zeile Code selbst zu schreiben.

Jetzt Masterclass ansehen