🎓
Poziom: Zaawansowany
Ten artykuł wyjaśnia, jak AI rozumie znaczenie tekstu pod maską. To wiedza, która pomaga zrozumieć, dlaczego wyszukiwanie semantyczne działa lepiej niż szukanie po słowach kluczowych. Jeśli dopiero zaczynasz - możesz to spokojnie pominąć i wrócić później.

Jak AI "rozumie" tekst?

Komputery operują na liczbach, nie na słowach. Aby AI mogła przetwarzać tekst, musi go najpierw zamienić na reprezentację numeryczną. Tu wkraczają embeddingi - jeden z fundamentalnych konceptów w przetwarzaniu języka naturalnego.

Czym jest embedding?

Embedding to reprezentacja słowa, zdania lub dokumentu jako wektora liczb (listy liczb). Te liczby kodują "znaczenie" tekstu w sposób, który komputer może przetwarzać.

i
Analogia
Wyobraź sobie mapę, gdzie każde słowo ma swoje współrzędne. Słowa o podobnym znaczeniu są blisko siebie (np. "król" i "królowa"), a słowa niepowiązane - daleko. Embedding to właśnie takie "współrzędne" słowa w wielowymiarowej przestrzeni.
Przykład embeddingu
"kot" → [0.2, -0.5, 0.8, 0.1, ..., 0.3]  (np. 768 liczb)
"pies" → [0.3, -0.4, 0.7, 0.2, ..., 0.4]  (podobny wektor!)
"samochód" → [-0.6, 0.8, -0.2, 0.9, ..., -0.1]  (różny wektor)

Dlaczego embeddingi są genialne?

1. Podobieństwo semantyczne

Słowa o podobnym znaczeniu mają podobne wektory. Możemy matematycznie obliczyć, jak bardzo dwa teksty są "podobne" pod względem znaczenia.

2. Arytmetyka na słowach

Słynny przykład: król - mężczyzna + kobieta ≈ królowa

Embeddingi pozwalają na takie "semantyczne obliczenia", gdzie relacje między słowami są zachowane jako operacje wektorowe.

3. Uniwersalność

Ten sam embedding może być używany do wielu zadań: wyszukiwania, klasyfikacji, grupowania, rekomendacji.

Zastosowania embeddingów

1
Wyszukiwanie semantyczne
Znajdowanie dokumentów na podstawie znaczenia, nie tylko słów kluczowych. "Jak naprawić samochód" znajdzie też artykuły o "serwisowaniu auta".
2
RAG (Retrieval Augmented Generation)
Embeddingi umożliwiają wyszukiwanie odpowiednich fragmentów dokumentów, które następnie są przekazywane do LLM jako kontekst.
3
Systemy rekomendacji
Rekomendowanie podobnych produktów, artykułów czy filmów na podstawie podobieństwa embeddingów.
4
Klastrowanie dokumentów
Automatyczne grupowanie dokumentów według tematyki bez definiowania kategorii z góry.
5
Wykrywanie duplikatów
Identyfikacja tekstów, które mówią o tym samym, nawet jeśli używają innych słów.

Popularne modele embeddingów

Model Producent Wymiary Zastosowanie
text-embedding-3-small OpenAI 1536 Ogólne, ekonomiczne
text-embedding-3-large OpenAI 3072 Najwyższa jakość
voyage-large-2 Voyage AI 1536 RAG, wyszukiwanie
e5-large Microsoft 1024 Open-source
all-MiniLM Sentence-Transformers 384 Szybki, lokalny

Jak działają bazy wektorowe?

Bazy wektorowe to specjalne bazy danych zoptymalizowane do przechowywania i wyszukiwania embeddingów. Zamiast tradycyjnych zapytań SQL, wyszukujesz "najbliższe" wektory.

Popularne bazy wektorowe:

  • Pinecone - zarządzana usługa w chmurze
  • Weaviate - open-source z wieloma funkcjami
  • Chroma - lekka, idealna do prototypów
  • Milvus - enterprise-grade, open-source
  • pgvector - rozszerzenie do PostgreSQL

Proces wyszukiwania

  1. Dokument → Embedding → Zapisz w bazie wektorowej
  2. Zapytanie użytkownika → Embedding zapytania
  3. Znajdź najbliższe wektory w bazie
  4. Zwróć odpowiadające im dokumenty

Embeddingi w praktyce - RAG

RAG (Retrieval Augmented Generation) to technika łącząca embeddingi z modelami językowymi:

Schemat RAG
1. INDEKSOWANIE (jednorazowe):
   Dokumenty → Podział na fragmenty → Embeddingi → Baza wektorowa

2. WYSZUKIWANIE (przy każdym pytaniu):
   Pytanie użytkownika → Embedding pytania → Wyszukaj podobne fragmenty

3. GENEROWANIE:
   Znalezione fragmenty + Pytanie → LLM → Odpowiedź

Korzyści RAG:

  • LLM ma dostęp do aktualnych, specyficznych informacji
  • Mniejsze ryzyko halucynacji
  • Możliwość wskazania źródeł
  • Łatwa aktualizacja bazy wiedzy

Podsumowanie

  • Embedding to numeryczna reprezentacja tekstu jako wektor liczb
  • Podobieństwo - podobne teksty mają podobne wektory
  • Zastosowania - wyszukiwanie semantyczne, RAG, rekomendacje, klastrowanie
  • Modele - OpenAI, Voyage, Microsoft, open-source
  • Bazy wektorowe - specjalne bazy do przechowywania i wyszukiwania embeddingów
  • RAG - technika łącząca embeddingi z LLM dla lepszych odpowiedzi
Teraz wiesz:
  • Czym są embeddingi - numeryczne reprezentacje tekstu, dzięki którym AI "rozumie" znaczenie słów i zdań
  • Jak działa wyszukiwanie semantyczne i RAG - techniki, które pozwalają AI korzystać z Twoich dokumentów
  • Dlaczego bazy wektorowe to fundament nowoczesnych aplikacji AI opartych na wiedzy

Następny krok: Parametry modeli AI — nauczysz się kontrolować zachowanie modelu za pomocą temperature, top_p i innych parametrów.

Poprzedni Tokeny i kontekst Następny Parametry modeli