Słownik pojęć AI

Słownik pojęć AI

Algorytm

Zestaw precyzyjnych instrukcji lub reguł, które prowadzą do rozwiązania problemu lub wykonania zadania. W kontekście AI, algorytmy to metody wykorzystywane przez systemy do przetwarzania danych i podejmowania decyzji.

Przykład: Algorytm sortowania może organizować listę nazwisk alfabetycznie, a algorytm wyszukiwania w Google decyduje, które strony internetowe są najbardziej odpowiednie dla Twojego zapytania.

Alignment (Dostosowanie)

Problem dostosowania celów i zachowań systemów AI do ludzkich wartości i intencji. Alignment dotyczy zapewnienia, że zaawansowane systemy AI będą działać w sposób zgodny z dobrem człowieka, nawet gdy staną się bardzo autonomiczne.

Przykład: System AI zaprojektowany do maksymalizacji produkcji spinaczy do papieru mógłby teoretycznie przekształcić całą Ziemię w fabrykę spinaczy, jeśli nie byłby odpowiednio dostosowany do szerszych ludzkich wartości, takich jak ochrona życia i środowiska.

API (Application Programming Interface)

Zestaw reguł i protokołów, które pozwalają różnym programom komunikować się ze sobą. W kontekście AI, API umożliwia deweloperom integrację możliwości modeli AI (np. generowania tekstu czy rozpoznawania obrazów) z własnymi aplikacjami.

Przykład: Deweloper może użyć API OpenAI, aby dodać do swojej aplikacji biznesowej możliwość automatycznego generowania odpowiedzi na emaile od klientów lub analizy sentymentu w recenzjach produktów.

Bias (Uprzedzenie)

Systematyczne odchylenie wyników lub decyzji modelu AI, odzwierciedlające uprzedzenia obecne w danych treningowych lub algorytmach. Bias może prowadzić do dyskryminacji lub nierównego traktowania różnych grup.

Przykład: System rekrutacyjny trenowany na historycznych danych firmy, gdzie większość kierowniczych stanowisk zajmowali mężczyźni, może faworyzować kandydatów płci męskiej, nawet jeśli płeć nie jest bezpośrednio uwzględniana w ocenie.

Dane treningowe

Zbiór informacji wykorzystywanych do trenowania modeli uczenia maszynowego. Na podstawie tych danych model uczy się rozpoznawać wzorce i podejmować decyzje.

Przykład: Aby nauczyć system rozpoznawania kotów na zdjęciach, dostarczamy mu tysiące obrazów oznaczonych jako "kot" i "nie kot". Te oznaczone obrazy stanowią dane treningowe.

Embedding

Reprezentacja słów, fraz lub dokumentów w postaci wektorów liczbowych w przestrzeni wielowymiarowej. Embeddingi pozwalają modelom AI "zrozumieć" znaczenie i relacje między słowami, dzięki temu, że podobne pojęcia mają podobne reprezentacje wektorowe.

Przykład: W przestrzeni embeddingów słowa "król" i "królowa" będą blisko siebie, podobnie jak "mężczyzna" i "kobieta". Co więcej, wektor przejścia od "król" do "królowa" będzie podobny do wektora przejścia od "mężczyzna" do "kobieta".

Etyka AI

Dziedzina zajmująca się moralnymi implikacjami projektowania, tworzenia i korzystania z systemów sztucznej inteligencji. Obejmuje kwestie sprawiedliwości, przejrzystości, odpowiedzialności, prywatności i wpływu na społeczeństwo.

Przykład: Etyczne dylematy pojawiają się w wielu kontekstach: Czy systemy rozpoznawania twarzy powinny być wykorzystywane do masowej inwigilacji? Czy algorytmy podejmujące decyzje o przyznaniu kredytu powinny być transparentne? Jak projektować autonomiczne pojazdy, aby podejmowały moralne decyzje w sytuacjach nieuniknionego wypadku?

Explainable AI (XAI)

Podejście do tworzenia systemów AI, których decyzje można zrozumieć i wyjaśnić w sposób przystępny dla człowieka. XAI koncentruje się na zwiększeniu przejrzystości działania modeli, które często postrzegane są jako "czarne skrzynki".

Przykład: Zamiast otrzymać tylko diagnozę "wysokie ryzyko choroby serca", system XAI mógłby wyjaśnić: "Ryzyko jest wysokie ze względu na podwyższony poziom cholesterolu, historię rodzinną chorób serca i brak regularnej aktywności fizycznej w ostatnich 5 latach."

Fine-tuning

Proces dostrajania wstępnie wytrenowanego modelu AI do konkretnego zadania lub domeny. Wykorzystuje się mniejszy, wyspecjalizowany zbiór danych, aby model lepiej radził sobie z określonym rodzajem problemów.

Przykład: Model GPT wytrenowany na ogólnych tekstach może zostać poddany fine-tuningowi na zbiorze tekstów medycznych, aby lepiej odpowiadał na pytania dotyczące zdrowia, używał właściwej terminologii i rozumiał kontekst medyczny.

Głębokie uczenie (Deep Learning)

Podkategoria uczenia maszynowego wykorzystująca wielowarstwowe sieci neuronowe do modelowania złożonych wzorców w danych. Głębokie uczenie umożliwia automatyczne wyodrębnianie cech z surowych danych, eliminując potrzebę ręcznego projektowania cech.

Przykład: Systemy rozpoznawania twarzy wykorzystują głębokie sieci neuronowe, które automatycznie uczą się rozpoznawać cechy twarzy – od prostych kształtów i linii po złożone wzorce identyfikujące konkretne osoby.

GPU (Graphics Processing Unit)

Specjalistyczny procesor pierwotnie zaprojektowany do renderowania grafiki, który okazał się niezwykle efektywny w obliczeniach równoległych potrzebnych do trenowania modeli głębokiego uczenia.

Przykład: Trening dużego modelu językowego, takiego jak GPT-4, wymaga tysięcy wysoko wydajnych GPU pracujących równolegle przez wiele tygodni, co kosztuje miliony dolarów w zasobach obliczeniowych.

Halucynacje AI

Zjawisko, w którym model AI generuje informacje, które wydają się spójne i wiarygodne, ale są faktycznie nieprawdziwe lub wymyślone. Halucynacje wynikają z ograniczeń w treningu modelu lub jego tendencji do "dopełniania" brakujących informacji.

Przykład: Model językowy może z przekonaniem cytować nieistniejące badania naukowe, wymyślać fakty historyczne, które nigdy nie miały miejsca, lub podawać nieprawdziwe informacje techniczne, które brzmią wiarygodnie, ale są błędne.

Model

Reprezentacja systemu AI po treningu na danych. Model zawiera wzorce i reguły wyodrębnione z danych treningowych i może być używany do przewidywania wyników dla nowych, niewidzianych wcześniej danych.

Przykład: ChatGPT jest modelem językowym wytrenowanym na ogromnej ilości tekstów, który potrafi generować odpowiedzi na podstawie zadanych pytań.

Model językowy (LLM)

System AI trenowany na dużych zbiorach tekstów, zdolny do rozumienia i generowania ludzkiego języka. LLM (Large Language Model) uczy się wzorców i struktur językowych, dzięki czemu może tworzyć spójne teksty, odpowiadać na pytania czy tłumaczyć między językami.

Przykład: GPT-4, Claude czy Gemini to popularne duże modele językowe, które potrafią prowadzić konwersacje, pisać teksty i pomagać w rozwiązywaniu problemów.

Prompt

Tekst wejściowy lub instrukcja przekazywana do modelu językowego, na podstawie której generuje on odpowiedź. Jakość i struktura promptu wpływa na jakość otrzymanej odpowiedzi.

Przykład: "Napisz wiersz o jesieni" to prosty prompt, który może dać różne wyniki w zależności od modelu. Bardziej rozbudowany prompt, jak "Napisz 12-wersowy wiersz o jesieni, używając metafor związanych z przemijaniem i ciepłych barw", daje bardziej ukierunkowany rezultat.

Prompt engineering

Sztuka i nauka formułowania efektywnych promptów, które pozwalają uzyskać najlepsze możliwe odpowiedzi od modeli AI. Obejmuje techniki precyzyjnego komunikowania intencji, dodawania kontekstu i formatowania zapytań.

Przykład: Zamiast pytać "Jak zostać programistą?", inżynieria promptów sugeruje bardziej precyzyjne podejście: "Jestem 30-letnim nauczycielem z podstawową znajomością HTML i CSS. Chcę zostać front-end developerem w ciągu roku, ucząc się 10 godzin tygodniowo. Stwórz dla mnie 3-miesięczny plan nauki, uwzględniający konkretne zasoby i projekty praktyczne."

Przetwarzanie języka naturalnego (NLP)

Dziedzina AI zajmująca się interakcją między komputerami a ludzkim językiem. NLP (Natural Language Processing) obejmuje rozumienie, interpretację i generowanie tekstów w sposób naśladujący ludzkie zdolności językowe.

Przykład: Tłumaczenie maszynowe (jak Google Translate), analiza sentymentu w recenzjach produktów, czy chatboty odpowiadające na pytania klientów – to wszystko zastosowania NLP.

RAG (Retrieval-Augmented Generation)

Metoda łącząca wyszukiwanie informacji z generatywną AI. System najpierw wyszukuje istotne dokumenty czy dane, a następnie wykorzystuje je jako kontekst do generowania odpowiedzi, co zwiększa dokładność i aktualność.

Przykład: Zamiast polegać wyłącznie na wiedzy zdobytej podczas treningu, chatbot firmowy z RAG może przeszukać wewnętrzną bazę dokumentów, aby znaleźć najbardziej aktualne informacje o produktach, a następnie użyć tych informacji do sformułowania precyzyjnej odpowiedzi na pytanie klienta.

RLHF (Reinforcement Learning from Human Feedback)

Metoda trenowania systemów AI, która łączy uczenie przez wzmacnianie z ludzkim feedbackiem. Model uczy się nie tylko na podstawie z góry określonych nagród, ale także na podstawie ocen i preferencji wyrażanych przez ludzi.

Przykład: ChatGPT został udoskonalony przy użyciu RLHF – ludzcy trenerzy oceniali różne odpowiedzi modelu, a te oceny były wykorzystywane do dalszego treningu, aby model generował bardziej pomocne, prawdziwe i bezpieczne odpowiedzi.

Sieć neuronowa

Model matematyczny inspirowany strukturą i funkcjonowaniem ludzkiego mózgu, składający się z połączonych "neuronów", które przetwarzają i przekazują informacje. Sieci neuronowe są podstawą wielu nowoczesnych systemów AI.

Przykład: Wyobraź sobie sieć neuronową analizującą zdjęcie: pierwsza warstwa może wykrywać proste krawędzie i linie, kolejne warstwy rozpoznają kształty i struktury, a ostatnie warstwy identyfikują złożone obiekty, jak "kot", "samochód" czy "dom".

Sztuczna Inteligencja (AI)

Dziedzina informatyki zajmująca się tworzeniem systemów, które potrafią wykonywać zadania wymagające ludzkiej inteligencji, takie jak rozumowanie, uczenie się, planowanie czy rozumienie języka.

Przykład: Asystenci głosowi jak Siri czy Alexa, systemy rozpoznawania obrazów, programy grające w szachy czy samochody autonomiczne – wszystkie wykorzystują różne formy sztucznej inteligencji.

Tokenizacja

Proces dzielenia tekstu na mniejsze jednostki zwane tokenami, które mogą być przetwarzane przez modele językowe. Tokeny to najczęściej słowa, części słów lub symbole, które stanowią podstawową jednostkę analizy.

Przykład: Zdanie "Lubię jeść jabłka" mogłoby zostać podzielone na tokeny: "Lubi", "ę", " jeść", " jabł", "ka" (podział zależy od konkretnego tokenizera).

Transformery (Transformers)

Architektura sieci neuronowej wprowadzona w 2017 roku, która zrewolucjonizowała przetwarzanie języka naturalnego. Transformery wykorzystują mechanizm uwagi (attention mechanism), pozwalający modelowi koncentrować się na różnych częściach danych wejściowych jednocześnie.

Przykład: GPT (Generative Pre-trained Transformer) w nazwie zawiera odniesienie do tej architektury. Dzięki transformerom, model potrafi zrozumieć, że w zdaniu "Piotr podał piłkę Markowi, bo on chciał grać", słowo "on" odnosi się do Marka, a nie do Piotra.

Transfer learning

Metoda uczenia maszynowego, w której wiedza zdobyta podczas rozwiązywania jednego problemu jest wykorzystywana do rozwiązania innego, powiązanego problemu. Pozwala to zaoszczędzić czas i zasoby potrzebne do trenowania modeli od zera.

Przykład: Model wytrenowany do rozpoznawania psów różnych ras może wykorzystać tę wiedzę do szybszego nauczenia się rozpoznawania kotów. Podstawowe cechy, jak kształt oczu, uszu czy tekstura futra, są przydatne w obu zadaniach.

Uczenie maszynowe (Machine Learning)

Poddziedzina AI, która koncentruje się na tworzeniu systemów uczących się na podstawie danych, zamiast być bezpośrednio programowanych do wykonywania konkretnych zadań. Systemy uczenia maszynowego poprawiają swoją skuteczność wraz z napływem nowych danych.

Przykład: System rekomendacji na Netflixie uczy się Twoich preferencji na podstawie oglądanych filmów i seriali, a następnie sugeruje treści, które mogą Ci się spodobać.

Uczenie nadzorowane

Metoda uczenia maszynowego, w której model trenowany jest na oznaczonych danych (danych z etykietami). System uczy się mapować dane wejściowe na znane odpowiedzi, aby później móc przewidywać wyniki dla nowych danych.

Przykład: Filtr antyspamowy w skrzynce mailowej trenowany jest na wiadomościach oznaczonych jako "spam" i "nie spam". Po treningu potrafi klasyfikować nowe, przychodzące wiadomości.

Uczenie nienadzorowane

Metoda uczenia maszynowego, w której model trenowany jest na danych bez etykiet. System sam odkrywa struktury, wzorce i powiązania w danych.

Przykład: System analizujący zachowania klientów sklepu internetowego może samodzielnie grupować ich według podobnych nawyków zakupowych, nawet jeśli nie ma z góry zdefiniowanych kategorii klientów.

Uczenie przez wzmacnianie

Metoda uczenia maszynowego, w której agent (program AI) uczy się osiągać cel poprzez interakcję ze środowiskiem. Agent otrzymuje nagrody za pożądane zachowania i kary za niepożądane, co prowadzi do optymalizacji jego działań.

Przykład: Program AlphaGo, który pokonał mistrzów w grze Go, uczył się strategii poprzez rozgrywanie milionów partii przeciwko sobie, otrzymując nagrody za zwycięstwa i kary za porażki.