Dlaczego akurat teraz?

Sztuczna inteligencja jako koncepcja istnieje od lat 50. XX wieku. Sieci neuronowe znano od dekad. Dlaczego więc rewolucja AI nastąpiła dopiero teraz? Co się zmieniło, że w 2022 roku świat oszalał na punkcie ChatGPT?

Odpowiedź leży w połączeniu kilku czynników, które zbiegły się w odpowiednim momencie.

Krótka historia AI

1950-1970: Narodziny i wczesny optymizm

  • 1950 - Alan Turing publikuje "Computing Machinery and Intelligence" i proponuje Test Turinga
  • 1956 - Konferencja w Dartmouth - oficjalne narodziny AI jako dziedziny
  • 1958 - Frank Rosenblatt tworzy Perceptron - pierwszy model sieci neuronowej

Panował ogromny optymizm - przewidywano, że "myślące maszyny" powstaną w ciągu 20 lat.

1970-1990: "Zimy AI"

Rzeczywistość okazała się trudniejsza. Ograniczona moc obliczeniowa i brak danych doprowadziły do dwóch "zim AI" - okresów rozczarowania i ograniczonego finansowania.

1990-2010: Powolny postęp

  • 1997 - Deep Blue (IBM) pokonuje Kasparowa w szachach
  • 2006 - Geoffrey Hinton publikuje przełomową pracę o deep learning

2010-2020: Renesans deep learning

  • 2012 - AlexNet wygrywa konkurs ImageNet, rozpoczynając rewolucję w rozpoznawaniu obrazów
  • 2014 - GAN (Generative Adversarial Networks) - przełom w generowaniu obrazów
  • 2016 - AlphaGo pokonuje mistrza świata w Go
  • 2017 - Artykuł "Attention is All You Need" - architektura Transformer
  • 2018 - BERT (Google) i GPT (OpenAI) - pierwsze duże modele językowe

2020-obecnie: Eksplozja

  • 2020 - GPT-3 pokazuje niesamowite możliwości
  • 2021 - DALL-E generuje obrazy z tekstu
  • 2022 - ChatGPT zdobywa 100 milionów użytkowników w 2 miesiące
  • 2023 - GPT-4, Claude 2, Gemini - wyścig gigantów
  • 2024 - AI staje się codziennym narzędziem pracy

Trzy filary obecnego boomu

1
Moc obliczeniowa
GPU (karty graficzne) okazały się idealne do treningu sieci neuronowych. NVIDIA stała się jedną z najcenniejszych firm świata. Chmura obliczeniowa (AWS, Google Cloud, Azure) udostępniła ogromną moc na żądanie.
2
Dane
Internet wygenerował petabajty tekstu, obrazów i danych. Wikipedia, Reddit, GitHub, książki - wszystko stało się materiałem treningowym. "Dane to nowa ropa naftowa."
3
Algorytmy
Architektura Transformer (2017) okazała się przełomowa. Mechanizm uwagi (attention) pozwolił modelom rozumieć kontekst na niespotykaną skalę. "Scaling laws" pokazały, że większe modele = lepsze wyniki.

Prawo skalowania (Scaling Laws)

Jednym z kluczowych odkryć było to, że modele językowe stają się lepsze w przewidywalny sposób, gdy:

  • Zwiększamy liczbę parametrów (rozmiar modelu)
  • Zwiększamy ilość danych treningowych
  • Zwiększamy moc obliczeniową treningu

To odkrycie zapoczątkowało "wyścig na skalę" - firmy zaczęły trenować coraz większe modele, inwestując miliardy dolarów w obliczenia.

Model Rok Parametry
GPT 2018 117 milionów
GPT-2 2019 1.5 miliarda
GPT-3 2020 175 miliardów
GPT-4 2023 ~1.8 biliona?*

*OpenAI nie ujawniło oficjalnie rozmiaru GPT-4

Kluczowe przełomy technologiczne

Transformer (2017)

Artykuł "Attention is All You Need" od Google wprowadził architekturę, która zdominowała AI:

  • Mechanizm uwagi - model "patrzy" na cały kontekst jednocześnie
  • Równoległość - można trenować na wielu GPU jednocześnie
  • Skalowalność - działa lepiej, im jest większy

RLHF (2022)

Reinforcement Learning from Human Feedback - technika, która sprawiła, że modele stały się "pomocne" i "bezpieczne":

  • Ludzie oceniają odpowiedzi modelu
  • Model uczy się preferować odpowiedzi oceniane wyżej
  • Efekt: ChatGPT jest przyjazny i pomocny

Instruction Tuning

Dostrajanie modeli do wykonywania instrukcji użytkownika, nie tylko przewidywania następnego słowa.

Dlaczego ChatGPT zmienił wszystko?

GPT-3 istniał od 2020 roku, ale nie zdobył masowej popularności. Co zrobiło ChatGPT inaczej?

1
Interfejs czatu
Prosty, intuicyjny interfejs rozmowy. Każdy mógł zacząć pisać bez technicznej wiedzy.
2
Darmowy dostęp
OpenAI udostępniło ChatGPT za darmo, obniżając barierę wejścia do zera.
3
RLHF
Model był "przyjazny" i "pomocny" dzięki treningowi z feedbackiem ludzi. Poprzednie modele były trudniejsze w użyciu.
4
Moment wirusowy
Media społecznościowe eksplodowały przykładami użycia. Każdy dzielił się "magicznymi" możliwościami.

Wyścig gigantów

Sukces ChatGPT uruchomił wyścig największych firm technologicznych:

  • Google - Bard (później Gemini), ogłoszony w panice po sukcesie ChatGPT
  • Microsoft - Inwestycja $13 mld w OpenAI, integracja z Bing i Office
  • Meta - Llama (open-source), demokratyzacja AI
  • Anthropic - Claude, nacisk na bezpieczeństwo
  • Amazon - Inwestycja w Anthropic, integracja z AWS
  • Apple - Apple Intelligence, integracja z urządzeniami

Co dalej?

Obecny boom to dopiero początek. Eksperci przewidują:

  • Multimodalność - modele rozumiejące tekst, obraz, dźwięk i wideo jednocześnie
  • Agenci AI - systemy wykonujące złożone zadania autonomicznie
  • Personalizacja - AI dostosowane do indywidualnych potrzeb
  • Integracja - AI wbudowane w każdą aplikację i urządzenie
  • Lokalne modele - AI działające na Twoim urządzeniu, bez chmury
!
Pytanie otwarte
Czy obecne podejście (skalowanie) doprowadzi do AGI (ogólnej sztucznej inteligencji)? Eksperci są podzieleni. Jedni wierzą, że to kwestia czasu i mocy obliczeniowej. Inni twierdzą, że potrzebne są fundamentalne przełomy.

Podsumowanie

  • Trzy filary - moc obliczeniowa (GPU), dane (internet), algorytmy (Transformer)
  • Scaling laws - większe modele = lepsze wyniki
  • RLHF - technika, która uczyniła modele "pomocnymi"
  • ChatGPT - prosty interfejs + darmowy dostęp + moment wirusowy
  • Wyścig gigantów - Google, Microsoft, Meta, Anthropic, Amazon, Apple
  • Przyszłość - multimodalność, agenci, personalizacja, integracja