Dlaczego AI teraz? - Historia boomu sztucznej inteligencji
Dlaczego akurat teraz?
Sztuczna inteligencja jako koncepcja istnieje od lat 50. XX wieku. Sieci neuronowe znano od dekad. Dlaczego więc rewolucja AI nastąpiła dopiero teraz? Co się zmieniło, że w 2022 roku świat oszalał na punkcie ChatGPT?
Odpowiedź leży w połączeniu kilku czynników, które zbiegły się w odpowiednim momencie.
Krótka historia AI
1950-1970: Narodziny i wczesny optymizm
- 1950 - Alan Turing publikuje "Computing Machinery and Intelligence" i proponuje Test Turinga
- 1956 - Konferencja w Dartmouth - oficjalne narodziny AI jako dziedziny
- 1958 - Frank Rosenblatt tworzy Perceptron - pierwszy model sieci neuronowej
Panował ogromny optymizm - przewidywano, że "myślące maszyny" powstaną w ciągu 20 lat.
1970-1990: "Zimy AI"
Rzeczywistość okazała się trudniejsza. Ograniczona moc obliczeniowa i brak danych doprowadziły do dwóch "zim AI" - okresów rozczarowania i ograniczonego finansowania.
1990-2010: Powolny postęp
- 1997 - Deep Blue (IBM) pokonuje Kasparowa w szachach
- 2006 - Geoffrey Hinton publikuje przełomową pracę o deep learning
2010-2020: Renesans deep learning
- 2012 - AlexNet wygrywa konkurs ImageNet, rozpoczynając rewolucję w rozpoznawaniu obrazów
- 2014 - GAN (Generative Adversarial Networks) - przełom w generowaniu obrazów
- 2016 - AlphaGo pokonuje mistrza świata w Go
- 2017 - Artykuł "Attention is All You Need" - architektura Transformer
- 2018 - BERT (Google) i GPT (OpenAI) - pierwsze duże modele językowe
2020-obecnie: Eksplozja
- 2020 - GPT-3 pokazuje niesamowite możliwości
- 2021 - DALL-E generuje obrazy z tekstu
- 2022 - ChatGPT zdobywa 100 milionów użytkowników w 2 miesiące
- 2023 - GPT-4, Claude 2, Gemini - wyścig gigantów
- 2024 - AI staje się codziennym narzędziem pracy
Trzy filary obecnego boomu
GPU (karty graficzne) okazały się idealne do treningu sieci neuronowych. NVIDIA stała się jedną z najcenniejszych firm świata. Chmura obliczeniowa (AWS, Google Cloud, Azure) udostępniła ogromną moc na żądanie.
Internet wygenerował petabajty tekstu, obrazów i danych. Wikipedia, Reddit, GitHub, książki - wszystko stało się materiałem treningowym. "Dane to nowa ropa naftowa."
Architektura Transformer (2017) okazała się przełomowa. Mechanizm uwagi (attention) pozwolił modelom rozumieć kontekst na niespotykaną skalę. "Scaling laws" pokazały, że większe modele = lepsze wyniki.
Prawo skalowania (Scaling Laws)
Jednym z kluczowych odkryć było to, że modele językowe stają się lepsze w przewidywalny sposób, gdy:
- Zwiększamy liczbę parametrów (rozmiar modelu)
- Zwiększamy ilość danych treningowych
- Zwiększamy moc obliczeniową treningu
To odkrycie zapoczątkowało "wyścig na skalę" - firmy zaczęły trenować coraz większe modele, inwestując miliardy dolarów w obliczenia.
| Model | Rok | Parametry |
|---|---|---|
| GPT | 2018 | 117 milionów |
| GPT-2 | 2019 | 1.5 miliarda |
| GPT-3 | 2020 | 175 miliardów |
| GPT-4 | 2023 | ~1.8 biliona?* |
*OpenAI nie ujawniło oficjalnie rozmiaru GPT-4
Kluczowe przełomy technologiczne
Transformer (2017)
Artykuł "Attention is All You Need" od Google wprowadził architekturę, która zdominowała AI:
- Mechanizm uwagi - model "patrzy" na cały kontekst jednocześnie
- Równoległość - można trenować na wielu GPU jednocześnie
- Skalowalność - działa lepiej, im jest większy
RLHF (2022)
Reinforcement Learning from Human Feedback - technika, która sprawiła, że modele stały się "pomocne" i "bezpieczne":
- Ludzie oceniają odpowiedzi modelu
- Model uczy się preferować odpowiedzi oceniane wyżej
- Efekt: ChatGPT jest przyjazny i pomocny
Instruction Tuning
Dostrajanie modeli do wykonywania instrukcji użytkownika, nie tylko przewidywania następnego słowa.
Dlaczego ChatGPT zmienił wszystko?
GPT-3 istniał od 2020 roku, ale nie zdobył masowej popularności. Co zrobiło ChatGPT inaczej?
Prosty, intuicyjny interfejs rozmowy. Każdy mógł zacząć pisać bez technicznej wiedzy.
OpenAI udostępniło ChatGPT za darmo, obniżając barierę wejścia do zera.
Model był "przyjazny" i "pomocny" dzięki treningowi z feedbackiem ludzi. Poprzednie modele były trudniejsze w użyciu.
Media społecznościowe eksplodowały przykładami użycia. Każdy dzielił się "magicznymi" możliwościami.
Wyścig gigantów
Sukces ChatGPT uruchomił wyścig największych firm technologicznych:
- Google - Bard (później Gemini), ogłoszony w panice po sukcesie ChatGPT
- Microsoft - Inwestycja $13 mld w OpenAI, integracja z Bing i Office
- Meta - Llama (open-source), demokratyzacja AI
- Anthropic - Claude, nacisk na bezpieczeństwo
- Amazon - Inwestycja w Anthropic, integracja z AWS
- Apple - Apple Intelligence, integracja z urządzeniami
Co dalej?
Obecny boom to dopiero początek. Eksperci przewidują:
- Multimodalność - modele rozumiejące tekst, obraz, dźwięk i wideo jednocześnie
- Agenci AI - systemy wykonujące złożone zadania autonomicznie
- Personalizacja - AI dostosowane do indywidualnych potrzeb
- Integracja - AI wbudowane w każdą aplikację i urządzenie
- Lokalne modele - AI działające na Twoim urządzeniu, bez chmury
Czy obecne podejście (skalowanie) doprowadzi do AGI (ogólnej sztucznej inteligencji)? Eksperci są podzieleni. Jedni wierzą, że to kwestia czasu i mocy obliczeniowej. Inni twierdzą, że potrzebne są fundamentalne przełomy.
Podsumowanie
- Trzy filary - moc obliczeniowa (GPU), dane (internet), algorytmy (Transformer)
- Scaling laws - większe modele = lepsze wyniki
- RLHF - technika, która uczyniła modele "pomocnymi"
- ChatGPT - prosty interfejs + darmowy dostęp + moment wirusowy
- Wyścig gigantów - Google, Microsoft, Meta, Anthropic, Amazon, Apple
- Przyszłość - multimodalność, agenci, personalizacja, integracja