Przewiń do głównej treści

Model wnioskujący GPT-o1

·384 słów·2 min·
ChatGPT AI Sztuczna Inteligencja GPT LLM Model O1

Tydzień temu swoją premierę miał nowy model GPT-o1, który wprowadził nową jakość w dziedzinie generatywnej sztucznej inteligencji. Poniżej kilka moich uwag i spostrzeżeń na temat tego modelu.

  1. W modelu o1 wydłużona została inferencja, czyli czas tworzenia odpowiedzi. Mówiąc kolokwialnie dłużej myśli zanim odpowie. Rozwiązywanie zadanego problemu zostało podzielone na etapy dzięki czemu model daje dużo lepsze wyniki w przypadku problemów wymagających wnioskowania.

  2. W modelu bardzo mocno wykorzystywana jest technika CoT (ang. Chain of Thought), czyli łańcucha rozumowania. Tutaj należy zaznaczyć dwie rzeczy. Po pierwsze technika CoT nie jest nowością, bo pojawiała się już w modelach serii GPT-3.5 i GPT-4, jednak w dużo mniejszym stopniu. Po drugie, zadawanie sekwencji pytań przez użytkownika nie daje takich samych efektów jak technika CoT wbudowana w model. Nie jest prawdą twierdzenie, że model o1, to jest to samo co wcześniejsze modele, którym damy kilka zapytań. Należy podkreślić, że model o1 dobrze radzi sobie z krótkimi i zwięzłymi zapytaniami, ponieważ sam rozwija je na szereg zapytań. Oszczędza to czas i daje dużo lepsze wyniki niż poprzednie modele.

  3. Psycholog Daniel Kahneman w swojej książce Thinking, Fast and Slow opisał dwa sposoby ludzkiego myślenia. System 1 odpowiada za myślenie szybkie, instynktowne i emocjonalne, natomiast system 2 za myślenie analityczne. Drugi system jest wolniejszy, wymaga czasu. Model o1 jest właśnie krokiem w kierunku tego rodzaju myślenia. Dowodem tego są kilkukrotnie lepsze wyniki w zagadnieniach matematycznych czy generacji kodu źródłowego.

  4. Jeśli chodzi o liczbę tokenów, to w porównaniu do GPT-4o wygląda to tak:

o1-preview  32 768 tokenów,
o1-mini 	65 536 tokenów,
GPT-4o 	    16 384 tokeny.
Oznacza to, że o1-preview można z powodzeniem stosować w zadaniach związanych z rozumowaniem, wnioskowaniem, jednak o1-mini, który jest teoretycznie mniejszym modelem, może okazać się lepszy w przypadku generowaniem tekstu czy kodów źródłowych z uwagi na większą liczbę tokenów. Podkreślam, może, nie musi.
  1. Wiele osób próbuje udowodnić, że model o1 nie potrafi rozumować i daje mu zadania obliczeniowe. LLMy nie są stworzone do wykonywania obliczeń i takie zapytania w niektórych przypadkach zakończą się wygenerowaniem błędnej odpowiedzi. Jeżeli chcemy, aby ChatGPT coś policzył, to poprośmy o wygenerowanie i uruchomienie kodu w języku Python. W takim przypadku obliczenia będą przeprowadzane przez program, a nie przez sieć neuronową, co da dużo lepsze wyniki.
LLM jako takie nie są stworzone do wykonywania obliczeń. Mogą stworzyć program, który wykonuje obliczenia, ale same nie potrafią liczyć!

Zobacz także

3 porady jak korzystać z ChatGPT
·408 słów·2 min
ChatGPT AI Sztuczna Inteligencja GPT LLM Podstawy AI Prompty
Korzystanie ze sztucznej inteligencji staje się coraz prostsze, jednak ciągle pomocna jest znajomość tworzenia zapytań, czyli tzw. promptów.
ChatGPT Podstawy i proste zastosowania
520 słów·3 min
ChatGPT AI Sztuczna Inteligencja GPT LLM Podstawy AI Prompty GenAI
W ostatnich latach sztuczna inteligencja stała się częścią naszej rzeczywistości i zaczęła zmieniać nasze życie. W dobie tego niebywałego podstępu nie możemy pozostawać w tyle. ChatGPT, to jeden z najpotężniejszych chatbotów.
DALL-E vs. ChatGPT-4o — generowanie obrazów
·212 słów·1 min
ChatGPT AI Sztuczna Inteligencja DALL-E GenAI GPT Generowanie Obrazów OpenAI
Od kilku lat dzięki rozwijającym się modelom sztucznej inteligencji mamy możliwość prostego generowania obrazów i zdjęć.