Przewiń do głównej treści

Model wnioskujący GPT-o1

Tydzień temu swoją premierę miał nowy model GPT-o1, który wprowadził nową jakość w dziedzinie generatywnej sztucznej inteligencji. Poniżej kilka moich uwag i spostrzeżeń na temat tego modelu.

  1. W modelu o1 wydłużona została inferencja, czyli czas tworzenia odpowiedzi. Mówiąc kolokwialnie dłużej myśli zanim odpowie. Rozwiązywanie zadanego problemu zostało podzielone na etapy dzięki czemu model daje dużo lepsze wyniki w przypadku problemów wymagających wnioskowania.

  2. W modelu bardzo mocno wykorzystywana jest technika CoT (ang. Chain of Thought), czyli łańcucha rozumowania. Tutaj należy zaznaczyć dwie rzeczy. Po pierwsze technika CoT nie jest nowością, bo pojawiała się już w modelach serii GPT-3.5 i GPT-4, jednak w dużo mniejszym stopniu. Po drugie, zadawanie sekwencji pytań przez użytkownika nie daje takich samych efektów jak technika CoT wbudowana w model. Nie jest prawdą twierdzenie, że model o1, to jest to samo co wcześniejsze modele, którym damy kilka zapytań. Należy podkreślić, że model o1 dobrze radzi sobie z krótkimi i zwięzłymi zapytaniami, ponieważ sam rozwija je na szereg zapytań. Oszczędza to czas i daje dużo lepsze wyniki niż poprzednie modele.

  3. Psycholog Daniel Kahneman w swojej książce Thinking, Fast and Slow opisał dwa sposoby ludzkiego myślenia. System 1 odpowiada za myślenie szybkie, instynktowne i emocjonalne, natomiast system 2 za myślenie analityczne. Drugi system jest wolniejszy, wymaga czasu. Model o1 jest właśnie krokiem w kierunku tego rodzaju myślenia. Dowodem tego są kilkukrotnie lepsze wyniki w zagadnieniach matematycznych czy generacji kodu źródłowego.

  4. Jeśli chodzi o liczbę tokenów, to w porównaniu do GPT-4o wygląda to tak:

o1-preview  32 768 tokenów,
o1-mini 	65 536 tokenów,
GPT-4o 	    16 384 tokeny.
Oznacza to, że o1-preview można z powodzeniem stosować w zadaniach związanych z rozumowaniem, wnioskowaniem, jednak o1-mini, który jest teoretycznie mniejszym modelem, może okazać się lepszy w przypadku generowaniem tekstu czy kodów źródłowych z uwagi na większą liczbę tokenów. Podkreślam, może, nie musi.
  1. Wiele osób próbuje udowodnić, że model o1 nie potrafi rozumować i daje mu zadania obliczeniowe. LLMy nie są stworzone do wykonywania obliczeń i takie zapytania w niektórych przypadkach zakończą się wygenerowaniem błędnej odpowiedzi. Jeżeli chcemy, aby ChatGPT coś policzył, to poprośmy o wygenerowanie i uruchomienie kodu w języku Python. W takim przypadku obliczenia będą przeprowadzane przez program, a nie przez sieć neuronową, co da dużo lepsze wyniki.
LLM jako takie nie są stworzone do wykonywania obliczeń. Mogą stworzyć program, który wykonuje obliczenia, ale same nie potrafią liczyć!

Zobacz także

Systemy agentowe i angenci AI. Czy to moda, buzzword czy prawdziwy przełom?
Agenci AI i systemy agentowe, to nie to samo. Dowiedz się jakie są różnice.
3 porady jak korzystać z ChatGPT
Korzystanie ze sztucznej inteligencji staje się coraz prostsze, jednak ciągle pomocna jest znajomość tworzenia zapytań, czyli tzw. promptów.
ChatGPT Podstawy i proste zastosowania
W ostatnich latach sztuczna inteligencja stała się częścią naszej rzeczywistości i zaczęła zmieniać nasze życie. W dobie tego niebywałego podstępu nie możemy pozostawać w tyle. ChatGPT, to jeden z najpotężniejszych chatbotów.
GPT-5 już jest!
OpenAI właśnie rozpoczęło udostępnianie swojego nowego modelu: GPT-5. Dowiedz się co już o nim wiadomo.
Halucynacje AI - czym są, skąd się biorą i jak z nimi walczyć
Halucynacje sztucznej inteligencji stanowią poważny problem i nierzadko mogą prowadzić do poważnych konsekwencji.
Tokeny, czyli jak sztuczna inteligencja czyta tekst i dlaczego zapomina
Sztuczna inteligencja potrafi czytać i pisać teksty, ale czy zastanawialiście się jak to robi i dlaczego czasem zapomina o czym przed chwilą rozmawialiśmy.