OpenAI ogłosiło 5 maja 2026 roku aktualizację domyślnego modelu ChatGPT do wersji GPT-5.5 Instant, zastępując GPT-5.3 Instant. Nowa wersja produkuje 52,5% mniej halucynowanych stwierdzeń na promptach wysokiego ryzyka i wprowadza usprawniony system personalizacji oparty na historii rozmów oraz połączonych kontach.
Najważniejsze w skrócie
- GPT-5.5 Instant to nowy domyślny model ChatGPT dla wszystkich użytkowników, dostępny od 5 maja 2026
- O 52,5% mniej halucynacji na promptach z obszarów medycyny, prawa i finansów względem GPT-5.3 Instant
- O 37,3% mniej błędnych stwierdzeń w rozmowach zgłoszonych przez użytkowników jako błędy faktyczne
- Nowa funkcja „memory sources" pokazuje, jakie dane z przeszłych rozmów zostały użyte do personalizacji
- GPT-5.3 Instant pozostaje dostępny dla płatnych użytkowników przez kolejne trzy miesiące w ustawieniach modelu
Zmiana na głównym miejscu
Domyślny model ChatGPT to produkt, z którego korzystają setki milionów ludzi codziennie. Każda aktualizacja w tej warstwie ma bezpośredni efekt w skali globalnej — nawet jeśli zmiany są ewolucyjne, a nie przełomowe. GPT-5.5 Instant jest dostępny dla wszystkich użytkowników ChatGPT od 5 maja 2026 i jednocześnie jako `chat-latest` w API.
GPT-5.3 Instant pozostaje dostępny dla płatnych użytkowników przez trzy miesiące w ustawieniach konfiguracji modelu, po czym zostanie wycofany. W API `chat-latest` automatycznie wskazuje teraz na GPT-5.5 Instant — co oznacza potencjalne zmiany dla deweloperów budujących na tym endpoincie bez przypięcia konkretnej wersji.
Dokładność: liczby i kontekst
Główną mierzalną zmianą jest redukcja halucynacji. W wewnętrznych testach OpenAI GPT-5.5 Instant wyprodukował 52,5% mniej halucynowanych stwierdzeń niż GPT-5.3 Instant na promptach z obszarów wysokiego ryzyka: medycyny, prawa i finansów. W rozmowach zgłoszonych przez użytkowników jako błędy faktyczne liczba błędnych stwierdzeń spadła o 37,3%.
Warto zaznaczyć kontekst metodologiczny: to są wyniki wewnętrznych ewaluacji OpenAI, nie niezależnych benchmarków. Firma sama opisuje GPT-5.5 Instant jako model „ogólnie mądrzejszy i bardziej zdolny w codziennych zadaniach" — sformułowanie, które z natury jest trudne do precyzyjnej weryfikacji zewnętrznej.
Dokumentacja produktowa przytacza przykład z rozwiązywaniem równania algebraicznego: GPT-5.3 Instant nie wykrył błędu algebraicznego studenta i niepoprawnie stwierdził brak rozwiązania rzeczywistego. GPT-5.5 Instant najpierw też potwierdził błędne rozwiązanie, ale następnie samodzielnie wykrył niezgodność przy podstawieniu, zidentyfikował faktyczny błąd w kroku algebraicznym i podał poprawne rozwiązanie przy użyciu wzoru kwadratowego.
Personalizacja z kontrolą
Drugą osią aktualizacji jest personalizacja. GPT-5.5 Instant skuteczniej korzysta z kontekstu z poprzednich rozmów, przesłanych plików i (dla użytkowników, którzy je połączyli) skrzynki Gmail. Jak deklaruje OpenAI, model jest szybszy w wyszukiwaniu historii konwersacji i inteligentniej decyduje, kiedy personalizacja realnie poprawia odpowiedź.
Kluczową nowością funkcjonalną jest „memory sources" — wskaźnik źródeł kontekstu. Gdy odpowiedź jest spersonalizowana, użytkownik widzi, które dane zostały użyte: zapisane wspomnienia lub konkretne poprzednie rozmowy. Można je usunąć lub skorygować, jeśli są nieaktualne. Memory sources nie są widoczne dla innych osób przy udostępnianiu rozmów.
OpenAI wprost zaznacza ograniczenie: widok memory sources może nie pokazywać wszystkich czynników, które wpłynęły na odpowiedź — na przykład wyświetla tylko najbardziej trafne rozmowy, nie wszystkie, które model przeszukał. Firma zapowiada poprawę tego widoku w kolejnych aktualizacjach.
Mniej tekstu, lepsza komunikacja
Aktualizacja obejmuje też zmiany w stylu generowania tekstu. GPT-5.5 Instant ma produkować odpowiedzi „bardziej zwięzłe bez utraty substancji" — bez nadmiernego formatowania, zbędnych pytań zwrotnych i niepotrzebnych emoji. OpenAI przytacza benchmark stylistyczny: przy nieformalnym pytaniu o strategię komunikacji z rozmownym współpracownikiem GPT-5.5 Instant użył o 30,2% mniej słów i o 29,2% mniej linii niż GPT-5.3 Instant, dostarczając przy tym odpowiedź ocenioną jako bardziej użyteczna i odpowiednia tonem.
To jest obszar, gdzie OpenAI odpowiada na długo artykułowane zastrzeżenia użytkowników, którzy skarżyli się na przesadnie długie, przeformatowane i przesadnie ostrożne odpowiedzi ChatGPT.
Dostępność
Funkcja rozszerzonej personalizacji z historii rozmów, plików i Gmail jest wdrażana dla użytkowników Plus i Pro w wersji webowej i wkrótce trafi na mobile. Memory sources są udostępniane na wszystkich konsumenckich planach ChatGPT w przeglądarce. Rozszerzenie na plany Free, Go, Business i Enterprise planowane jest w kolejnych tygodniach. Dostępność konkretnych źródeł personalizacji może się różnić w zależności od regionu.
Dlaczego to ważne?
GPT-5.5 Instant jest produktem, z którego codziennie korzysta więcej osób niż z jakiegokolwiek innego systemu AI. Redukcja halucynacji o ponad 50% na promptach wysokiego ryzyka — jeśli potwierdzą ją niezależne testy — to zmiana, która ma praktyczne znaczenie wszędzie tam, gdzie ChatGPT jest używany do pytań medycznych, prawnych lub finansowych przez osoby bez specjalistycznej wiedzy.
Mechanizm memory sources jest krokiem w kierunku transparentności systemów AI, które coraz częściej działają w oparciu o prywatne dane użytkowników. Pokazanie, z jakich danych model skorzystał i danie użytkownikowi możliwości ich usunięcia, to nie tylko funkcja użytkowa — to odpowiedź na regulacyjną presję dotyczącą prawa do wglądu i korekty danych. Kontekst rynkowy jest istotny: Anthropic i Google również intensywnie rozwijają personalizację swoich modeli i systemy kontroli pamięci. OpenAI, wdrażając memory sources teraz, zajmuje pozycję lidera w tej warstwie, ale przewaga jest tymczasowa.
Co dalej?
- Rozszerzona personalizacja trafi na plany Free, Go, Business i Enterprise w ciągu najbliższych tygodni — szczegółowego harmonogramu OpenAI nie podało
- GPT-5.3 Instant zostanie wycofany po trzech miesiącach od premiery GPT-5.5 Instant — deweloperzy korzystający z `chat-latest` w API powinni sprawdzić kompatybilność swoich aplikacji
- OpenAI zapowiada dalsze rozszerzanie widoku memory sources, by pokazywał pełniejszy obraz czynników wpływających na odpowiedzi modelu



