Od 1 czerwca 2026 roku GitHub Copilot porzuca dotychczasowy model abonamentowy oparty na „Premium Requests" i przechodzi na rozliczenie per-token. Zmiana jest zgodna z kierunkiem obranym przez Anthropic i OpenAI wobec klientów enterprise, ale po raz pierwszy przenosi tę logikę bezpośrednio na rynek programistów-indywidualnych i małych zespołów.
Najważniejsze w skrócie
- Od 1 czerwca 2026: GitHub Copilot rozlicza zużycie modeli LLM w tokenach, nie w liczbie zapytań
- Nowa waluta: „AI Credits" — 1 kredyt = 1 cent USD; subskrybent Pro ($10/mies.) otrzymuje 1 000 kredytów
- Uzupełnienia kodu (code completions) i sugestie Next Edit pozostają bezpłatne
- Uber wydał cały roczny budżet AI na 2026 rok już w ciągu kilku pierwszych miesięcy roku — 11% zmian w kodzie pochodzi od agentów AI
- Zmiana odzwierciedla przemysłowy trend: Anthropic i OpenAI przeszły na billing per-token dla klientów enterprise
Koniec „płaskiej" opłaty — co się zmienia
Do tej pory użytkownik GitHub Copilot otrzymywał pulę „Premium Requests". Każde zapytanie — czy to wielogodzinne refaktorowanie dużego projektu, czy krótka odpowiedź na pytanie dotyczące składni — odejmowało jedną jednostkę z puli. Model był prosty, ale ekonomicznie niekonsekwentny: Copilot de facto subsydiował złożone, kosztowne zadania kosztem Microsoft i własnej marży.
Nowy model działa jak OpenAI API czy Anthropic Claude API — zużycie jest mierzone w tokenach: wejście (prompt), wyjście (odpowiedź) i dane w pamięci podręcznej modelu (cache). Im dłuższy kod lub opis zadania, tym więcej tokenów. Im bardziej zaawansowany model, tym wyższy koszt jednostkowy.
Token to z grubsza trzy czwarte słowa w tekście naturalnym. W praktyce 10 000 słów kodu odpowiada 12–13 tysiącom tokenów. Deweloper, który poprosi Copilota o przeanalizowanie całego repozytorium, zużyje kilkukrotnie więcej kredytów niż ten, który zadaje krótkie pytania o składnię.
Tabela kredytów i progi abonamentów
GitHub utrzymuje dotychczasowe poziomy cenowe, ale zmienia jednostkę rozliczeniową. Subskrybent planu Copilot Pro (10 USD miesięcznie) otrzymuje 1 000 kredytów — równowartość 10 dolarów przy założeniu, że 1 kredyt = 1 cent. Liczba tokenów per kredyt zależy od czterech zmiennych: wybranego modelu LLM, proporcji wejścia do wyjścia, rozmiaru cache oraz rodzaju żądanej funkcji.
Skutek jest taki, że deweloper korzystający głównie z autouzupełnień i prostych pytań prawdopodobnie nie przekroczy miesięcznego limitu. Natomiast ktoś, kto intensywnie korzysta z agentów kodowania na dużych bazach kodu, może wyczerpać pulę szybciej niż w poprzednim modelu — i będzie zmuszony dokupić dodatkowe kredyty.
Sygnał z rynku enterprise: sprawa Ubera
Najtrafniejszą ilustracją skali problemu jest przypadek Ubera, który według The Information wydał już cały roczny budżet AI na 2026 rok, choć jesteśmy w jego pierwszych miesiącach. CTO firmy ujawnił, że 11% zmian w kodzie Ubera jest teraz generowanych przez modele AI — przede wszystkim przez agenty oparte na Anthropic's Claude.
To zjawisko nie jest odosobnione. W miarę jak systemy wieloagentowe (multi-agent) stają się standardem w zespołach deweloperskich, koszt tokenów rośnie nieliniowo — agent nie tylko odpowiada na pytania, lecz samodzielnie planuje, weryfikuje i iteruje, generując przy każdym kroku nowe wywołania modelu. Przy rozliczeniu per-token każdy krok jest widoczny w rachunku.
Dlaczego Microsoft nie mógł subsydiować w nieskończoność
W odróżnieniu od Anthropic i OpenAI, które operują na rynku API i od początku stosują model per-token, Microsoft przez lata mógł sobie pozwolić na subsydiowanie Copilota z przychodów z oprogramowania i Azure. Intensywny wzrost adopcji — szczególnie agentów kodowania pracujących autonomicznie na dużych repozytoriach — sprawił jednak, że koszty obliczeniowe przerosły to, co dało się wchłonąć w modelu ryczałtowym.
Co ważne, GitHub przyznaje, że do momentu zmiany użytkownicy mogli de facto „zużywać" od trzech do ośmiu razy więcej tokenów, niż wynikałoby z ich miesięcznej płatności. Innymi słowy, platforma działała przez lata ze świadomą dopłatą do kosztów operacyjnych.
Efekt uboczny: bariera dla nowych użytkowników
Zmiana modelu rozliczeniowego ma jedną istotną konsekwencję uboczną: tworzy barierę psychologiczną dla eksploracji. Dotychczas nowy użytkownik Copilota mógł swobodnie testować różne modele, zadawać złożone pytania i budować intuicję dotyczącą narzędzia. Od czerwca każde głębsze zadanie będzie miało mierzalny koszt w kredytach.
To odbiera narzędziu część jego atrakcyjności jako środowiska do nauki. Warto porównać to z podejściem Cursora, który stosuje hybrydowy model: pewna liczba zaawansowanych zapytań jest wliczona w abonament, nadmiar jest płatny per-token.
Dlaczego to ważne dla rynku AI
GitHub Copilot jest produktem, który zapoznał z asystentami AI koderów, którzy nigdy wcześniej nie korzystali z OpenAI API ani Anthropic Claude API. Przejście na billing per-token to de facto koniec nieograniczonego „probierza" AI dla programistów — i pierwsze masowe zetknięcie tej grupy użytkowników z ekonomią tokenów.
Dla firm wdrażających agentyczne systemy AI — szczególnie do zadań autonomicznego kodowania i przeglądu kodu — zmiana ta wymusza rewizję założeń kosztowych. Koszt pracy agenta nie jest już kosztem abonamentu; jest funkcją liczby iteracji, długości kontekstu i wyboru modelu. Dla CTO takich firm jak Uber, które pchają 11% zmian kodu przez modele AI, precyzyjne śledzenie tych kosztów staje się kwestią budżetową pierwszego rzędu.
Co dalej?
- Zmiana wchodzi w życie 1 czerwca 2026 — użytkownicy mają niecały miesiąc na adaptację i ewentualną zmianę nawyków korzystania z Copilota Codex — nowy agent kodowania OpenAI działający w tle — działa wyłącznie na modelu per-token; kierunek ten staje się standardem branżowym
- Oczekiwać można kolejnych firm SaaS AI przechodzących na podobną logikę rozliczeniową w ciągu najbliższych miesięcy




