Robocikowo>ROBOCIKOWO
TabPFN

TabPFN

2.5 · Rodzina: TabPFN
Tabular Foundation Model od Prior Labs do klasyfikacji, regresji i prognozowania na danych tabelarycznych w jednym przebiegu inferencji.
✓ Aktywny✓ Publiczny dostęp⚖ Open weightsWyspecjalizowane AINaukowe AI📁 TabPFN
Okno kontekstowe
50K rows × 2K features
tokenów
Parametry
Tabular foundation model
parametrów
Dostęp:APIDownloadHostedWdrożenie:💻 Lokalnie☁ Cloud

Przegląd

TabPFN (Tabular Prior-data Fitted Network) to fundamentowy model uczenia maszynowego do danych tabelarycznych, opracowany przez Prior Labs (spin-off Uniwersytetu we Fryburgu). Model został wstępnie wytrenowany na milionach syntetycznych zbiorów danych i wykonuje predykcje w jednym przebiegu sieci (zero-shot) bez konieczności trenowania ani strojenia hiperparametrów na docelowym zbiorze.

TabPFNv2 został opublikowany w czasopiśmie Nature w styczniu 2025 r. Najnowsza wersja, TabPFN-2.5, obsługuje zbiory danych do 50 000 próbek i 2 000 cech (5× i 4× więcej niż TabPFNv2) oraz, według raportu technicznego producenta, na benchmarku TabArena dorównuje dokładności AutoGluon 1.4 strojonego przez 4 godziny. Model obsługuje klasyfikację, regresję, prognozowanie szeregów czasowych (TabPFN-TS), wykrywanie anomalii oraz generowanie danych syntetycznych.

Wagi TabPFNv2 i TabPFN-2.5 są dostępne na Hugging Face na licencji niekomercyjnej; komercyjne wykorzystanie wymaga API Prior Labs lub wdrożenia na AWS SageMaker, Azure AI Foundry lub Databricks. W listopadzie 2025 r. SAP ogłosił przejęcie Prior Labs z planowaną inwestycją powyżej 1 mld EUR w ciągu 4 lat.

Klasyfikacja
Wyspecjalizowane AINaukowe AI
Rodzina: TabPFN
Dostęp i wdrożenie
APIPobieranieHostowane
LokalnieChmura
Wagi: Open weights
Kluczowe parametry
📏 Kontekst: 50K rows × 2K features
🧩 Parametry: Tabular foundation model
✓ Fine-tuning
📥 Wejście: dane strukturalne, szeregi czasowe

Specyfikacja techniczna

Okno kontekstowe
50K rows × 2K features
tokenów
Parametry
Tabular foundation model
parametrów
Licencja
Apache-2.0 + non-commercial license dla wag (TabPFNv2/2.5); komercyjne wykorzystanie wymaga API/Enterprise
Wymagania sprzętowe
GPU zalecany dla inferencji (CUDA); tryb CPU dostępny dla mniejszych zbiorów. Działa na pojedynczej karcie konsumenckiej dla zbiorów <10K wierszy.
Funkcje:Fine-tuning
Modalności
⬇ Wejście (Input)
structured_datatime_series
⬆ Wyjście (Output)
structured_data

Możliwości i zastosowania

Natywne możliwości modelu
Klasyfikacja
Przyporządkowanie obserwacji do jednej z predefiniowanych klas (binarna lub wieloklasowa). Wynik: etykieta klasy oraz opcjonalnie prawdopodobieństwa.
Kategoria: other
Regresja
Predykcja ciągłej wartości liczbowej (np. ceny, temperatury, ryzyka) na podstawie cech wejściowych.
Kategoria: other
Prognozowanie szeregów czasowych
Przewidywanie przyszłych wartości szeregu czasowego na podstawie historycznych obserwacji, sezonowości i zewnętrznych regresorów.
Kategoria: other
Wykrywanie anomalii
Identyfikacja obserwacji odbiegających od wzorca normalnego — kluczowe w fraud detection, monitorowaniu maszyn i bezpieczeństwie.
Kategoria: other
Generowanie danych syntetycznych
Generowanie syntetycznych zbiorów danych zachowujących statystyczne właściwości oryginału, używanych do uczenia modeli, testów i ochrony prywatności.
Kategoria: structured_generation
Predykcja tabelaryczna
Predykcja na danych tabelarycznych (wiersze × kolumny) — klasyfikacja, regresja lub szeregi czasowe — domena foundation models tabelarnych jak TabPFN.
Kategoria: other
Interpretowalność
Wyjaśnialność predykcji modelu: identyfikacja cech wpływających na decyzję (SHAP, feature importance, attention weights, counterfactuals).
Kategoria: other

Wyniki benchmarków

1 benchmark
TabArena
accuracy · zero-shot, dataset size up to 50K samples, 2K features
matches AutoGluon 1.4 (4h tuned)
📄 TabPFN-2.5 Model Report (Prior Labs)
Według raportu technicznego TabPFN-2.5 przewyższa wszystkie strojone modele drzewiaste i dorównuje AutoGluon 1.4 (zespołowi zawierającemu TabPFN v2 strojony 4 godziny).

Architektura techniczna

Rdzeń architektury (Core Architecture)
Forma modelu (Model Form)
Techniki trenowania (Training Techniques)