Grok-1
LLMLLM
Pierwszy otwartoźródłowy model xAI z 314 miliardami parametrów. Architektura Mixture of Experts (8 ekspertów, 2 aktywne na token), 64 warstwy. Opublikowany na licencji Apache 2.0 w marcu 2024.
Specyfikacja techniczna
Okno kontekstowe
Parametry
Licencja
Narzędzia
Fine-tuning
Dostęp do wag
Ostatnia aktualizacja: 2 maj 2025
Modalności
Wejście
Text
Wyjście
Text
Możliwości
3Reasoning★
Rozumowanie
Coding★
Kodowanie
Multilingual★
Język