Trening
SFT
2022AktywnyAktualizacja: 6 maja 2026Opublikowany
Dostrajanie wstepnie wytrenowanego modelu na oznaczonych parach (instrukcja, odpowiedz) w celu nauczenia go podazania za instrukcjami.
Kluczowa
innowacja
Umozliwił dostosowanie duzych, wstepnie wytrenowanych modeli jezykowych do konkretnych zadan i zachowan instrukcyjnych przy uzyciu stosunkowo niewielkich, oznaczonych zbiorow danych demonstracji.
Kategoria
Trening
Poziom abstrakcji
Pattern
Poziom operacji
TreningPo-trening
Zastosowania
Chatboty i asystenci jezykowiDostrajanie modeli instrukcyjnychPierwszy etap RLHFSpecjalizacja modeli do konkretnych dziedzin
Jak działa
Zbior danych SFT zawiera pary (prompt p, odpowiedz y). Strata to L = -sum log P(y_t | p, y_<t). Model jest trenowany gradientowo na tych parach, zazwyczaj z małą szybkoscia uczenia. Czesto stosuje sie techniki jak LoRA lub QLoRA, by ograniczyc koszty obliczeniowe. Dane moga pochodzic od ludzkich adnotatorow (jak FLAN, Dolly) lub byc syntetycznie generowane przez mocniejszy model.
Rozwiązany problem
Wstepnie wytrenowane modele sa dobre w uzupełnianiu tekstu, ale nie w podazaniu za instrukcjami uzytkownikow, odpowiadaniu na pytania w formacie czatu ani w generowaniu bezpiecznych i uzytecznych odpowiedzi.
Implementacja
Pułapki implementacyjne
Katastrofalne zapominanieWysoka
Overfitting na małym zbiorze SFTŚrednia
Jakosc danych krytycznaWysoka
Ewolucja
Oryginalny paper · 2022 · NeurIPS 2022 · Long Ouyang
Training language models to follow instructions with human feedback
Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray
2019
Wstepne trenowanie + fine-tuning (GPT-1, BERT)
Punkt przełomowy2021
FLAN - SFT na zbiorach instrukcji
2022
InstructGPT - SFT jako etap 1 RLHF
Punkt przełomowy2023
LoRA i QLoRA - efektywny SFT