Supervised Fine-Tuning (SFT)

Supervised Fine-Tuning (SFT)

Definition

Supervised fine-tuning (SFT) er processen med at træne en præ-trænet model på mærkede data til en specifik opgave, hvor alle eller nogle af dens parametre justeres.

Formål

Formålet er at tilpasse generelle modeller til specialiserede opgaver med forbedret nøjagtighed.

Vigtighed

  • Kerneteknik i NLP og visionsopgaver.
  • Kræver mærkede data af høj kvalitet.
  • Risici ved overfitting med små datasæt.
  • Ofte en forløber for RLHF.

Hvordan det virker

  1. Vælg en præ-trænet model.
  2. Indsaml mærkede data til målopgaven.
  3. Træn modellen med superviseret læring.
  4. Valider på et udeholdt testsæt.
  5. Implementer og overvåg ydeevne.

Eksempler (den virkelige verden)

  • GPT finjusterede kundeservicesamtaler.
  • BERT finjusteret til genkendelse af navngivne enheder.
  • Synstransformere finjusteret til medicinsk billedklassificering.

Referencer / Yderligere læsning

  • Devlin et al. “BERT: Forudtræning af dybe tovejstransformatorer.” NAACL 2019.
  • Dokumentation om krammende ansigtstransformere.
  • Stanford CS224N: NLP med dybdegående læring.
  • Hvad er SFT? Hvorfor er det vigtigt?

Fortæl os, hvordan vi kan hjælpe med dit næste AI-initiativ.

Saip
Beskyttelse af personlige oplysninger

Denne hjemmeside bruger cookies, så vi kan give dig den bedst mulige brugeroplevelse. Cookieoplysninger gemmes i din browser og udfører funktioner som at genkende dig, når du vender tilbage til vores hjemmeside og hjælper vores team til at forstå, hvilke dele af hjemmesiden du finder mest interessante og nyttige.