Definition
Parametereffektiv finjustering (PEFT) er en teknik til at tilpasse store prætrænede modeller til nye opgaver ved kun at opdatere en lille delmængde af parametre i stedet for hele modellen.
Formål
Formålet er at reducere beregningsomkostninger og lagerbehov, samtidig med at en stærk opgaveydeevne opretholdes.
Vigtighed
- Gør finjustering mulig for organisationer uden massive ressourcer.
- Reducerer CO2-aftrykket sammenlignet med fuld modeltræning.
- Muliggør effektiv opgaveskift i produktionen.
- Relateret til metoder som LoRA og adaptere.
Hvordan det virker
- Vælg en stor, forudtrænet basismodel.
- Identificer parameterundersæt (f.eks. lavrangerede adaptere).
- Træn kun disse delmængder på målopgavedata.
- Hold andre parametre frosne.
- Implementer med minimal ressourceoverhead.
Eksempler (den virkelige verden)
- LoRA (Low-Rank Adaptation): bruges i vid udstrækning til finjustering af LLM'er.
- Hugging Face PEFT-bibliotek: effektivt værktøjssæt til finjustering.
- Google-research: adaptere til flersprogede NLP-opgaver.
Referencer / Yderligere læsning
- Hu et al. “LoRA: Lavrangstilpasning af store sprogmodeller.” arXiv.
- Houlsby et al. “Parametereffektiv transferlæring til NLP.” ACL.
- PEFT-dokumentation om krammende ansigt.