Definição
O ajuste fino com eficiência de parâmetros (PEFT) é uma técnica para adaptar grandes modelos pré-treinados a novas tarefas atualizando apenas um pequeno subconjunto de parâmetros em vez de todo o modelo.
Propósito
O objetivo é reduzir o custo computacional e as necessidades de armazenamento, mantendo ao mesmo tempo um bom desempenho das tarefas.
Importância
- Torna o ajuste fino viável para organizações sem grandes recursos.
- Reduz a pegada de carbono em comparação ao treinamento completo do modelo.
- Permite a troca eficiente de tarefas na produção.
- Relacionado a métodos como LoRA e adaptadores.
Como Funciona
- Selecione um grande modelo base pré-treinado.
- Identificar subconjuntos de parâmetros (por exemplo, adaptadores de baixa classificação).
- Treine apenas esses subconjuntos em dados de tarefas de destino.
- Mantenha outros parâmetros congelados.
- Implante com sobrecarga mínima de recursos.
Exemplos (mundo real)
- LoRA (Low-Rank Adaptation): amplamente utilizado no ajuste fino de LLMs.
- Biblioteca PEFT Hugging Face: kit de ferramentas de ajuste fino eficiente.
- Pesquisa do Google: adaptadores para tarefas de PNL multilíngues.
Referências/Leituras Adicionais
- Hu et al. “LoRA: Adaptação de baixo nível de modelos de linguagem grandes.” arXiv.
- Houlsby et al. “Aprendizagem de transferência com eficiência de parâmetros para PNL”. ACL.
- Documentação PEFT do Hugging Face.