Em termos simples, o ajuste fino aumentado pela recuperação, ou RAFT, é uma técnica avançada de IA na qual a geração aumentada pela recuperação é unida ao ajuste fino para aprimorar as respostas generativas de um grande modelo de linguagem para aplicações específicas naquele domínio em particular.
Ele permite que grandes modelos de linguagem forneçam resultados mais precisos, contextualmente relevantes e robustos, especialmente para setores específicos como saúde, direito e finanças, por meio da integração de RAG e ajustes finos.
Componentes do RAFT
1. Geração aumentada de recuperação
A técnica aprimora os LLMs permitindo que eles acessem fontes de dados externas durante a inferência. Portanto, em vez de conhecimento pré-treinado estático como em muitos outros, o RAG permite que o modelo pesquise ativamente um banco de dados ou repositório de conhecimento para obter informações em dois cliques para responder às consultas do usuário. É quase como um exame de livro aberto, no qual o modelo consulta as referências externas mais recentes ou outros fatos relevantes ao domínio. Ou seja, a menos que seja acoplado a alguma forma de treinamento que refine a capacidade do modelo de raciocinar ou priorizar as informações recuperadas; o RAG por si só não refina as capacidades anteriores.
Características do RAG:
- Acesso dinâmico ao conhecimento: Inclui informações em tempo real coletadas de fontes externas de informações.
- Adaptabilidade específica de domínio: As respostas são baseadas em conjuntos de dados específicos.
Limitação: Não contém mecanismos integrados para discriminar entre conteúdo relevante e irrelevante recuperado.
2. Ajuste fino
O ajuste fino é treinar um LLM que foi pré-treinado em conjuntos de dados específicos do domínio para desenvolvê-lo para tarefas especializadas. Esta é uma oportunidade de alterar os parâmetros do modelo para entender melhor os termos, o contexto e as nuances específicos do domínio. Embora o ajuste fino refine a precisão do modelo em relação a um domínio específico, os dados externos não são utilizados durante a inferência, o que limita sua reutilização quando se trata de reproduzir produtivamente o conhecimento em evolução.
Características do ajuste fino:
- Especialização: Adequado para um setor ou tarefa específica para um modelo específico.
- Melhor precisão de inferência: Aumenta a precisão na geração de respostas relevantes ao domínio.
Limitações: Capacidades de atualização dinâmica menos eficazes na construção de conhecimento.
Como o RAFT combina RAG e ajuste fino
Ele combina os pontos fortes do RAG e do tuning em um pacote ancorado. Os LLMs resultantes não recuperam simplesmente documentos relevantes, mas integram com sucesso essas informações de volta ao seu processo de raciocínio. Essa abordagem híbrida garante que o modelo seja bem versado em conhecimento de domínio (por meio do tuning), ao mesmo tempo em que é capaz de acessar dinamicamente o conhecimento externo (por meio do RAG).
Mecânica do RAFT

Composição dos dados de treinamento:
- As perguntas são acompanhadas de documentos relevantes e documentos distrativos (irrelevantes).
- Respostas em cadeia de pensamento que ligam as informações recuperadas à resposta final.
Objetivos do treinamento duplo:
Ensine ao modelo como classificar um documento relevante acima de todos os distratores e aprimore suas habilidades de raciocínio pedindo explicações passo a passo vinculadas aos documentos de origem.
Fase de Inferência:
- Os modelos recuperam os documentos mais bem classificados por meio de um processo RAG.
- O ajuste fino orienta o raciocínio preciso e mescla os dados recuperados com as respostas principais.
Vantagens do RAFT
Menos taxas de erro na fusão
Aumentar o desenvolvimento de ajuste fino faz com que o RAFT melhore notavelmente a precisão de tarefas especializadas. Em vez disso, seu desempenho em muitos benchmarks, como o TorchHub, obteve ganhos de até 76% em relação às técnicas comuns de ajuste fino.
Robustez Contra Erros
O RAFT treina modelos para modificar informações irrelevantes antes de definir inferências incorretas decorrentes de recuperações erradas.
Dados ao vivo
Ao contrário de modelos estáticos ajustados, os LLMs com RAFT podem ingerir novas informações dinamicamente, o que os torna uma ótima opção para setores como medicina ou tecnologia, que exigem adaptação rápida.
Utiliza recursos de forma eficiente
O RAFT lida com adaptação de domínio de forma muito econômica devido ao uso de fontes de conhecimento externas para treinamento e inferência, reduzindo assim a dependência de grandes conjuntos de dados rotulados.
Aplicações do RAFT em aplicações de IA específicas de domínio
1. Saúde:
- Resumo de artigos médicos.
- Apoiar a tomada de decisões clínicas por meio da fusão de registros de pacientes com diretrizes atualizadas.
2. Serviços legais:
- Fazendo pesquisas jurídicas e análises de estatutos.
- Simplificando a revisão de contratos.
3. Finanças:
- Fornecendo insights financeiros com base nas tendências de mercado.
- Avaliação de risco usando dados econômicos em tempo real.
4. Documentação técnica:
- Escrevendo material de referência de API eficaz.
- Respondendo perguntas de desenvolvedores com referências de código.
Desafios na implementação do RAFT
A complexidade dos dados
São necessários conjuntos de dados específicos de domínio de alta qualidade, o que muitas vezes pode ser difícil de selecionar.
Problemas de integração
A integração perfeita do conhecimento externo ao processo de raciocínio do modelo requer engenharia sofisticada.
Alto consumo de recursos
O treinamento dos modelos RAFT exige uma grande quantidade de capacidade computacional e infraestrutura.
Como Shaip ajuda a adaptar os desafios do RAFT:
Shaip se posiciona exclusivamente a favor de enfrentar os desafios que diferem dos recursos de Recuperação-Ajuste Fino Aumentado (RAFT) no fornecimento de conjuntos de dados de qualidade, conjuntos de dados específicos de domínio eminentes e serviços de dados competentes.
A plataforma de supervisão de dados de IA de ponta a ponta garante que essas empresas tenham uma diversidade de conjuntos de dados, simultaneamente endossados por práticas éticas e bem anotados para treinar grandes modelos de linguagem (LLMs) da maneira correta.
A Shaip é especializada em fornecer serviços de dados de alta qualidade e específicos de domínio, adaptados para setores como saúde, finanças e serviços jurídicos. Usando a plataforma Shaip Manage, os gerentes de projeto definem parâmetros claros de coleta de dados, cotas de diversidade e requisitos específicos de domínio, garantindo que modelos como o RAFT recebam documentos relevantes e distrações irrelevantes para treinamento eficaz. A desidentificação de dados integrada garante a conformidade com regulamentações de privacidade como a HIPAA.
A Shaip também oferece anotações avançadas em texto, áudio, imagem e vídeo, garantindo qualidade de primeira linha para treinamento de IA. Com uma rede de mais de 30,000 colaboradores e equipes gerenciadas por especialistas, a Shaip escala com eficiência, mantendo a precisão. Ao enfrentar desafios como diversidade, fornecimento ético e escalabilidade, a Shaip ajuda os clientes a desbloquear todo o potencial de modelos de IA como o RAFT para impacto.

