Ajuste Fino
Ajuste fino é o processo de pegar um modelo de IA pré-treinado e continuar seu treinamento em um conjunto de dados menor e específico, para adaptar o comportamento do modelo para um domínio ou aplicação particular.
Entendendo Ajuste Fino
Treinar um grande modelo de linguagem do zero requer enormes recursos computacionais e conjuntos de dados gigantescos. O ajuste fino oferece uma alternativa muito mais eficiente: começa-se com um modelo pré-treinado e capacitado, e adapta-se para um caso de uso específico com um conjunto de dados bem menor. Durante o ajuste fino, os pesos do modelo são ajustados para se adequar melhor aos padrões, à terminologia e aos resultados esperados do domínio alvo. Existem várias abordagens de ajuste fino. O ajuste fino completo atualiza todos os parâmetros do modelo e produz os melhores resultados, mas é computacionalmente caro. Métodos de ajuste fino eficientes em parâmetros (PEFT), como o LoRA, atualizam apenas um pequeno subconjunto dos parâmetros, reduzindo drasticamente os requisitos computacionais e atingindo resultados comparáveis. O ajuste fino por instrução treina os modelos para seguir instruções, tornando-os assistentes de chat a partir de LLMs base. O Aprendizado por Reforço com Feedback Humano (RLHF) é uma variação do ajuste fino que utiliza dados de preferência humana para alinhar as respostas do modelo com as expectativas humanas. Essa técnica foi fundamental para tornar modelos como o ChatGPT úteis, seguros e honestos. Para aplicações corporativas, o ajuste fino especializado em domínio garante que os modelos utilizem o vocabulário apropriado, sigam convenções de formatação específicas e compreendam conhecimentos técnicos ou especializados que modelos gerais não dominam.
Como GAIA usa Ajuste Fino
A GAIA utiliza modelos ajustados especificamente para tarefas de produtividade e comunicação, quando apropriado. Em vez de depender apenas de LLMs base, a arquitetura da GAIA permite alternar entre modelos gerais e especializados, conforme a necessidade da tarefa. Para atividades como redação de e-mails, otimização de agendas e extração de tarefas, modelos adaptados ao propósito podem superar os modelos genéricos, com uma fração do custo de inferência.
Conceitos relacionados
Large Language Model (LLM)
Um Modelo de Linguagem de Grande Porte (LLM) é um modelo de deep learning treinado com enormes conjuntos de textos capaz de compreender, gerar e raciocinar sobre linguagem humana em uma ampla variedade de tarefas.
Engenharia de Prompt
Engenharia de prompt é a prática de projetar e refinar entradas para modelos de linguagem de IA, a fim de obter respostas desejadas de forma consistente, moldando o comportamento do modelo sem modificar seus pesos.
Modelo Fundamental
Um modelo fundamental é um grande modelo de IA treinado em larga escala com dados amplos, que pode ser adaptado para uma ampla variedade de tarefas por meio de ajuste fino, prompts ou integração em arquiteturas de aplicações.
Modelo de Linguagem de Grande Porte (LLM)
Um Modelo de Linguagem de Grande Porte (LLM) é um modelo de inteligência artificial treinado em enormes quantidades de dados textuais, capaz de compreender, gerar e raciocinar sobre a linguagem humana com grande fluência.


