Ajustement fin
L'ajustement fin est le processus qui consiste à reprendre l'entraînement d'un modèle d'IA pré-entraîné sur un jeu de données plus petit et spécifique à une tâche afin d'adapter son comportement à un domaine ou une application particuliers.
Comprendre Ajustement fin
L'entraînement d'un grand modèle de langage à partir de zéro nécessite d'énormes ressources de calcul et des jeux de données massifs. L'ajustement fin offre une alternative bien plus efficace : partir d'un modèle pré-entraîné performant et l'adapter à un cas d'usage spécifique avec un jeu de données beaucoup plus petit. Pendant l'ajustement fin, les poids du modèle sont mis à jour afin de mieux coller aux particularités du domaine ciblé, à sa terminologie et à ses attentes. Il existe plusieurs approches d'ajustement fin. L'ajustement complet modifie tous les paramètres du modèle et fournit les meilleurs résultats, mais il consomme beaucoup de ressources. Les méthodes d'ajustement fin efficaces en paramètres (PEFT), comme LoRA, n'ajustent qu'une petite partie des paramètres, ce qui réduit fortement les besoins en calcul tout en obtenant des résultats comparables. L'ajustement fin par consignes (instruction fine-tuning) entraîne les modèles à suivre des instructions : c'est ainsi que les LLM de base deviennent des assistants conversationnels. Le renforcement de l'apprentissage par retour humain (RLHF) est une variante d'ajustement fin qui se sert des préférences humaines pour aligner les sorties du modèle avec les attentes des utilisateurs. Cette technique a été centrale pour rendre des modèles comme ChatGPT utiles, inoffensifs et honnêtes. Pour les applications en entreprise, l'ajustement fin spécifique à un domaine permet d'obtenir des modèles qui emploient le vocabulaire adéquat, respectent des formats particuliers et maîtrisent des connaissances spécialisées que les modèles généraux gèrent mal.
Comment GAIA utilise Ajustement fin
GAIA utilise des modèles ajustés sur mesure pour les tâches de productivité et de communication, lorsque cela est pertinent. Plutôt que de s'appuyer uniquement sur les LLM de base, l'architecture de GAIA permet de basculer entre modèles généralistes et spécialisés selon la tâche. Pour la rédaction d’e-mails, l’optimisation des plannings et l’extraction de tâches, les modèles adaptés à l’usage peuvent surpasser les modèles généralistes tout en réduisant le coût d’inférence.
Concepts liés
Large Language Model (LLM)
Un Large Language Model (LLM) est un modèle d'apprentissage profond entraîné sur d'immenses ensembles de textes, capable de comprendre, générer et raisonner sur le langage humain dans une grande variété de tâches.
Ingénierie de prompt
L’ingénierie de prompt est la pratique qui consiste à concevoir et affiner les instructions données à des modèles linguistiques d’IA afin d’obtenir de manière fiable les résultats souhaités, en influençant leur comportement sans modifier leurs paramètres internes.
Modèle fondamental
Un modèle fondamental est un grand modèle d'IA entraîné à grande échelle sur des données variées et pouvant être adapté à un large éventail de tâches via l'ajustement fin, l'invite ou l'intégration dans des architectures applicatives.
Modèle de langage volumineux (LLM)
Un modèle de langage volumineux (LLM) est une intelligence artificielle entraînée sur d'énormes quantités de textes et capable de comprendre, de générer et de raisonner sur le langage humain avec une remarquable aisance.


