Zero-shot learning
Le zero-shot learning est la capacité d'un modèle d'IA à réaliser des tâches pour lesquelles il n'a jamais été spécifiquement entraîné, en se basant sur des connaissances générales et du raisonnement plutôt que sur des exemples propres à la tâche.
Comprendre Zero-shot learning
L’apprentissage automatique traditionnel nécessite des exemples étiquetés pour chaque tâche : pour classer des e-mails, il faut des milliers d’exemples annotés. Le zero-shot learning lève cette contrainte. Les grands modèles de langage, formés sur de vastes corpus de textes, développent des capacités de raisonnement générales qui se transfèrent à de nouvelles tâches décrites en langage naturel. Vous pouvez demander à un modèle zero-shot de trier des emails dans des catégories inconnues simplement en décrivant chaque catégorie. Cette capacité du zero-shot est apparue de façon surprenante lors du passage à l’échelle. Les petits modèles ont besoin d’exemples few-shot pour bien réussir sur de nouvelles tâches. Les modèles suffisamment grands peuvent suivre la description d’une tâche sans aucun exemple. Cette propriété explique en grande partie l’utilité des LLMs : vous pouvez les déployer sur de nouveaux usages immédiatement, sans collecte ni annotation de données. En classification, le zero-shot learning fonctionne généralement en évaluant à quel point chaque étiquette candidate correspond à l’entrée. Pour des tâches de génération, il suffit de fournir des instructions précises. La qualité du zero-shot dépend fortement de la clarté de la consigne et de la proximité de la tâche avec ce sur quoi le modèle a été entraîné. Le zero-shot learning est étroitement lié à l’apprentissage en contexte (in-context learning) et à l’exécution de consignes. Les LLMs modernes, entraînés spécifiquement à suivre des instructions, sont particulièrement performants sur les tâches zero-shot car ils ont appris à interpréter et exécuter des consignes inédites de façon fiable.
Comment GAIA utilise Zero-shot learning
GAIA utilise l'apprentissage zero-shot pour traiter des demandes d'automatisation qu'elle n'a jamais rencontrées auparavant. Lorsque vous décrivez un nouveau flux de travail en langage naturel, le LLM de GAIA interprète la description de la tâche et génère la séquence d'actions appropriée, sans nécessiter d'exemples préprogrammés. C'est ce qui permet à GAIA de prendre en charge l'énorme variété de flux de travail de productivité créés par les utilisateurs sans exiger de formation personnalisée pour chacun.
Concepts liés
Apprentissage Few-Shot
L'apprentissage few-shot est la capacité d'un modèle d'IA à s'adapter à une nouvelle tâche ou à un nouveau format de sortie à partir de seulement quelques exemples d'entrée-sortie fournis dans l'invite, sans mise à jour des poids.
Ingénierie de prompt
L’ingénierie de prompt est la pratique qui consiste à concevoir et affiner les instructions données à des modèles linguistiques d’IA afin d’obtenir de manière fiable les résultats souhaités, en influençant leur comportement sans modifier leurs paramètres internes.
Large Language Model (LLM)
Un Large Language Model (LLM) est un modèle d'apprentissage profond entraîné sur d'immenses ensembles de textes, capable de comprendre, générer et raisonner sur le langage humain dans une grande variété de tâches.
Modèle de langage volumineux (LLM)
Un modèle de langage volumineux (LLM) est une intelligence artificielle entraînée sur d'énormes quantités de textes et capable de comprendre, de générer et de raisonner sur le langage humain avec une remarquable aisance.


