Aprendizaje Few-Shot
El aprendizaje few-shot es la capacidad de un modelo de IA para adaptarse a una nueva tarea o formato de salida a partir de solo unos pocos ejemplos de entrada y salida proporcionados en el prompt, sin necesidad de ajustar los pesos.
Comprendiendo Aprendizaje Few-Shot
El aprendizaje few-shot es una de las propiedades más útiles en la práctica de los modelos de lenguaje grande. Al incluir unos pocos ejemplos del mapeo de entrada a salida deseado en el prompt, puedes orientar de manera fiable el modelo hacia un formato de salida, estilo o patrón de razonamiento específico. A esto también se le llama aprendizaje en contexto porque el aprendizaje ocurre en la ventana de contexto en lugar de mediante actualizaciones por gradiente. Por ejemplo, mostrarle al modelo tres ejemplos de cómo extraer detalles de tareas de correos electrónicos le enseña a extraer tareas de forma consistente de nuevos emails, incluso cuando están redactados de formas muy diferentes. Esto es muchísimo más eficiente en cuanto a muestras que el aprendizaje supervisado tradicional, que requiere miles de ejemplos etiquetados para lograr una consistencia similar. El prompting few-shot resulta especialmente potente para tareas de salida estructurada: extraer campos específicos de texto no estructurado, convertir descripciones en objetos JSON o clasificar ítems en categorías. Los ejemplos definen tanto el formato esperado como los criterios de decisión de forma implícita. El número óptimo de ejemplos (shots) varía según la tarea y el modelo. Más ejemplos en general mejoran la consistencia, pero consumen espacio en la ventana de contexto. Para tareas complejas de extracción, entre tres y diez ejemplos suelen ofrecer un buen equilibrio. Técnicas avanzadas como el aprendizaje few-shot con chain-of-thought incluyen pasos de razonamiento en los ejemplos para mejorar el desempeño en tareas de razonamiento complejo.
Cómo GAIA usa Aprendizaje Few-Shot
GAIA utiliza ejemplos few-shot en los prompts para tareas que requieren una salida estructurada y consistente, como extraer detalles de tareas de correos electrónicos, analizar información de eventos de calendario en lenguaje natural o categorizar mensajes según su urgencia. Al proporcionar ejemplos representativos, los prompts de GAIA garantizan que el LLM devuelva los datos en el formato exacto necesario para su procesamiento posterior e invocación de herramientas.
Conceptos relacionados
Zero-Shot Learning
El zero-shot learning es la capacidad de un modelo de IA para realizar tareas para las que nunca fue entrenado explícitamente, confiando en conocimientos generales y razonamiento en lugar de ejemplos específicos de la tarea.
Ingeniería de prompts
La ingeniería de prompts es la práctica de diseñar y refinar entradas para los modelos de lenguaje de IA, a fin de provocar de manera confiable salidas deseadas, moldeando el comportamiento del modelo sin modificar sus parámetros subyacentes.
Modelo de lenguaje grande (LLM)
Un modelo de lenguaje grande (LLM) es un modelo de aprendizaje profundo entrenado con enormes conjuntos de datos textuales que puede comprender, generar y razonar sobre el lenguaje humano en una amplia variedad de tareas.
Razonamiento en cadena
El razonamiento en cadena (Chain-of-Thought, CoT) es una técnica de prompting que instruye a un modelo de IA a articular sus pasos intermedios de razonamiento antes de dar una respuesta final, mejorando significativamente la precisión en problemas complejos de varios pasos.


