Aprendizaje por transferencia
El aprendizaje por transferencia es una técnica de machine learning en la que un modelo entrenado en una tarea o dominio se adapta para una tarea diferente pero relacionada, aprovechando el conocimiento existente en lugar de entrenar desde cero.
Comprendiendo Aprendizaje por transferencia
Entrenar un modelo grande desde cero requiere enormes cantidades de datos, poder de cómputo y tiempo. El aprendizaje por transferencia hace que el desarrollo de IA sea práctico, ya que parte de un modelo preentrenado que ya comprende lenguaje, imágenes u otros dominios, y luego se ajusta con datos específicos de la tarea, requiriendo así menos recursos. El ecosistema moderno de LLM está totalmente construido sobre el aprendizaje por transferencia. GPT-4, Claude y Llama se preentrenan con grandes volúmenes de texto de Internet, aprendiendo comprensión general del lenguaje. Luego, se afinan con datos de seguimiento de instrucciones para convertirse en asistentes útiles. Una afinación adicional en dominios específicos (médico, jurídico, programación) genera variantes especializadas. El aprendizaje por transferencia funciona porque el conocimiento se generaliza. Un modelo entrenado con miles de millones de frases en inglés aprende gramática, conocimientos del mundo y patrones de razonamiento que pueden transferirse a tareas nuevas. La representación preentrenada captura estructuras fundamentales que resultan valiosas en muchas aplicaciones. Para los usuarios de asistentes de IA, el aprendizaje por transferencia explica por qué los LLM pueden ser útiles en tareas para las que no se entrenaron explícitamente. La amplia base de preentrenamiento proporciona una base generalizable para instrucciones y dominios novedosos.
Cómo GAIA usa Aprendizaje por transferencia
GAIA aprovecha el aprendizaje por transferencia al construir sobre modelos base previamente entrenados en lugar de entrenar desde cero. Los LLM que utiliza GAIA (Claude, GPT-4, Llama) ofrecen un amplio conocimiento del mundo, razonamiento y capacidades lingüísticas gracias al preentrenamiento. GAIA adapta luego estas capacidades a flujos de trabajo de productividad mediante la ingeniería de prompts y la integración de herramientas en lugar de un entrenamiento adicional.
Conceptos relacionados
Ajuste fino
El ajuste fino es el proceso de tomar un modelo de IA preentrenado y continuar su entrenamiento con un conjunto de datos más pequeño y específico para adaptar su comportamiento a un dominio o aplicación particular.
Modelo fundacional
Un modelo fundacional es un gran modelo de IA entrenado a escala con datos amplios que puede adaptarse a una amplia variedad de tareas mediante ajuste fino, indicaciones o integración en arquitecturas de aplicaciones.
Modelo de lenguaje grande (LLM)
Un modelo de lenguaje grande (LLM) es un modelo de aprendizaje profundo entrenado con enormes conjuntos de datos textuales que puede comprender, generar y razonar sobre el lenguaje humano en una amplia variedad de tareas.
Ingeniería de prompts
La ingeniería de prompts es la práctica de diseñar y refinar entradas para los modelos de lenguaje de IA, a fin de provocar de manera confiable salidas deseadas, moldeando el comportamiento del modelo sin modificar sus parámetros subyacentes.
Aprendizaje Few-Shot
El aprendizaje few-shot es la capacidad de un modelo de IA para adaptarse a una nueva tarea o formato de salida a partir de solo unos pocos ejemplos de entrada y salida proporcionados en el prompt, sin necesidad de ajustar los pesos.


