Zubnet AIAprenderWiki › Zero-shot / Few-shot
Usar AI

Zero-shot / Few-shot

También conocido como: Aprendizaje en contexto
Zero-shot significa pedirle a un modelo que realice una tarea sin ningun ejemplo — solo la instruccion. Few-shot significa proporcionar un punado de ejemplos de entrada-salida en el prompt antes de la solicitud real. "Aqui hay 3 ejemplos de como formatear estos datos... ahora haz este." El modelo aprende el patron solo del contexto, sin entrenamiento requerido.

Por qué importa

El few-shot prompting es la forma mas rapida de ensenarle a un modelo un nuevo formato o comportamiento. Necesitas salida JSON consistente? Muestrale tres ejemplos. Necesitas un estilo de escritura especifico? Dale muestras. Es gratis, instantaneo y sorprendentemente poderoso.

En profundidad

Los terminos "zero-shot" y "few-shot" provienen de la tradicion de investigacion en machine learning, donde "shot" se refiere a un ejemplo de entrenamiento. En ML clasico, necesitabas miles o millones de ejemplos etiquetados para ensenarle una nueva tarea a un modelo. La revelacion con los modelos de lenguaje grandes fue que podian realizar tareas con cero ejemplos de entrenamiento (zero-shot) o solo un punado de demostraciones en el prompt (few-shot). Esto se llama "aprendizaje en contexto" (in-context learning), y sigue siendo una de las capacidades mas notables de los LLMs modernos — el modelo no esta siendo re-entrenado ni afinado cuando le das ejemplos en el prompt. Esta reconociendo patrones en su contexto y aplicandolos sobre la marcha.

Cuando funciona zero-shot

Zero-shot funciona mejor cuando la tarea se mapea limpiamente a algo que el modelo ha visto extensivamente en el entrenamiento. Analisis de sentimiento, traduccion, resumen, clasificacion simple — estas son tareas que el modelo ha encontrado en millones de variaciones durante el pre-entrenamiento, asi que una instruccion clara es frecuentemente suficiente. "Clasifica esta resena de cliente como positiva, negativa o neutral" funcionara zero-shot en cualquier modelo de frontera moderno porque el modelo entiende profundamente que significan clasificacion, sentimiento y esas etiquetas. Donde zero-shot falla es en tareas con formatos inusuales, convenciones especificas de dominio o requisitos ambiguos. Si necesitas que el modelo produzca datos en el esquema XML propietario de tu empresa, una instruccion sola no va a funcionar.

El few-shot prompting llena esa brecha. Al proporcionar 2–5 ejemplos de entrada-salida antes de la solicitud real, le muestras al modelo exactamente lo que esperas. El modelo capta el patron — el formato, el nivel de detalle, el estilo, el manejo de casos extremos — y lo aplica a la nueva entrada. Esto es notablemente poderoso para tareas estructuradas. Necesitas extraer entidades de texto desordenado en un formato JSON especifico? Muestra tres ejemplos de texto desordenado mapeado a JSON limpio, luego dale el texto nuevo. Necesitas convertir fechas en lenguaje natural ("el proximo martes", "la segunda semana de marzo") a ISO 8601? Tres ejemplos te llevan al 95% del camino. El modelo esencialmente esta aprendiendo una funcion de tus ejemplos, y lo hace en tiempo de inferencia sin actualizaciones de gradiente.

Calidad sobre cantidad

La calidad de tus ejemplos de few-shot importa mas que la cantidad. Tres ejemplos cuidadosamente elegidos que cubran diferentes casos extremos superaran a diez repetitivos. Si tu tarea involucra categorias, incluye al menos un ejemplo por categoria. Si hay casos limite complicados, incluye uno. Y el orden de los ejemplos puede importar — la investigacion ha demostrado que los modelos pueden sesgarse hacia la etiqueta del ultimo ejemplo que ven, asi que mezclar o balancear tus ejemplos vale la pena. Un consejo practico: incluye un ejemplo de lo que el modelo deberia hacer cuando la entrada es ambigua o no encaja en ninguna categoria, porque ese caso extremo aparece constantemente en produccion y un modelo sin guia simplemente adivinara.

La compensacion de costo

Hay una compensacion costo-calidad a considerar. Cada ejemplo de few-shot consume tokens de tu ventana de contexto y se suma a tus costos de API. Cinco ejemplos de 200 tokens cada uno son 1,000 tokens por solicitud, lo cual se acumula a escala. Algunos equipos comienzan con few-shot prompting durante el desarrollo, miden cuales ejemplos realmente mejoran los resultados, y luego intentan destilar el patron en una instruccion zero-shot mas clara. Otros usan seleccion dinamica de few-shot — almacenando una biblioteca de ejemplos en una base de datos y recuperando los mas relevantes para cada entrada especifica, lo cual es esencialmente una forma ligera de RAG aplicada a la ingenieria de prompts. El punto optimo depende de la complejidad de tu tarea, tu volumen, y si la consistencia o el costo importa mas para tu caso de uso.

Conceptos relacionados

← Todos los términos
← YAML Zhipu AI →
ESC