Zubnet AIAprenderWiki › Seguimiento de Instrucciones
Usar AI

Seguimiento de Instrucciones

También conocido como: Adherencia a Instrucciones
La capacidad de un modelo para ejecutar con precisión lo que el usuario pide — respetando restricciones de formato, requisitos de longitud, especificaciones de estilo e instrucciones de comportamiento. "Escribe exactamente 3 puntos en francés sobre X" prueba el seguimiento de instrucciones: la respuesta debe ser puntos (no párrafos), exactamente 3 (no 2 ni 5), en francés (no en inglés), y sobre X (no sobre Y).

Por qué importa

El seguimiento de instrucciones es la capacidad de LLM más prácticamente importante. A los usuarios les importa menos si un modelo "sabe" más datos y más si hace lo que realmente le pidieron. Un modelo que escribe prosa hermosa pero ignora tus requisitos de formato es menos útil que uno que sigue instrucciones de forma confiable. Por eso IFEval y otros benchmarks de seguimiento de instrucciones se han vuelto centrales en la evaluación de modelos.

En profundidad

El seguimiento de instrucciones se entrena a través de instruction tuning (SFT en pares instrucción-respuesta) y se refina a través de RLHF/DPO (aprender a preferir respuestas que siguen instrucciones con precisión). La calidad del seguimiento de instrucciones depende en gran medida de la diversidad y precisión de los datos de entrenamiento: los modelos que ven muchos ejemplos de "exactamente 3 ítems" aprenden a contar; los modelos que solo ven instrucciones vagas no lo hacen.

Dónde Fallan los Modelos

Fallos comunes de seguimiento de instrucciones: ignorar restricciones de longitud ("sé breve" y aún así escribe párrafos), deriva de formato (empezar con el formato solicitado pero volver a prosa), amnesia de restricciones (seguir la primera restricción pero olvidar las posteriores en una instrucción compleja), y sobre-seguimiento (interpretar instrucciones ambiguas demasiado literalmente o demasiado ampliamente). Estos fallos son más comunes en modelos pequeños y se vuelven más raros con la escala, pero incluso los modelos de frontera ocasionalmente pierden restricciones.

System Prompts y Jerarquía

El seguimiento de instrucciones se complica cuando las instrucciones entran en conflicto: el system prompt dice "siempre responde en JSON" pero el usuario dice "escríbeme un poema". La mayoría de los modelos implementan una jerarquía de instrucciones donde las instrucciones a nivel de sistema tienen precedencia sobre los mensajes del usuario, pero los límites son difusos. Las aplicaciones bien diseñadas estructuran su jerarquía de instrucciones claramente y prueban casos extremos donde diferentes niveles de instrucciones podrían entrar en conflicto.

Conceptos relacionados

← Todos los términos
← Scale AI Seguridad de la IA →
ESC
Empieza a escribir para buscar...