Zubnet AIAprenderWiki › Test-Time Compute
Fundamentos

Test-Time Compute

Inference-Time Compute, Chain of Thought, Thinking Tokens
Usar computación adicional durante la inferencia (cuando el modelo está generando una respuesta) para mejorar la calidad de la respuesta. En vez de generar una respuesta inmediatamente, el modelo «piensa» más tiempo — generando tokens de razonamiento, explorando múltiples enfoques o verificando su propia salida. Más compute en tiempo de prueba produce mejores respuestas, especialmente para tareas complejas de razonamiento.

Por qué importa

El test-time compute es el paradigma de scaling más reciente. La primera era escalaba compute de entrenamiento (modelos más grandes, más datos). La era actual también escala compute de inferencia (más pensamiento por pregunta). Modelos como o1 y Claude con extended thinking muestran que dejar que un modelo razone por 30 segundos a menudo supera a un modelo que responde en 2 segundos, incluso si el modelo rápido es técnicamente más grande. Esto cambia la economía: la calidad se vuelve función de cuánto estás dispuesto a gastar por consulta.

Deep Dive

The simplest form of test-time compute is chain-of-thought: the model generates reasoning steps before the final answer. More sophisticated approaches include: tree-of-thought (exploring multiple reasoning paths and selecting the best), self-consistency (generating multiple answers and voting), and iterative refinement (the model critiques and revises its own output). Each approach uses more tokens (= more compute = more cost) but produces better results.

Extended Thinking

Models like o1 (OpenAI) and Claude with extended thinking generate internal reasoning tokens that the user doesn't see. These "thinking tokens" let the model decompose complex problems, check its work, consider edge cases, and revise its approach — all before producing the visible response. The cost is higher (you pay for thinking tokens) and latency is longer, but accuracy on math, coding, and reasoning tasks improves dramatically.

Scaling Laws for Inference

Research suggests that test-time compute follows its own scaling laws: doubling inference compute (thinking time) produces predictable improvements in accuracy, analogous to how doubling training compute improves pre-training loss. This means you can choose your quality-cost trade-off per query: simple questions get fast, cheap answers; complex questions get longer, more expensive reasoning. This dynamic allocation is more efficient than using the same compute for every query.

Conceptos relacionados

← Todos los términos
← Tencent Text-to-Speech →