Un endpoint es una ruta URL en un servidor que acepta un tipo específico de solicitud y devuelve un tipo específico de respuesta. En las API de IA, el endpoint más común es el de chat completions — POST /v1/chat/completions en el esquema de OpenAI, POST /v1/messages en Anthropic. Pero los proveedores modernos de IA exponen una constelación de endpoints más allá del chat: /v1/embeddings para convertir texto en vectores, /v1/images/generations para creación de imágenes, /v1/audio/transcriptions para speech-to-text, y /v1/models para listar modelos disponibles. Cada endpoint espera parámetros de solicitud diferentes y devuelve formas de respuesta diferentes.
El desafío práctico es que los endpoints "compatibles con OpenAI" son solo aproximadamente compatibles. Groq, Together AI y Fireworks todos anuncian compatibilidad con OpenAI, y funcionarán bien para solicitudes básicas de chat completion. Pero profundiza en los detalles y encontrarás diferencias: algunos no soportan el parámetro response_format para salida estructurada, otros manejan el tool/function calling de manera diferente, y los formatos de respuesta de error varían ampliamente. Anthropic ni siquiera intenta ser compatible con OpenAI — su API Messages usa una estructura completamente diferente, con content como un array de bloques en lugar de un string simple. Cuando estás construyendo un sistema que enruta entre múltiples proveedores, estas diferencias son donde va la mayor parte del tiempo de ingeniería.
El versionado es otra dimensión importante. Los proveedores evolucionan sus endpoints con el tiempo, y los cambios que rompen compatibilidad suceden. OpenAI usa versionado de modelos basado en fechas (como gpt-4-0125-preview), mientras que las rutas de endpoints se mantienen estables. Anthropic incluye un header de versión (anthropic-version: 2023-06-01) que determina el esquema de solicitud/respuesta. Vertex AI de Google usa prefijos de versión en la ruta URL. Cuando un proveedor depreca una versión de endpoint, típicamente tienes unos meses de aviso, pero si no estás monitoreando sus changelogs, podrías despertar una mañana con una integración rota.
Las URLs base merecen mención también, porque no son tan directas como esperarías. La API de Anthropic vive en api.anthropic.com, pero OpenAI ofrece api.openai.com para acceso directo y URLs base separadas para despliegues de Azure OpenAI Service. Algunos proveedores tienen endpoints regionales para cumplimiento de residencia de datos — tus solicitudes a europe-west1-aiplatform.googleapis.com permanecen en la UE. Para proveedores que enrutan a través de plataformas de inferencia como la API de Inferencia de HuggingFace, la URL base es la plataforma (router.huggingface.co) y el identificador del modelo va en la ruta o los headers. Entender esta topología importa porque la latencia, la soberanía de datos y la facturación pueden depender de qué endpoint estás golpeando realmente.