OpenAI publicó un plan de acción de ciberseguridad el 29 de abril, resumido por Help Net Security, que encuadra el enfoque de la empresa como una carrera para armar a los defensores en lugar de restringir el acceso a modelos por motivos de seguridad. Sasha Baker, Head of National Security Policy de OpenAI, encuadró la amenaza: "Los actores maliciosos están usando IA para mejorar phishing, automatizar reconocimiento, acelerar desarrollo de malware, evadir detección y aumentar la escala de operaciones cyber. Estos grupos no necesitan los modelos fundacionales más avanzados para causar daño real; incluso sistemas mid-tier capaces pueden dar una ventaja operacional significativa." El plan está estructurado en cinco pilares: democratizar la ciberdefensa, coordinar a través de gobierno e industria, fortalecer la seguridad alrededor de capacidades cyber de frontera, preservar visibilidad y control en el despliegue, y permitir que los usuarios se protejan a sí mismos. El vehículo para el acceso de defensores es el programa Trusted Access for Cyber (TAC) — acceso por niveles para defensores verificados, con controles más estrictos sobre capacidades más poderosas. Help Net Security contrasta esto explícitamente con "la postura más cautelosa de Anthropic, que enfatiza un control más estrecho y acceso restringido a capacidades de IA avanzadas."

La división OpenAI/Anthropic ahora es una segmentación de mercado explícita. El argumento de OpenAI: si los atacantes pueden usar sistemas mid-tier para escalar phishing, reconocimiento, desarrollo de malware y evasión de detección, restringir la capacidad de frontera sólo para los defensores simplemente pierde la carrera. La implicación es que la palanca correcta de política es acceso por niveles, no limitación de capacidad — exactamente lo que TAC institucionaliza. El contra-argumento de Anthropic es que el acceso masivo de defensores también significa exposición masiva dual-use, y el precedente del rechazo al Pentágono que cubrimos a principios de esta semana (la demanda supply-chain-risk de Anthropic) generaliza — restringe los casos de uso donde no podés hacer cumplir los controles de seguridad. Ambas posturas son defendibles. Cuál gana probablemente depende menos del mérito técnico que del entorno regulatorio y de qué demanda tipo Tumbler-Ridge aterriza primero contra una u otra empresa.

Tres patrones importan. Primero, "incluso sistemas mid-tier capaces pueden dar una ventaja operacional significativa" — el encuadre de Baker — es la misma tesis que Wiz Research demostró contra GitHub la semana pasada, cuando se usó IA para encontrar un RCE crítico en un binario cerrado. El modelo de amenaza de descubrimiento de vulnerabilidades por IA está ahora mainstreamizado en el propio encuadre de política de OpenAI. Esperá que cada vendor grande de seguridad publique reportes similares a lo largo de 2026, y esperá que las aseguradoras empiecen a precificar la exposición a ataques de IA en las primas. Segundo, el diseño de acceso tiered del programa TAC es una plantilla: verificá a los defensores, escalá el acceso a capacidad por nivel de confianza, mantené las capacidades más poderosas detrás de controles más pesados. Esa estructura es portable a cualquier proveedor que quiera ofrecer capacidades "safety-tier" para uso defensivo; esperá que Anthropic, Google, Microsoft y AWS Bedrock publiquen sus propios equivalentes dentro de 12 meses. Tercero, la división Anthropic vs OpenAI refleja la división industrial más amplia de 2026 — OpenAI toma contratos y apuestas de capacidad que Anthropic rechaza (contratos del Pentágono, acceso de defensores). El mercado eventualmente le pondrá precio a qué lado tiene razón; por ahora, los builders necesitan leer las políticas de ambas empresas y posicionarse explícitamente.

Para los builders, tres cosas concretas. Primero, si construís tooling de seguridad, el programa tiered TAC es algo para evaluar de verdad, no sólo para marcar como bookmark. El caso de uso del lado del defensor para modelos avanzados es real (descubrimiento de vulnerabilidades, triaje de logs, threat hunting, RAG sobre feeds CTI), y OpenAI está señalando que quiere socios verificados. Entrá temprano o mirá a la competencia entrar primero. Segundo, el encuadre "sistemas mid-tier también peligrosos" es una señal regulatoria. Si OpenAI está argumentando públicamente que la capacidad mid-tier alcanza para escalar ataques significativos, la respuesta legislativa va a seguir — esperá frameworks de compliance para modelos de tier de capacidad media que antes no existían, y prepará tu propia documentación de seguridad de forma preventiva. Tercero, la divergencia de política OpenAI-Anthropic ahora es una elección estratégica explícita para cualquier empresa que construya sobre una u otra. Si a tus clientes les importa "acceso restringido como feature de seguridad," Anthropic es el proveedor upstream cuya postura se alinea. Si tus clientes quieren acceso amplio a capacidad para defensores, el TAC de OpenAI es el vehículo proveedor. El pitch "agnóstico sobre qué modelo usás" de hace un año ya no es totalmente agnóstico — ahora tenés que explicar de qué lado de la división de política te alineás.