Los tres principales laboratorios de IA—OpenAI, Anthropic y Google—lanzaron sus últimos modelos a pesar de pruebas previas al despliegue que no pudieron descartar que los sistemas ayuden significativamente a novatos a desarrollar armas biológicas. Las empresas respondieron añadiendo "salvaguardas intensificadas" en lugar de retrasar los lanzamientos, según el Reporte Internacional de Seguridad de IA 2026. El modelo o3 de OpenAI ahora supera al 94% de los expertos en biología en solucionar protocolos complejos de laboratorios de virología, mientras que Anthropic documentó capacidades de "sabotaje sigiloso" y asistencia con armas químicas en su último lanzamiento.
Esto marca un momento decisivo donde la presión comercial parece estar ganando sobre la precaución de seguridad. La IA ha saltado al puesto #2 de riesgo empresarial global según datos de la ONU y Gartner, con la amenaza principal cambiando de violaciones de datos a "Falla de Sistema Autónomo"—agentes de IA ejecutando tareas sin supervisión creando responsabilidades operacionales y legales en cascada. El momento no podría ser peor, ya que demandas internacionales formales fueron presentadas el 28 de enero para un tratado legalmente vinculante que prohíba sistemas de armas autónomas.
Lo que es particularmente preocupante es la especificidad técnica de estos riesgos. El Model Context Protocol (MCP) que estandariza conexiones entre agentes de IA y servidores crea nuevos vectores de ataque para movimiento lateral si los sistemas son secuestrados. Mientras tanto, Maryland está avanzando para criminalizar deepfakes electorales, y el Reporte de Riesgos Globales 2026 del Foro Económico Mundial identifica el "desorden informacional" impulsado por IA como una amenaza principal a la integridad democrática.
Para desarrolladores construyendo con estos modelos, esto no es académico—están trabajando with sistemas que sus propios creadores reconocen tienen capacidades peligrosas que no pueden controlar completamente. Las "salvaguardas intensificadas" son esencialmente parches en modelos que probablemente no debieron haber sido lanzados en su forma actual. Construyan en consecuencia.
