Una carta abierta firmada por más de 560 empleados de Google, incluyendo al menos 18 principals, directores y vicepresidentes, fue enviada a Sundar Pichai hoy exigiendo que Google rehúse permitir que su IA sea usada en cualquier carga clasificada del Pentágono. La carta fue coordinada por el personal de Google DeepMind y es el rechazo interno de más alto rango contra el trabajo de defensa de Google desde la salida de Project Maven en 2018, cuando las protestas de empleados empujaron a la compañía a dejar que su contrato inicial con el Pentágono caducara. Los firmantes citan explícitamente Maven como precedente y usan el encuadre «Maven no ha terminado». Su demanda central es que Google trace una línea categórica: ninguna carga clasificada vinculada a operaciones militares o de vigilancia, sin importar el tamaño del contrato o la presión política. El timing no es accidental. Llega dos meses después de que la administración Trump ordenara a las agencias federales y contratistas cesar negocios con Anthropic después de que Anthropic se rehusara a quitar las restricciones de uso aceptable contra vigilancia masiva y armas autónomas; el DC Circuit denegó la apelación de Anthropic el 8 de abril. Los firmantes de la carta de Google quieren que Pichai tome la posición Anthropic antes de ser forzado a elegir.
La realidad técnica a la que responde la carta es un cambio real en cómo el Pentágono adquiere IA de frontera. Project Maven en 2018 era un contrato estrecho de reconocimiento de imagen para metraje de drones; la postura del Pentágono en 2026 es más amplia, incluyendo el contrato multi-billones de Anthropic que fue cancelado, el contrato Pentágono paralelo de OpenAI que fue anunciado el mismo día que Anthropic fue prohibido, y contratos continuos con Microsoft y Palantir. El calificador «clasificado» importa porque captura cargas donde el cliente no puede divulgar públicamente el uso, lo que hace la supervisión de empleados vía revisión interna de uso aceptable efectivamente imposible. Las prohibiciones contractuales de Anthropic sobre vigilancia masiva y armas autónomas existen porque Anthropic podía revisar sus logs de API y hacerlas cumplir; los despliegues clasificados excluyen ese rastro de auditoría por diseño. Los organizadores de DeepMind probablemente tienen razón en que la única posición aplicable es la categórica, porque una vez que aceptas cargas clasificadas en absoluto, el proceso de revisión por carga se vuelve performativo. Eso también es por qué el Pentágono ha estado empujando contra el lenguaje AUP: la diferencia estructural entre acceso API comercial y despliegue clasificado es exactamente la diferencia de rastro de auditoría, y los laboratorios IA que no pueden auditar su uso clasificado están aceptando riesgo reputacional para casos de uso que no pueden defender si son divulgados.
La implicación más amplia es que el mercado laboral IA está redescubriendo su apalancamiento de la era Maven 2018 en el mismo momento en que el ambiente político se ha vuelto más hostil a ese apalancamiento. En 2018, Google podía capitular ante la carta de empleados sin consecuencia; en 2026, el mismo movimiento pondría a Google en curso de colisión con una administración que acaba de designar a Anthropic como riesgo de cadena de suministro por la misma posición. Eso cambia el cálculo tanto para Pichai como para los firmantes. Pichai tiene la memoria muscular institucional de Maven de un lado y un mercado de nube federal de clase 250 mil millones del otro, y no puede satisfacer ambos. Los firmantes lo saben, por eso la carta está enmarcada como ética en lugar de comercial: el argumento es que las cargas de vigilancia clasificada y armas son una línea categórica brillante que se paga sola en confianza y reclutamiento a largo plazo, incluso si el costo a corto plazo es un flujo de ingresos del Pentágono. Si los 18 firmantes seniors representan una amenaza de deserción creíble depende de factores que no están en la carta, incluyendo cuántos de ellos están en DeepMind, cuántos están en paquetes de retención que se devengan sobre varios años, y cuántos realmente se irían versus solo firmar. Las salidas de Maven 2018 fueron reales pero pequeñas; la dinámica 2026 es diferente porque el costo político del rechazo es más alto.
Para constructores observando la cuestión IA-defensa, tres cosas son concretamente diferentes ahora que en 2018. Primero, el precedente Anthropic significa que hay ahora un laboratorio que tomó la posición de rechazo categórico y fue prohibido por ello; eso ya no es hipotético. Segundo, la señal del mercado de talento de 560 empleados incluyendo 18 VPs en el laboratorio IA más grande del mundo es significativa para cualquier startup o competidor reclutando ingenieros de IA de frontera; las personas más probables de firmar son las personas más agresivamente reclutadas. Tercero, la arquitectura legal está cambiando: la designación de riesgo de cadena de suministro que recibió Anthropic es reutilizable y podría aplicarse a cualquier proveedor IA que trace una línea similar, lo que significa que la pregunta no es solo sobre las decisiones de contratación de Google sino si los laboratorios IA estadounidenses pueden mantener cualquier posición de uso aceptable con la que el ejecutivo esté en desacuerdo. La versión honesta es que la carta probablemente no cambiará la postura de Pichai en 2026, pero sí cambia el registro público de cuáles empleados de Google creen que la compañía no debería proveer IA clasificada al gobierno de EE.UU., lo cual es en sí mismo una forma de pronóstico de cómo la próxima ronda de adquisiciones tipo Maven jugará en la industria.
