El viernes 27 de febrero de 2026, el presidente Donald Trump publicó un mensaje en Truth Social que sacudió el mundo tecnológico y geopolítico simultáneamente. Con la retórica incendiaria que lo caracteriza, ordenó a todas las agencias federales de los Estados Unidos cesar de inmediato el uso de la tecnología de Anthropic, la empresa creadora del asistente de inteligencia artificial Claude. La causa: la compañía se negó, durante meses de negociaciones, a eliminar dos salvaguardas éticas fundamentales de su contrato con el Pentágono —llamado ahora oficialmente “Departamento de Guerra” bajo la actual administración.
Las condiciones que Anthropic se negó a ceder eran claras y contundentes: que su IA no fuera utilizada para armas autónomas letales —es decir, sistemas donde la inteligencia artificial, y no un ser humano, tome la decisión final de matar— y que no se empleara para vigilancia masiva de ciudadanos estadounidenses. Dos líneas que Dario Amodei, CEO y cofundador de Anthropic, describió como no negociables.
“No podemos, en buena conciencia, acceder a su solicitud. Usar estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos.” — Dario Amodei, CEO de Anthropic, 27 de febrero de 2026
La respuesta de Trump fue inmediata y brutal. Llamó a Anthropic una empresa de “izquierdistas lunáticos” que cometía “un error desastroso”. Pete Hegseth, Secretario de Defensa, fue más lejos: designó a Anthropic riesgo de “cadena de suministro para la seguridad nacional”, una categoría hasta entonces reservada exclusivamente para empresas vinculadas a adversarios extranjeros como China o Rusia. Nunca antes en la historia de los Estados Unidos una empresa americana había recibido esa designación.
Dos empresas, dos almas: el origen de todo
Para entender este conflicto en su profundidad histórica, es necesario remontarse al año 2021. Un grupo de once investigadores y ejecutivos dejaron OpenAI con un propósito declarado: construir inteligencia artificial de una manera diferente, responsable, ética. Al frente de ese éxodo estaban los hermanos Dario y Daniela Amodei. Él era Vicepresidente de Investigación en OpenAI; ella, Vicepresidente de Seguridad y Política.
La razón de su partida no era menor: sentían que OpenAI, bajo la presión de la comercialización acelerada y la entrada masiva de capital —especialmente de Microsoft— había comenzado a anteponer la velocidad y el lucro por sobre la cautela y la responsabilidad. Fundaron Anthropic como una Corporación de Beneficio Público (Public Benefit Corporation), una figura legal que los obliga a equilibrar el beneficio económico con el impacto social positivo. Establecieron además un mecanismo de gobernanza llamado Long-Term Benefit Trust, diseñado específicamente para evitar la deriva de misión que habían presenciado en su empresa anterior.
OpenAI, en contraste, nació en 2015 como una organización sin fines de lucro con la promesa de transparencia radical y desarrollo de IA para el bien de la humanidad. Sus fundadores originales —entre ellos Elon Musk y Sam Altman— se comprometían a no buscar ventajas comerciales. Sin embargo, la entrada de miles de millones de dólares de Microsoft y la transformación en una entidad con fines de lucro modificaron progresivamente esa visión. Hoy, OpenAI es esencialmente una empresa comandada por la lógica del mercado, con un CEO que no oculta su pragmatismo estratégico.
La grieta filosófica entre ambas compañías quedó expuesta en toda su magnitud el mismo viernes 27 de febrero: horas después de que Trump vetara a Anthropic, OpenAI anunció haber cerrado un acuerdo con el Pentágono para proporcionar sus modelos de IA en redes militares clasificadas. Sam Altman, quien meses antes había prometido a sus empleados mantener las mismas “líneas rojas” que Anthropic, encontró la fórmula para decir que sí sin decir que no. Acordó que el Pentágono puede usar su IA para “cualquier propósito legal”, mientras que las restricciones sobre vigilancia masiva y armas autónomas quedaron consignadas en el contrato de una manera que expertos jurídicos describen como ambigua y potencialmente eludible.
Lo que realmente está en juego: el escenario que aterra a los expertos
El debate sobre si una empresa privada puede o debe imponer condiciones al Pentágono es legítimo. Pero hay una pregunta más profunda y más urgente que los medios generalistas están tardando en formular: ¿qué ocurre cuando una inteligencia artificial de frontera, sin salvaguardas éticas independientes, queda disponible para una administración con historial documentado de vigilancia política de opositores, instrumentalización de agencias federales y desprecio por las normas democráticas?
Los riesgos no son hipotéticos. Los sistemas de IA actuales pueden procesar en segundos volúmenes de comunicaciones, metadatos, imágenes satelitales y registros de movimiento que tomarían años a miles de analistas humanos. Una IA habilitada para «vigilancia masiva» puede construir perfiles conductuales de millones de ciudadanos, identificar disidentes, periodistas, activistas, y hacerlo con una precisión y velocidad que no tiene precedente histórico. El argumento de Anthropic —que «hoy, los modelos de IA de frontera simplemente no son lo suficientemente confiables para operar armas completamente autónomas»— no es tecnicismo: es una advertencia sobre riesgos de vidas humanas derivados de errores algorítmicos en contextos de combate sin supervisión.
El abogado Alan Rozenshtein, de la Universidad de Minnesota, fue directo al analizar la situación: el gobierno no quiere reemplazar a Anthropic; quiere seguir usando su tecnología sin restricciones. La designación como riesgo de cadena de suministro es una herramienta de presión coercitiva. Dean Ball, ex asesor de política de IA del propio gobierno Trump, describió la decisión de Hegseth como “casi con toda seguridad ilegal” y un “intento de asesinato corporativo”. La señal que envía al sector tecnológico es devastadora: cualquier empresa que ose negociar con el gobierno bajo principios éticos puede ser destruida comercialmente por decreto presidencial.
La paradoja OpenAI: cuando el que gana el contrato pierde la confianza
El movimiento de OpenAI fue considerado por sus defensores como pragmático: seguir en la mesa para poder influir. Sus críticos, incluyendo a decenas de sus propios empleados que firmaron cartas internas de protesta, lo ven de otra manera: como la rendición de la empresa que alguna vez prometió ser el guardián de la humanidad ante la IA. La ironía es mayúscula: OpenAI surge jurídicamente horas después del veto a Anthropic para llenar el vacío, exactamente como el jugador que espera en el banco para entrar cuando sacan al titular por falta.
Sam Altman insistió públicamente en que el acuerdo mantiene las mismas restricciones éticas que Anthropic exigía. Pero la diferencia está en los detalles del lenguaje contractual: mientras Anthropic exigía compromisos explícitos, vinculantes e irrevocables, OpenAI aceptó la fórmula «cualquier uso legal» y añadió sus restricciones de una forma que, según analistas jurídicos, puede ser “desestimada a voluntad” mediante interpretación administrativa. La formulación es, en esencia, dar al Pentágono lo que quería bajo un ropaje de respetabilidad ética.
La migración silenciosa: los usuarios ya habían elegido
Mientras el drama político se desplegaba en Washington, algo significativo ocurría en las tiendas de aplicaciones del mundo: Claude, el asistente de Anthropic, escaló hasta el número uno en los rankings de descarga de las principales plataformas digitales en mercados como Estados Unidos, Alemania y Canadá, superando a ChatGPT. El movimiento #QuitGPT comenzó a viralizarse en redes sociales como expresión de rechazo al pacto OpenAI-Pentágono.
Pero esta migración no comenzó el 27 de febrero. Venía construyéndose desde meses antes, alimentada por una razón objetiva: Claude ofrece resultados superiores en las tareas que más importan a los usuarios profesionales. En benchmarks de codificación verificada (SWE-bench), Claude Opus 4.5 alcanza un 80,9% de precisión frente al 70% aproximado de GPT-5.2. En razonamiento abstracto (ARC-AGI-2), la ventaja es de 16 puntos porcentuales. En análisis jurídico, financiero y redacción de contenido complejo, Claude domina consistentemente las evaluaciones independientes. Siete de las diez empresas del Fortune 10 son hoy clientes de Anthropic.
El propio Sam Altman reconoció públicamente que su equipo se equivocó al priorizar matemáticas y código en sus últimas actualizaciones, deteriorando la calidad de escritura de ChatGPT —una concesión de derrota en el terreno donde los usuarios más lo perciben. Claude Code, la herramienta de programación asistida de Anthropic, alcanzó más de 2.500 millones de dólares en ingresos anualizados en febrero de 2026, con una trayectoria exponencial que la propia industria describe como “el momento ChatGPT de Anthropic”.
El veredicto de la historia
Lo que ocurrió el 27 de febrero de 2026 no es solo una disputa contractual entre una empresa tecnológica y el Pentágono. Es el primer gran test de si las corporaciones de IA tienen —o pueden tener— la fortaleza ética para resistir la presión de los poderes estatales cuando esa presión empuja hacia usos que violan principios fundamentales de dignidad, privacidad y protección de la vida humana.
Anthropic perdió un contrato de 200 millones de dólares. Fue designada, con registro histórico sin precedentes, “riesgo de seguridad nacional” por negarse a convertir su tecnología en herramienta sin límites para el aparato de guerra y vigilancia de la administración Trump. Sus acciones en los mercados secundarios sufrieron. Sus clientes empresariales que trabajan con el gobierno federal recibieron la señal de que hacer negocios con Anthropic puede costarles sus contratos militares.
Y sin embargo, algo no esperado ocurrió: el mundo vio. Los mejores ingenieros, investigadores y líderes del sector tecnológico, incluyendo a empleados de Google, Microsoft y Amazon, publicaron cartas de apoyo y demandas a sus propias empresas para mantener las mismas restricciones éticas que Anthropic defendió. La valoración de Anthropic, que llegó a 380 mil millones de dólares antes del conflicto, y el número de usuarios que eligieron Claude como su plataforma de IA principal, hablan del único idioma que los mercados comprenden: confianza.
OpenAI obtuvo el contrato. Anthropic obtuvo algo más difícil de comprar y más fácil de perder: la convicción de que hizo lo correcto cuando hacerlo tenía un costo real. En un mundo donde la inteligencia artificial define cada vez más el poder geopolítico, económico y militar, esa diferencia no es menor. Es, posiblemente, la diferencia más importante de todas.


