Por Daniel Arjona/El Argonauta
El viernes 27 de febrero de 2026, una empresa de inteligencia artificial de San Francisco ocupó los primeros titulares del planeta cuando el presidente estadounidense tachó a los fundadores de Anthropic de “locos de extrema izquierda”en la red social que él mismo posee. El sábado de madrugada, Estados Unidos e Israel lanzaban ataques coordinados contra Irán. La ironía no deja de tener gracia: Washington bombardeaba la República Islámica asusándola de tener casi listas su propias armas de destrucción masiva el mismo fin de semana que declaraba “riesgo para la cadena de suministro de seguridad nacional” a la única empresa de inteligencia artificial que se había negado formalmente a contribuir a fabricarlas.

Conviene paladear el absurdo con calma.
Anthropic, la compañía de inteligencia artificial valorada en 380.000 millones de dólares, pasó el viernes 27 de febrero a la categoría de amenaza que hasta ayer detentaban Huawei, ZTE y el antivirus ruso Kaspersky. Pete Hegseth, secretario de Defensa, pronunció la sentencia con la solemnidad de quien cree estar escribiendo historia. Donald Trump, en Truth Social, calificó a sus fundadores de “wokes” y amenazó con consecuencias civiles y penales. Y el modelo de inteligencia artificial más usado por el ejército americano, el que procesaba análisis de inteligencia en redes clasificadas, el que según informes había contribuido a operaciones tan delicadas como la captura de Nicolás Maduro, con la ayuda decisiva de Palantir que ya señalamos aquí (y que todo indica que también está participando en el actual ataque a Irán), quedaba expulsado del complejo militar-industrial con efecto inmediato y seis meses de período de gracia para hacer las maletas.
Todo porque Dario Amodei dijo que no.
Dos veces, en realidad. No a la vigilancia masiva de ciudadanos estadounidenses. No a las armas letales sin supervisión humana. Dos negativas que, en la lógica del poder, equivalen a una declaración de guerra.
Para entender cómo se llega a este punto, conviene retroceder hasta el barrio de la Mission de San Francisco, donde un niño llamado Dario cursaba la secundaria sin saber que dos décadas después iba a desquiciar por completo al líder del mundo libre, libre a su pesar.
Hijos del cuero y los libros
La familia Amodei no exhibía precisamente la marca mitológica de Silicon Valley. El padre, artesano del cuero de origen italoamericano. La madre, gestora de de proyectos bibliotecarios en Chicago de ascendencia judeoamericana. Dario, nacido en 1983. Daniela, cuatro años menor. El tipo de familia que Tocqueville hubiese apuntado en su cuaderno como prueba de que la clase media americana cultivaba virtudes republicanas.
Dario era de esos chicos que hacen los deberes de cálculo por placer y ganan olimpiadas de física antes de que les asome el bigote. Licenciatura en Caltech, doctorado en Princeton en el laboratorio de neurología retinal de Michael Berry. Tesis galardonada con el Hertz Prize, la distinción que en el mundillo de las ciencias duras funciona como estrella Michelin. El padre murió en 2006 de una enfermedad que en cuatro años pasó de tener una mortalidad del 50% a ser tratable en el 95% de los casos. Ese dato, que Dario suele repetir entrevista tras entrevista, explica por qué un físico acabó obsesionado con acelerar el progreso científico mediante máquinas inteligentes: había visto de cerca el coste de llegar tarde.

Daniela tomó una ruta más sinuosa. Literatura inglesa, política y música en la Universidad de Santa Cruz, donde se graduó con honores y una beca de flauta clásica. Trabajo en desarrollo internacional. Una temporada en Uganda haciendo sanidad comunitaria. Campaña electoral del congresista Matt Cartwright. Llegó a Stripe en 2013 como reclutadora cuando la empresa tenía cuarenta empleados, y la dejó cuatro años después cuando tenía mil doscientos, habiéndose convertido en el engranaje que hacía funcionar todo lo que no era estrictamente código. La antítesis perfecta de su hermano: donde él construye sistemas, ella construye organizaciones.
En 2018, ambos aterrizaron en OpenAI. Dario como vicepresidente de investigación, Daniela como vicepresidenta de operaciones y seguridad. Allí contribuyeron a parir algunos de los artefactos más influyentes de la historia reciente: GPT-2, GPT-3, el método de entrenamiento con retroalimentación humana que se convertiría en estándar industrial. Dario figura entre los coinventores del RLHF, la técnica que en esencia consiste en pagar a personas para que le digan a un modelo cuándo se porta bien. El capitalismo conductista aplicado a las matemáticas.
La ruptura con OpenAI llegó a finales de 2020, cuando la organización llevaba ya un año de convivencia incómoda con Microsoft y su inversión de mil millones de dólares. El relato oficial habla de discrepancias filosóficas sobre el ritmo de desarrollo y los protocolos de seguridad. El relato más mundano apunta a que Dario temía que la presión comercial acabara con cualquier consideración que no fuera la de sacar el siguiente modelo antes que el competidor. Ambas versiones probablemente sean ciertas.
En enero de 2021, los Amodei se largaron con un cohorte de investigadores senior, varios de ellos autores del paper seminal sobre GPT-3. Alquilaron un local en el Mission District, compraron sillas de Ikea y empezaron a celebrar almuerzos semanales en Precita Park mientras debatían cómo construir una inteligencia artificial que no destruyera el mundo. El romanticismo de los comienzos tiene siempre algo de afectado, pero en este caso la escena muestra cierta coherencia interna: gente que llevaba años trabajando en los modelos más potentes del planeta, convencida de que nadie prestaba suficiente atención al hecho de que los modelos más potentes del planeta podían salir mal.
La constitución de lo que no puede hacerse
Anthropic se incorporó como Public Benefit Corporation, una figura legal que en Delaware obliga a la junta a ponderar el beneficio público junto a los intereses de los accionistas. La decisión no fue un gesto de virtuosismo corporativo, sino una apuesta estructural: si en algún momento los inversores empujan hacia un uso irresponsable de la tecnología, la arquitectura jurídica ofrece resistencia. El cinismo bien informado diría que esas resistencias suelen ceder cuando hay suficiente dinero encima de la mesa. El optimismo moderado señala que al menos crea fricción.
El pilar técnico de la empresa fue la Inteligencia Artificial Constitucional, un método que Anthropic patentó y que resuelve un problema práctico: cómo alinear el comportamiento de un modelo con un conjunto de valores sin depender de ejércitos de evaluadores humanos que califiquen respuestas durante semanas, a un precio que sube exponencialmente con el tamaño del modelo. La solución fue elegante en su concepción: el propio modelo critica sus respuestas usando una “constitución” explícita de principios, aprende de esas críticas, y solo después se aplica un segundo ciclo de refuerzo. El modelo, en cierta medida, se educa a sí mismo usando normas redactadas por humanos.
Lee el artículo completo en: https://elarjonauta.substack.com/p/yo-claude-como-los-hermanos-amodei

Más historias
¿Estás produciendo mensajes sin alma?.- Por Darío Mendoza
Tres mitos del lenguaje político: entre la polarización y las emociones.- Por Beatriz Gallardo Paúls
¿Porqué perdió el progresismo en Costa Rica?.-Por Amij Majchel