Ruptura entre Trump y Anthropic, escribe Mariana Gonzalez

OPINIÓN

50375802637_b4cf4e7eac_c
Modelo Claude de Anthropic / Foto: 紅色死神

*Escribe Mariana Gonzalez, especialista en Computación Científica, Fac. Ciencias Exactas UBA. MBA, ITBA.

Lectura: 5 minutos

El presidente Donald Trump, a fines de febrero, ordenó a todas las agencias del gobierno federal de Estados Unidos que dejen de usar la tecnología de inteligencia artificial de la empresa Anthropic, incluyendo su modelo Claude, en medio de un choque público con el Pentágono por los términos del uso militar de la IA.

    Claude es una inteligencia artificial generativa avanzada, desarrollada por Anthropic, se destaca por su alta capacidad de contexto, permitiendo procesar grandes volúmenes de información, imágenes y código.

La disputa se originó cuando Anthropic se negó a permitir que su IA fuera utilizada sin restricciones para fines que incluían vigilancia masiva o armas autónomas, mientras que la administración estadounidense exigía mayor flexibilidad operacional, en las negociaciones sobre un contrato de 200 millones de dólares de esa empresa con el Pentágono.

En una medida sin precedentes para una empresa estadounidense, el secretario de Defensa, Pete Hegseth, designó a Anthropic como un «riesgo para la cadena de suministro y la seguridad nacional», calificación que se usa para adversarios extranjeros, como Huawei.

Horas después, OpenAI, principal competencia de Anthropic, anunció que había llegado a un acuerdo con el Pentágono para desplegar sus modelos en sistemas clasificados, bajo principios de seguridad aparentemente similares. Sam Altman, director ejecutivo de OpenAI, escribió en X «Esta noche, llegamos a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada».

La ruptura entre Donald Trump y Anthropic expuso algo más profundo que una disputa contractual, reveló el choque entre la lógica del poder y la lógica del control tecnológico.

Darío Amodei, director ejecutivo de Anthropic, el 26 de febrero, incluyó en la web de la empresa una declaración, que entre otros conceptos decía, sobre sus conversaciones con el Departamento de Guerra, «… Anthropic entiende que el Departamento de Guerra, y no las empresas privadas, toma decisiones militares. Nunca hemos objetado operaciones militares específicas ni hemos intentado limitar el uso de nuestra tecnología de forma ad hoc. Sin embargo, en un conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos. Algunos usos simplemente exceden los límites de lo que la tecnología actual puede hacer de forma segura y fiable. Dos de estos casos de uso nunca se han incluido en nuestros contratos con el Departamento de Guerra y creemos que no deberían incluirse ahora: Vigilancia masiva nacional… Armas totalmente autónomas…».

Frases de Trump al respecto en su red Truth Social, el 27 de febrero, «Los «leftwing nut jobs» (locos de izquierda) de Anthropic han cometido un ERROR DESASTROSO al tratar de presionar al Departamento de Guerra y obligarlos a obedecer sus términos de servicio en vez de nuestra Constitución», «NOSOTROS decidiremos el destino de nuestro país — NO una empresa de IA radical de izquierda fuera de control dirigida por personas que no tienen idea de lo que el mundo real significa».

La preocupación central, hoy, no es solo qué puede hacer la inteligencia artificial, sino quién decide qué debe hacer. Los gobiernos la ven como herramienta estratégica ─social, económica, militar y geopolítica─ y buscan soberanía tecnológica. Las grandes empresas la desarrollan con recursos, talento y datos que superan a muchos Estados. Las instituciones regulatorias intentan imponer límites éticos y jurídicos a un ritmo que rara vez alcanza al avance técnico. En esa tensión se juega algo más profundo que un mercado, se define qué valores quedan codificados en los modelos, qué usos se permiten y cuáles se prohíben, qué derechos se protegen y cuáles se erosionan.

Los gobiernos apelan a la seguridad nacional, las corporaciones invocan innovación y eficiencia, los reguladores hablan de derechos y límites. Pero detrás de esos discursos late una pregunta incómoda ¿puede una herramienta tan estructural quedar en manos de actores cuya lógica principal es, para algunos, la manipulación de la población y la competencia geopolítica y para otros, el beneficio económico? La gobernanza de la IA es, en el fondo, quien controla la infraestructura cognitiva. ¿Los límites los fijan los empresarios, los ingenieros, los generales o el poder político de turno?

*Mariana Gonzalez
Computación Científica, Fac. Ciencias Exactas UBA
MBA ITBA
Empresaria en Argentina y Uruguay en empresas de tecnología.

Otro artículo escrito por Mariana Gonzalez: Ascensor al cielo

Deja un comentario