Trump ordena al Pentágono eliminar progresivamente las políticas antrópicas sobre el “despertar”

12

El presidente Donald Trump ha ordenado al Departamento de Defensa que deje de utilizar la tecnología de la empresa de inteligencia artificial Anthropic en un plazo de seis meses, lo que aumenta las tensiones sobre el uso de la inteligencia artificial en la seguridad nacional. La decisión, anunciada el viernes a través de Truth Social, surge de la acusación de Trump de que Anthropic está dirigida por “locos de izquierda” que intentan imponer restricciones a las operaciones militares.

La disputa central se centra en la negativa de Anthropic a permitir que el Pentágono tenga acceso irrestricto a su modelo de IA, Claude. El director ejecutivo de Anthropic, Dario Amodei, ha declarado públicamente que la empresa no permitirá la vigilancia masiva de ciudadanos estadounidenses ni el desarrollo de sistemas de armas autónomos, una postura arraigada en preocupaciones de seguridad de la IA que llevaron a sus fundadores a abandonar OpenAI. Según se informa, el gobierno aceptó estos términos inicialmente, pero el lenguaje del contrato resultó insuficiente para la comodidad de Anthropic.

Por qué esto es importante: Esta confrontación pone de relieve un conflicto creciente entre los desarrolladores privados de IA que priorizan las salvaguardias éticas y un gobierno que busca una ventaja tecnológica desinhibida. La demanda del Pentágono de un control total sobre las herramientas de IA choca con el enfoque cauteloso de Anthropic, lo que refleja un debate más amplio sobre el papel de la IA en la guerra y la seguridad interna. Es probable que este desacuerdo se intensifique a medida que crezcan las capacidades de la IA, lo que obligará a tomar decisiones difíciles sobre la transparencia, la rendición de cuentas y los límites de las aplicaciones militares.

La voluntad de Anthropic de restringir el uso de su tecnología es poco común en la industria. Competidores como OpenAI y Grok de Elon Musk han cumplido mucho más con las demandas gubernamentales. Según se informa, los funcionarios de la CIA ven a Grok como inferior al modelo de Anthropic, pero la administración aún puede buscar asociaciones alternativas para evitar las restricciones de Anthropic. El gobierno no ha descartado invocar la Ley de Producción de Defensa para obligar a Anthropic a cumplirla.

Reacción de la industria: El apoyo a Anthropic surgió rápidamente dentro del mundo tecnológico. El director ejecutivo de OpenAI, Sam Altman, expresó públicamente su respaldo, mientras que decenas de empleados de Google y OpenAI firmaron cartas respaldando la postura de Amodei. Aunque Anthropic recientemente suavizó sus políticas de seguridad para seguir siendo competitivo, mantiene una base ética más sólida que muchos rivales.

“Algunos usos [de la IA] simplemente están fuera de los límites de lo que la tecnología actual puede hacer de manera segura y confiable”, afirmó el director ejecutivo de Anthropic, Dario Amodei, en una publicación reciente en un blog.

La situación es fluida. Aún no está claro si la directiva de Trump conducirá a renegociaciones o a una ruptura total de los vínculos. El próximo paso del gobierno podría remodelar el panorama del desarrollo de la IA, indicando si las preocupaciones de seguridad nacional prevalecerán sobre las consideraciones éticas en el sector tecnológico en rápida evolución.

En última instancia, este conflicto subraya una tensión fundamental: ¿pueden las empresas privadas dictar cómo los gobiernos manejan nuevas y poderosas tecnologías, o tendrán prioridad los imperativos militares? El resultado probablemente sentará un precedente para futuras asociaciones de IA entre Silicon Valley y Washington.