No data was found

Trump prohíbe el uso de la IA de Anthropic en agencias federales

El máximo directivo de Anthropic, Dario Amodei, ha manifestado una firme posición institucional al señalar que la compañía prefiere evitar vínculos con el Pentágono antes que consentir una expansión de los usos de su inteligencia artificial que pudiera “socavar, en lugar de defender, los valores democráticos”. Según el directivo, esta postura responde a su rechazo frontal a que su tecnología sea utilizada en contratos que incluyan funciones de vigilancia masiva a escala nacional o en la creación de armamento autónomo. Estas discrepancias éticas han provocado una ruptura directa con el Gobierno de los Estados Unidos, lo que derivó en que el presidente Donald Trump ordenara un proceso de desvinculación obligatoria que se ejecutará en un lapso de seis meses. Esta medida afectará a todas las instituciones federales que emplean actualmente los sistemas de la firma, incluyendo su reconocida plataforma de IA, Claude.

La postura del Ejecutivo estadounidense

El mandatario Donald Trump utilizó sus canales de comunicación pública para dejar clara su postura sobre la empresa tecnológica.

“No los necesitamos, no los queremos, y no haremos negocios con ellos de nuevo”

, sentenció el presidente en referencia a Anthropic. Trump detalló que el periodo de transición para abandonar estas herramientas durará medio año y tendrá un impacto directo en organismos estratégicos como el Departamento de Defensa —también identificado en sus comunicaciones como Departamento de Guerra— que hace uso de estos desarrollos. Asimismo, el jefe de Estado lanzó una advertencia severa: si la empresa intenta interferir con esta directiva, la administración empleará “todo su poder” para garantizar que se cumpla, lo que implicaría la posibilidad de enfrentar sanciones de carácter civil o penal de alta gravedad.

En sus declaraciones, Donald Trump calificó la negativa de la empresa tecnológica como una acción que pone en peligro “vidas estadounidenses, a nuestras tropas y también nuestra Seguridad Nacional”. El conflicto escaló debido a la presión ejercida por el Gobierno para que la firma eliminara de sus contratos las cláusulas que restringen específicamente el uso militar y las tareas de vigilancia interna. El quiebre definitivo ocurrió cuando Anthropic se negó a suprimir estas salvaguardas, impidiendo que su inteligencia artificial fuera destinada a escenarios de vigilancia doméstica masiva o al desarrollo de armas que operen de forma totalmente autónoma.

Contratos millonarios y operativos en curso

Es importante destacar que, en julio pasado, el Pentágono concretó un contrato valorado en 200 millones de dólares con un grupo de empresas líderes en el sector, entre las que se encuentran Anthropic, Google, OpenAI y xAI. El objetivo de dicho acuerdo era el desarrollo de soluciones de inteligencia artificial para aplicaciones militares. Pese a que la política interna de Anthropic prohíbe explícitamente los usos violentos, el desarrollo de armamento y la vigilancia de civiles, se ha reportado que su IA Claude ya fue empleada en una misión militar específica que buscaba la captura del gobernante de Venezuela, Nicolás Maduro.

Defensa de los límites éticos

Por su parte, la organización liderada por Dario Amodei insistió en que su disposición para colaborar se limita a mejorar la fiabilidad de los sistemas inteligentes, descartando cualquier propósito que represente un “riesgo grave” para las libertades fundamentales. Aunque la empresa acepta que su IA se use en labores de inteligencia extranjera y contrainteligencia, rechaza tajantemente su aplicación en la vigilancia masiva de ciudadanos dentro de Estados Unidos o en acciones que arriesguen a civiles y combatientes estadounidenses.

“Hemos ofrecido trabajar directamente con el Departamento de Guerra en I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado esta oferta”

, puntualizó Amodei, añadiendo que la administración federal solo busca contratar a proveedores que eliminen sus protecciones éticas para permitir cualquier uso que el Gobierno considere legal.

Desde el Pentágono, el portavoz Sean Parnell aseguró mediante redes sociales que el Departamento de Defensa no tiene entre sus planes realizar vigilancia interna masiva ni activar armas autónomas. No obstante, Parnell defendió la necesidad de remover las restricciones de los contratos para que el Estado tenga total flexibilidad en el uso de las herramientas contratadas bajo fines legales. El funcionario subrayó que no corresponde a las empresas privadas establecer las condiciones o limitaciones sobre cómo el Gobierno debe explotar la tecnología adquirida.

Como medida de presión adicional durante las negociaciones, la administración de Donald Trump llegó a amenazar con catalogar a Anthropic como un riesgo para la cadena de suministro nacional. Esta disputa pone de relieve la tensión existente entre la ética del sector tecnológico privado y las necesidades de defensa del sector público, un conflicto que marcará un precedente en la regulación y el uso de la inteligencia artificial en ámbitos gubernamentales a futuro.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER