La empresa de inteligencia artificial Anthropic está demandando para impedir que la administración Trump imponga lo que llama una «campaña ilegal de represalias» por su negativa a permitir el uso militar sin restricciones de su tecnología.
Anthropic pidió el lunes a los tribunales federales que revocaran la decisión del Pentágono la semana pasada de designar a la empresa de inteligencia artificial como un «riesgo de cadena de suministro«. La empresa también busca deshacer la orden del presidente Donald Trump que ordenaba a los empleados federales dejar de usar su chatbot de IA Claude.
El desafío legal intensifica una disputa pública inusualmente pública sobre cómo puede usarse la IA en la guerra y la vigilancia masiva — una disputa que también ha atraído a los rivales tecnológicos de Anthropic, especialmente OpenAI, creador de ChatGPT, que hizo su propio acuerdo para colaborar con el Pentágono apenas unas horas después de que el gobierno castigara a Anthropic por su postura.
Anthropic presentó dos demandas separadas el lunes, una en un tribunal federal de California y otra en el tribunal federal de apelaciones en Washington, D.C., cada una impugnando diferentes aspectos de las acciones del gobierno contra la empresa con sede en San Francisco.
«Estas acciones son sin precedentes e ilegales», dice la demanda de Anthropic. «La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su libertad de expresión protegida. Ninguna ley federal autoriza las acciones tomadas aquí. Anthropic recurre al poder judicial como último recurso para defender sus derechos y detener la campaña ilegal de represalias del Ejecutivo.»
El Departamento de Defensa declinó hacer comentarios el lunes, citando una política de no comentar sobre asuntos litigiosos.
Anthropic afirmó que buscaba restringir su tecnología para vigilancia masiva de estadounidenses y armas totalmente autónomas. El secretario de Defensa Pete Hegseth y otros altos cargos insistieron públicamente en que la empresa debía aceptar «todos los usos legales» de Claude, amenazaron con castigos si Anthropic no cumplía y condenaron a la empresa y a su CEO Dario Amodei en redes sociales.
Designar a la empresa como un riesgo en la cadena de suministro corta el trabajo de defensa de Anthropic utilizando una autoridad diseñada para evitar que adversarios extranjeros dañen los sistemas de seguridad nacional. Fue la primera vez que se sabe que el gobierno federal utilizó la designación contra una empresa estadounidense. Hegseth dijo en una carta del 4 de marzo a Anthropic que era «necesario para proteger la seguridad nacional», según la demanda de Anthropic.
Trump también dijo que ordenaría a las agencias federales que dejaran de usar Claude, aunque dio al Pentágono seis meses para eliminar progresivamente un producto que está profundamente incrustado en sistemas militares clasificados, incluidos los usados en la guerra de Irán.
La demanda de Anthropic también nombra a otras agencias federales, incluidos los departamentos del Tesoro y de Estado, después de que los funcionarios de la agencia ordenaran a los empleados dejar de usar a Claude.
Anthropic presenta varios argumentos sólidos sobre la Primera Enmienda y el debido proceso en un caso que ha «escalado más allá de toda comprensión», dijo Michael Pastor, profesor de la Facultad de Derecho de Nueva York que anteriormente trabajó como asesor jurídico general en la ciudad de Nueva York ayudando a redactar sus contratos tecnológicos.
«Nunca he visto un caso así», dijo el pastor. «Nunca se nos habría ocurrido que, cuando teníamos dificultades en una negociación, amenazaríamos a la empresa con la destrucción esencial.»
Incluso mientras lucha contra las acciones del Pentágono, Anthropic ha intentado convencer a empresas y otras agencias gubernamentales de que la designación de riesgo de cadena de suministro por parte de la administración Trump es limitada y solo afecta a contratistas militares cuando utilizan a Claude en trabajos para el Departamento de Defensa.
Dejar clara esa distinción es crucial para la empresa privada Anthropic, ya que la mayor parte de sus 14.000 millones de dólares proyectados en ingresos este año proviene de empresas y agencias gubernamentales que utilizan a Claude para programación informática y otras tareas. Más de 500 clientes pagan a Anthropic al menos un millón de dólares anuales por Claude, según un reciente anuncio de inversión que valoró a la empresa en 380.000 millones de dólares.
Anthropic declaró en un comunicado el lunes que «solicitar una revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios.»
La demanda sitúa la seguridad de la IA y los «resultados positivos para la humanidad» como fundamentales para la misión de Anthropic desde su fundación en 2021 por Amodei y otros seis exempleados de OpenAI.
Su política de uso siempre prohibió la «guerra autónoma letal sin supervisión y vigilancia humana de los estadounidenses en masa», afirmó la empresa en su demanda. Anthropic afirmó que nunca ha probado a Claude en esas aplicaciones y no tiene la confianza de que sus productos puedan «funcionar de forma fiable o segura si se usan para apoyar una guerra autónoma letal.»
Al mismo tiempo, ha permitido al ejército utilizar a Claude de formas que los civiles no pudieron, incluyendo operaciones militares y en el análisis de «información de inteligencia extranjera recogida legalmente».
Hasta hace poco, Anthropic era el único de sus homólogos de la industria tecnológica aprobado para suministrar su modelo de IA a sistemas militares clasificados. La disputa ha llevado al Pentágono a buscar trasladar el trabajo de Claude a Gemini de Google, ChatGPT de OpenAI y Grok de Elon Musk.
La demanda de Anthropic alega que las acciones de la administración Trump están poniendo en duda su reputación, «poniendo en peligro cientos de millones de dólares» en contratos con otras empresas e intentando «destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento en el mundo.»
Por el contrario, la lucha también ha reforzado la reputación de Anthropic entre algunos clientes y trabajadores tecnológicos que se pusieron del lado de la empresa en ceder ante la presión de la administración Trump. La postura moral de Amodei se reconoció aún más cuando su acérrimo rival, el CEO de OpenAI, Sam Altman, intentó reemplazar a Claude del Pentágono por ChatGPT en una medida que Altman admitió más tarde que fue apresurada y que parecía oportunista.
Las descargas de Claude por parte de consumidores se dispararon, elevando su popularidad por primera vez frente a los más conocidos ChatGPT y Gemini.
La controversia también sigue teniendo repercusiones en la competición para retener talento de la industria de la IA, como la dimisión de Caitlin Kalinowski, jefa de robótica de OpenAI.
«No fue una llamada fácil», escribió Kalinowski en las redes sociales durante el fin de semana. » La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron.»
Fuente : Apnews
