Claude AI procesará datos gubernamentales secretos a través del nuevo acuerdo con Palantir

Claude AI procesará datos gubernamentales secretos a través del nuevo acuerdo con Palantir

Un campo minado ético

Desde que sus fundadores fundaron Anthropic en 2021, la empresa ha comercializado como uno que adopta un enfoque centrado en la ética y la seguridad para el desarrollo de la IA. La empresa se diferencia de competidores como OpenAI al adoptar lo que llama prácticas de desarrollo responsable y restricciones éticas autoimpuestas a sus modelos, como su sistema de “IA constitucional”.

Como futurismo señala

esta nueva asociación de defensa parece entrar en conflicto con la personalidad pública de “buen chico” de Anthropic, y los expertos a favor de la IA en las redes sociales lo están notando. Comentarista frecuente de IA Nabeel S. Qureshi escribió en X, “Imagínese decirles a los fundadores altruistas efectivos y preocupados por la seguridad de Anthropic en 2021 que apenas tres años después de fundar la empresa, firmarían asociaciones para desplegar su modelo ~AGI directamente en el frente militar.


antrópico "IA constitucional" logo.

Logotipo de “IA constitucional” de Anthropic.

Crédito: Antrópico / Benj Edwards

Logotipo de “IA constitucional” de Anthropic.


Crédito: Antrópico / Benj Edwards

Aparte de las implicaciones de trabajar con agencias de defensa y de inteligencia, el acuerdo conecta a Anthropic con Palantir, un empresa controvertida cual ganado recientemente un contrato de 480 millones de dólares para desarrollar un sistema de identificación de objetivos impulsado por IA llamado Maven Smart System para el ejército de EE. UU. El proyecto Maven tiene provocó críticas dentro del sector tecnológico sobre las aplicaciones militares de la tecnología de IA.

Vale la pena señalar que los términos de servicio de Anthropic hacer esquema reglas y limitaciones específicas para uso gubernamental. Estos términos permiten actividades como el análisis de inteligencia extranjera y la identificación de campañas de influencia encubiertas, al tiempo que prohíben usos como la desinformación, el desarrollo de armas, la censura y la vigilancia nacional. Las agencias gubernamentales que mantienen una comunicación regular con Anthropic sobre su uso de Claude pueden recibir permisos más amplios para usar los modelos de IA.

Incluso si Claude nunca se utiliza para apuntar a un ser humano o como parte de un sistema de armas, quedan otros problemas. Si bien sus modelos Claude gozan de gran prestigio en la comunidad de IA, (como todos los LLM) tienen la tendencia a confabular, generando potencialmente información incorrecta de una manera que es difícil de detectar.

Ese es un enorme problema potencial que podría afectar la eficacia de Claude con datos secretos del gobierno, y ese hecho, junto con las otras asociaciones, tiene preocupado a Victor Tangermann de Futurism. Como él dice: “Es una asociación desconcertante que establece los crecientes vínculos de la industria de la IA con el complejo militar-industrial de EE. UU., una tendencia preocupante que debería hacer saltar todo tipo de alarmas dadas las muchas fallas inherentes de la tecnología, y más aún cuando se vive en podría estar en juego”.