Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Director ejecutivo de OpenAI afirma que la empresa modificará su acuerdo con el gobierno estadounidense sobre el uso de su tecnología en operaciones militares clasificadas

Director ejecutivo de OpenAI afirma que la empresa modificará su acuerdo con el gobierno estadounidense sobre el uso de su tecnología en operaciones militares clasificadas

Sam Altman afirma que OpenAI modificará su acuerdo con el gobierno estadounidense sobre el uso de su inteligencia artificial en operaciones militares clasificadas.

Tras las críticas a lo que el director ejecutivo de OpenAI describió como un acuerdo 'oportunista y descuidado', afirmó que la compañía actualizaría su contrato para impedir explícitamente que sus sistemas se utilicen para espiar a estadounidenses.

El acuerdo se había producido días antes tras una disputa entre la empresa de inteligencia artificial Anthropic y el Departamento de Defensa de Estados Unidos por las preocupaciones sobre el uso del modelo de inteligencia artificial de Anthropic, Claude, para la vigilancia masiva y el desarrollo de armas totalmente autónomas.

La controversia suscitó dudas sobre cómo se despliega la inteligencia artificial en contextos militares y cuánta influencia tienen los gobiernos y las empresas tecnológicas privadas en esas decisiones.

OpenAI afirmó que su acuerdo con el Pentágono ya incluía estrictas salvaguardias para el despliegue de inteligencia artificial clasificada, pero la compañía decidió revisar los términos tras las críticas públicas y la reacción negativa de los usuarios.

El señor Altman añadió que nuevas enmiendas garantizarían que los sistemas de OpenAI no pudieran utilizarse para la vigilancia doméstica.

Declaró:

'Los problemas son sumamente complejos y exigen una comunicación clara. Intentábamos sinceramente reducir la tensión y evitar un resultado mucho peor, pero creo que simplemente pareció oportunista y descuidado'.

OpenAI había afirmado en un comunicado previo que su acuerdo con el Pentágono contaba con 'más restricciones que cualquier otro acuerdo previo para  despliegues de IA clasificada, incluido el de Anthropic'.

El Sr. Altman añadió ahora que la compañía añadiría un texto explícito que estipula que su tecnología no se 'utilizará intencionalmente para la vigilancia nacional de personas y ciudadanos estadounidenses'.

Según los términos revisados, las agencias de inteligencia, incluida la Agencia de Seguridad Nacional (NSA), no podrían utilizar el sistema de OpenAI sin lo que Sam describió como una 'modificación posterior' del contrato.

El anuncio se produjo tras una disputa entre Anthropic y el Departamento de Defensa de Estados Unidos sobre el posible uso del modelo de IA Claude de Anthropic en sistemas de vigilancia masiva y armas totalmente autónomas.

La tecnología de Anthropic había sido previamente incluida en la lista negra de la administración de Donald Trump después de que la compañía se negara a abandonar un principio corporativo de 'línea roja' que establecía que su IA no debía utilizarse para construir armas totalmente autónomas.

Los sistemas de inteligencia artificial son cada vez más utilizados por los ejércitos para analizar grandes volúmenes de datos, apoyar la recopilación de inteligencia y optimizar la logística.

Gobiernos como los de Estados Unidos, Ucrania y la OTAN adoptaron la tecnología desarrollada por Palantir, una empresa estadounidense de análisis de datos que proporciona herramientas de inteligencia y vigilancia a agencias gubernamentales.

El Ministerio de Defensa del Reino Unido firmó recientemente un contrato de 240 millones de libras con Palantir.

La plataforma de defensa de la compañía, basada en IA, conocida como Maven, recopila información, incluyendo imágenes satelitales e informes de inteligencia, que posteriormente puede ser analizada por modelos comerciales de IA como Claude.

Contenido patrocinado

Artículos relacionados