Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Jefa de robótica de OpenAI renuncia por el acuerdo con el Departamento de Guerra de Estados Unidos

Jefa de robótica de OpenAI renuncia por el acuerdo con el Departamento de Guerra de Estados Unidos

La jefa del equipo de robótica de OpenAI dimitió de la empresa de IA en medio de la preocupación por el reciente acuerdo de la firma con el Departamento de Guerra de Estados Unidos.

Caitlin Kalinowski, quien trabaja para la desarrolladora de ChatGPT desde 2024, afirmó que su decisión se basó en la gobernanza de la empresa y la necesidad de definir claramente las medidas de seguridad en torno a su tecnología.

Sam Altman, director de OpenAI, anunció el acuerdo con el Pentágono el mes pasado, poco después de que la administración del presidente estadounidense Donald Trump revelara que planea rescindir un contrato con la empresa rival Anthropic tras expresar su preocupación por el uso de su chatbot Claude.

El acuerdo entre el gobierno estadounidense y OpenAI provocó la reacción negativa de decenas de empleados, quienes firmaron una carta abierta exigiendo a la empresa que adoptara la misma postura que Anthropic.

Kalinowski anunció su renuncia en una publicación de LinkedIn durante el fin de semana, donde reveló que había decidido dejar OpenAI debido a la forma en que se cerró el acuerdo con el Departamento de Guerra de Estados Unidos.

Consideró que el anuncio fue 'apresurado' y que no definió las medidas de seguridad necesarias.

Kalinowski escribió:

'No fue una decisión fácil. La IA desempeña un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más reflexión de la que recibieron'.

Explicó que su objetivo es seguir trabajando en el desarrollo de dispositivos físicos de IA centrados en la seguridad.

Altman reconoció posteriormente que el anuncio inicial del acuerdo con el Departamento de Guerra parecía 'oportunista y descuidado' y reveló que buscó modificarlo para incluir salvaguardas adicionales.

OpenAI afirmó que el texto del nuevo acuerdo 'deja claro que nuestras herramientas no se utilizarán para vigilar a ciudadanos estadounidenses' ni para armas autónomas letales.

La declaración decía:

'Creemos que nuestro acuerdo tiene más garantías que cualquier otro acuerdo anterior para despliegues de IA clasificada, incluido el de Anthropic'.

La declaración continuó:

'En nuestro acuerdo, protegemos nuestras líneas rojas mediante un enfoque más amplio y multicapa. Mantenemos total discreción sobre nuestra estructura de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está al tanto y contamos con sólidas protecciones contractuales'.

Contenido patrocinado

Artículos relacionados