El director ejecutivo de la compañía, Sam Altman, confirmó en octubre sus planes para un uso más inapropiado de la plataforma de IA y esperaba tener la actualización lista para finales de año o en el primer trimestre de 2026.
Sin embargo, los directivos de la compañía admitieron que perfeccionar la función 'llevará más tiempo' y planean centrarse en mejorar la experiencia completa de ChatGPT.
En un comunicado, OpenAI explicó:
'Estamos retrasando el lanzamiento del modo adulto para poder centrarnos en tareas prioritarias para más usuarios en este momento, como mejoras en inteligencia, personalidad, personalización y una experiencia más proactiva. Seguimos creyendo en el principio de tratar a los adultos como adultos, pero lograr una experiencia óptima llevará más tiempo'.
Al anunciar la función el año pasado, Altman explicó el plan en una publicación de X:
'Hicimos que ChatGPT fuera bastante restrictivo para asegurarnos de tener cuidado con los problemas de salud mental. Somos conscientes de que esto lo hacía menos útil y agradable para muchos usuarios sin problemas de salud mental, pero dada la gravedad del problema, queríamos solucionarlo'.
Altman continuó:
'En diciembre, a medida que implementemos la restricción de edad de forma más completa y como parte de nuestro principio de -tratar a los usuarios adultos como adultos-, permitiremos aún más, como contenido erótico para adultos verificados'.
Esto ocurre mientras OpenAI continúa implementando herramientas de predicción de edad en un intento por evitar que los menores de 18 años se expongan a contenido violento o sexual.
Se cree que estas herramientas brindan mayor seguridad si se identifica a un usuario menor de 18 años para protegerlo de contenido subido de tono o gráfico.
La compañía fue noticia a principios de esta semana cuando se reveló que el jefe del equipo de robótica de OpenAI había renunciado en medio de las preocupaciones sobre el reciente acuerdo de la empresa con el Departamento de Guerra de Estados Unidos.
Caitlin Kalinowski, quien trabajó en la desarrolladora de ChatGPT desde 2024, afirmó que su decisión se basó en la gobernanza de la empresa y la necesidad de definir claramente las medidas de seguridad en torno a su tecnología.
El jefe de OpenAI, Sam Altman, anunció un acuerdo con el Pentágono el mes pasado, poco después de que la administración del presidente estadounidense Donald Trump revelara que planea rescindir un contrato con la empresa rival Anthropic tras expresar su preocupación por el uso de su chatbot Claude.
El acuerdo entre el gobierno estadounidense y OpenAI provocó la reacción negativa de decenas de empleados, quienes firmaron una carta abierta exigiendo a la empresa que adoptara la misma postura de Anthropic.
Kalinowski anunció su renuncia en una publicación de LinkedIn durante el fin de semana, donde reveló que había decidido dejar OpenAI debido a la forma en que se cerró el acuerdo con el Departamento de Guerra de Estados Unidos.
Consideró que el anuncio fue 'apresurado' y que no definió las medidas de seguridad necesarias.
Kalinowski escribió:
'No fue una decisión fácil. La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más reflexión de la que tuvieron'.
Explicó que su objetivo es seguir trabajando en el desarrollo de dispositivos físicos de IA centrados en la seguridad. Altman ha reconocido desde entonces que el anuncio inicial del acuerdo con el Departamento de Guerra pareció 'oportunista y descuidado' y reveló que ha buscado modificarlo para incluir salvaguardias adicionales.
OpenAI afirmó que el texto del nuevo acuerdo 'deja claro que nuestras herramientas no se utilizarán para vigilar a ciudadanos estadounidenses' ni para armas autónomas letales.
La declaración decía:
'Creemos que nuestro acuerdo ofrece más garantías que cualquier otro acuerdo anterior para despliegues de IA clasificada, incluido el de Anthropic'.
Y concluyó:
'En nuestro acuerdo, protegemos nuestras líneas rojas mediante un enfoque más amplio y multicapa. Mantenemos plena discreción sobre nuestra estructura de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está al tanto de todo y contamos con sólidas protecciones contractuales'.