Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Investigador de IA de Anthropic renuncia para escribir poesía ante la amenaza del mundo

Investigador de IA de Anthropic renuncia para escribir poesía ante la amenaza del mundo

Un investigador de seguridad de IA renunció a la empresa estadounidense Anthropic porque 'el mundo está en peligro'.

En una carta de renuncia publicada en X, Mrinank Sharma informó a la empresa que se marchaba debido a su preocupación por la IA, las armas biológicas y la situación  mundial.

Sharma explicó que ahora se dedicará a escribir y estudiar poesía y regresará al Reino Unido para 'hacerse invisible'.

El investigador dirigió un equipo en Anthropic que investigó las medidas de seguridad de la IA y explicó cómo sus contribuciones incluyeron la investigación de por qué los sistemas de IA generativos se aprovechan de los usuarios, la lucha contra los riesgos del bioterrorismo asistido por IA y la investigación de 'cómo los asistentes de IA podrían hacernos menos humanos'.

A pesar de disfrutar de su tiempo en la empresa, Sharma explicó que era evidente que 'ha llegado el momento de dar un paso al frente'.

Escribió:

'El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se están desatando en este preciso momento'.

Sharma comentó que había 'visto repetidamente lo difícil que es dejar que nuestros valores rijan nuestras acciones'. y lamentó cómo los empleados de Anthropic 'se enfrentan constantemente a presiones para dejar de lado lo que más importa'.

El investigador explicó que planea estudiar poesía y escritura.

Añadió en una respuesta:

'Volveré al Reino Unido y me volveré invisible por un tiempo'.

Anthropic se burló recientemente de la decisión de su rival OpenAI de desplegar anuncios en el chatbot ChatGPT, a pesar de haberse comprometido a no hacerlo, y la ex investigadora de OpenAI, Zoe Hotzig, expresó que estaba 'realmente nerviosa por trabajar en la industria'.

Explicó que sus preocupaciones se debían a los posibles impactos psicológicos de un 'nuevo tipo de interacción social' que aún no se comprende del todo.

Hitzig afirmó que las 'señales de alerta temprana' sobre la dependencia de las herramientas de IA eran 'preocupantes' y podrían 'reforzar ciertos tipos de delirios'.

En declaraciones al programa Newsnight de la BBC, declaró:

'Crear un motor económico que se lucre fomentando este tipo de nuevas relaciones antes de que las comprendamos es realmente peligroso. Vimos lo que ocurrió con las redes sociales'.

Hitzig añadió:

'Todavía hay tiempo para establecer las instituciones sociales, las formas de regulación que realmente puedan gobernar esto'.

En respuesta, un portavoz de OpenAI declaró:

'Nuestra misión es garantizar que la IA beneficie a toda la humanidad; nuestra búsqueda de publicidad siempre apoya esa misión y hace que la IA sea más accesible'.

Contenido patrocinado

Artículos relacionados