La empresa estadounidense teme que su herramienta pueda revelar cómo fabricar armas químicas o radioactivas y busca un especialista para garantizar la solidez de sus medidas de seguridad.
En su anuncio de reclutamiento en LinkedIn, Anthropic indica que los candidatos deben tener un mínimo de cinco años de experiencia en 'defensa contra armas químicas y/o explosivos', así como conocimientos sobre 'dispositivos de dispersión radiológica', también conocidos como bombas sucias.
La empresa declaró a la BBC que el puesto es similar a otros que yo ha creado.
Anthropic no es la única empresa que utiliza esta estrategia, ya que OpenAI, desarrollador de ChatGPT, también publicó una vacante similar.
Su sitio web de empleo ofrece una vacante para un investigador en 'riesgos biológicos y químicos' con un salario de hasta 455 mil dólares, casi el doble del que ofrece Anthropic.
Algunos expertos expresaron su preocupación por este enfoque, ya que temen que proporcione a las herramientas de IA información sobre armas, incluso si se les ha indicado que no la utilicen.
La Dra. Stephanie Hare, investigadora tecnológica y copresentadora del programa de televisión de la BBC 'AI Decoded', afirmó:
'¿Es seguro utilizar sistemas de IA para manejar información sensible sobre sustancias químicas y explosivos, incluidas bombas sucias y otras armas radiológicas?
No existe ningún tratado internacional ni otra normativa para este tipo de trabajo ni para el uso de la IA con este tipo de armas. Todo esto ocurre a puerta cerrada'.
La industria de la IA advirtió con frecuencia sobre las amenazas existenciales que plantea esta tecnología, pero se han hecho pocos esfuerzos para frenar su avance.
El problema se ha vuelto cada vez más importante a medida que el Gobierno de Estados Unidos solicitó el apoyo de empresas de IA para lanzar una guerra en Irán.