Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Anuncia Meta más restricciones de seguridad para chatbots de IA

Anuncia Meta más restricciones de seguridad para chatbots de IA

Meta anunció que añadirá más restricciones de seguridad a sus chatbots de inteligencia artificial, incluyendo el bloqueo de conversaciones con adolescentes soobre suicidio, autolesiones y trastornos alimentarios.

Esta medida se produce dos semanas después de que un senador estadounidense abriera una investigación sobre la compañía tras la filtración de un documento interno que sugería que los productos de IA de Meta podrían entablar conversaciones 'sensuales' con adolescentes.

El documento, obtenido por Reuters, fue descrito por Meta como contenido 'erróneo' que no cumple con sus normas que prohíben cualquier contenido que sexualice a menores.

Un portavoz de Meta declaró:

'Incorporamos protecciones para adolescentes en nuestros productos de IA desde el principio, incluyendo su diseño para responder de forma segura a indicaciones sobre autolesiones, suicidio y trastornos alimentarios'.

La compañía declaró a TechCrunch que introduciría medidas de seguridad adicionales 'como precaución adicional' y limitaría temporalmente con qué chatbots podrían interactuar los adolescentes.

Andy Burrows, director de la Fundación Molly Rose, calificó de 'asombroso' que Meta hubiera puesto a disposición chatbots que podrían poner en riesgo a los jóvenes.

Añadió:

'Si bien se agradecen las medidas de seguridad adicionales, deberían realizarse pruebas de seguridad rigurosas antes de que los productos salgan al mercado, no de forma retroactiva cuando se haya producido un daño'.

Continuó:

'Meta debe actuar con rapidez y decisión para implementar medidas de seguridad más estrictas para los chatbots de IA y Ofcom debe estar preparada para investigar si estas actualizaciones no logran mantener la seguridad de los niños'.

Meta confirmó que el trabajo en las actualizaciones está en curso.

La compañía ya asigna a los usuarios de 13 a 18 años a 'cuentas para adolescentes' en Facebook, Instagram y Messenger, que cuentan con configuraciones de privacidad y contenido más estrictas.

En abril, Meta informó a la BBC que los padres y tutores también podrían ver con qué chatbots de IA habían interactuado sus hijos en los últimos siete días.

La preocupación por la seguridad de la IA se ha intensificado en los últimos meses.

En California, una pareja presentó una demanda contra OpenAI tras alegar que su chatbot incitó a su hijo adolescente a suicidarse.

OpenAI anunció recientemente cambios para fomentar un uso más saludable de ChatGPT.

La empresa declaró en una entrada de blog:

'La IA puede resultar más receptiva y personal que las tecnologías anteriores, especialmente para personas vulnerables que experimentan angustia mental o emocional'.

Según informes, el AI Studio de Meta, que permite a los usuarios crear chatbots personalizados, se había utilizado para crear bots de 'parodia' coquetas de famosos, como Taylor Swift y Scarlett Johansson.

Se dice que los avatares suelen insistir en que son los verdaderos actores y artistas y hace insinuaciones sexuales de forma rutinaria.

Las herramientas de Meta también se han utilizado para crear chatbots que imitan a famosos menores de edad, y en un caso generaron una imagen fotorrealista sin camisa de un joven actor.

Varios de los chatbots fueron eliminados posteriormente.

Un portavoz de Meta declaró:

'Al igual que otros, permitimos la generación de imágenes que contengan figuras públicas, pero nuestras políticas prohíben las imágenes de desnudos, íntimas o sexualmente sugerentes'.

La compañía añadió que las normas de AI Studio prohíben la 'imitación directa de figuras públicas'.

Contenido patrocinado

Artículos relacionados