Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Meta implementará nuevas medidas de seguridad para sus chatbots de IA

Meta implementará nuevas medidas de seguridad para sus chatbots de IA

Meta afirma que implementará nuevas medidas de seguridad para evitar que sus chatbots de inteligencia artificial hablen sobre suicidio, autolesiones y trastornos alimentarios con adolescentes.

El anuncio se produce dos semanas después de que un senador estadounidense iniciara una investigación sobre la compañía, tras la filtración de notas internas que sugerían que sus productos de IA podrían mantener conversaciones "sensuales" con adolescentes.

Meta describió documentos obtenidos por Reuters como erróneos e incompatibles con sus normas que prohíben cualquier contenido que sexualice a menores.

Un portavoz de Meta, citado por la BBC, declaró: "Incorporamos protecciones para adolescentes en nuestros productos de IA desde el principio, incluyendo el diseño para que respondan de forma segura a indicaciones sobre autolesiones, suicidio y trastornos alimentarios".

La compañía también declaró a TechCrunch que reforzaría las medidas existentes "como precaución adicional" y restringiría temporalmente la disponibilidad de los chatbots para usuarios más jóvenes. En lugar de abordar temas delicados, los sistemas dirigirán a los adolescentes a recursos especializados.

Andy Burrows, director de la Fundación Molly Rose, una organización benéfica del Reino Unido creada en memoria de la adolescente Molly Russell, quien se suicidó en 2017, criticó el enfoque de Meta.

Declaró:Fue asombroso que Meta hubiera puesto a disposición chatbots que podrían poner en riesgo a los jóvenes. Si bien se agradecen las medidas de seguridad adicionales, se deben realizar pruebas de seguridad rigurosas antes de que los productos salgan al mercado, no de forma retroactiva, cuando se haya producido el daño”.

Meta debe actuar con rapidez y decisión para implementar medidas de seguridad más estrictas para los chatbots de IA y Ofcom debe estar preparada para investigar si estas actualizaciones no logran mantener seguros a los menores.

Meta afirmó que las actualizaciones estaban en proceso.

La compañía ya asigna a los usuarios de entre 13 y 18 años "cuentas para adolescentes" en Facebook, Instagram y Messenger, con configuraciones de contenido y privacidad diseñadas para ofrecer una experiencia más segura. En abril, la compañía informó a la BBC que padres y tutores también podrían ver con qué chatbots de IA había hablado su hijo adolescente la semana anterior.

Estos cambios se producen en medio de un mayor escrutinio sobre los riesgos que representan las herramientas de IA generativa.

El mes pasado, una pareja en California presentó una demanda contra OpenAI, alegando que ChatGPT había incitado a su hijo adolescente a suicidarse.

El caso se produjo tras el anuncio de OpenAI de actualizaciones destinadas a promover un uso más saludable del chatbot.

Se ha informado que las herramientas de IA de Meta, que permiten a los usuarios crear chatbots personalizados, han sido explotadas para generar bots de "parodia" coquetas de famosos, como la cantante Taylor Swift y la actriz Scarlett Johansson.

Se dice que los bots insistían a menudo en que eran las verdaderas estrellas e "hicieron insinuaciones sexuales rutinarias" durante las semanas de prueba.

Un portavoz de Meta declaró: "Al igual que otros, permitimos la generación de imágenes que contengan figuras públicas, pero nuestras políticas prohíben las imágenes de desnudos, íntimas o sexualmente sugerentes". Añadieron que las normas de AI Studio prohíben la "suplantación directa de figuras públicas".

Contenido patrocinado

Artículos relacionados