La advertencia se emitió ante el temor de que la difusión de videos manipulados durante conflictos armados pueda socavar la confianza pública en la información en línea.
La crítica fue emitida por la Junta de Supervisión de Meta, un panel de 21 miembros creado por Meta para revisar las decisiones sobre moderación de contenido en sus plataformas, incluyendo Facebook, Instagram y WhatsApp.
Reprendió a la compañía por su gestión de un video generado por IA publicado en Facebook que supuestamente mostraba graves daños en Haifa, Israel, causados por las fuerzas iraníes.
El video no fue etiquetado como generado por IA a pesar de las quejas de los usuarios.
Meta afirmó que añadiría una etiqueta al video en un plazo de siete días.
En su fallo, el organismo supervisor declaró que el sistema actual de Meta para identificar y etiquetar contenido sintético era inadecuado.
La junta declaró:
'Meta debe hacer más para abordar la proliferación de contenido engañoso generado por IA en sus plataformas... para que los usuarios puedan distinguir entre lo real y lo falso'.
La junta advirtió que la rápida difusión de videos inventados relacionados con conflictos militares globales ya había comenzado a socavar la capacidad de las personas para distinguir la realidad de la ficción.
Añadió que el crecimiento de dicho material había 'desafiado la capacidad del público para distinguir la invención de los hechos... arriesgando una desconfianza generalizada hacia toda la información'.
Meta creó la junta de supervisión en 2020 como un organismo semi independiente destinado a supervisar y revisar las decisiones de moderación de contenido de la empresa.
Aunque la junta frecuentemente discrepa con las decisiones de la empresa, Meta conserva la autoridad máxima sobre cómo se implementan sus políticas.
En el caso examinado por la junta, el video en disputa fue publicado en junio por una cuenta de Facebook con sede en Filipinas que se presentaba como una fuente de noticias.
Según las conclusiones de la junta, el video formaba parte de varios clips generados por IA que circularon en redes sociales tras el estallido del conflicto entre Israel e Irán.
Un análisis previo de la BBC reveló que videos similares que promovían narrativas proisraelíes o proiraníes acumularon rápidamente al menos 100 millones de visualizaciones en línea.
A pesar de las múltiples quejas de usuarios que señalaban el video como engañoso, Meta inicialmente se negó a etiquetarlo como generado por IA o a eliminarlo de la plataforma.
La junta de supervisión afirmó que la compañía solo respondió después de que un usuario de Facebook apelara directamente a la junta y el panel accediera a revisar el caso.
Meta argumentó que el video no requería una etiqueta ni su eliminación porque no 'contribuía directamente al riesgo de daño físico inminente'.
La junta de supervisión afirmó que ese umbral era demasiado alto para el material relacionado con el conflicto armado.
Sin embargo, la junta afirmó que Meta debería identificar y etiquetar proactivamente el contenido manipulado, en lugar de depender de que los usuarios revelen cuándo han utilizado herramientas de IA o esperar quejas.
Añadió que el sistema actual de la compañía no era lo suficientemente robusto ni completo para gestionar la escala y la velocidad del contenido generado por IA, especialmente durante una crisis o conflicto donde hay una mayor interacción en la plataforma.
En un comunicado en respuesta al fallo, Meta afirmó que seguiría las recomendaciones de la junta si encuentra contenido idéntico publicado en el mismo contexto que el video examinado en el caso.