Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Sudáfrica retira el borrador de su política de IA tras contener citas falsas generadas por IA

Sudáfrica retira el borrador de su política de IA tras contener citas falsas generadas por IA

Sudáfrica ha retirado su borrador de política nacional de IA tras revelarse que algunas de las citas académicas del documento fueron generadas falsamente por la tecnología.

El ministro de Comunicaciones, Solly Malatsi, retiró el borrador de la política tras constatar que seis de sus 67 citas académicas provenían de artículos académicos ficticios. Malatsi escribió en X: “La explicación más plausible es que se incluyeron citas generadas por IA sin la debida verificación. Esto no debería haber ocurrido. Este fallo no es un simple problema técnico, sino que ha comprometido la integridad y la credibilidad del borrador de la política”.

El borrador de la política se presentó para comentarios públicos y tenía como objetivo posicionar a Sudáfrica como líder en innovación en IA, al tiempo que intentaba abordar los desafíos éticos, sociales y económicos relacionados con el uso de esta tecnología.

También establecía planes para crear nuevas instituciones en el país que supervisaran el uso de la IA, como una comisión nacional de IA, un comité de ética de la IA y una autoridad reguladora de la IA.

El problema se descubrió cuando News24 de Sudáfrica halló que al menos seis de las citas académicas del documento no existían, aunque las revistas a las que hacían referencia eran reales.

Los editores de las revistas confirmaron de forma independiente que los artículos citados eran falsos.

Se espera que el borrador de la política se revise antes de volver a publicarse para comentarios públicos.

Malatsi afirmó que habrá consecuencias para los responsables de la redacción de la política.

El ministro escribió: "Este inaceptable fallo demuestra por qué es fundamental una supervisión humana vigilante sobre el uso de la inteligencia artificial. Es una lección que aprendemos con humildad”.

El episodio pone de relieve el creciente problema del uso de IA generativa por parte de académicos y administradores para la investigación y redacción de artículos.

Un estudio reveló que más del 2,5 % de los artículos académicos publicados el año pasado contenían al menos una cita ficticia, en comparación con solo el 0,3 % en 2024.

Esto equivale a más de 110 000 artículos publicados en 2025 con referencias inválidas generadas por IA.

Se trata de resultados artificiales producidos por modelos de IA cuando detectan que faltan datos en un área determinada.

Modelos como ChatGPT de OpenAI y Gemini de Google están diseñados para predecir la siguiente palabra probable en una oración, no para verificar la veracidad de la información.

Si detectan que falta información en un dominio específico, el bot de IA rellenará el espacio con datos que suenan plausibles pero son incorrectos.

Contenido patrocinado

Artículos relacionados