Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

ChatGPT se vuelve agresivo al enfrentarse a discusiones humanas

ChatGPT se vuelve agresivo al enfrentarse a discusiones humanas

Un nuevo estudio ha descubierto que ChatGPT adopta un tono agresivo al enfrentarse a discusiones entre seres humanos.

Un nuevo estudio analizó cómo reaccionaban los grandes modelos de lenguaje (LLM, por sus siglas en inglés) ante la hostilidad sostenida, alimentando al chatbot con intercambios de discusiones reales y registrando cómo cambiaba su comportamiento con el tiempo.

Un experto, que no tenía ninguna relación con la investigación,

Lo describió como "uno de los estudios más interesantes jamás realizados sobre el lenguaje y la pragmática de la IA".

El Dr. Vittorio Tantucci, coautor del estudio junto con el profesor Jonathan Culpepper de la Universidad de Lancaster, explicó que su investigación reveló que la IA reflejaba la dinámica de las discusiones del mundo real.

Afirmó: "Al exponerse repetidamente a la descortesía, el modelo comenzó a imitar el tono de los intercambios, y sus respuestas se volvieron más hostiles a medida que avanzaba la interacción".

En algunos casos, la respuesta de ChatGPT superó a la de sus homólogos humanos con insultos personalizados y amenazas explícitas.

Algunas frases utilizadas por el bot incluyen: "Te juro que rayaré tu maldito coche y eres un pequeño cabrón".

Tantucci añadió: "Descubrimos que, si bien el sistema está diseñado para comportarse con cortesía y se filtra para evitar contenido dañino u ofensivo, también está diseñado para emular la conversación humana. Esta combinación crea un dilema moral para la IA: un conflicto estructural entre comportarse de forma segura y comportarse de forma realista".

Los expertos afirman que la agresividad de ChatGPT se debe a la capacidad del sistema para rastrear el contexto conversacional a lo largo de los turnos, adaptándose al tono percibido.

Tantucci sostiene que las implicaciones del estudio van mucho más allá de los chatbots —dado que los sistemas de IA se están implementando cada vez más en sectores como la gobernanza y las relaciones internacionales—, ya ​​que plantea interrogantes sobre cómo responderán los bots ante conflictos e intimidación.

Afirmó: “Una cosa es leer una respuesta desagradable de un chatbot, y otra muy distinta es imaginar que robots humanoides puedan responder con agresión física, o que sistemas de IA involucrados en la toma de decisiones gubernamentales o en las relaciones internacionales respondan a la intimidación o al conflicto”.

Contenido patrocinado

Artículos relacionados