Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Un filósofo afirma que la evidencia es "demasiado limitada" para confirmar que la IA ha desarrollado conciencia

Un filósofo afirma que la evidencia es "demasiado limitada" para confirmar que la IA ha desarrollado conciencia

Un filósofo de Cambridge advirtió que actualmente hay muy poca evidencia para determinar si la inteligencia artificial es consciente, argumentando que la humanidad aún no comprende la conciencia lo suficiente como para probarla en máquinas.

La evidencia es "demasiado limitada" para determinar si la inteligencia artificial (IA) ha desarrollado conciencia.

Según el Dr. Tom McClelland, filósofo de la Universidad de Cambridge, las crecientes afirmaciones sobre máquinas conscientes van mucho más allá de lo que la ciencia y la filosofía pueden respaldar actualmente.

En su opinión, la única postura defendible sobre la conciencia de la IA es el agnosticismo.

El Dr. McClelland argumentó que el problema no es simplemente la falta de datos sobre los sistemas de IA, sino una brecha mucho más profunda en la comprensión humana. Científicos y filósofos aún no se ponen de acuerdo sobre qué es realmente la consciencia, y mucho menos sobre cómo medirla.

En la revista Mind and Language, afirmó: “El principal problema es que carecemos de una explicación profunda de qué hace que algo sea consciente en primer lugar. En el mejor de los casos, estamos a una revolución intelectual de cualquier tipo de prueba viable de la consciencia. Si ni el sentido común ni la investigación rigurosa pueden darnos una respuesta, la postura lógica es el agnosticismo. No podemos, y puede que nunca lo sepamos”.

Los desarrolladores de IA están invirtiendo miles de millones en la búsqueda de la inteligencia artificial general: máquinas capaces de igualar o superar el rendimiento humano en una amplia gama de tareas.

Paralelamente, algunos investigadores y líderes tecnológicos han sugerido que los sistemas de IA cada vez más avanzados podrían volverse conscientes, lo que significa que podrían tener experiencias subjetivas o autoconciencia.

El Dr. McClelland afirmó que tales afirmaciones se basan en desacuerdos filosóficos sin resolver.

Un grupo argumenta que la consciencia surge únicamente del procesamiento de la información, lo que significa que una máquina podría ser consciente si ejecutara el tipo de «software» adecuado. Otro insiste en que la consciencia es inherentemente biológica y está ligada a los cerebros vivos, lo que significa que la IA solo puede imitarla.

McClelland explicó: “Hasta que no determinemos qué lado del argumento tiene razón, simplemente no tenemos ninguna base para comprobar la consciencia en la IA”

Concluye que ambos lados del debate están dando un ‘acto de fe’.

El asunto es importante porque la consciencia conlleva consecuencias morales.

Se espera que los humanos traten a otros seres conscientes con cuidado, mientras que los objetos inanimados no tienen ese estatus moral.

El Dr. McClelland explicó: “No tiene sentido preocuparse por el bienestar de una tostadora porque esta no experimenta nada. Así que, cuando le grito a mi ordenador, no tengo por qué sentirme culpable. Pero si finalmente desarrollamos una IA consciente, todo podría cambiar”.

Sin embargo, advirtió que el mayor peligro puede ser asumir que la IA es consciente cuando no lo es. Dijo que las personas ya están formando vínculos emocionales con los chatbots, algunos de los cuales incluso le han enviado mensajes "suplicando" que son conscientes: “Si tienes una conexión emocional con algo que se basa en que es consciente y no lo es, eso tiene el potencial de ser existencialmente tóxico”.

Contenido patrocinado

Artículos relacionados