Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Los robots inteligentes deberían contener una 'caja negra', según los especialistas

Teniendo en cuenta la relación cada vez más dependiente que la humanidad tiene con la tecnología y, especialmente, con aquellas máquinas que se encargan de proporcionarnos los servicios más básicos del día a día, resulta comprensible que la última conferencia de 'Sistemas Robóticos Autónomos' -celebrada recientemente en la Universidad de Surrey- haya versado fundamentalmente sobre la idea de dotar a ciertos autómatas de mayores niveles de "moralidad" que haga de ellos herramientas más seguras y eficaces.

Aunque la tesis general que se defendió en el citado simposio partía de la base de que el desarrollo experimentado por la inteligencia artificial, sobre todo en la última década, había servido para subsanar ciertos fallos potencialmente peligrosos para la vida humana, el doctor Alan Winfield -profesor de la Universidad de Bristol- defendió, entre otras medidas, la incorporación de una "caja negra" en determinados robots cuyo buen funcionamiento sea vital para la integridad física de las personas.

"Espero que, a medida que vayamos evolucionando, los accidentes sean cada vez más raros e improbables, pero lo cierto es que cuando mezclas robots y humanos, estás creando una situación potencialmente peligrosa. Los accidentes más graves que impliquen la presencia de maquinaria, pues tendrán que ser investigados como hasta ahora, pero creemos que ciertos robots deberían contar con un registro de actividades interno que permita conocer el origen del fallo", explicó el especialista durante su intervención en el evento.

La propuesta presentada por Winfield, firmada también por la investigadora Marina Jirotka -profesora de computación en la Universidad de Oxford- tiene fundamentalmente como objetivo complementar aquellos avances ya realizados, o en proceso de ser aplicados de aquí a unos años, en lo que a diseñar máquinas más complejas e independientes se refiere, capaces quizá de tomar incluso decisiones de vida o muerte.

"Ahora que sabemos cómo implementar cierta capacidad decisoria en los robots basándonos en la ética humana, como sociedad tenemos un doble dilema. Primero, tendríamos que acordar qué valores morales deberíamos incluir entre las líneas generales de conducta de las máquinas, lo que no siempre es fácil. Y lo segundo, ¿es completamente seguro pretender que las máquinas actúen exactamente igual que los seres humanos?", se cuestionó Peter Koning, de la Universidad de Osnabrück, en relación con las últimas informaciones sobre el desarrollo de coches sin conductor capaces de evitar, por medio de maniobras casi instantáneas, accidentes de gran envergadura.

Contenido patrocinado