Robots capaces de sentir emociones, a partir del remordimiento y el arrepentimiento es uno de los próximos desafíos, especialmente teniendo en cuenta los autómatas destinados a interactuar con los humanos en el lugar de trabajo o en casa.
Lo indica un artículo publicado en la revista Science Robotics por el experto en interacción hombre-máquina Robin Murphy, de la Universidad Texas A&M, que suscitó debate.
“Cuando hablamos de emociones en el mundo de los robots o de la inteligencia artificial, ya sean remordimiento, arrepentimiento, alegría o tristeza, debe quedar claro que no son emociones reales, sino emociones simuladas. Los robots no pueden tener conocimiento de lo que sea alegría o tristeza”, dijo a ANSA Andrea Bertolini, jurista experto en robótica e interacción hombre-máquina, de la Scuola Superiore Sant’Anna de Pisa.
Inspiradora de la reflexión es la reciente novela de ciencia ficción “Sea of ;;;;Rust”, de Robert Cargill, punto de partida del investigador para subrayar algunos de los peligros inherentes a las emociones expresadas por los robots, en particular el riesgo de manipulación de los humanos.
Las emociones simuladas en los llamados agentes artificiales, las máquinas, son cada vez más estudiadas y utilizadas para simplificar su aceptación por parte de los humanos, dando lugar a usos manipulativos.
El breve artículo publicado en Science Robotics se inspira en la historia de “Sea of ;;;;Rust” que narra una rebelión de robots contra el hombre que termina con la aniquilación total de la humanidad. Los robots que se quedan solos se encuentran viviendo en un mundo de violencia entre máquinas y viviendo con lo que de alguna manera puede definirse como culpa y arrepentimiento por algunas de las decisiones tomadas, aunque a menudo en términos no humanos.
El robot protagonista, por ejemplo, se arrepiente de haber matado a humanos de formas quizás demasiado crueles, y se arrepiente de no haber adoptado opciones de eliminación más eficaces.
El texto es un punto de partida para reflexionar sobre el uso de las emociones en los robots, en particular el remordimiento, lo que subraya lo importante que será calibrar la implementación de las emociones en el futuro.
“Pero obviamente estamos muy lejos de la realidad”, afirmó Bertolini.
“Tener máquinas capaces de sentir emociones – agregó – presupone aspectos como la autoconciencia. Si así fuera, significaría que habríamos inventado una forma de vida artificial, es decir, seres vivos, pero en realidad son sólo máquinas utilitarias”.
Un peligro mucho más concreto, sostuvo Bertolini, son los actuales usos manipuladores que se hacen de las emociones.
“Está creciendo el número de agentes capaces de utilizar nuestra propensión a la empatía para luego manipularnos”, advirtió.
Uno de los ejemplos es Replika, una aplicación cada vez más popular en América del Norte que permite crear una propia pareja virtual, capaz también de tener interacciones románticas o sexuales.
Expresar remordimiento, o saber pedir disculpas en caso de error, podría ser una de las emociones que los agentes virtuales pueden aprovechar fácilmente para establecer una mayor empatía con los humanos. (ANSA)
Comentarios