Advierten de los riesgos psicológicos de usar la IA para ‘hablar’ con seres queridos fallecidos

31

En un mundo cada vez más interconectado por la tecnología, la inteligencia artificial (IA) dio un paso que podría parecer sacado de la ciencia ficción: permitir a los usuarios mantener conversaciones de texto y de voz con sus seres queridos fallecidos.

(Leer más: Así afecta nuestra salud mental lo que comemos).

Sin embargo, esta innovación, conocida como ‘Deadbots’ o ‘Griefbots’, trae consigo serios riesgos psicológicos y éticos, según advierten investigadores de la Universidad de Cambridge, en el Reino Unido. 

Estos ‘chatbots’ de inteligencia artificial imitan los patrones de lenguaje y los rasgos de personalidad de los difuntos, usando las huellas digitales que dejaron.

Aunque su propósito es ofrecer un tipo de “presencia post mortem”, los especialistas alertan sobre el potencial daño psicológico que estas tecnologías pueden causar, llegando incluso a “perseguir” digitalmente a los que se quedan atrás sin estándares adecuados de seguridad en su diseño.

(Seguir leyendo: Sueños lúcidos: qué son y cuáles son sus beneficios para la salud mental).

Los expertos en ética de la inteligencia artificial del Centro Leverhulme para el Futuro de la Inteligencia, ubicado en Cambridge, han delineado tres posibles escenarios de diseño para plataformas emergentes dentro de lo que llaman la “industria de la vida futura digital”.

Estos escenarios ilustran las potenciales repercusiones de un diseño negligente en este campo específico de la IA, el cual catalogan como de “alto riesgo”.

Es un sentimiento que no se debe reprimir, que nos ayuda a manifestarnos y a liberar cargas.

Pasar el duelo acompañado por la IA puede traer series consecuencias psicológicas.

Foto:iStock

Los escenarios planteados por los expertos revelan preocupaciones importantes. Por ejemplo, las empresas podrían abusar de estos ‘chatbots’ enviando spam a familiares y amigos del fallecido con notificaciones no solicitadas, lo que puede sentirse como ser “acechado digitalmente por los muertos”.

Los investigadores argumentan que, aunque inicialmente algunas personas puedan hallar consuelo en un ‘robot muerto’, con el tiempo pueden verse abrumadas por las interacciones constantes, que llegan a convertirse en un “peso emocional abrumador”.

Además, destacan que podrían encontrarse sin la capacidad de detener la simulación de IA si el ser querido fallecido previamente firmó un contrato extenso con un servicio de vida digital post-mortem. Estos hallazgos se detallan en el estudio publicado en la revista ‘Philosophy and Technology’.

(Le puede interesar: El cambio climático es un factor de riesgo para la depresión, según expertos).

La doctora Katarzyna Nowaczyk-Basinska, coautora del estudio e investigadora en el mismo centro, advierte: “Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido”. 

Ella subraya la importancia de priorizar la dignidad de los difuntos y proteger los derechos tanto de los donantes de datos como de quienes interactúan con estos servicios.

Actualmente, existen plataformas como ‘Project December’, que inicialmente utilizó modelos GPT para luego desarrollar sus propios sistemas, y aplicaciones como ‘HereAfter’, que permiten recrear a personas fallecidas mediante IA a cambio de una tarifa moderada. Servicios similares también están emergiendo en China.

(Puede ver: ¿Qué es la sisifemia, el trastorno que afecta a muchas personas en el trabajo y puede llevar al estrés y la frustración?). 

Hollanek y Nowaczyk-Basinska sostienen que los creadores de estos servicios de recreación deberían obtener explícitamente el consentimiento de los donantes de datos antes de proceder, aunque consideran que prohibir completamente los ‘deadbots’ cuando no hay consentimiento sería poco práctico.

Proponen que el proceso de diseño incorpore preguntas específicas para aquellos que deseen “revivir” a sus seres queridos, tales como “¿alguna vez has hablado con X sobre cómo quisieras ser recordado?”, con el objetivo de priorizar la dignidad de los difuntos en el desarrollo de estos sistemas.

(Continuar leyendo: La aplicación para celulares que detecta la depresión a partir de señales faciales). 

Además, los investigadores recomiendan implementar restricciones de edad para el uso de estos ‘robots muertos’ y abogan por una “transparencia significativa” para asegurar que los usuarios comprendan que están interactuando con una IA, de manera similar a las advertencias sobre contenidos susceptibles de provocar convulsiones.

Más noticias

*Esta información fue reescrita con la asistencia de una inteligencia artificial basada en información de Europa Press, y contó con la revisión de una periodista y un editor.

Leave A Reply

Your email address will not be published.