HereAfter AI: hablar con los que ya no están: el riesgo de resucitar muertos con inteligencia artificial | Tecnología

Entre lágrimas, luego de escuchar a sus familiares fallecidos, varias mujeres confesaron su asombro por lo sucedido Espectáculo televisión el hormiguero (Antena 3). “Se sentía tan real y lo necesitaba, realmente lo necesitaba”, sollozó una joven ante las cámaras. “La voz es increíble, estoy muy feliz con la experiencia”, añadió otra mujer, secándose las lágrimas de la cara. El programa de Pablo Motos había utilizado inteligencia artificial para recrear, a partir de audio real, las voces de los muertos. No sólo lo reprodujeron, que es muy sencillo de hacer y ha causado problemas de desinformación por el uso de estos profundo con la voz de Joe Biden o el líder del Partido Laborista británico, Keir Starmer. Los audios generaron preguntas que incitaron a los participantes: “¿quedan conversaciones?” – en esta “experiencia real”, como la llama el programa, en la que se sumergió hora estelar en un mercado emergente, el de recrear fallecidos con inteligencia artificial (IA). Los psicólogos advierten de que puede interferir en la adaptación natural al duelo y cronificar las fases más dolorosas.

La muerte de un ser querido es como perder una parte de uno mismo. Es la fuente de numerosas dificultades en el bienestar emocional y muchos estarían dispuestos a hacer cualquier cosa para aliviar ese sentimiento de pérdida abrumadora. También habla con tu ser querido cara a cara si es posible. Suena a ciencia ficción, pero empresas como HereAfter, StoryFile y Replika lo están haciendo y no tiene nada de sobrenatural. Utilizando entrevistas y otros contenidos, crean versiones digitales de personas fallecidas para interactuar con los vivos, a través de chat, voz o vídeo. En China, este negocio ya está creciendo, y varias empresas afirman haber creado miles de estos personajes digitales o robots fantasma. Algunos incluso afirman que pueden hacerlo con apenas 30 segundos de grabación audiovisual del fallecido.

American StoryFile entrevista a personas a lo largo de sus vidas a través de vídeo, haciendo una serie de preguntas sobre experiencias clave, como la infancia, el matrimonio o el mayor desafío, junto con otras que el entrevistado elige agregar. A partir de las respuestas y con el uso de inteligencia artificial se genera un vídeo conversacional con el que niños, padres, amigos y familiares podrán interactuar en el futuro. Según se indicó, alrededor de 5.000 personas ya crearon perfiles en la plataforma. El coste del servicio varía entre 40 y 450 euros, dependiendo del número de preguntas que desees insertar. También ofrecen una prueba gratuita.

Stephen Smith, cofundador de StoryFile, explica que la empresa se fundó hace diez años con el objetivo de preservar la memoria de los supervivientes del Holocausto. Pero fue a finales de 2021 que la plataforma pasó a ser lo que es hoy, donde cualquiera puede grabar vídeos con una webcam desde casa o en un estudio.

El cofundador subraya que la plataforma no inventa contenidos, sino que “recupera algo que estaba pregrabado”, ya existente. Pero es posible ir más allá y añadir información de otros formatos. “Hicimos esto utilizando una metodología de archivo conversacional. Significa usar contenido de la vida de la persona, como un video donde podemos clonar su voz y luego hacer que diga las cosas que ha dicho en su vida. Por ejemplo, podría utilizar un correo electrónico y luego pedir que se lo lean. Si alguien quiere que esto suceda, es posible”, dice a EL PAÍS en videoconferencia.

El peligro de quedar atrapado

Quizás lo más inquietante es que algunas personas pueden volverse adictas o incluso adictas a hablar con avatares virtuales, porque generan una falsa sensación de cercanía con los muertos, como ha demostrado el programa de Antena 3. Las mujeres que se ofrecieron como voluntarias hablaron directamente con su voz -” Te diría…”, “Te extraño”, como si esa recreación sintética fuera su abuela fallecida un año antes.

“Al principio hay alivio. Pero luego surge una adicción”, advierte José González, psicólogo especializado en procesos de duelo. “Si la IA reproduce literalmente cómo era uno, existe un gran peligro de cronificación, especialmente en vínculos muy intensos. Es fácil caer en la fantasía de que no está muerto. Puede provocar ese congelamiento en la fase de negación”, continúa.

El experto, que ha trabajado con más de 20.000 personas en duelo en 25 años, coincide en que los vídeos conversacionales pueden ser útiles para mantener vivos los recuerdos, contar anécdotas o transmitir información entre generaciones con emoción. Incluso a la hora de replicar algunas de las técnicas utilizadas durante la consulta para atar cabos sueltos, que no se pudieron resolver hablando. “Hago algunas preguntas sobre la conexión con la persona que murió, como ‘qué es lo que más me gustó de ti’ o ‘cuándo me decepcionaste más’. Con estas respuestas, el doliente escribe una carta y la lee en una silla vacía”, describe. Según él, la inteligencia artificial podría aplicarse a dinámicas como ésta, de manera oportuna, siempre y cuando sea cuidadosamente supervisada por un profesional.

González destaca que también existe un riesgo asociado a lo expresado en estas grabaciones. Los mensajes de despedida pueden ser muy poderosos y ayudar a aliviar el dolor porque es el momento en que le dices a tu familia cuánto los amas, los libera de la culpa y hace que el duelo sea mucho más llevadero. Sin embargo, sin la supervisión de expertos, incluso las mejores intenciones podrían provocar efectos adversos. “Imagínate que soy padre de una hija única y le digo: ‘Te dejo como meta vital cuidar de tu madre’. Puede ser muy bonito, pero también puede ser una frase si la persona que quiere ser madre está muy enferma”, ejemplifica. Es en ese momento que un profesional aconsejaría al padre hablar diferente para evitar crear una carga emocional Y si no hay supervisión, aumenta la probabilidad de malentendidos.

Un problema ético

¿Hasta qué punto puede ser fiel un avatar? ¿A quién pertenece? ¿Qué tipo de datos se pueden utilizar para su creación? Estas son sólo algunas de las preguntas que surgen en torno a este tema. Para Gry Hasselbalch, especialista en ética del Consejo Europeo de Investigación, las implicaciones se extienden al ámbito existencial: “Cualquier tecnología que se base en el hecho o la idea de poder competir con los humanos plantea la cuestión de qué significa ser humano. cuáles son nuestros límites y si es posible explotarlos para superar un límite”.

Hasselbalch, que también es cofundador de grupo de expertos La danesa DataEthics.eu cree que la proliferación de avatares de fallecidos representa un dilema que va más allá de los datos, el consentimiento o quién tiene derechos. “Podría cambiar la identidad de la humanidad y del ser humano, porque cuestiona la idea misma de mortalidad”, afirma.

Entre varios problemas potenciales, el especialista en IA destaca la posibilidad de una herramienta que no sólo recopile el contenido de las redes sociales, los correos electrónicos y los mensajes móviles de una persona fallecida, sino también sus patrones de búsqueda en Internet. Esto podría revelar pasatiempos o intereses previamente desconocidos de la persona, desde la pasión por un animal o un deporte hasta, en el peor de los casos, un oscuro secreto.

Si la IA combina esta información con otros elementos que conforman tu identidad, pero da mayor relevancia a algunos aspectos, podría llevar a la creación de un avatar o robot que se parezca poco o nada a cómo era esa persona en la vida real. Es un escenario en el que “se perdería el control”, advierte. Y no es el único. “¿Con qué facilidad podría ser manipulado si un ser querido al que extrañaba le dijera que votara de cierta manera o comprara cosas específicas? No sabemos qué empresas surgirán detrás de esto”, reflexiona.

‘Deepfakes’ y ‘copyright’

Uno de los clientes de StoryFile fue el fallecido Sam Walton, fundador del gigante Walmart. “Trabajamos con el expediente de su empresa. Revisamos muchas horas de material, transcribimos sus discursos, sus vídeos y creamos 2.500 respuestas a las preguntas que había respondido a lo largo de su vida con exactamente las mismas palabras que usaba”, afirma. El resultado fue una recreación digital que tiene el rostro, la voz y un holograma de tamaño natural de Walton. ¿Puede ser muy realista? “La gente que conocía a Sam se quedó con los ojos nublados por su realismo”, dice Alan Dranow, ejecutivo de esta empresa. La familia del empresario había dado su consentimiento para esta producción, pero la IA recreaba los rostros y las palabras de otras celebridades sin acuerdo mutuo.

Este es el caso del comediante estadounidense George Carlin, fallecido en 2008, cuya voz y estilo fueron clonados para la creación de la película. podcasts George Carlin: Estoy feliz de estar muerto, lanzado en YouTube a principios de enero. La semana pasada se presentó una demanda en un tribunal federal de Los Ángeles exigiendo que Dudesy, la compañía detrás de la película, retire inmediatamente el especial de audio. Su hija, Kelly Carlin, ya había criticado la producción, en la que una voz sintetizada del artista comenta los episodios en curso. “Mi padre pasó toda su vida perfeccionando su arte desde su humanidad, cerebro e imaginación. Ninguna máquina podrá jamás reemplazar su genio. Estos productos generados por IA son intentos ingeniosos de recrear una mente que nunca volverá a existir. Dejemos que el trabajo del artista hable por sí mismo”, dijo al plataforma.

Según StoryFile, el servicio que integra la parte más avanzada de esta tecnología está dirigido únicamente a un grupo selecto. “Actualmente no lo ofrecemos como producto en nuestro sitio web, sino para clientes privados. No queremos que nuestra tecnología se utilice para crear una profundo de otra persona”, matiza Smith.

Sin embargo, existen alternativas que sí lo hacen. La empresa HeyGen, por ejemplo, permite generar vídeos con clonación de voz, sincronización labial y estilos de conversación. Si no se mira con atención es casi imposible darse cuenta de que se trata de una creación artificial. Aunque la plataforma se presenta como una solución para personalizar y traducir contenidos en el mundo empresarial, en la práctica puede usarse para cualquier propósito: saludar a un ser querido o usarlo para generar dinero.

puedes seguir La tecnología de EL PAÍS En Facebook Y X o regístrate aquí para recibir el nuestro boletín semanal.

By México Actualidad

Puede interesarte