EEUU.- De a poco, la tecnología comienza a borrar esa delgada línea que separa la realidad de lo inverosímil. Uno de sus grandes desafíos es volver a conectar con personas que han fallecido. Lejos del espiritismo, lo que busca Microsoft es crear un chatbot que refleje el pensamiento de esa persona que ya no está en este mundo.
Para cumplir este objetivo, como si se tratara de un capítulo de Black Mirror, a través de una inteligencia artificial (IA) entrenada para tal efecto, se sumergirá en la profundidad de la web para localizar información sobre el difunto.
Desde imágenes, grabaciones de voz, publicaciones en redes sociales y mensajes de correo electrónico para crear esa especie de avatar con el que sus familiares podrán conversar libremente.
Para avanzar con esta idea, la compañía de Redmond (Estados Unidos) ya presentó una patente para desarrollar este chatbot que permita volver a conectar con personas que ya no están vivas.
La tecnología y el resultado es similar al de las deepfakes para hacer parecer real a esa persona y se utilizaría información personal para elaborar las conversaciones.
Para dotar a la creación de un mayor realismo, se podría crear un modelo en dos o tres dimensiones de la persona. Para ello se emplearán los datos en video y que incluso, podría imitar la forma de hablar como los gestos característicos.
La patente posee un costado polémico, ya la intención sería posible también recrear figuras históricas o simplemente personajes ficticios.
Como figura en las especificaciones de la patente, «la persona podría corresponder a una entidad presente o pasada (o una versión de ella) como un amigo, un familiar, un conocido, una celebridad, una figura histórica, un personaje de ficción o una entidad aleatoria».
En plan de libertades creativas, los desarrolladores señalan que también podría adaptarse el chatbot para crear una versión juvenil, que retrocede 20 años en el pasado, para poder chatear con el adolescente o niño que alguna vez fue.
De la misma manera, la IA de Microsoft también permitiría hablar con un modelo de la persona envejecido. En este caso, con la información disponible, se podría simular su encanecido.
Experiencias del pasado
La última experiencia de Microsoft con este tipo de animaciones no funcionó como se lo esperaba. En 2016 presentó a Tay, un chatbot que recibía la personalidad de una adolescente y que estaba diseñada para aprender de los intercambios online con personas reales.
Tay comenzó a funcionar en Twitter, pero, apenas un par de días después, Microsoft ha decidido «dormirlo». Al no incluir ningún filtro el chatbot comenzó a proferir comentarios racistas, sexistas y ofensivos en las redes sociales.
En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. Pero algunas bromas eran tan literales que ofendían a los participantes.
En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y “diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida».
Con información de El Clarin
¡Síguenos en nuestras redes sociales y descargar la app!