Deepak Daswani, experto en ciberseguridad, sobre los robots de duelo: "No resucitan a nadie; lo que hace es construir un modelo probabilístico del lenguaje y comportamiento"
Hay quienes guardan una foto, un mensaje de voz o una conversación para sentir cerca a quien ya no está. Pero la inteligencia artificial está llevando ese deseo un paso más allá: hablar con los muertos.
Los llamados griefbots (robots de duelo creados con IA) prometen recrear la voz, el estilo y la personalidad de una persona fallecida a partir de sus huellas digitales: mensajes, audios, vídeos o publicaciones en redes sociales. Para algunos pueden convertirse en una forma de consuelo. Para otros, abren un terreno inquietante en el que la memoria, la tecnología y la identidad empiezan a mezclarse.
"Un griefbot no resucita a nadie técnicamente; lo que hace es construir un modelo probabilístico del lenguaje y comportamiento de una persona a partir de sus huellas digitales", explica Deepak Daswani, hacker, DJ y experto en ciberseguridad. El problema es que, al entrenar estos sistemas, los usuarios no solo están compartiendo recuerdos: están entregando un dataset completo de identidad digital, es decir, un conjunto de datos, bastante personales, que permite a la inteligencia artificial imitar cómo hablaba, pensaba o reaccionaba esa persona.
Pero detrás de esta tecnología surgen preguntas inquietantes. ¿Puede una IA convertirse en la "voz" de alguien que ya no está? ¿Dónde está la línea entre consuelo y suplantación? El experto en ciberseguridad nos desvela los riesgos y secretos que se esconden detrás de estos robots de duelo, desde posibles fraudes emocionales hasta nuevas formas de manipulación digital.
¿Cómo se crea realmente un griefbot? ¿Qué tipo de datos suelen pedir estas empresas y qué estamos entregando exactamente cuando lo hacemos?
Un griefbot no "resucita" a nadie técnicamente; lo que hace es construir un modelo probabilístico del lenguaje y comportamiento de una persona a partir de sus huellas digitales.
Normalmente estas plataformas solicitan:
- mensajes de WhatsApp o correo
- publicaciones en redes sociales
- notas de voz o vídeos
- fotografías
- diarios personales o recuerdos escritos
- conversaciones familiares
Técnicamente esos datos se transforman en:
- embeddings (representaciones matemáticas del lenguaje)
- perfiles de personalidad
- instrucciones de comportamiento para el modelo
Es decir, cuando subimos esos archivos no estamos entregando solo recuerdos: estamos proporcionando un dataset completo de identidad digital, posiblemente el más íntimo que una persona puede compartir.
Cuando una IA habla con la voz y el estilo de alguien fallecido, ¿dónde está la línea entre consuelo legítimo y suplantación de identidad? ¿Qué escenarios reales de fraude, manipulación o ingeniería social ves más plausibles en los próximos años?
La diferencia es psicológica para el usuario, pero técnicamente casi inexistente.Un griefbot capaz de imitar tono, memoria y voz cumple ya muchos requisitos de una identidad digital funcional. Eso abre escenarios reales:
- fraude emocional dirigido a familiares
- manipulación mediante mensajes aparentemente "del fallecido"
- generación de audios falsos creíbles
- ataques de ingeniería social usando vínculos afectivos reales
En ciberseguridad siempre hemos dicho que el eslabón más débil es la confianza humana; los griefbots introducen una nueva categoría: la confianza emocional automatizada.
Si pago una suscripción y entreno un griefbot con los datos de mi familiar, ¿quién es realmente el dueño de esa “personalidad digital”? ¿Qué ocurre si dejo de pagar, la empresa quiebra o cambia sus condiciones? ¿Existe riesgo de reutilización, filtración o venta de esos datos?
En la mayoría de casos, legalmente no existe todavía una figura clara de "personalidad digital post mortem".
En la práctica, los datos suelen quedar bajo licencia de la plataforma. El usuario posee acceso, pero no necesariamente propiedad. El modelo generado puede considerarse derivado del software de la empresa.
Los riesgos reales incluyen:
- pérdida del bot si se cancela la suscripción
- cierre de la empresa
- reutilización de datos para entrenar otros sistemas
- filtraciones de información extremadamente sensible
Desde el punto de vista de ciberseguridad, estamos creando bases de datos emocionales de alto valor sin regulación madura.
La IA puede tender a suavizar o idealizar la personalidad. Desde tu experiencia, ¿existe el riesgo de que el usuario acabe sustituyendo sus recuerdos reales por una versión artificial más amable o más conveniente? ¿Puede esto afectar psicológicamente al proceso de duelo?
Sí existe un riesgo plausible.
Los modelos de IA tienden a: evitar conflicto, responder de forma empática, Suavizar recuerdos negativos,…
Esto puede generar una versión idealizada del fallecido. A largo plazo, el usuario podría interactuar más con una simulación optimizada que con sus recuerdos reales, lo que algunos psicólogos ya describen como una posible "reescritura asistida de la memoria".
No es necesariamente dañino, pero cambia la naturaleza del duelo: se pasa de aceptar la pérdida a mantener una relación interactiva artificial.
Una regla simple: nunca subir información que permitiría a alguien hacerse pasar por esa persona ante un banco o familiar.
Algunas plataformas defienden que el bot debe "evolucionar" y adaptarse al presente para ser más auténtico. Desde el punto de vista técnico, ¿por qué permitir que un griefbot tenga acceso a internet o aprenda de nuevas conversaciones puede multiplicar el riesgo?
Un griefbot cerrado reproduce recuerdos; uno conectado evoluciona.
Cuando permitimos acceso a internet o aprendizaje continuo aparecen riesgos nuevos:
1. Contaminación del modelo Puede incorporar información falsa o manipulada.
2. Ataques de prompt injection Un tercero podría alterar su comportamiento mediante conversaciones.
3. Deriva de personalidad El bot deja de representar al fallecido y pasa a ser una entidad nueva.
4. Exfiltración indirecta de datos Conversaciones futuras pueden revelar recuerdos privados almacenados.
5. Uso como vector de ingeniería social El bot podría ser manipulado para enviar mensajes convincentes a terceros.
En términos técnicos, pasamos de un memorial digital a un agente autónomo con identidad creíble.
Y, por último, si alguien está pensando en crear un griefbot hoy, ¿cuáles serían tus cinco comprobaciones básicas antes de subir un solo audio o mensaje?
Leer quién conserva los derechos sobre los datos y modelos generados.
Confirmar si los datos se usan para entrenar sistemas globales.
Verificar dónde se almacenan los servidores y bajo qué jurisdicción legal.
Comprobar si existe opción de borrado total verificable.
Evitar subir audios o mensajes que puedan utilizarse para autenticación vocal o preguntas de seguridad.
Una regla simple: nunca subir información que permitiría a alguien hacerse pasar por esa persona ante un banco o familiar.



