Puedes leer el artículo relacionado Personas Sintéticas, un desafío para el diseño.
Desde hace más de 20 años, los métodos para representar a los usuarios en el proceso de diseño de productos han sido prácticamente los mismos: el uso de personas, arquetipos o segmentos.
Sin embargo, la inteligencia artificial nos ha abierto una serie de nuevas formas para representar a usuarios y clientes. Hoy es posible generar modelos que hablan, opinan, reaccionan ante prototipos e incluso simulan comportamientos en tiempo real. Suena increíble, pero hay muchos conceptos confusos, tales como personas sintéticas, usuarios sintéticos y digital twins, que se mezclan o se usan como si fueran equivalentes, cuando no lo son.
La diferencia entre cada uno de estos conceptos es importante, porque estas representaciones sirven para cosas distintas, se construyen a partir de datos diferentes, y tienen riesgos específicos. Cuando no hacemos estas distinciones, los equipos terminan confiando en herramientas incorrectas, reemplazando investigación con atajos o interpretando como “insights” cosas que son simples especulaciones.
Acá busco aclarar esas diferencias y ofrecer un marco práctico para decidir qué usar, cuándo y por qué. No pretendo establecer definiciones absolutas —el campo evoluciona rápido—, pero sí ayudarte a evitar errores comunes y usar estas herramientas de forma responsable.
Por qué surgen estas representaciones
La realidad de los equipos de producto, es que trabajan bajo presión: necesitan validar ideas más rápido, explorar escenarios sin semanas de investigación y anticipar comportamientos sin tener acceso inmediato a usuarios reales. En ese contexto, la idea de contar con “representantes digitales” resulta atractiva.
Pero no todas estas representaciones se construyen igual. Algunas se basan en investigación sólida; otras son sólo simulaciones generadas por un modelo de lenguaje. Y otras replican comportamientos reales a partir de datos de uso.
Conocer las diferencias es fundamental para usarlas bien, así que vamos a ver cada una de ellas.
Personas sintéticas
Las personas sintéticas son representaciones digitales construidas a partir de investigación real: entrevistas, encuestas, datos de uso, feedback cualitativo o métricas. Funcionan como una extensión inteligente de las personas tradicionales, con una ventaja clave: pueden dialogar, responder preguntas, reaccionar a estímulos y mantenerse consistentes en el tiempo gracias a IA.
Ejemplo concreto
Un equipo de onboarding entrevista a 20 personas recién registradas en el producto. A partir de ese material, construyen una persona sintética llamada “Carla”, basada en patrones reales de frustraciones, motivaciones y expectativas. Cuando prueban un prototipo, le preguntan a Carla cómo reaccionaría alguien con ese perfil ante ciertos mensajes o flujos.
Carla no “inventa”: amplifica lo que ya sabemos de ese segmento.
Cuándo sí
- Para ideación temprana con contexto real.
- Para probar mensajes, conceptos o prototipos cuando tengo investigación reciente.
- Para mantener viva una persona tradicional que antes quedaba en un cajón del escritorio o “en un PDF”.
Cuándo no
- Cuando la investigación es débil, desactualizada o insuficiente.
- Para extrapolar comportamientos futuros que la data no sustenta.
- Para reemplazar el contacto directo con personas reales.
Errores comunes
- Creer que responden como “usuarios reales” en cualquier situación.
- Pedirles opinión sobre cosas fuera del dominio de la investigación.
- No documentar la base de datos que les da origen.
Usuarios sintéticos
Los usuarios sintéticos son generados exclusivamente por un modelo de lenguaje, sin investigación previa que los ancle a un segmento real. Son simulaciones plausibles basadas en el entrenamiento general del modelo.
Pueden ser útiles para explorar ideas iniciales, pero su representatividad es muy limitada: reproducen los sesgos culturales del modelo, no capturan particularidades locales y muchas veces reflejan estereotipos más que usuarios.
Ejemplo concreto
Un equipo quiere explorar cómo podría reaccionar “un usuario escéptico” ante una función nueva. El LLM construye un perfil plausible, pero ese usuario no representa ninguna audiencia real: es una mezcla probabilística del modelo.
Cuándo sí
- Para lluvia de ideas rápida.
- Para explorar hipótesis internas del equipo.
- Para practicar entrevistas o ejercicios internos.
Cuándo no
- Para tomar decisiones de producto.
- Para validar prototipos.
- Para justificar cambios en roadmap o priorización.
Errores comunes
- Confundir plausibilidad con representatividad.
- Tomar sus opiniones como insights.
- Suponer que reflejan diversidad real.
Digital twins
Los digital twins provienen de un origen distinto: se construyen a partir de datos reales de uso, como eventos de interacción, navegación, telemetría o modelos predictivos. Son réplicas digitales de patrones de comportamiento observables y permiten simular escenarios a escala.
No buscan “imitar la voz” del usuario, sino reproducir patrones de acción y reacción basados en datos históricos.
Ejemplo concreto
Un equipo de growth analiza millones de eventos de uso y construye un modelo que simula cómo distintos segmentos progresan en un funnel. Ese modelo permite probar cambios —por ejemplo, modificar un mensaje, un paso del flujo o un orden de acciones— y predecir cómo distintos grupos podrían comportarse sin lanzar el experimento real.
Cuándo sí
- Para validar hipótesis cuantitativas.
- Para predecir efectos en un funnel o flujo complejo.
- Para evaluar impacto ante múltiples escenarios.
Cuándo no
- Para entender motivaciones, emociones o decisiones cualitativas.
- Cuando los datos de uso son escasos, sucios o inconsistentes.
- Cuando existe cambio significativo en el contexto del producto (los modelos se desactualizan rápido).
Errores comunes
- Creer que un modelo de comportamiento puede explicar “el por qué”.
- Usarlo como si fuera una persona.
- Ignorar la actualización continua del modelo (lo que produce drift).
Comparativa clara y práctica
| Tipo | Origen de datos | Qué representan | Para qué sirven | Peligros |
|---|---|---|---|---|
| Personas sintéticas | Investigación real | Motivaciones, patrones cualitativos | Ideación, prototipos, validación temprana | Especular fuera de los datos |
| Usuarios sintéticos | Generados por LLM | Simulaciones plausibles | Exploración inicial, ejercicios internos | Sesgos, falta de representatividad |
| Digital twins | Datos reales de uso | Comportamientos cuantitativos | Simulaciones a escala, análisis de impacto | Explicar motivaciones que no están en los datos |
Riesgos éticos desde la práctica de diseño
Más allá de la privacidad, los riesgos relevantes para diseño son otros:
1. Sobreconfianza en la herramienta
Los equipos tienden a creer que “la IA ya sabe”, cuando en realidad sólo replica patrones.
2. Falta de explicabilidad
Si no documentamos qué datos originan cada modelo, nadie puede auditar su confiabilidad.
3. Invisibilización de segmentos reales
Los modelos tienden a normalizar perfiles, y pueden borrar características relevantes de grupos minorizados.
4. Sustitución indebida de investigación
El riesgo más común: usar modelos para validar decisiones que requieren trabajo de campo.
5. Responsabilidad difusa
Si una decisión tomada en base a una simulación afecta negativamente a un grupo, ¿quién responde? El equipo debe asumir explícitamente esa responsabilidad.
Marco práctico para decidir qué usar
Una forma simple de orientarse es evaluar estas tres preguntas antes de usar cualquier representación:
1. ¿En qué datos se basa esta representación?
- Si no puedes responderlo con precisión, no deberías usarla para decisiones.
2. ¿Responde a un usuario real o a una simulación estadística?
- Si es simulación, úsala sólo para exploración, nunca para validación.
3. ¿Qué riesgo corro si me equivoco?
- Si el impacto es alto, la investigación real es obligatoria.
Conclusión
Las representaciones digitales pueden ampliar la investigación, no reemplazarla. Su valor depende de dos cosas: la calidad de los datos que las originan y la claridad con que distinguimos su propósito. No todo lo que parece un usuario es un usuario: algunas representaciones son espejos estadísticos, otras son modelos inferidos y sólo unas pocas están basadas en evidencia sólida.
La inteligencia artificial no produce empatía. Sólo amplifica la que somos capaces de construir con investigación real, criterio profesional y buen juicio.
