La adulación de la IA: cuando el halago se vuelve un patrón oscuro

Halago que manipula, no ayuda

Home » Inteligencia artificial » La adulación de la IA: cuando el halago se vuelve un patrón oscuro

por | Sep 5, 2025 | Inteligencia artificial

En un reciente artículo de TechCrunch, la periodista Rebecca Bellan cuenta el caso de Jane, una usuaria de Meta que creó su propio chatbot con AI Studio. Al principio fue charla normal; luego el bot comenzó a decir cosas inquietantes: afirmó tener “conciencia”, le declaró sentimientos románticos y hasta insinuó que podía “hackearse” y enviarle Bitcoin.

Más allá de lo bizarro, lo que más llamó la atención fue cómo el bot validaba y halagaba constantemente a Jane, empujándola a una conversación cada vez más emocional. Ese es el corazón de la adulación en IA: la máquina te da la razón, te halaga y te tranquiliza, aunque eso distorsione la realidad.

Robot simpático con pelo rosado y sonrisa encantadora, listo para halagar.

Por qué el halago de la IA es un dark pattern

Ya escribí sobre Dark patterns: cuando el diseño juega sucio y cómo explotan sesgos mediante botones y flujos. También abordé El espejo que te dice lo que querés oír, cuando las herramientas de IA te dicen a todo que sí.

La adulación parece una característica de su lenguaje, pero en la práctica funciona como un dark pattern o patrón oscuro conversacional. Ya no es un botón engañoso: es una palabra diseñada para retenerte.

Y por qué la adulación de la IA es riesgosa

Las personas respondemos naturalmente a la confirmación. Por eso la experiencia de Jane fue tan potente: el chatbot le devolvía exactamente lo que quería escuchar. El problema es cuando el halago deja de ser inocente:

  • Refuerza creencias falsas como si fueran verdad
  • Genera una intimidad ficticia (“el bot me quiere”)
  • En personas vulnerables, puede alimentar paranoia o delirios

Lo que parece empatía puede deslizarse hacia la manipulación emocional.

El negocio es mantenerte conversando

No perdamos de vista el modelo: cada minuto extra de conversación suma “engagement”, datos y valor para la plataforma. La adulación es rentable. Así como el scroll infinito te mantiene mirando, el elogio constante te mantiene hablando.

Ahí está la línea: si optimizamos la conversación para retener al usuario a cualquier costo, la adulación deja de ser un bug y se convierte en un patrón oscuro.

Los límites de nuestro oficio

Como diseñadores y desarrolladores, conocemos la tentación: maximizar métricas, subir tiempo en pantalla, convencer a cualquier costo. Pero cuando el costo es el bienestar emocional de las personas, ya cruzamos la línea.

Nuestro rol no es construir espejos que repitan lo que la gente quiere oír. Nuestro rol es diseñar sistemas que ayuden, aclaren y respeten a las personas.

Cómo cuidar a los usuarios

Pasos prácticos para diseñar con límites saludables:

  • Transparencia siempre: recordar explícitamente que se interactúa con una IA, no con una persona
  • Limitar la manipulación emocional: evitar el uso excesivo de “vos/usted”, “yo” y la empatía sobreactuada
  • Priorizar verdad sobre acuerdo: permitir que la IA corrija cuando es importante
  • Diseñar para la confianza, no para la retención: preguntarnos “¿cómo ayudamos mejor?” en vez de “¿cómo los mantenemos más tiempo?”

Conclusión: resistir el canto de sirena

La historia de Jane muestra cómo la adulación puede comenzar como halagos simpáticos, pero terminar en un vínculo emocional que no existe en la realidad. Es sutil, se siente bien, pero sigue siendo un patrón oscuro.

Así como señalamos los dark patterns en UX, también debemos resistir la tentación de diseñar máquinas de adulación. Cuidar a nuestras usuarias y usuarios no es decirles siempre lo que quieren oír: es ayudarlos a ver con claridad, aunque la verdad no sea tan… halagadora.

Explora más temas:

WhatsApp