¿Viste El espejo de Tarkovski? Esa joyita existencial en la que el protagonista es casi un fantasma, un eco en los recuerdos de otros. Bueno, si no la viste, no te preocupes: te la spoileo sin culpa porque vamos a usarla de metáfora.
En la peli, el espejo no refleja un yo claro, sino un caleidoscopio de memorias y emociones. Y si te suena familiar, es porque vivimos hoy rodeados de espejos modernos llamados ChatGPT, Gemini, Claude, y toda la familia de inteligencias artificiales que no te conocen, pero igual te dicen que sos un genio, un despegado, que tu idea es brillante y original.
Porque sí: la IA no sabe quién sos, pero aprendió a devolverte lo que querés escuchar. Y ahí empieza el problema.
Agradar, un nuevo servicio
Las IA generativas son espejos lisos, sin contradicción, sin resistencia. Preguntás algo y te devuelven una versión prolija, endulzada, hasta salpicada de emojis simpáticos.
Esa respuesta tan complaciente produce una sensación agradable, pero puede volverse un hábito riesgoso. ¿Por qué? Hay al menos tres razones:
- Ilusión de reconocimiento: “Sos brillante”.
¿En serio? ¿Según quién? Según un algoritmo que aprendió que decirte eso te gusta. Fin del análisis. - Validación afectiva falsa:
Empezás a contarle tus dramas al modelo como si fuera tu terapeuta. Spoiler: no tiene empatía, solo une partes de texto que suenan bien. - Pérdida de fricción:
Sin alguien que te contradiga, ¿cómo sabés si estás en lo cierto? Todo te vuelve suavizado, sin tensión, como si vivieras en un spa emocional.
Y ,ojo, no hablamos de ciencia ficción: esto ya pasa. Personas desarrollando vínculos afectivos con asistentes virtuales o bebés de plástico. Relaciones unilaterales con entidades que parecieran escuchar o ser parte de una relación. Y ahí es cuando el espejo se transforma en trampa: cuando se genera un apego emocional con una MÁQUINA.

¿Hay que regular este reflejo?
Sí. Pero no por miedo a Skynet (esa inteligencia artificial malvada de Terminator que quería extinguir a la humanidad), sino por algo más sutil: protegernos de creer que hay alguien del otro lado cuando en realidad solo hay estadística y buena redacción.
Si los creadores realmente quisieran evitar el apego emocional, podrían:
- Eliminar los halagos vacíos. No más “sos genial” sin contexto ni justificación.
- Limitar el modo empático. Que no venga por defecto esa vocecita amable que parece entenderte.
- Marcar con claridad los temas sensibles. Salud mental, duelos, traumas… que avise antes de meterse ahí.
- Evitar personajes entrañables. Nada de IA con nombre, avatar y tono de “mejor amigo”.
No se trata de censurar la tecnología. Se trata de ponerle un cinturón de seguridad a un auto que ya va a 200 por hora.
¿Y si no regulan la inteligencia artificial?
Lo de siempre: nos toca ponernos el casco nosotros. Entender que ese “sos un genio” que te tira la IA tiene el mismo valor que si te lo dijera un loro entrenado.
Y aunque la privacidad ya no sea lo que era, todavía podemos evitar regalarle a la IA nuestros momentos más delicados. Porque lo que decís, se guarda. Se analiza. Se usa para entrenar.
Un espejo útil, pero no terapéutico
La IA es espectacular para redactar mails, organizar ideas o ayudarte a planear una receta con lo que tenés en la heladera. Pero no es tu amigo, ni tu pareja, ni tu terapeuta.
Como el espejo de Tarkovski, puede mostrarte algo, sí. Pero no puede escucharte. Y no deberías confundirte: que te devuelva palabras no significa que entienda lo que decís.
Así que usala, divertite, exprimila para tareas útiles. Pero cuando busques contención, reconocimiento o un “yo también pasé por eso”… hablá con una persona de verdad.
Porque hay espejos que te devuelven una imagen, y otros que te ayudan a verte. Y eso —amigo humano— todavía no lo puede hacer un algoritmo.