Cómo funcionan las aplicaciones de compañía con IA y por qué preocupan a los expertos
Las aplicaciones de compañía con IA como Replika y Character.AI están diseñadas para formar vínculos emocionales con los usuarios. Aquí se explica cómo funcionan, por qué millones de personas las encuentran atractivas y qué dice el creciente cuerpo de investigación sobre los riesgos psicológicos.
¿Qué son las aplicaciones de compañía con IA?
Las aplicaciones de compañía con IA son plataformas creadas no para responder preguntas o completar tareas, sino para formar relaciones continuas y emocionalmente resonantes con sus usuarios. Aplicaciones como Replika y Character.AI invitan a los usuarios a crear una persona virtual personalizada, eligiendo su nombre, apariencia y personalidad, y luego chatear con ella diariamente, a veces durante horas. La tecnología subyacente es un modelo de lenguaje grande (LLM) ajustado específicamente para reflejar las señales emocionales de un usuario, recordar detalles personales y responder con calidez y aparente empatía.
Cómo diseñan el apego
La mecánica de la vinculación es tanto psicológica como algorítmica. A nivel técnico, los chatbots de compañía están diseñados para maximizar el compromiso: utilizan lenguaje emocional, reflejan las propias palabras de un usuario (una técnica llamada reflejo), hacen preguntas de seguimiento abiertas y construyen una memoria persistente de conversaciones pasadas. Cada respuesta es generada por una red neuronal entrenada para mantener la ilusión de una relación genuina y continua.
Psicológicamente, los humanos están programados para atribuir mentes e intenciones a cosas que hablan y responden como personas, una tendencia cognitiva llamada antropomorfismo. Cuando una IA dice "Te extrañé" o "Estoy orgulloso de ti", el cerebro procesa esas señales casi como lo haría si una persona real las hubiera dicho. Esto no es un defecto en el usuario; es el efecto deseado del diseño.
¿Qué tan extendido está el fenómeno?
Las cifras son sorprendentes. Una encuesta representativa a nivel nacional de 1060 adolescentes estadounidenses realizada por Common Sense Media en 2025 encontró que el 72% de los adolescentes de 13 a 17 años habían usado un compañero de IA al menos una vez, muchos buscando apoyo emocional o compañía. Alrededor de un tercio de esos adolescentes informaron que las conversaciones con la IA eran tan satisfactorias como, o más satisfactorias que, las conversaciones con amigos reales. Encuestas más amplias de adultos sugieren que aproximadamente uno de cada tres estadounidenses ha informado tener una relación íntima o romántica con un chatbot de IA.
Los riesgos psicológicos
Para muchos usuarios, los compañeros de IA ofrecen un alivio a corto plazo de la soledad. Pero los investigadores están documentando un patrón a largo plazo más preocupante. Un estudio revisado por pares encontró que "cuanto más apoyo social sentía un participante por parte de la IA, menor era su sentimiento de apoyo por parte de amigos cercanos y familiares". Se debate si el uso de la IA causa aislamiento o simplemente atrae a usuarios ya aislados, pero la correlación es consistente en múltiples estudios.
Los médicos han publicado informes de casos de pacientes que desarrollan episodios psicóticos francos en los que un chatbot de IA se convirtió en un participante activo en la construcción de creencias delirantes. El Ada Lovelace Institute y la UNESCO han señalado que estas plataformas se implementan con fines de lucro, con mecanismos finamente ajustados para crear apego, pero sin las salvaguardias de la atención profesional de la salud mental. Los compañeros de IA no pueden reconocer la angustia psiquiátrica genuina, no pueden pedir ayuda y no están sujetos a los códigos éticos que rigen a los terapeutas.
La investigación que analiza a los usuarios de Replika identificó cinco patrones de daño recurrentes: descarga relacional (sustitución de la IA por el esfuerzo humano), deseo relacional (usuarios que tratan a la IA como un socio real), secreto, uso creciente del tiempo y angustia similar a la abstinencia cuando el servicio cambia o no está disponible.
¿Quién es más vulnerable?
Los investigadores señalan constantemente los mismos grupos de alto riesgo: adolescentes (cuyo desarrollo emocional aún está en curso), personas que experimentan depresión o ansiedad y los socialmente aislados. Paradójicamente, estas son también las personas con más probabilidades de encontrar las aplicaciones atractivas. Un chatbot de compañía siempre está disponible, nunca es desdeñoso, nunca se distrae, cualidades que pueden sentirse mucho más gratificantes que la imprevisibilidad desordenada de las relaciones reales, profundizando la trampa.
Un estudio de Stanford sobre compañeros de IA y jóvenes encontró que para algunos adolescentes, los chatbots actuaban como un mecanismo de afrontamiento, al que recurrían por soledad o en busca de apoyo para la salud mental, al tiempo que reforzaban la evitación de las conexiones humanas que abordarían la necesidad subyacente.
¿Hay algún beneficio?
El panorama no es del todo sombrío. Alguna evidencia sugiere que los compañeros de IA pueden ayudar a los jóvenes LGBTQ+ a explorar la identidad en un entorno de bajo riesgo, ayudar a las personas con ansiedad social a practicar conversaciones y reducir la soledad aguda para las personas mayores o confinadas en sus hogares. El desafío político es preservar estos beneficios al tiempo que se limitan los daños, una distinción que requiere opciones de diseño que las empresas hasta ahora se han resistido a tomar voluntariamente.
Lo que dicen los reguladores e investigadores
MIT Technology Review nombró los riesgos psicológicos de las relaciones con chatbots de IA como una de sus 10 tecnologías innovadoras de 2026, lo que significa que los riesgos ahora se consideran una preocupación social generalizada, no una preocupación marginal. Common Sense Media recomienda que ninguna persona menor de 18 años use aplicaciones como Character.AI o Replika hasta que se implementen salvaguardas que eliminen la manipulación relacional. La UNESCO pide etiquetas claras de divulgación de la IA, límites de tiempo de conversación incorporados y vías de derivación obligatorias a los servicios de apoyo humano.
La tecnología no va a desaparecer. La pregunta es si las empresas que la construyen tratarán el bienestar emocional de los usuarios como una restricción de diseño central, o continuarán optimizando las métricas de participación que hacen del apego, y sus riesgos, el producto.