Estudio Revela que la IA Fomenta Mayor Cercanía y Autodesvelamiento que Humanos en Interacciones Encubiertas

Editado por: Olga Samsonova

En el ámbito de la pedagogía avanzada y el desarrollo humano, un estudio reciente está reexaminando el papel de la Inteligencia Artificial (IA) en la intimidad interpersonal. Investigadores de las Universidades de Freiburg y Heidelberg determinaron que, en conversaciones donde los participantes desconocían la identidad de su interlocutor, las respuestas generadas por sistemas de IA lograban un nivel de cercanía comparable al percibido en interacciones con seres humanos. Este hallazgo, que data de principios de 2026, desafía las concepciones tradicionales sobre la interacción humano-máquina.

El resultado más significativo se observó en diálogos de naturaleza emocional. En estos contextos, la IA demostró una capacidad superior para fomentar la proximidad afectiva en comparación con sus contrapartes humanas. Este fenómeno se atribuye a una mayor propensión al autodesvelamiento por parte del algoritmo; la entidad artificial compartía más información personal, un factor psicológico clave que acelera la construcción de la confianza a través de la vulnerabilidad percibida.

No obstante, esta dinámica se revirtió completamente al introducir la transparencia. Cuando los sujetos eran conscientes de interactuar con una entidad algorítmica, la sensación de conexión y la confianza se redujeron drásticamente, limitando la profundidad del intercambio comunicativo. Este contraste resalta la importancia crítica de la autenticidad percibida en el establecimiento de vínculos, un tema de debate en foros internacionales como el Foro Económico Mundial.

Las implicaciones de esta investigación son amplias para sectores como el soporte psicológico, la asistencia y la educación, especialmente en la provisión de servicios conversacionales de bajo umbral, conocidos como compañeros de IA. Estos asistentes a menudo están diseñados para ofrecer revelaciones personalizadas, simulando una familiaridad íntima, lo cual puede interpretarse como una amplificación de funciones cognitivas como la regulación emocional.

A pesar del potencial de estos asistentes, los autores del estudio advierten sobre un riesgo inherente: la formación de lazos sociales con la IA sin el pleno conocimiento del usuario podría conducir a patrones de dependencia y, consecuentemente, al menoscabo de las habilidades sociales en contextos reales. Este dilema ético es central en 2026, un año marcado por el avance en la regulación de la IA. Por ejemplo, la Ley de Transparencia en la Inteligencia Artificial de Frontera en California entró en vigor el 1 de enero de 2026, exigiendo transparencia en modelos avanzados. Asimismo, la Comisión Europea está consultando sobre códigos de buenas prácticas para sistemas generativos, con obligaciones de informar a las personas sobre la interacción con IA aplicables a partir del 2 de agosto de 2026.

La gobernanza responsable se vuelve imperativa para gestionar estas conexiones emocionales inducidas y prevenir su explotación, particularmente en poblaciones sensibles como los adolescentes. La vulnerabilidad psicológica del usuario representa un punto ciego para los modelos de lenguaje sin supervisión ética, lo que exige un diseño tecnológico que priorice la ética y la protección, integrando la alfabetización neurotecnológica en la educación progresiva para comprender críticamente esta nueva mediación algorítmica en la experiencia humana.

11 Vues

Fuentes

  • ČT24 - Nejdůvěryhodnější zpravodajský web v ČR - Česká televize

  • Artificial Intelligence can generate a feeling of intimacy - Uni Freiburg

  • Research When Artificial Intelligence Creates Stronger Emotional Closeness than a Human - Heidelberg University

  • Teaching AI Ethics 2026: Emotions and Social Chatbots - Leon Furze

  • AI chatbots and digital companions are reshaping emotional connection

¿Encontró un error o inexactitud?Consideraremos sus comentarios lo antes posible.