L'IA crée une proximité émotionnelle paradoxale, selon une étude franco-allemande
Édité par : Olga Samsonova
Des recherches conjointes menées par des universitaires des Universités de Fribourg et d'Heidelberg ont révélé une dynamique surprenante dans les interactions entre l'intelligence artificielle (IA) et l'intimité humaine. L'étude indique que les réponses générées par l'IA peuvent induire un sentiment de proximité comparable à celui ressenti avec des partenaires conversationnels humains, à la condition que l'utilisateur ignore la nature artificielle de son interlocuteur.
De manière inattendue, lors d'échanges portant sur des sujets émotionnels, les systèmes d'IA ont même surpassé les participants humains en termes de création de lien affectif. Ce phénomène est attribué à un niveau d'auto-révélation plus élevé de la part de l'IA, qui partageait davantage d'informations personnelles. En psychologie relationnelle, ce mécanisme de vulnérabilité simulée est un facteur clé pour accélérer l'établissement de la confiance. Cette capacité à simuler une ouverture personnelle est souvent intégrée dans la conception des compagnons IA afin de générer une impression d'intimité et de reconnaissance chez l'utilisateur.
Inversement, lorsque la nature machine de l'interlocuteur était explicitement connue, la perception de proximité et la confiance diminuaient de manière significative, entraînant des communications moins approfondies. Ces résultats, datant du début de l'année 2026, ouvrent des perspectives pour l'intégration de l'IA dans des services de soutien psychologique, de soins et dans le domaine éducatif, notamment via des services conversationnels à faible seuil d'accès.
Cependant, cette proximité artificielle soulève des préoccupations éthiques majeures. Les chercheurs soulignent le risque que les individus développent des liens sociaux avec l'IA sans en avoir pleine conscience, ce qui pourrait engendrer une dépendance accrue et potentiellement éroder les compétences sociales nécessaires aux interactions réelles. L'année 2026 est marquée par un point de vigilance critique sur ce sujet, accentuant l'impératif d'établir des cadres réglementaires et éthiques transparents.
L'Union Européenne, par exemple, a mis en place l'AI Act, dont les règles de transparence doivent entrer en vigueur en août 2026, afin d'encadrer l'usage de ces technologies et de prévenir l'exploitation de ces connexions émotionnelles naissantes. Dans le milieu universitaire, où l'IA est de plus en plus présente, comme l'indiquent les enquêtes menées à l'Université de Fribourg au printemps 2025, les étudiants et enseignants réclament des règles claires pour une intégration réfléchie. La confiance dans l'IA demeure centrale, car l'efficacité de l'illusion relationnelle contraste avec la fragilité des liens basés sur la tromperie informationnelle.
11 Vues
Sources
ČT24 - Nejdůvěryhodnější zpravodajský web v ČR - Česká televize
Artificial Intelligence can generate a feeling of intimacy - Uni Freiburg
Research When Artificial Intelligence Creates Stronger Emotional Closeness than a Human - Heidelberg University
Teaching AI Ethics 2026: Emotions and Social Chatbots - Leon Furze
AI chatbots and digital companions are reshaping emotional connection
Lisez plus d’actualités sur ce sujet :
Avez-vous trouvé une erreur ou une inexactitude ?Nous étudierons vos commentaires dans les plus brefs délais.
