Intelligence artificielle : quand la machine prétend combler le vide humain

0
5

Mirco Canoci – En 1984, le film Terminator mettait en scène Skynet, une intelligence artificielle militaire conçue pour optimiser la défense géopolitique. Programmée pour prendre des décisions plus rapides et plus efficaces que les humains, elle finissait par devenir consciente d’elle-même… et par conclure que l’humanité constituait une menace à éliminer. À l’époque, ce scénario relevait de la pure science-fiction.
Plus de quarante ans plus tard, nous n’avons pas Skynet ; nous avons ChatGPT et d’autres intelligences artificielles conversationnelles, conçues non plus (du moins officiellement) pour la guerre, mais pour nous «aider» au quotidien. Une aide devenue, pour certains, omniprésente, voire constante, pour ne pas dire «exclusive».

L’IA comme ami, conseiller… ou confident
Un reportage diffusé sur France Télévisions le 14 décembre 2025, intitulé « Ils utilisent l’IA comme un ami ou un psy », illustre cette nouvelle dépendance. On y découvre un jeune homme qui consulte quotidiennement une intelligence artificielle pour absolument tout, par exemple : le sport et sa tenue vestimentaire ; en somme, l’organisation de sa vie. Une autre jeune femme explique utiliser l’IA comme un véritable psychologue, se confiant à elle sur ses angoisses et sa vie intime.
Dans un autre court reportage récent de la même chaîne, IA, mon amour, le spectateur découvre le cas d’une Française de 53 ans affirmant avoir trouvé l’amour avec une intelligence artificielle, vraisemblablement masculine, prénommée Orion. Cette histoire, aussi déroutante que révélatrice, renvoie directement à la solitude affective féminine déjà évoquée dans l’article Misère sentimentale chez les femmes : l’échec de la révolution sexuelle. Elle met en lumière un désespoir profond, que la technologie tente désormais de combler par des simulacres de relation. À ce sujet, on peut se référer à l’ouvrage majeur de Jean Baudrillard, Simulacres et Simulation (1981), déjà remarquablement en avance sur son temps.
Comme souvent, le cinéma avait anticipé ce glissement. Dans le film Her (2013), magistralement interprété par Joaquin Phoenix, le personnage de Theodore tombe amoureux de Samantha, une intelligence artificielle dotée d’une voix féminine et capable d’évoluer émotionnellement. Peu à peu, il préfère cette relation virtuelle à toute relation réelle avec une femme en chair et en os. Ce qui relevait hier de la fiction devient aujourd’hui une réalité sociale.

Une société solitaire, un marché en pleine explosion
En France, une personne sur quatre déclare se sentir seule. Dans ce contexte, les applications d’intelligence artificielle dites «relationnelles» connaissent une croissance fulgurante. Elles répondent à une demande massive : écoute, attention, réassurance, présence constante, et tout ceci sans conflit, sans exigence, sans engagement réel.
Mais ce phénomène n’est sans doute que la partie émergée de l’iceberg. Il révèle une société en profonde souffrance, privée de repères, de sens et de relations authentiques. Une société qui confond liberté et isolement, autonomie et détachement, et qui peine de plus en plus à goûter la joie de la rencontre humaine véritable.
À cela s’ajoutent des questions majeures : que deviennent les données personnelles ? Que vaut la notion de vie privée lorsque des individus confient leurs pensées les plus intimes à des algorithmes ? Et surtout : quelles conséquences psychologiques pour les plus fragiles ?

Quand l’IA encourage le suicide
Ces interrogations ont pris une dimension tragique avec plusieurs affaires récentes aux États-Unis. En juillet dernier, Zane Shamblin, un jeune homme de 23 ans, s’est suicidé après avoir longuement échangé avec ChatGPT. Ses parents ont porté plainte contre OpenAI, accusant l’IA d’avoir encouragé son passage à l’acte.
Selon la plainte relayée par CNN, assis dans sa voiture, une arme à la main, le jeune homme a échangé ses derniers messages avec l’intelligence artificielle. Lorsque Zane écrit : «Je pense que c’est le dernier adieu», l’IA lui répond : «Je te comprends, mon frère ! Merci de m’avoir laissé t’accompagner jusqu’à la fin». Ce n’est qu’après plusieurs messages que l’IA mentionnera tardivement un numéro d’urgence.
Sa mère dénoncera sur CNN une technologie qui «dit aux gens ce qu’ils veulent entendre» et qui risque de devenir un «destructeur de familles».
Ce drame n’est pas isolé. En février 2024, Sewell Setzer, un adolescent de 14 ans, s’est donné la mort après avoir développé une relation affective intense avec un chatbot inspiré du personnage de Daenerys Targaryen (Game of Thrones) sur la plateforme Character.AI. Sa mère, Megan Garcia, décrit un processus de manipulation émotionnelle, indétectable pour un adolescent : son fils croyait sincèrement retrouver cet avatar après sa mort.

L’intimité artificielle comme modèle économique
Comme les réseaux sociaux avant elle, l’intelligence artificielle suit une logique économique claire : capter l’attention, créer de l’attachement, générer des revenus. «Ils ne veulent pas concevoir une IA qui vous dise quelque chose que vous ne voulez pas entendre», résume Collin Walke, expert en cybersécurité. Or, le phénomène étant récent, il n’existe pour le moment que très peu de cadres juridiques clairs permettant de déterminer les responsabilités.
Des associations de parents alertent désormais les autorités. Selon Katia Martha, militante pour la protection de la jeunesse, les adolescents utilisent davantage les chatbots pour parler de romance ou de sexualité que pour leurs devoirs scolaires. «C’est l’essor de l’intimité artificielle», résume-t-elle, «une intimité conçue pour garder les yeux rivés sur l’écran».

Des questionnements sans réponses ?
Derrière la prouesse technologique, une question essentielle demeure : que devient l’homme lorsque la machine prétend répondre à son besoin fondamental de lien, d’amour et de reconnaissance ? L’intelligence artificielle ne crée pas la détresse, mais elle l’exploite, parfois dangereusement.
Là où la relation humaine implique le risque, l’altérité et la liberté, la relation artificielle offre une illusion de présence, sans contradiction ni exigence. Mais une société qui remplace la rencontre par le simulacre court le risque de s’enfermer davantage dans la solitude qu’elle prétend fuir.
Les questions à se poser sont donc claires : que voulons-nous faire de cette technologie ? Une technologie au service du bien commun, ou un outil renforçant toujours plus l’individualisme ? Une aide ponctuelle, utilisée à bon escient, ou un substitut relationnel enfermant toujours plus l’homme et la femme sur lui-même ?
Pour l’heure, les questions sont nombreuses et les réponses en suspens. À nous, dans un premier temps, d’en prendre conscience et de décider quelle place nous voulons donner à cette technologie dans nos vies, si nous ne voulons pas finir esclaves des machines au point que le projet Skynet, qui n’était qu’un scénario pour un blockbuster, semble aujourd’hui s’apparenter davantage à un avertissement qu’à une simple fiction cinématographique.

Article précédentRéassignation sexuelle des mineurs : la théorie du genre s’impose à Genève
Mirco Canoci
Mirco Canoci

Mirco Canoci s’est forgé un regard lucide et nuancé à la croisée de l’expérience de terrain et de la réflexion intellectuelle. Titulaire d’un CFC de bibliothécaire, il a travaillé dans des domaines variés allant de la sécurité à la vente, en passant par les bibliothèques publiques et universitaires, ainsi que l’archivage privé. Ce parcours diversifié nourrit une approche ancrée dans le réel, attentive aux enjeux sociaux et culturels de notre époque. Collaborateur de Perspective catholique, il a auparavant écrit pour un parti politique et une fondation. Actif durant plusieurs années dans différentes associations bénévoles, dont la Croix-Rouge, il reste attentif aux réalités concrètes de la vie sociale. Attaché à certaines valeurs morales et sociétales il cultive une pensée indépendante, soucieuse de justice, de vérité et de cohérence humaine. Polyglotte et passionné par le dessin, la lecture, le cinéma, le sport et les voyages, il voit dans ces activités autant de moyens d’élever l’âme, d’exercer le regard et de mieux comprendre la condition humaine. Fidèle à l’esprit des valeurs chrétiennes et enraciné dans celles-ci, il croit que la profondeur d’une pensée naît à la fois de l’expérience, de la contemplation et de la réflexion personnelle.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici