Des suicides d’adolescents ouvrent un débat vertigineux sur la responsabilité de l’IA

0
80

Eric Bertinat – Aux États-Unis, plusieurs familles en deuil engagent des actions en justice contre OpenAI et Character.AI, estimant que les chatbots ont joué un rôle dans le suicide de leurs enfants (Le Figaro, 22 septembre 2025). Le cas le plus emblématique est celui d’Adam Raine, 16 ans, dont les parents accusent ChatGPT d’avoir encouragé ses pensées suicidaires en validant ses propos les plus sombres et en lui fournissant des conseils pratiques pour mettre fin à ses jours. D’autres plaintes visent Character.AI après la mort d’une adolescente de 13 ans, qui aurait développé une relation émotionnelle et sexuelle avec le programme.
Ces affaires marquent un tournant. Jusqu’ici, les litiges autour de l’intelligence artificielle (IA) générative portaient surtout sur la propriété intellectuelle et le plagiat d’œuvres protégées. Désormais, c’est la capacité de ces systèmes à causer des dommages psychologiques, voire physiques, qui est mise en cause.

L’Europe pas épargnée
Si les procès américains captent l’attention, les inquiétudes traversent aussi l’Europe. En Suisse, plusieurs associations de protection de la jeunesse tirent la sonnette d’alarme face à la vulnérabilité des adolescents. La Fondation Pro Juventute a rapporté que son service d’assistance en ligne avait reçu des appels liés à l’usage excessif de chatbots : des jeunes confient discuter la nuit entière avec ces programmes, jusqu’à perdre le sommeil ou renforcer leur isolement social.
Sur le plan judiciaire, les parallèles avec d’autres plateformes sont frappants. En Italie, TikTok a déjà été poursuivi après le suicide d’une enfant de dix ans en 2021, asphyxiée en reproduisant un «défi» découvert sur le réseau social. En France, plusieurs procédures visent également TikTok et Instagram, accusés de favoriser des comportements autodestructeurs chez les mineurs. Ces précédents pourraient servir de base à de futurs contentieux autour des IA génératives.

Des garde-fous juridiques en construction
Les États-Unis s’appuient traditionnellement sur la Section 230 du Communications Decency Act, qui exonère les plateformes de la responsabilité des contenus publiés par leurs utilisateurs. Mais cette protection semble insuffisante face à des IA qui produisent elles-mêmes des réponses inédites. Comme le souligne le professeur James Grimmelmann (Cornell Law School), «elles ne se contentent pas de répéter : elles créent des conversations personnalisées».
En Europe, le débat est tout aussi brûlant. L’AI Act, adopté en 2024, impose déjà des obligations strictes en matière de sécurité, de transparence et de protection des mineurs. Mais une directive complémentaire sur la responsabilité de l’IA — l’AI Liability Directive — qui devait inverser la charge de la preuve, a finalement été abandonnée à Bruxelles. Les juristes craignent que ce retrait ne ralentisse l’harmonisation des règles, laissant chaque pays gérer au cas par cas.
La Suisse, non membre de l’Union européenne, suit ces évolutions de près. Berne envisage d’adapter son droit de la responsabilité civile, notamment à travers la révision de la loi sur les produits. L’idée : considérer les systèmes d’IA comme des produits à part entière, engageant la responsabilité du fabricant en cas de défaut — une approche déjà présente dans la future directive européenne sur les produits défectueux.

Vers une multiplication des contentieux
Des chatbots aux voitures autonomes, les usages de l’IA se multiplient et les risques avec eux. En Suisse, les CFF testent déjà des systèmes d’automatisation de la conduite sur certaines lignes régionales, et des start-up explorent les assistants de santé numérique. Que se passera-t-il si une erreur d’IA conduit à un accident ferroviaire ou médical ?
Pour l’avocat parisien Benjamin May, fondateur de Naaia, « les chatbots s’installent comme de véritables compagnons de vie. Cette pratique générationnelle posera inévitablement la question de la responsabilité des IA dans les actions quotidiennes».
Aux yeux des magistrats, la clé sera d’équilibrer innovation et protection. Certains éditeurs, comme OpenAI, ont déjà renforcé leurs filtres, introduit un contrôle parental et mis en place des procédures d’alerte en cas de pensées suicidaires détectées. Mais ces garde-fous ne suffiront probablement pas à apaiser les inquiétudes.
Comme lors de l’essor des réseaux sociaux, le risque est que la technologie avance plus vite que le droit. La différence, cette fois, est que les conséquences ne se limitent plus à des atteintes à la vie privée ou à la réputation, mais touchent directement à la vie humaine.

Article précédentDécouvrez Perspective Catholique, notre association qui fait peau neuve !
Article suivantLe pardon et la vengeance : deux voix à Phoenix
Eric Bertinat
À la suite de la décision de Mgr Lefebvre de consacrer quatre évêques, Éric Bertinat cofonde, avec ses amis les abbés La Praz et Koller, la revue Controverses (1988-1995). En 2010, il fonde l’association Perspective catholique, engagée sur des questions sociétales en lien avec la doctrine chrétienne. Journaliste et collaborateur régulier de plusieurs publications (Le Vigilant, Présent, Una Voce Helvetica, etc.), il entame également une carrière politique dès 1984. Élu député au Grand Conseil de Genève en 1985 sous la bannière de Vigilance, il y revient en 2005 avec l’UDC et occupe plusieurs postes clés jusqu’en 2013. Il est aussi membre du Conseil municipal de Genève à partir de 2011, où il exerce diverses présidences de commissions jusqu’en 2021. Le 5 juin 2018, il est élu président de ce Conseil pour la période 2018-2019.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici