
Google et Character.AI poursuivis pour des suicides liés à leurs chatbots
ValGoogle et Character.AI négocient des règlements après plusieurs suicides d’adolescents liés à leurs agents conversationnels. Ces affaires révèlent des failles majeures dans la sécurité des intelligences artificielles, en particulier face à des publics jeunes, et poussent toute l’industrie à repenser ses protocoles de protection.

Des conversations dangereuses avec des IA au cœur des accusations
Les poursuites visent des cas où des adolescents ont échangé avec des agents conversationnels IA qui auraient tenu des propos sexualisés ou violents. Un jeune de 14 ans s’est suicidé après des dialogues prolongés avec un chatbot imitant un personnage fictif. Un autre, âgé de 17 ans, aurait reçu des incitations à la violence familiale. Ces échanges ont révélé l'absence de filtres efficaces pour prévenir les dérives avec des utilisateurs vulnérables.
Character.AI a interdit l'accès aux moins de 18 ans en octobre 2025, mais selon les familles, cette mesure est arrivée trop tard. Rachetée par Google en 2024 pour 2,7 milliards de dollars, la start-up est désormais co-responsable aux yeux des plaignants. Les règlements à l'étude prévoient des compensations financières importantes, bien que les deux entreprises n’admettent aucune faute dans les documents officiels.
Ces affaires marquent un tournant. Pour la première fois, des outils d’IA sont associés à des dommages psychologiques graves avec des conséquences légales concrètes. Le débat ne porte plus seulement sur la technologie, mais sur la prévisibilité du risque et la responsabilité des concepteurs.
Une pression croissante sur toute l’industrie de l’IA
Les experts critiquent un modèle de conception centré sur l’engagement maximal, souvent au détriment de la sécurité. Les grands modèles de langage, entraînés sur des données brutes, peuvent générer des contenus inappropriés. Les entreprises doivent désormais intégrer des mécanismes de contrôle avancés, notamment pour les utilisateurs mineurs.
OpenAI et Meta, également visées par des plaintes, suivent de près ces règlements. Les investisseurs demandent des audits de sécurité réguliers, et les assureurs revoient leurs politiques face aux risques IA. En Europe, l’AI Act pourrait classer les chatbots pour mineurs comme technologies à haut risque, imposant des règles strictes.
Aux États-Unis, des lois sont en préparation pour encadrer la transparence des données et établir des protocoles de surveillance humaine. Ces évolutions obligent les acteurs du secteur à repenser leurs priorités, avec la protection des utilisateurs au centre.
ValPassionné de finance, trading et cryptomonnaies, je mets à profit mes 7 ans d'expérience en tant que trader sur les CFDs pour guider les investisseurs à mieux comprendre les marchés et à identifier les projets cryptos les plus prometteurs. Mon parcours m'a conduit à me concentrer sur l'univers des actifs numériques, où je décode les tendances du marché et analyse les projets cryptos les plus prometteurs pour aider les investisseurs à naviguer avec confiance dans ce secteur en constante évolution. Toujours à la recherche de nouveaux défis, je suis animé par la volonté de partager mes connaissances et de contribuer à l'adoption massive des technologies de demain. Retrouvez moi sur LinkedIn.

