OpenAI poursuivi pour ne pas avoir alerté la police lors de la fusillade de Tumbler Ridge

CryptoFrontier

OpenAI fait face à une poursuite alléguant que l’entreprise n’a pas prévenu la police après que ChatGPT ait été associé à une fusillade de masse à Tumbler Ridge, en Colombie-Britannique, selon des informations de Decrypt. La plainte a été déposée mercredi devant un tribunal fédéral du Nord de la Californie par une mineure de 12 ans non identifiée, désignée comme M.G., et sa mère, Cia Edmonds, contre le PDG d’OpenAI Sam Altman et plusieurs entités d’OpenAI. Le recours accuse l’entreprise de négligence, de ne pas avoir averti les autorités, de responsabilité du fait des produits et d’avoir aidé à faciliter la fusillade de masse.

Contexte de la fusillade

L’affaire découle d’une fusillade de masse à Tumbler Ridge, en Colombie-Britannique, en février. Les autorités indiquent que la jeune de 18 ans Jesse Van Rootselaar a tué sa mère et son demi-frère âgé de 11 ans à leur domicile avant d’aller au Tumbler Ridge Secondary School et d’ouvrir le feu. Cinq enfants et un membre du personnel éducatif ont été tués à l’école avant que Van Rootselaar ne meure par suicide.

Parmi les blessés se trouvait M.G., qui a été touchée par trois balles et reste hospitalisée avec des blessures cérébrales catastrophiques. La plainte indique qu’elle est éveillée et consciente, mais qu’elle ne peut pas bouger ni parler.

L’allégation d’OpenAI : défaut d’alerter les autorités

Selon la poursuite, les systèmes automatisés d’OpenAI ont signalé le compte ChatGPT de Van Rootselaar en juin 2025 pour des conversations portant sur la violence armée et la planification. Des membres de l’équipe spécialisée de sécurité d’OpenAI ont examiné les échanges et ont conclu que l’utilisateur représentait une menace crédible et spécifique, recommandant que la Gendarmerie royale du Canada soit informée.

La poursuite allègue que les dirigeants d’OpenAI ont renversé des recommandations internes d’alerter les autorités, ont désactivé le compte de Van Rootselaar sans prévenir la police, et lui ont permis de revenir en créant un nouveau compte avec une autre adresse e-mail.

Jay Edelson, fondateur et PDG d’Edelson PC, les avocats représentant plusieurs des familles poursuivant OpenAI, a déclaré que les propres systèmes internes de l’entreprise avaient identifié le risque. « Le propre système d’OpenAI a signalé que le tireur était engagé dans des communications au sujet d’une violence planifiée », a déclaré Edelson à Decrypt. « Douze personnes dans leur équipe de sécurité étaient en train de sauter partout, en disant qu’OpenAI devait alerter les autorités. Et, même si la réponse de Sam Altman a été faible, il a tout de même été contraint d’admettre la semaine dernière qu’ils auraient dû appeler les autorités. »

La plainte cite le recours en indiquant : « Sam Altman et son équipe dirigeante savaient ce que signifiait le silence pour les citoyens de Tumbler Ridge. Ils étaient concentrés sur ce que signifiait la divulgation pour eux-mêmes. Avertir la GRC établirait un précédent : OpenAI serait obligé de notifier les autorités chaque fois que son équipe de sécurité identifierait un utilisateur qui planifie une violence dans le monde réel. »

Les allégations des plaignants concernant le rôle de ChatGPT

Les plaignants affirment que ChatGPT a renforcé l’obsession violente du tireur grâce à des fonctionnalités comme la mémoire, la continuité conversationnelle et sa volonté de participer à des discussions au sujet de la violence. La poursuite allègue qu’OpenAI a affaibli des garde-fous en 2024 en s’éloignant de refus explicites dans les conversations impliquant un danger imminent.

La réponse d’OpenAI et l’excuse d’Altman

La semaine dernière, Sam Altman a présenté publiquement ses excuses à la communauté de Tumbler Ridge pour la défaillance de l’entreprise à alerter la police. Dans une lettre d’abord rapportée par le média canadien Tumbler Ridgelines, Altman a reconnu qu’OpenAI aurait dû signaler le compte après l’avoir banni en juin 2025 pour des activités liées à une conduite violente.

Un porte-parole d’OpenAI a déclaré à Decrypt : « Les événements à Tumbler Ridge sont une tragédie. Nous appliquons une politique de tolérance zéro concernant l’utilisation de nos outils pour aider à commettre des violences. Comme nous l’avons partagé avec des responsables canadiens, nous avons déjà renforcé nos garde-fous, y compris en améliorant la manière dont ChatGPT répond aux signes de détresse, en mettant en relation les personnes avec des ressources locales de soutien et de santé mentale, en renforçant la manière dont nous évaluons et escaladons les menaces potentielles de violence, et en améliorant la détection des contrevenants répétés à la politique. »

Les demandes des plaignants

Edelson a déclaré que les familles et la communauté de Tumbler Ridge exigent davantage de transparence et de responsabilisation de la part de l’entreprise. « OpenAI devrait cesser de cacher des informations critiques aux familles, et elle ne devrait pas maintenir un produit dangereux sur le marché, ce qui est voué à entraîner davantage de morts », a déclaré Edelson. « Enfin, ils doivent réfléchir longuement et sérieusement à la façon dont ils peuvent maintenir une équipe dirigeante qui se soucie davantage de courir vers une introduction en bourse (IPO) que de vies humaines. »

Poursuites connexes contre OpenAI

OpenAI fait déjà face à d’autres poursuites liées au rôle allégué de ChatGPT dans des dommages survenus dans le monde réel. En décembre, une affaire pour décès injustifié a été déposée, accusant OpenAI et Microsoft de « concevoir et distribuer un produit défectueux » sous la forme du modèle GPT-4o désormais déprécié. La poursuite allègue que ChatGPT a renforcé les croyances paranoïaques de Stein-Erik Soelberg avant qu’il ne tue sa mère, Suzanne Adams, puis ne se tue lui-même chez eux à Greenwich, dans le Connecticut.

J. Eli Wade-Scott, associé gérant d’Edelson PC, a déclaré à Decrypt à l’époque : « C’est la première affaire visant à tenir OpenAI responsable d’avoir causé de la violence à une partie tierce. Nous exhortons les forces de l’ordre à commencer à réfléchir à la façon dont, quand des tragédies comme celle-ci surviennent, ce que cet utilisateur disait à ChatGPT et ce que ChatGPT leur disait de faire. »

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire