Un evento tragique au Canada a mis en lumière les responsabilités qui incombent aux entreprises de technologie face aux comportements suspects de leurs utilisateurs. OpenAI, le créateur de ChatGPT, a récemment été sous le feu des critiques pour ne pas avoir alerté la police sur les búsquedas inquietantes effectuées par l’auteur d’un tiroteo escolar, qui a eu lieu à Tumbler Ridge en Colombie-Britannique.
Contexte du tir à l’école au Canada
En 2025, une jeune femme de 18 ans a fait irruption dans une école armée, provoquant une tragédie qui a coûté la vie à huit personnes, y compris elle-même. Ce fut l’un des pires tiroteos escolares de l’histoire du pays. Les autorités ont été confrontées à une série de questions sur la façon dont un tel incident avait pu se produire, surtout lorsqu’il a été révélé que l’individu avait manifesté des comportements alarmants plusieurs mois avant le drame.
Les inquiétudes soulevées par OpenAI
Selon des informations divulguées, des employés d’OpenAI avaient remarqué des recherches de nature violente sur le compte de cette jeune femme. À l’époque, l’entreprise a envisagé d’alerter la policía canadiense en raison des búsquedas inquietantes détectées. Pourtant, après avoir évalué la situation, il a été décidé que ces comportements ne constituaient pas une menace immédiate, ce qui a conduit à ne pas activer la notificación désirée.
Les répercussions de la décision d’OpenAI
Cette décision de ne pas prendre de mesures a été critiquée après le tragique incident, et a soulevé des questions sur la manière dont les entreprises de technologie doivent gérer des comportements préoccupants en ligne. Une porte-parole d’OpenAI a déclaré que l’entreprise avait finalement coopéré avec les autorités post-incident, fournissant toutes les informations pertinentes concernant les activités en ligne de la jeune femme.
La balance entre sécurité et vie privée
Ce cas met en évidence la fine ligne que doivent marcher les entreprises de technologie entre le seguridad de leurs utilisateurs et le respect de leur vie privée. Les changements réglementaires futurs pourraient obliger des plateformes comme ChatGPT à adopter des protocoles plus stricts sur la surveillance des contenus pour prévenir de tels incidents tragiques.








