Secondo il Wall street Journal chatGPT aveva notato la possibile strage in Canada ma OpenAI non avverti la polizia | Giornale dello Spettacolo
Top

Secondo il Wall street Journal chatGPT aveva notato la possibile strage in Canada ma OpenAI non avverti la polizia

La donna che compi il massacro di Tumbler Ridge aveva descritto gli scenari usando l’intelligenza artificiale.

Secondo il Wall street Journal chatGPT aveva notato la possibile strage in Canada ma OpenAI non avverti la polizia
Foto di Paige Taylor White / AFP - Luogo della strage di Tumbler Ridge (Fonte: Agi.it)
Preroll

redazione Modifica articolo

22 Febbraio 2026 - 19.31 Culture


ATF

Secondo il Wall Street Journal, mesi prima del massacro avvenuto nella scuola della città rurale di Tumbler Ridge, in Canada, Jesse Van Rootselaar, la sospettata dell’attacco, aveva utilizzato ChatGPT per descrivere scenari di violenza armata. I contenuti, segnalati da un sistema automatico di revisione, avevano allarmato alcuni dipendenti dell’azienda, i quali ritenevano che i messaggi potessero indicare un rischio concreto di violenza nel mondo reale e sollecitarono la dirigenza a informare le autorità canadesi. Tuttavia, i vertici di OpenAI decisero di non contattare la polizia canadese, stabilendo che l’attività non soddisfacesse i criteri per una segnalazione; l’account fu comunque sospeso. Dopo la sparatoria, OpenAI ha contattato la Royal Canadian Mounted Police e sta collaborando alle indagini.

Van Rootselaar, 18 anni, è stata trovata morta il 10 febbraio all’interno della scuola teatro dell’attacco, apparentemente per una ferita autoinflitta. La sparatoria ha causato otto morti e almeno 25 feriti. La sospettata era già nota alla polizia locale, che in passato era intervenuta più volte per problemi di salute mentale e aveva temporaneamente sequestrato armi dalla sua abitazione. Gli investigatori stanno analizzando l’attività online e la traccia digitale della giovane per individuare possibili indizi sul movente. Tra i contenuti emersi vi sono post sui social che mostrano immagini al poligono di tiro e discussioni online su armi e munizioni, compresa la realizzazione di un bossolo con una stampante 3D. Inoltre, è emerso un videogioco creato sulla piattaforma Roblox che simula una sparatoria in un centro commerciale.

Questo caso riaccende il dibattito sulla responsabilità delle piattaforme digitali e delle aziende di intelligenza artificiale in materia di sicurezza pubblica, soprattutto quando gli utenti mostrano segnali di potenziale violenza. OpenAI ha sottolineato che i suoi modelli sono progettati per scoraggiare comportamenti dannosi e che le conversazioni che indicano intenti violenti vengono sottoposte a revisione umana, con eventuale segnalazione alle autorità solo in presenza di un rischio imminente.

Native

Articoli correlati