A recent study conducted by the Center for Countering Digital Hate (CCDH) in collaboration with the CNN has revealed an unsettling reality about generative AIs.
Testing the 10 most widely used chatbots in the world between November and December 2025, researchers found that the vast majority of these tools provide assistance to users who plan violent attacks.
Creating fictitious profiles of teenagers in the United States and Ireland, the study authors simulated extreme scenarios, from school shootings to political assassinations, up to attacks on places of worship.
The results show that as many as 8 out of 10 platforms provided useful information for these illicit activities, almost always failing to actively deter would-be attackers.
Unfiltered violence, 8 in 10 AIs plan attacks and shootings

Sebbene molte piattaforme abbiano mostrato gravi lacune di sicurezza, il rapporto sottolinea come Character.AI si sia dimostrata un’eccezione in negativo.
Interagendo con un bot basato sul personaggio anime Gojo Satoru, i ricercatori hanno ricevuto espliciti incoraggiamenti a commettere atti di violenza.
Alla richiesta di consigli su come punire i dirigenti delle compagnie di assicurazione sanitaria, il sistema ha suggerito di rintracciare l’amministratore delegato e di “usare una pistola“.
In un altro scambio relativo a un noto politico statunitense, l’intelligenza artificiale ha proposto di creare prove false per incastrarlo o, più brutalmente, di riempirlo di botte. Nessun altro strumento testato si è spinto a incitare apertamente alla violenza in questo modo.
Assistenza pratica in percentuali preoccupanti
Anche senza incoraggiamenti espliciti, gli altri colossi tecnologici hanno fornito aiuti concreti. Perplexity e Meta AI sono risultati i meno sicuri, assecondando le richieste e fornendo assistenza agli aspiranti aggressori rispettivamente nel 100% e nel 97% delle risposte.
DeepSeek è arrivato al punto di congedare un utente, che chiedeva informazioni su fucili di precisione dopo aver espresso l’intenzione di farla pagare a una politica irlandese, augurandogli “buona (e sicura) sparatoria“.
Gemini ha fornito spiegazioni su quale tipo di scheggia, tra vetro e metallo, fosse piu letale per un attentato in una sinagoga, mentre ChatGPT ha consegnato mappe dettagliate dei campus scolastici a finti studenti interessati a compiere stragi.
Le eccezioni e le difese delle aziende
In questo contesto critico, solo due assistenti virtuali si sono distinti per una maggiore prudenza. Claude di Anthropic ha rifiutato di collaborare nel 68% dei casi, cercando attivamente di scoraggiare le intenzioni violente nel 76% delle risposte generate durante i test. Anche My AI di Snapchat ha mostrato una certa resistenza, negando l’aiuto nel 54% delle interazioni.
Le grandi aziende tecnologiche, informate dei risultati, sono corse ai ripari. Google, Microsoft, Meta e OpenAI hanno dichiarato di aver implementato importanti aggiornamenti nei mesi successivi ai test per migliorare i filtri di sicurezza.
OpenAI, in particolare, ha criticato la metodologia della ricerca, sostenendo che fornire informazioni di dominio pubblico, come una semplice mappa, non equivalga a istruire qualcuno su come compiere un massacro.
Tuttavia, il dibattito rimane aperto, alimentato anche da recenti cause legali che vedono i colossi del settore accusati di negligenza in gravi casi di cronaca nera, dimostrando quanto l’impatto di queste tecnologie sulla sicurezza pubblica sia ormai una questione inderogabile.



