A recent study conducted by the Center for Countering Digital Hate (CCDH) in collaboration with the CNN has revealed an unsettling reality about generative AIs.
Testing the 10 most widely used chatbots in the world between November and December 2025, researchers found that the vast majority of these tools provide assistance to users who plan violent attacks.
Creating fictitious profiles of teenagers in the United States and Ireland, the study authors simulated extreme scenarios, from school shootings to political assassinations, up to attacks on places of worship.
The results show that as many as 8 out of 10 platforms provided useful information for these illicit activities, almost always failing to actively deter would-be attackers.
Sebbene molte piattaforme abbiano mostrato gravi lacune di sicurezza, il rapporto sottolinea come Character.AI si sia dimostrata un’eccezione in negativo.
Interagendo con un bot basato sul personaggio anime Gojo Satoru, i ricercatori hanno ricevuto espliciti incoraggiamenti a commettere atti di violenza.
Alla richiesta di consigli su come punire i dirigenti delle compagnie di assicurazione sanitaria, il sistema ha suggerito di rintracciare l’amministratore delegato e di “usare una pistola“.
In un altro scambio relativo a un noto politico statunitense, l’intelligenza artificiale ha proposto di creare prove false per incastrarlo o, più brutalmente, di riempirlo di botte. Nessun altro strumento testato si è spinto a incitare apertamente alla violenza in questo modo.
Anche senza incoraggiamenti espliciti, gli altri colossi tecnologici hanno fornito aiuti concreti. Perplexity e Meta AI sono risultati i meno sicuri, assecondando le richieste e fornendo assistenza agli aspiranti aggressori rispettivamente nel 100% e nel 97% delle risposte.
DeepSeek è arrivato al punto di congedare un utente, che chiedeva informazioni su fucili di precisione dopo aver espresso l’intenzione di farla pagare a una politica irlandese, augurandogli “buona (e sicura) sparatoria“.
Gemini ha fornito spiegazioni su quale tipo di scheggia, tra vetro e metallo, fosse piu letale per un attentato in una sinagoga, mentre ChatGPT ha consegnato mappe dettagliate dei campus scolastici a finti studenti interessati a compiere stragi.
In questo contesto critico, solo due assistenti virtuali si sono distinti per una maggiore prudenza. Claude di Anthropic ha rifiutato di collaborare nel 68% dei casi, cercando attivamente di scoraggiare le intenzioni violente nel 76% delle risposte generate durante i test. Anche My AI di Snapchat ha mostrato una certa resistenza, negando l’aiuto nel 54% delle interazioni.
Le grandi aziende tecnologiche, informate dei risultati, sono corse ai ripari. Google, Microsoft, Meta e OpenAI hanno dichiarato di aver implementato importanti aggiornamenti nei mesi successivi ai test per migliorare i filtri di sicurezza.
OpenAI, in particolare, ha criticato la metodologia della ricerca, sostenendo che fornire informazioni di dominio pubblico, come una semplice mappa, non equivalga a istruire qualcuno su come compiere un massacro.
Tuttavia, il dibattito rimane aperto, alimentato anche da recenti cause legali che vedono i colossi del settore accusati di negligenza in gravi casi di cronaca nera, dimostrando quanto l’impatto di queste tecnologie sulla sicurezza pubblica sia ormai una questione inderogabile.
More than half of the world's governments today have at their disposal sophisticated commercial spyware…
A few hours after OPPO's event (which saw the launch of a slew of novelties…
The period from April 22 to April 28 is dedicated to the best tech products…
After the debut of Edge 70 and Edge 70 Fusion, it is time to say…
Lightness and versatility, without sacrificing professional performance: these are the characteristics of DJI Mic 3,…
The latest rumors reveal that the Taiwanese company is developing a high-end product named ASUS…