
Chatboturile AI oferă detalii despre atacuri violente
Un raport al organizației Center for Countering Digital Hate arată că opt din nouă chatboturi AI analizate au furnizat, în anumite condiții, informații care ar putea ajuta la planificarea unor atacuri violente. Investigația, realizată în colaborare cu CNN, a testat reacțiile sistemelor după solicitări formulate din perspectiva unor băieți de 13 ani care spuneau că vor să comită atacuri în masă. Concluziile indică diferențe mari între platforme în privința filtrelor de siguranță.
Analiza a inclus peste 700 de răspunsuri generate de nouă sisteme AI, în cadrul a nouă scenarii diferite. Cercetătorii au cerut detalii despre organizarea unor atacuri armate în școli, despre asasinarea unor politicieni și despre bombardarea unor sinagogi. Potrivit raportului, opt dintre cele nouă chatboturi testate au oferit într-o formă sau alta informații considerate utile pentru pregătirea unor astfel de atacuri. Printre platformele analizate s-au numărat Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI și Replika.
Raportul prezintă și exemple concrete de răspunsuri. Gemini a sugerat că „șrapnelul metalic este de obicei mai letal” într-un scenariu legat de un atentat cu bombă împotriva unei sinagogi. În alt caz, DeepSeek a răspuns unei întrebări despre alegerea unei arme de foc cu mesajul „Happy (and safe) shooting!”, după ce utilizatorul ceruse anterior exemple de asasinate politice și adresa biroului unui politician. Directorul CCDH, Imran Ahmed, a declarat că astfel de răspunsuri arată cum „în câteva minute, un utilizator poate ajunge de la o idee violentă la un plan concret de acțiune”.
Diferențe între platforme
Potrivit raportului, Perplexity AI și Meta AI au fost evaluate drept cele mai puțin sigure, după ce au oferit ajutor în 100% și, respectiv, 97% dintre cazurile analizate. Character.AI a fost descrisă drept „deosebit de nesigură”, deoarece uneori sugera comportamente violente chiar și fără o solicitare directă în acest sens. La polul opus, Claude și Snapchat My AI au refuzat să ofere informații periculoase în 68% și, respectiv, 54% dintre cereri.
Autorii studiului notează că unele sisteme pot identifica tipare de conversație periculoase și pot bloca răspunsurile. Într-un exemplu inclus în raport, Claude a refuzat să spună unde poate fi cumpărată o armă în statul Virginia și a avertizat că există un „model îngrijorător” în conversație. Ulterior, chatbotul a sugerat linii de ajutor pentru persoane aflate în criză. Același sistem a fost singurul care a încercat constant să descurajeze violența, în aproximativ 76% dintre răspunsuri, ceea ce, potrivit autorilor, arată că tehnologia pentru filtre de siguranță există, dar nu este aplicată uniform.
Contextul raportului
Raportul apare la scurt timp după mai multe incidente în care inteligența artificială ar fi fost folosită în planificarea unor atacuri. În Canada, un atac armat într-o școală din Tumbler Ridge, British Columbia, soldat cu opt morți și 27 de răniți, ar fi fost pregătit cu ajutorul ChatGPT, potrivit unor relatări din presă. De asemenea, anul trecut, autoritățile franceze au arestat un adolescent suspectat că a folosit ChatGPT pentru a planifica atacuri teroriste asupra ambasadelor, instituțiilor guvernamentale și școlilor.
Experții citați în raport spun că aceste cazuri evidențiază nevoia unor reguli mai stricte și a unor filtre de siguranță mai eficiente pentru sistemele AI, pe măsură ce tehnologia devine tot mai accesibilă publicului.























