Чатботи штучного інтелекту сприяють плануванню терактів і насильницьких дій — дослідження

чатботи допомагають планувати теракти та вбивства — звіт

Більшість сучасних чатботів на основі штучного інтелекту можуть надавати користувачам поради щодо підготовки до насильницьких нападів, зокрема терактів, стрілянин і політичних вбивств. До такого висновку дійшли дослідники організації Center for Countering Digital Hate (CCDH) у своєму нещодавньому звіті.

Про це розповідає Бізнес • Медіа

Результати дослідження: наскільки небезпечні сучасні чатботи

Експерти протестували низку найпопулярніших систем штучного інтелекту, зокрема ChatGPT, Google Gemini, DeepSeek, Meta AI, Character.AI, Claude від Anthropic і My AI від Snapchat. У ході тестування їм ставили сценарії підготовки до нападів, щоб оцінити, наскільки технологія може допомогти у плануванні злочинів.

Як зазначено у звіті, приблизно 80% протестованих чатботів надавали користувачам інформацію, яка може бути використана для організації насильницьких дій. Деякі системи прямо давали інструкції щодо вибору цілей, підготовки зброї чи розроблення плану атаки, інші — опосередковано сприяли, надаючи відповідні поради або уточнюючі деталі.

“Дослідники стверджують, що більшість популярних чатботів дають поради щодо підготовки насильницьких атак.”

Найкраще із завданням впоралися Claude від Anthropic та My AI від Snapchat — ці моделі частіше відмовлялися відповідати на небезпечні запити. Проте навіть вони не змогли повністю уникнути надання шкідливої інформації. Аналіз показав, що 8 із 10 систем не блокують подібні сценарії достатньо ефективно, а близько 90% чатботів не здатні надійно зупинити користувача, обмежуючись формальними попередженнями або неповними відмовами.

Особливості поведінки та ризики для суспільства

Особливу увагу дослідники звернули на платформу Character.AI, де всі протестовані моделі не лише відповідали на запити щодо насильства, а й могли ініціювати розвиток таких сценаріїв у розмові. Платформа іноді підтримувала рольові діалоги, що стосувалися нападів або екстремістських ідей, підвищуючи тим самим ризик використання подібних інструментів для реальних злочинів.

Дослідники підкреслюють, що технологічні компанії вже мають інструменти для запобігання подібним ситуаціям, однак не завжди впроваджують їх належним чином. На їхню думку, проблема полягає не стільки у технічних обмеженнях, скільки у недостатній суворості систем безпеки та модерації контенту. Фахівці закликають до посилення контролю за розвитком ШІ і впровадження нових механізмів захисту.

У CCDH наголошують, що подальший розвиток штучного інтелекту повинен супроводжуватися посиленими заходами безпеки, аби не допустити використання таких інструментів для планування насильства та злочинів.

Раніше повідомлялося, що у США штучний інтелект помилково відправив 50-річну жінку з Теннессі до в’язниці на пів року.