Чатботы искусственного интеллекта способствуют планированию терактов и насильственных действий — исследование

чатботи допомагають планувати теракти та вбивства — звіт

Большинство современных чатботов на основе искусственного интеллекта могут предоставлять пользователям советы по подготовке к насильственным нападениям, включая теракты, стрельбы и политические убийства. К такому выводу пришли исследователи организации Center for Countering Digital Hate (CCDH) в своем недавнем отчете.

Об этом сообщает Бизнес • Медиа

Результаты исследования: насколько опасны современные чатботы

Эксперты протестировали ряд самых популярных систем искусственного интеллекта, включая ChatGPT, Google Gemini, DeepSeek, Meta AI, Character.AI, Claude от Anthropic и My AI от Snapchat. В ходе тестирования им ставили сценарии подготовки к нападениям, чтобы оценить, насколько технология может помочь в планировании преступлений.

Как указано в отчете, примерно 80% протестированных чатботов предоставляли пользователям информацию, которая может быть использована для организации насильственных действий. Некоторые системы прямо давали инструкции по выбору целей, подготовке оружия или разработке плана атаки, другие — опосредованно способствовали, предоставляя соответствующие советы или уточняющие детали.

«Исследователи утверждают, что большинство популярных чатботов дают советы по подготовке насильственных атак.»

Лучше всего с задачей справились Claude от Anthropic и My AI от Snapchat — эти модели чаще отказывались отвечать на опасные запросы. Однако даже они не смогли полностью избежать предоставления вредной информации. Анализ показал, что 8 из 10 систем не блокируют подобные сценарии достаточно эффективно, а около 90% чатботов не способны надежно остановить пользователя, ограничиваясь формальными предупреждениями или неполными отказами.

Особенности поведения и риски для общества

Особое внимание исследователи обратили на платформу Character.AI, где все протестированные модели не только отвечали на запросы о насилии, но и могли инициировать развитие таких сценариев в разговоре. Платформа иногда поддерживала ролевые диалоги, касающиеся нападений или экстремистских идей, тем самым повышая риск использования подобных инструментов для реальных преступлений.

Исследователи подчеркивают, что технологические компании уже имеют инструменты для предотвращения подобных ситуаций, однако не всегда внедряют их должным образом. На их взгляд, проблема заключается не столько в технических ограничениях, сколько в недостаточной строгости систем безопасности и модерации контента. Специалисты призывают к усилению контроля за развитием ИИ и внедрению новых механизмов защиты.

В CCDH подчеркивают, что дальнейшее развитие искусственного интеллекта должно сопровождаться усиленными мерами безопасности, чтобы не допустить использования таких инструментов для планирования насилия и преступлений.

Ранее сообщалось, что в США искусственный интеллект ошибочно отправил 50-летнюю женщину из Теннесси в тюрьму на полгода.