Ключові розробники систем штучного інтелекту, включаючи OpenAI, Google DeepMind, Anthropic, Meta, xAI, а також китайські Zhipu AI і DeepSeek, за результатами оцінки Інституту майбутнього життя (FLI), виявилися не готовими до потенційних екзистенційних ризиків, які може нести штучний надрозум (AGI). Жодна з компаній не отримала оцінку вищу за D щодо планування екзистенціальної безпеки, а в окремих аспектах результати були навіть нижчими.
Про це розповідає Бізнес • Медіа
Рейтинг безпеки та основні недоліки компаній
FLI протестував сім найбільших розробників великих мовних моделей (LLM) за шістьма ключовими напрямками – від поточних загроз до готовності реагувати на надзвичайні ситуації, пов’язані з виходом ШІ з-під контролю. Найвищий результат в індексі отримав стартап Anthropic – оцінка C, тоді як OpenAI та Google DeepMind мали показники C і C- відповідно. Інші компанії продемонстрували ще слабші результати.
“В жодної з організацій немає нічого схожого на послідовний, реалізований план із контролю над ШІ”.
За оцінками експертів, ситуацію можна порівняти із запуском атомної електростанції без жодного плану дій для запобігання катастрофі. Особливо низькі бали у сфері управління ризиками отримали OpenAI та DeepMind.
Темпи розвитку ШІ та реакція індустрії
Макс Тегмарк, співзасновник FLI та професор MIT, заявив, що провідні компанії створюють системи, небезпека яких співставна з ядерною, однак не оприлюднюють навіть базових планів запобігання можливим катастрофам. Він підкреслив, що темпи розвитку ШІ значно прискорилися, і якщо раніше йшлося про десятиліття до появи AGI, то зараз мова йде про кілька років.
У доповіді FLI також наголошується, що з моменту лютневого саміту з питань ШІ прогрес у цій сфері лише прискорився. Нові моделі, такі як Grok 4, Gemini 2.5 і відеогенератор Veo3, вже показують суттєве зростання можливостей.
Паралельно зі звітом FLI, організація SaferAI опублікувала власний аналітичний звіт, дійшовши аналогічних висновків щодо «неприйнятно слабкого» управління ризиками у провідних компаніях галузі. Експерти наголошують на необхідності якнайшвидшого перегляду підходів до розробки AGI.
У відповідь на звинувачення представник Google DeepMind зазначив, що звіт FLI не враховує весь спектр заходів безпеки, впроваджених у компанії. Інші фірми на момент публікації утрималися від коментарів.
Раніше стало відомо, що компанія Meta залучила до своєї команди кількох провідних вчених OpenAI для спільної роботи над розвитком суперінтелектуальних систем.
