Ключевые разработчики систем искусственного интеллекта, включая OpenAI, Google DeepMind, Anthropic, Meta, xAI, а также китайские компании Zhipu AI и DeepSeek, оказались неподготовленными к потенциальным экзистенциальным рискам, связанным с искусственным общим интеллектом (AGI), согласно оценке Института будущего жизни (FLI). Ни одна из компаний не получила оценки выше D за свои планы по обеспечению экзистенциальной безопасности, а в некоторых областях результаты были еще ниже.
Об этом сообщает Бизнес • Медиа
Оценки безопасности и основные недостатки компаний
FLI протестировал семи крупнейших разработчиков больших языковых моделей (LLMs) по шести ключевым направлениям – от текущих угроз до готовности к чрезвычайным ситуациям, связанным с неконтролируемым поведением ИИ. Наивысший балл в индексе был получен стартапом Anthropic – оценка C, в то время как OpenAI и Google DeepMind получили оценки C и C- соответственно. Другие компании продемонстрировали еще более слабые результаты.
«Ни одна из организаций не имеет ничего, что можно было бы назвать согласованным, реализованным планом по контролю над ИИ.»
Эксперты оценивают ситуацию как сопоставимую с запуском атомной электростанции без какого-либо плана действий для предотвращения катастрофы. OpenAI и DeepMind получили особенно низкие оценки в области управления рисками.
Темпы разработки ИИ и реакция отрасли
Макс Тегмарк, соучредитель FLI и профессор MIT, заявил, что ведущие компании создают системы, опасности которых сопоставимы с ядерными рисками, однако они не раскрывают даже базовые планы по предотвращению возможных катастроф. Он подчеркнул, что темпы разработки ИИ значительно ускорились, и если ранее считалось, что AGI появится через десятилетия, то теперь это вопрос нескольких лет.
В отчете FLI также подчеркивается, что с февраля, после саммита по ИИ, прогресс в этой области только ускорился. Новые модели, такие как Grok 4, Gemini 2.5 и генератор видео Veo3, уже демонстрируют значительное увеличение возможностей.
Параллельно с отчетом FLI организация SaferAI опубликовала свой собственный аналитический отчет, пришедший к аналогичным выводам относительно «неприемлемо слабого» управления рисками в ведущих компаниях отрасли. Эксперты подчеркивают необходимость быстрого пересмотра подходов к разработке AGI.
В ответ на обвинения представитель Google DeepMind отметил, что отчет FLI не учитывает полного спектра мер безопасности, реализованных в компании. Другие фирмы воздержались от комментариев на момент публикации.
Ранее сообщалось, что Meta привлекла нескольких ведущих ученых из OpenAI для сотрудничества в разработке суперинтеллектуальных систем.
