Компания OpenAI планирует внедрить обязательную верификацию для организаций, которые стремятся получить доступ к новым моделям искусственного интеллекта через свой API. Это решение, согласно информации на обновленной странице поддержки, направлено на усиление контроля и предотвращение возможных злоупотреблений с использованием технологий искусственного интеллекта.
Об этом сообщает Бізнес • Медіа
Процедура, известная как Verified Organization, потребует наличия государственного идентификатора из аккредитованной страны для подтверждения легитимности организации. Важно отметить, что один документ сможет быть использован только один раз в 90 дней, и не все компании смогут пройти эту верификацию, как уточняют в OpenAI.
Цель нововведения
Представители компании отмечают, что основной целью этого нововведения является предотвращение опасного или злонамеренного использования API, особенно в условиях, когда технологии искусственного интеллекта становятся все более мощными. Ранее OpenAI сообщала о попытках использования своих систем северокорейскими группами, а также о других случаях нарушения условий API.
«К сожалению, небольшая меньшинство разработчиков намеренно использует API OpenAI, нарушая наши политики использования. Мы добавляем процесс проверки, чтобы смягчить опасное использование ИИ, продолжая при этом делать передовые модели доступными для более широкой сообщества разработчиков», — заявили в компании.
Защита интеллектуальной собственности
Кроме обеспечения безопасности, новая процедура может служить механизмом защиты интеллектуальной собственности. В январе 2024 года OpenAI начала расследование по поводу возможной утечки данных, вероятно, связанной с китайской компанией DeepSeek, которая могла использовать API OpenAI для обучения собственных моделей.
По мнению экспертов, угрозы кибершпионажа для ведущих американских компаний в сфере искусственного интеллекта, в частности, могут исходить из Китая. Напомним, что Европейский Союз планирует создание сети ИИ-гигафабрик, чтобы конкурировать с Китаем и США.