Компанія OpenAI планує запровадити обов’язкову верифікацію для організацій, які прагнуть отримати доступ до нових моделей штучного інтелекту через свій API. Це рішення, згідно з інформацією на оновленій сторінці підтримки, має на меті посилення контролю та запобігання можливим зловживанням з використанням технологій штучного інтелекту.
Про це розповідає Бізнес • Медіа
Процедура, відома як Verified Organization, вимагатиме наявності державного ідентифікатора з акредитованої країни для підтвердження легітимності організації. Важливо відзначити, що один документ зможе бути використаний лише раз на 90 днів, і не всі компанії зможуть пройти цю верифікацію, як уточнюють у OpenAI.
Мета нововведення
Представники компанії зазначають, що основною метою цього нововведення є запобігання небезпечному чи зловмисному використанню API, особливо в умовах, коли технології штучного інтелекту стають дедалі потужнішими. Раніше OpenAI повідомляла про спроби використання своїх систем північнокорейськими групами, а також про інші випадки порушення умов API.
«На жаль, невелика меншість розробників навмисно використовують API OpenAI, порушуючи наші політики використання. Ми додаємо процес перевірки, щоб пом’якшити небезпечне використання ШІ, продовжуючи при цьому робити передові моделі доступними для ширшої спільноти розробників», — заявили в компанії.
Захист інтелектуальної власності
Крім забезпечення безпеки, нова процедура може слугувати механізмом захисту інтелектуальної власності. У січні 2024 року OpenAI розпочала розслідування щодо можливого витоку даних, ймовірно, пов’язаного з китайською компанією DeepSeek, яка могла використовувати API OpenAI для навчання власних моделей.
На думку експертів, загрози кібершпіонажу для провідних американських компаній у сфері штучного інтелекту, зокрема, можуть походити з Китаю. Нагадаємо, що Європейський Союз планує створення мережі ШІ-гігафабрик, щоб конкурувати з Китаєм і США.