OpenAI вимагатиме верифікацію організацій для доступу до нових моделей ШІ

OpenAI планує змінити умови доступу до найновіших моделей штучного інтелекту на своїй платформі. Як повідомляє офіційна сторінка підтримки компанії, для використання окремих майбутніх моделей може знадобитися проходження перевірки особи.
Процедура має назву Verified Organization і передбачає подання офіційного документа, виданого однією з країн, де доступний API OpenAI. Один документ можна використати лише для однієї організації раз на 90 днів. Компанія попереджає, що не всі охочі зможуть пройти верифікацію.
У заяві компанії йдеться, що це рішення пов’язане з безпекою та запобіганням зловживанням. OpenAI стверджує, що частина розробників навмисно порушує політику використання API, тож нові правила мають зменшити ризики небезпечного застосування ШІ.
Зміни також можуть бути пов’язані з кібератакою, про яку повідомляв Bloomberg. За даними видання, наприкінці 2024 року OpenAI розслідувала спробу витоку даних через API з боку структури, яку пов’язують із китайською лабораторією DeepSeek. Дані нібито могли використати для навчання власних моделей, що порушує умови платформи.
Улітку 2024 року OpenAI вже заблокувала доступ до своїх сервісів у Китаї. Впровадження глобальної перевірки організацій виглядає як продовження заходів із захисту інтелектуальної власності та посилення контролю над тим, хто і як використовує потужні ШІ-моделі.
Джерело: TechCrunch