Anthropic обмежила доступ OpenAI до моделей Claude через порушення правил використання

Компанія Anthropic обмежила доступ OpenAI до свого API Claude — мовних моделей, які використовуються для створення текстів, коду та оцінки безпеки. Про це повідомило видання Wired з посиланням на джерела в індустрії.
У коментарі TechCrunch представник Anthropic підтвердив, що OpenAI застосовувала Claude для тестування функцій програмування, що прямо суперечить умовам обслуговування. У документі зазначили, що Claude не можна використовувати для створення конкурентних продуктів.
Попри припинення основного доступу, Anthropic залишила можливість обмеженого використання — виключно для тестування безпеки та порівняння продуктивності моделей.
У відповідь представник OpenAI заявив, що такі дії є стандартною практикою у галузі. Він додав, що API OpenAI досі доступний для Anthropic, і компанія розчарована рішенням партнера.
Це не перший випадок, коли Anthropic відмовляє конкурентам. Раніше науковий директор компанії Джаред Каплан публічно підтримав відмову надати доступ до Claude стартапу Windsurf, який згодом придбала компанія Cognition. За його словами, продавати власну модель прямому конкуренту — нелогічне рішення.
Це вказує на посилення конкуренції у сфері генеративного ШІ. Доступ до моделей конкурентів дедалі частіше обмежується, що ускладнює незалежне тестування, впровадження універсальних рішень і контроль безпеки. Компаніям варто уважно вивчати ліцензійні умови сторонніх API та розглядати внутрішні альтернативи для критично важливих завдань.
Джерело: TechCrunch