Anthropic запустила Code Review у Claude Code для перевірки ШІ-згенерованого коду

Anthropic запустила Code Review у Claude Code для перевірки ШІ-згенерованого коду

Anthropic запустила інструмент Code Review у Claude Code. Він перевіряє код у pull request, тобто в запитах на внесення змін до проєкту, і має знаходити помилки ще до того, як їх додадуть до основної кодової бази. Спочатку функція доступна в дослідницькому прев’ю для клієнтів Claude for Teams і Claude for Enterprise.

У компанії пояснюють запуск тим, що генеративні інструменти пришвидшили написання коду, але водночас збільшили кількість змін, які командам треба перевіряти вручну. Anthropic заявляє, що обсяг коду на одного інженера всередині компанії за рік виріс на 200%, а рев’ю стало вузьким місцем у процесі розробки.

За словами керівниці продукту Anthropic Кет Ву, Code Review орієнтований насамперед на великі команди, які вже активно працюють із Claude Code. Вона сказала TechCrunch, що компанії на кшталт Uber, Salesforce та Accenture шукають спосіб швидше перевіряти велику кількість pull request, які створюються за допомогою ШІ.

Code Review інтегрується з GitHub і після ввімкнення може автоматично перевіряти нові pull request для всієї команди. Система залишає загальний коментар до змін і окремі примітки в коді з поясненням, у чому вона бачить проблему та як її можна виправити.

Anthropic робить акцент не на стилі коду, а на логічних помилках. Компанія також додає позначки серйозності: червоний колір для найкритичніших проблем, жовтий — для потенційних ризиків, фіолетовий — для помилок, пов’язаних зі старим кодом або давніми збоями.

Інструмент працює на багатoагентній системі. Кілька агентів паралельно аналізують код з різних боків, а фінальний агент збирає результати, прибирає дублікати й визначає, що є найважливішим. За даними Anthropic, середня перевірка триває близько 20 хвилин, а для великих змін система підключає більше агентів і робить глибший аналіз.

У компанії кажуть, що вже використовують Code Review майже для кожного pull request. До запуску інструмента змістовні коментарі отримували 16% pull request, а тепер — 54%. На великих pull request із понад 1000 змінених рядків система знаходила проблеми у 84% випадків, у середньому по 7,5 зауваження на один запит.

Code Review не ухвалює зміни замість людини. В Anthropic підкреслюють, що фінальне рішення все одно залишається за командою розробки.

Інструмент також дає базовий аналіз безпеки, а технічні керівники можуть додавати власні перевірки відповідно до внутрішніх правил команди. Для глибшого аналізу безпеки Anthropic пропонує окремий продукт Claude Code Security.

Вартість Code Review залежить від кількості токенів, розміру pull request і складності коду. Anthropic оцінює середню ціну однієї перевірки в $15–$25. Для контролю витрат адміністратори можуть встановлювати місячні ліміти, обирати окремі репозиторії для перевірки та стежити за витратами через аналітичну панель.

Окремо TechCrunch зазначає, що запуск Code Review відбувся в момент, коли Anthropic посилює ставку на корпоративний напрям. Видання пише, що підписки компанії з початку року зросли в чотири рази, а річний темп виручки Claude Code після запуску перевищив $2,5 млрд — за даними самої Anthropic. 

Джерело: TechCrunch

Гнатюк Дмитро
Гнатюк Дмитро
• News Editor
Inweb
Працюю з текстами так, щоб складне ставало простим і зрозумілим. Швидко знаходжу потрібну інформацію, аналізую та перетворюю її на змістовний контент. Люблю структуру й чіткість, але залишаю місце для експериментів. Цікавлюся музикою, технологіями та культурою, шукаю способи подати їх так, щоб зачепити читача.
Більше цікавого