DeepSeek представила ШІ-моделі V4 Pro і Flash з фокусом на логічне мислення та роботу зі складними задачами
Компанія DeepSeek представила нові моделі штучного інтелекту — V4 Pro та V4 Flash. Головна зміна — підтримка контексту до 1 млн токенів, що дозволяє обробляти значно довші діалоги та великі обсяги даних без втрати логіки відповіді.
🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
— DeepSeek (@deepseek_ai) April 24, 2026
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu
Контекст визначає, скільки інформації модель може пам’ятати під час роботи. Чим він більший, тим стабільніші результати в складних задачах: аналітика, код, довгі документи. Для порівняння, у OpenAI в моделі GPT-5.5 цей показник також сягає до 1 млн токенів.
DeepSeek заявляє, що V4 Pro наближається до закритих моделей за рівнем логічного мислення та агентних можливостей. За їхніми оцінками, модель поступається лише Gemini 3.1 Pro за обсягом знань. Версія V4 Flash працює швидше, хоча трохи слабша, але демонструє подібні результати в базових задачах.
Водночас DeepSeek уже стикається з регуляторними обмеженнями. Після зростання популярності застосунок заборонили для використання в державних установах США через ризики безпеки. У Південній Кореї завантаження також призупинили через питання конфіденційності.
Для бізнесу це означає дві паралельні тенденції: з одного боку — зниження вартості доступу до потужних моделей, з іншого — посилення вимог до безпеки даних і контролю використання ШІ.
Джерело: Engadget