DeepSeek представляет V4: новейшую модель искусственного интеллекта с открытым исходным кодом, бросающую вызов крупным технологическим гигантам

В минувшую пятницу китайская компания по искусственному интеллекту DeepSeek представила предварительные версии своей новейшей флагманской системы искусственного интеллекта с открытым исходным кодом V4. По заявлению компании, эта последняя итерация обеспечивает расширенные возможности рассуждения, экономическую эффективность и исключительно большие возможности обработки контекста. 🚀 Предварительная версия DeepSeek-V4 официально доступна и имеет открытый исходный код! Добро пожаловать в эпоху экономичных контекстов длиной в 1 МБ. 🔹 DeepSeek-V4-Pro: всего 1,6 Т / 49 Б активных параметров. Производительность конкурирует с лучшими в мире моделями с закрытым исходным кодом. 🔹 DeepSeek-V4-Flash: всего 284 ББ / 13 Б активных параметров.… pic.twitter.com/n1AgwMIymu — DeepSeek (@deepseek_ai) 24 апреля 2026 г. Фирма представила два различных варианта: V4-Pro и V4-Flash. Версия Pro содержит 1,6 триллиона параметров, а вариант Flash представляет собой упрощенную альтернативу, содержащую 284 миллиарда параметров, разработанную для обеспечения высочайшей эффективности и экономичности. Каждый вариант поддерживает обработку до миллиона токенов одновременно. Эта возможность позволяет им анализировать значительные объемы текста за одну операцию, что делает их конкурентоспособными в этом измерении рядом с Gemini от Google. Компания отметила, что текущие модели обрабатывают исключительно текст. DeepSeek подтвердил, что ведется разработка по включению мультимодальной функциональности, которая позволит будущим версиям анализировать изображения и видеоконтент. В тестировании MMLU-Pro, стандартном отраслевом тесте, V4-Pro показал результаты, эквивалентные OpenAI GPT-5.4. Производительность поставила его немного ниже Gemini от Google и Claude Opus 4.6 от Anthropic. Если говорить конкретно о тестах, V4-Pro занял второе место после только самого последнего выпуска Gemini. DeepSeek подчеркнул, что версия V4 была оптимизирована для интеграции с платформами агентов искусственного интеллекта, включая Claude Code, OpenCode и CodeBuddy. Организация охарактеризовала контекстную емкость V4 как «ведущую в мире с радикально сниженными затратами на вычисления и память». Отраслевой аналитик Чжан И назвал это «переломным моментом», предположив, что возможности сверхдлинного контекста могут перейти от экспериментальных исследовательских сред к массовым коммерческим приложениям. Эксперт отрасли искусственного интеллекта Макс Лю охарактеризовал запуск как «веху» для китайского сектора искусственного интеллекта, проведя параллели с влиянием на рынок, когда DeepSeek R1 впервые дебютировал. Это знаменует собой первый значительный запуск модели нового поколения DeepSeek с момента появления R1 в начале 2025 года. Этот предыдущий релиз вызвал волну волн на мировых технологических рынках, затронув такие компании, как Nvidia и Meta, продемонстрировав, что экономичная и эффективная модель может конкурировать с дорогими проприетарными альтернативами. DeepSeek не раскрыла, какие полупроводниковые чипы используются в процессе обучения V4. Ранее в этом году власти США заявили, что компания использовала ограниченные чипы Nvidia Blackwell. Впоследствии в отчете The Information указывалось, что вместо этого обучение проводилось на чипах Huawei. Компания Huawei подтвердила, что ее инфраструктура суперузлов Ascend, использующая процессоры искусственного интеллекта Ascend 950, обеспечит полную поддержку систем DeepSeek V4. Дебют модели последовал сразу после того, как появились сообщения о том, что Tencent и Alibaba ведут переговоры об инвестициях с DeepSeek при оценке, превышающей 20 миллиардов долларов. DeepSeek входит в число шести ведущих китайских компаний-единорогов в сфере искусственного интеллекта. Предварительная сборка V4 в настоящее время доступна через Hugging Face. DeepSeek еще не определил сроки полного публичного релиза. Откройте для себя наиболее эффективные акции в сфере искусственного интеллекта, криптовалюты и технологий с помощью экспертного анализа.