DeepSeek stellt V4 vor: Das neueste Open-Source-KI-Modell, das große Technologieriesen herausfordert

Inhaltsverzeichnis Das chinesische Unternehmen für künstliche Intelligenz DeepSeek hat am vergangenen Freitag Vorschauversionen seines neuesten Flaggschiff-Open-Source-KI-Systems V4 vorgestellt. Nach Angaben des Unternehmens bietet diese neueste Iteration verbesserte Argumentationsfähigkeiten, Kosteneffizienz und eine außergewöhnlich große Kontextverarbeitungskapazität. 🚀 DeepSeek-V4 Preview ist offiziell live und Open-Source! Willkommen im Zeitalter der kostengünstigen 1-Millionen-Kontextlänge. 🔹 DeepSeek-V4-Pro: 1,6T insgesamt / 49B aktive Parameter. Leistung, die mit den besten Closed-Source-Modellen der Welt mithalten kann.🔹 DeepSeek-V4-Flash: 284B insgesamt / 13B aktive Parameter.… pic.twitter.com/n1AgwMIymu — DeepSeek (@deepseek_ai) 24. April 2026 Das Unternehmen stellte zwei unterschiedliche Varianten vor: V4-Pro und V4-Flash. Die Pro-Edition verfügt über 1,6 Billionen Parameter, während die Flash-Variante eine optimierte Alternative mit 284 Milliarden Parametern darstellt, die auf höchste Effizienz und Kosteneffizienz ausgelegt ist. Jede Variante unterstützt die gleichzeitige Verarbeitung von bis zu einer Million Token. Diese Fähigkeit ermöglicht es ihnen, große Textmengen in einem einzigen Vorgang zu analysieren und sich in dieser Dimension neben Googles Gemini zu positionieren. Das Unternehmen stellte fest, dass aktuelle Modelle ausschließlich Text verarbeiten. DeepSeek bestätigte, dass die Entwicklung zur Integration multimodaler Funktionen im Gange ist, die es künftigen Versionen ermöglichen wird, Bilder und Videoinhalte zu analysieren. Beim MMLU-Pro-Test, einem Standard-Branchen-Benchmark, lieferte V4-Pro Ergebnisse, die denen von OpenAIs GPT-5.4 entsprachen. Mit der Leistung lag es knapp unter Googles Gemini und Anthropics Claude Opus 4,6. Speziell bei den Argumentations-Benchmarks sicherte sich V4-Pro den zweiten Platz, nur hinter der neuesten Gemini-Version. DeepSeek betonte, dass V4 für die Integration mit KI-Agent-Frameworks wie Claude Code, OpenCode und CodeBuddy optimiert wurde. Die Organisation bezeichnete die Kontextkapazität von V4 als „weltweit führend mit drastisch reduzierten Rechen- und Speicherkosten“. Der Branchenanalyst Zhang Yi bezeichnete dies als einen „Wendepunkt“ und deutete an, dass die Fähigkeit zu ultralangen Kontexten von experimentellen Forschungsumgebungen zu kommerziellen Mainstream-Anwendungen übergehen könnte. Der KI-Branchenexperte Max Liu bezeichnete die Einführung als „Meilenstein“ für Chinas Sektor der künstlichen Intelligenz und zog Parallelen zu den Marktauswirkungen, als DeepSeeks R1 erstmals auf den Markt kam. Dies ist DeepSeeks erste bedeutende Modelleinführung einer neuen Generation seit der Einführung von R1 Anfang 2025. Die vorherige Version löste Wellen auf den globalen Technologiemärkten aus und betraf Unternehmen wie Nvidia und Meta, indem sie zeigte, dass ein wirtschaftliches, effizientes Modell mit teuren proprietären Alternativen konkurrieren kann. DeepSeek hat nicht bekannt gegeben, welche Halbleiterchips den Trainingsprozess von V4 unterstützten. Anfang des Jahres behaupteten US-Behörden, das Unternehmen habe eingeschränkte Nvidia-Blackwell-Chips verwendet. Anschließend deutete ein Bericht von The Information darauf hin, dass das Training stattdessen auf Huawei-Chips stattfand. Huawei hat bestätigt, dass seine Ascend-Supernode-Infrastruktur, die Ascend 950 AI-Prozessoren nutzt, vollständige Unterstützung für die V4-Systeme von DeepSeek bieten würde. Das Modelldebüt folgt unmittelbar nachdem Berichte aufgetaucht sind, dass Tencent und Alibaba Investitionsgespräche mit DeepSeek über einen Wert von über 20 Milliarden US-Dollar führen. DeepSeek zählt zu den sechs führenden KI-Einhornunternehmen Chinas. Eine Vorschauversion von V4 ist derzeit über Hugging Face verfügbar. DeepSeek hat noch keinen Zeitplan für die vollständige Veröffentlichung angegeben. Entdecken Sie mit Expertenanalysen Aktien mit der besten Performance in den Bereichen KI, Krypto und Technologie.