شركة Alphabet (GOOGL) تكشف النقاب عن شرائح TPU من الجيل الثامن ثنائية الغرض والتي تم تطويرها بالتعاون مع Broadcom

قدم قسم Google التابع لشركة Alphabet معالجين متخصصين للذكاء الاصطناعي يوم الأربعاء، وهي المرة الأولى التي يتم فيها فصل بنية وحدة المعالجة الموترة إلى شرائح متميزة لعمليات التدريب والاستدلال. كشفت Google Cloud النقاب عن أحدث جيل من وحدة المعالجة الموترة، أو TPU، وهي شريحة محلية مصممة لجعل خدمات حوسبة الذكاء الاصطناعي أسرع وأكثر كفاءة https://t.co/MkGU7h2SkT - Bloomberg (@business) 22 أبريل 2026 تم تصميم TPU 8t خصيصًا للتدريب على نماذج الذكاء الاصطناعي، بينما يركز نظيره، TPU 8i، حصريًا على الاستدلال - عملية نشر النماذج المدربة في تطبيقات العالم الحقيقي. عملت Broadcom كشريك في التطوير المشترك، مما أدى إلى توسيع نطاق التعاون الذي امتد لأكثر من عشر سنوات. Alphabet Inc., GOOGL يمثل هذا محورًا استراتيجيًا من الأساليب السابقة. جمعت تكرارات TPU السابقة بين قدرات التدريب والاستدلال داخل معالج واحد. تعزو جوجل هذا التغيير إلى ظهور أنظمة الذكاء الاصطناعي الوكيلة – وهي نماذج مستقلة تعمل في حلقات ردود فعل مستمرة مع الحد الأدنى من الإشراف البشري – والتي تتطلب المزيد من السيليكون المصمم خصيصًا لهذا الغرض. وأوضح أمين فاهدات، النائب الأول للرئيس ورئيس قسم التكنولوجيا في الذكاء الاصطناعي والبنية التحتية في Google: "مع ظهور وكلاء الذكاء الاصطناعي، قررنا أن المجتمع سيستفيد من الرقائق المخصصة بشكل فردي لاحتياجات التدريب والخدمة". يحتوي جهاز TPU 8i الموجه نحو الاستدلال على 384 ميجابايت من ذاكرة الوصول العشوائي SRAM لكل معالج، أي ثلاثة أضعاف سعة Ironwood. وفقًا لجوجل، فإن هذا التحسين المعماري يزيل عنق الزجاجة "غرفة الانتظار"، مما يقلل من طفرات زمن الوصول التي تحدث عندما يقوم عدة مستخدمين بالاستعلام عن نموذج في وقت واحد. بالمقارنة مع Ironwood، يحقق TPU 8i كفاءة أفضل في التكلفة بنسبة 80%. من الناحية التشغيلية، يمكن للمؤسسات استيعاب ما يقرب من ضعف طلب المستخدم دون زيادة ميزانيتها. تُظهر الشريحة أيضًا ما يصل إلى 2x تحسين كفاءة الطاقة لكل واط، وذلك بفضل تقنية إدارة الطاقة الديناميكية التي تعدل استهلاك الطاقة بناءً على متطلبات عبء العمل في الوقت الفعلي. ولأول مرة، يستخدم كلا المعالجين وحدة المعالجة المركزية Axion من Google كمعالج مضيف، مما يتيح التحسين على مستوى بنية النظام بدلاً من تقييد التحسينات على أداء الشريحة الفردية. فيما يتعلق بقدرات التدريب، يدعم تكوين TPU 8t superpod مجموعات تصل إلى 9600 معالج مع 2 بيتابايت من الذاكرة ذات النطاق الترددي العالي. ويمثل هذا ضعف النطاق الترددي لاتصالات الرقاقة البينية الخاصة بشركة Ironwood، وتدعي Google أنها تستطيع ضغط الجداول الزمنية لتطوير النماذج الحدودية من أشهر إلى مجرد أسابيع. يقدم معالج التدريب 2.8 ضعف الأداء الحسابي للجيل السابع من بنية Ironwood بسعر مكافئ. التبني المبكر يكتسب زخما. قامت شركة Citadel Securities بتطوير منصات بحثية كمية باستخدام البنية الأساسية لـ TPU من Google. تقوم جميع المختبرات الوطنية السبعة عشر التابعة لوزارة الطاقة الأمريكية بتشغيل تطبيقات الذكاء الاصطناعي على المعالجات. تعهدت شركة Anthropic باستخدام عدة جيجاوات من سعة حوسبة Google TPU. توقع المحللون في DA Davidson في سبتمبر أن قسم TPU في Google، عند دمجه مع Google DeepMind، يمكن أن يحصل على تقييم يقترب من 900 مليار دولار. تحتفظ Google بنموذج توزيع حصري لوحدات TPU - فهي غير متاحة للشراء المباشر ولا يمكن الوصول إليها إلا من خلال خدمات Google Cloud. تواصل Nvidia توريد أجهزة GPU إلى Google، وأكدت الشركة أنها ستكون من بين مقدمي الخدمات السحابية الأوائل الذين يقدمون منصة Vera Rubin القادمة من Nvidia عند إطلاقها في وقت لاحق من هذا العام. تم تصميم المعالجات بالتعاون الوثيق مع Google DeepMind، الذي قام بنشرها لتدريب نماذج لغة Gemini وتحسين الخوارزميات التي تعمل على تشغيل منصات البحث واليوتيوب. أعلنت Google أن كلا من TPU 8t وTPU 8i سيصلان إلى التوفر العام لعملاء النظام الأساسي السحابي في وقت لاحق من عام 2025.