ستتفوق الشريحة الجديدة، المسماة H200، على شريحة إنفيديا الرائدة الحالية، H100. وتتمثل أهم ترقية للرقاقة الجديدة في ذاكرة ذات نطاق ترددي أعلى، وهي من أغلى مكوناتها، وتحدد سرعة معالجة البيانات.
شريحة H200 من Nvidia ستتعامل مع أنظمة الذكاء الاصطناعي الأكبر حجمًا
تحتكر إنفيديا حاليًا سوق شرائح الذكاء الاصطناعي، حيث تُزوّد خدمة ChatGPT من OpenAI، بالإضافة إلى عدد من خدمات الذكاء الاصطناعي التي تُولّد استجابات تُشبه استجابات البشر، بشرائحها. ووفقًا لرويترز، فإن إضافة ذاكرة ذات نطاق ترددي عالٍ واتصالات أسرع لعناصر معالجة الشريحة يعني أن خدمات مثل ChatGPT قادرة على الاستجابة بشكل أسرع.
تحتوي شريحة H200 على ذاكرة عالية النطاق الترددي بسعة 141 جيجابايت، بزيادة عن 80 جيجابايت في شريحة H100 السابقة. لم تكشف إنفيديا عن مُورّد الذاكرة للشريحة الجديدة، لكن شركة ميكرون تكنولوجي أعلنت في سبتمبر أنها تعمل على أن تصبح مُورّدًا لها.
وكشفت Nvidia أيضًا أن Amazon Web Services وGoogle Cloud وMicrosoft Azure وOracle Cloud Infrastructure ستكون أول مزودي خدمات السحابة الذين يستغلون شريحة H200، بالإضافة إلى مزودي خدمات السحابة المحترفين للذكاء الاصطناعي مثل CoreWeave وLambda وVultr.
مايكروسوفت تطلق شريحة الذكاء الاصطناعي
[إعلان 2]
رابط المصدر
تعليق (0)