انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر
مكّن مُسرع وحدة معالجة الرسومات A100 من Nvidia من ابتكارات رائدة في مجال الذكاء الاصطناعي التوليدي ، مما أدى إلى دعم الأبحاث المتطورة التي تعيد تشكيل ما يمكن للذكاء الاصطناعي تحقيقه.
لكن في مجال أجهزة الذكاء الاصطناعي شديدة التنافس ، يتنافس آخرون للحصول على جزء من الحدث. تراهن شركة إنتل على أن أحدث تقنيات مراكز البيانات لديها – بما في ذلك وحدة المعالجة المركزية الجديدة من الجيل الرابع من Sapphire Rapids من Intel Xeon ووحدة معالجة الرسومات Habana Gaudi2 المحسّنة بالذكاء الاصطناعي – يمكن أن توفر منصة بديلة للتدريب والاستدلال على التعلم الآلي.
في يوم الثلاثاء ، أصدرت Hugging Face ، وهي منظمة مفتوحة المصدر للتعلم الآلي ، سلسلة من التقارير الجديدة تظهر أن أجهزة Intel قد حققت مكاسب كبيرة في الأداء للتدريب وتشغيل نماذج التعلم الآلي. تشير النتائج إلى أن رقائق Intel يمكن أن تشكل تحديًا خطيرًا لهيمنة Nvidia في حوسبة الذكاء الاصطناعي.
ذكرت بيانات Hugging Face أن Intel Habana Gaudi2 كان قادرًا على تشغيل الاستدلال بشكل أسرع بنسبة 20 ٪ على طراز BLOOMZ الذي يحتوي على 176 مليار معلمة مما كان عليه في Nvidia A100-80G. BLOOMZ هو بديل لـ BLOOM (اختصار لـ BigScience Large Open-science Open-science Open-access Multilingual Language Model) ، والذي كان أول إصدار كبير له في عام 2022 يوفر دعمًا لـ 46 لغة بشرية مختلفة. للمضي قدمًا إلى الأمام ، ذكرت Hugging Face أن إصدار BLOOMZ الأصغر المكون من 7 مليارات معلمة سيعمل أسرع بثلاث مرات من A100-80G ، الذي يعمل على Intel Habana Gaudi2.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
على جانب وحدة المعالجة المركزية ، تنشر Hugging Face بيانات توضح الزيادة في أداء أحدث جيل من Intel Xeon CPU مقارنة بإصدار الجيل الثالث السابق. وفقًا لـ Hugging Face ، يعمل نموذج الذكاء الاصطناعي (Stability Diffusion) للانتشار المستقر (Stability AI) على تحويل النص إلى صورة بمعدل 3.8 مرة أسرع دون أي تغييرات في التعليمات البرمجية. مع بعض التعديلات ، بما في ذلك استخدام امتداد Intel لـ PyTorch مع Bfloat16 ، وهو تنسيق مخصص للتعلم الآلي ، قال Hugging Face إنه كان قادرًا على الحصول على ما يقرب من 6.5 مرة من تحسين السرعة. نشرت Hugging Face أداة توضيحية عبر الإنترنت للسماح لأي شخص بتجربة اختلاف السرعة.
قال جيف بودير ، مدير منتجات Hugging Face ، لموقع VentureBeat: “يأتي أكثر من 200000 شخص إلى Hugging Face Hub يوميًا لتجربة النماذج ، لذا فإن القدرة على تقديم استنتاج سريع لجميع الطرز أمر بالغ الأهمية”. “تسمح لنا المثيلات المستندة إلى Intel Xeon بخدمتهم بكفاءة وعلى نطاق واسع.”
تجدر الإشارة إلى أن مطالبات أداء Hugging Face الجديدة لأجهزة Intel لم تقم بمقارنة مع وحدات معالجة الرسومات الأحدث المستندة إلى Nvidia H100 Hopper. أصبح H100 متاحًا مؤخرًا فقط لمنظمات مثل Hugging Face ، والتي ، كما قال بودير ، لم تتمكن من إجراء سوى اختبارات محدودة حتى الآن معها.
استراتيجية إنتل للذكاء الاصطناعي التوليدي شاملة
إنتل لديها إستراتيجية مركزة لتنمية استخدام أجهزتها في مجال الذكاء الاصطناعي التوليدي. إنها إستراتيجية تتضمن التدريب والاستدلال ، ليس فقط لأكبر نماذج اللغات الكبيرة (LLMs) ولكن أيضًا لحالات الاستخدام الحقيقي ، من السحابة إلى الحافة.
“إذا نظرت إلى مساحة الذكاء الاصطناعي التوليدية هذه ، فهي لا تزال في مراحلها الأولى وقد اكتسبت الكثير من الضجيج مع ChatGPT في الأشهر القليلة الماضية ،” قال لـ VentureBeat. “ولكن الشيء الرئيسي الآن هو أخذ ذلك وترجمته إلى نتائج أعمال ، والتي لا تزال رحلة يجب القيام بها.”
أكد براساد أن جزءًا مهمًا من استراتيجية إنتل لاعتماد الذكاء الاصطناعي هو تمكين مفهوم “البناء مرة واحدة والنشر في كل مكان”. الحقيقة هي أن عددًا قليلاً جدًا من الشركات يمكنها بالفعل بناء LLMs الخاصة بها. بدلاً من ذلك ، عادةً ما تحتاج المؤسسة إلى ضبط النماذج الحالية ، غالبًا باستخدام التعلم الانتقالي ، وهو نهج تدعمه Intel وتشجعه باستخدام أجهزتها وبرامجها.
مع نشر الخوادم المستندة إلى Intel Xeon في جميع أنواع البيئات بما في ذلك المؤسسات والحافة والشبكات السحابية وشركات الاتصالات ، أشار براساد إلى أن إنتل لديها توقعات كبيرة لنشر نماذج الذكاء الاصطناعي على نطاق واسع.
سيستمر “التعاون” مع Nvidia مع المزيد من مقاييس الأداء القادمة
بينما تنافس إنتل بوضوح ضد Nvidia ، قالت براساد إنه من وجهة نظرها سيناريو “تعاون” ، وهو أمر شائع بشكل متزايد عبر تكنولوجيا المعلومات بشكل عام.
في الواقع ، تستخدم Nvidia الجيل الرابع من Intel Xeon في بعض منتجاتها ، بما في ذلك DGX100 الذي تم الإعلان عنه في يناير.
قال براساد: “العالم يتجه نحو بيئة” تعاونية “ونحن مجرد أحد المشاركين فيها”.
وبالنظر إلى المستقبل ، ألمحت إلى مقاييس أداء إضافية من Intel ستكون “إيجابية للغاية”. على وجه الخصوص ، من المقرر إصدار الجولة التالية من نتائج قياس MLcommons MLperf AI في أوائل أبريل. كما ألمحت إلى أن المزيد من الأجهزة سيأتي قريبًا ، بما في ذلك مسرع وحدة معالجة الرسومات Habana Guadi3 ، على الرغم من أنها لم تقدم أي تفاصيل أو جدول زمني.
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.