مقالات التقنية

لا تمثل شريحة Microsoft AI الجديدة تهديدًا لـ Nvidia ، ولكن الحاجة المتزايدة لـ LLM تقود السيليكون المخصص


انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو ، لمعرفة كيف يدمج القادة استثمارات الذكاء الاصطناعي ويحسنونها لتحقيق النجاح. يتعلم أكثر


تعمل Microsoft على تطوير شريحة ذكاء اصطناعي (AI) جديدة ، تحمل اسمًا ترميزيًا داخليًا Athena ، منذ عام 2019 ، وفقًا لتقرير من The Information اليوم. يمكن أن تجعل الشركة أثينا متاحة على نطاق واسع للاستخدام داخل الشركة نفسها و OpenAI في وقت مبكر من العام المقبل.

يقول الخبراء إن Nvidia لن تتعرض للتهديد من هذه التحركات – لكنها تشير إلى الحاجة إلى الفائقين لتطوير السيليكون المخصص الخاص بهم.

تطوير شرائح الذكاء الاصطناعي استجابة لأزمة وحدة معالجة الرسومات

تم تصميم الشريحة ، مثل تلك التي تم تطويرها داخليًا بواسطة Google (TPU) و Amazon (معماريات معالج Trainium و Inferentia) ، للتعامل مع تدريب نموذج اللغة الكبير (LLM). هذا أمر ضروري لأن حجم نماذج الذكاء الاصطناعي التوليدية المتقدمة ينمو بشكل أسرع من قدرات الحوسبة اللازمة لتدريبها ، حسبما قال تشيراغ ديكيت المحلل في شركة Gartner لـ VentureBeat عبر البريد الإلكتروني.

Nvidia هي الشركة الرائدة في السوق بمقدار ميل واحد عندما يتعلق الأمر بتزويد رقائق الذكاء الاصطناعي ، بحصة سوقية تبلغ 88٪ ، وفقًا لأبحاث John Peddie. تتنافس الشركات فقط لحجز الوصول إلى وحدات معالجة الرسومات A100 و H100 المتطورة التي تكلف كل واحدة عشرات الآلاف من الدولارات – مما يتسبب في ما يمكن وصفه بأزمة وحدة معالجة الرسومات.

حدث

تحويل 2023

انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.

سجل الان

وأوضح أن “نماذج الذكاء الاصطناعي التوليدية الرائدة تستخدم الآن مئات المليارات من المعلمات التي تتطلب قدرات حسابية الإكساسكيل”. “مع نماذج الجيل التالي التي تتراوح في تريليونات من المعلمات ، فليس من المستغرب أن يستكشف مبتكرو التكنولوجيا الرائدون مسرعات حسابية متنوعة لتسريع التدريب مع تقليل وقت التدريب وتكلفته.”

نظرًا لأن Microsoft تسعى إلى تسريع إستراتيجيتها التوليدية للذكاء الاصطناعي مع خفض التكاليف ، فمن المنطقي أن تقوم الشركة بتطوير إستراتيجية مخصصة مختلفة لتسريع الذكاء الاصطناعي ، كما أضاف ، والتي “يمكن أن تساعدهم على تحقيق اقتصاديات مدمرة في الحجم تتجاوز ما هو ممكن باستخدام أساليب التكنولوجيا السلعية التقليدية. “

تلبي رقائق الذكاء الاصطناعي المخصصة الحاجة إلى سرعة الاستدلال

تنطبق الحاجة إلى التسريع أيضًا ، بشكل مهم ، على شرائح الذكاء الاصطناعي التي تدعم استدلال التعلم الآلي – أي عندما يتم اختصار النموذج إلى مجموعة من الأوزان التي تستخدم بعد ذلك البيانات الحية لإنتاج نتائج قابلة للتنفيذ. تُستخدم البنية الأساسية للحوسبة للاستدلال في كل مرة يقوم فيها ChatGPT بإنشاء استجابات لمدخلات اللغة الطبيعية ، على سبيل المثال.

تنتج Nvidia رقائق ذكاء اصطناعي قوية للغاية وذات أغراض عامة وتقدم منصة الحوسبة المتوازية CUDA (ومشتقاتها) كطريقة للقيام بتدريب ML على وجه التحديد ، كما قال المحلل Jack Gold ، من J Gold Associates ، في رسالة بريد إلكتروني إلى VentureBeat. لكن الاستدلال يتطلب عمومًا أداءً أقل ، كما أوضح ، ويرى أصحاب الفروق الدقيقة طريقة للتأثير أيضًا على احتياجات الاستدلال لعملائهم باستخدام السيليكون المخصص.

قال: “سيكون الاستدلال في النهاية سوقًا أكبر بكثير من ML ، لذلك من المهم لجميع البائعين تقديم المنتجات هنا”.

أثينا مايكروسوفت لا تشكل تهديدا كبيرا على نفيديا

قال جولد إنه لا يرى أن أثينا التابعة لمايكروسوفت تشكل تهديدًا كبيرًا لمكانة Nvidia في الذكاء الاصطناعي / ML ، حيث سيطرت منذ أن ساعدت الشركة في “ثورة” التعلم العميق قبل عقد من الزمان ؛ بناء استراتيجية منصة قوية ونهج يركز على البرامج ؛ وشهدت ارتفاع أسهمها في عصر الذكاء الاصطناعي التوليدي الثقيل لوحدة معالجة الرسومات.

وقال: “مع توسع الاحتياجات وتوسع تنوع الاستخدام أيضًا ، من المهم لشركة Microsoft وغيرها من أجهزة القياس الفائقة السعي وراء إصداراتهم المُحسّنة من رقائق الذكاء الاصطناعي لبنياتهم وخوارزمياتهم المُحسّنة (غير الخاصة بـ CUDA)”.

وأوضح أن الأمر يتعلق بتكاليف التشغيل السحابي ، ولكنه يتعلق أيضًا بتوفير خيارات منخفضة التكلفة للعملاء المتنوعين الذين قد لا يحتاجون أو يرغبون في خيار Nvidia عالي التكلفة. “أتوقع أن يستمر كل من فائق السرعة في تطوير السيليكون الخاص بهم ، ليس فقط للتنافس مع Nvidia ، ولكن أيضًا مع Intel في الحوسبة السحابية للأغراض العامة.”

أكد ديكيت أيضًا أن Nvidia لا تظهر أي علامات على التباطؤ. قال: “لا تزال Nvidia هي تقنية GPU الأساسية التي تقود تطوير وهندسة الذكاء الاصطناعي التوليدي على نطاق واسع”. “يجب على الشركات أن تتوقع أن تواصل Nvidia البناء على ابتكاراتها من الفئة القيادية ودفع التمايز التنافسي مع ظهور ASICs المخصصة للذكاء الاصطناعي.”

لكنه أشار إلى أن “الابتكار في المرحلة الأخيرة من قانون مور سيكون مدفوعًا بتسريع غير متجانس يشمل وحدات معالجة الرسومات والرقائق المخصصة الخاصة بالتطبيقات”. وأوضح أن هذا له آثار على صناعة أشباه الموصلات الأوسع نطاقًا ، لا سيما “مزودي التكنولوجيا الذين لم يشاركوا بشكل فعال في تلبية احتياجات سوق الذكاء الاصطناعي سريع التطور”.

مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى