انضم إلى كبار المديرين التنفيذيين في سان فرانسيسكو يومي 11 و 12 يوليو وتعرف على كيفية استباق قادة الأعمال لثورة الذكاء الاصطناعي التوليدية. يتعلم أكثر
أعلنت شركة Celestial AI ، المطورة لتقنية التوصيل البيني البصري ، عن جولة تمويل ناجحة من السلسلة B ، حيث جمعت 100 مليون دولار لمنصة تكنولوجيا Photonic Fabric الخاصة بها. وقاد الاستثمار كل من IAG Capital Partners و Koch Disruptive Technologies (KDT) وصندوق Xora للابتكار التابع لشركة Temasek.
ومن بين المشاركين الآخرين Samsung Catalyst و Smart Global Holdings (SGH) و Porsche Automobil Holding SE و The Engine Fund و ImecXpand و M Ventures و Tyche Partners.
وفقًا لـ Celestial AI ، تمثل منصة Photonic Fabric الخاصة بهم تقدمًا كبيرًا في أداء الاتصال البصري ، متجاوزًا التقنيات الحالية. جمعت الشركة 165 مليون دولار إجمالاً من التمويل الأولي من خلال السلسلة ب.
مواجهة تحدي “جدار الذاكرة”
تتطلب نماذج الذكاء الاصطناعي المتقدمة – مثل GPT-4 المستخدمة على نطاق واسع لمحركات ChatGPT والتوصية – زيادة هائلة في سعة الذاكرة وعرض النطاق الترددي. ومع ذلك ، يواجه مقدمو الخدمات السحابية (CSPs) ومراكز البيانات فائقة النطاق تحديات بسبب الترابط بين توسيع نطاق الذاكرة والحوسبة ، وهو ما يُطلق عليه عادةً تحدي “جدار الذاكرة”.
حدث
تحويل 2023
انضم إلينا في سان فرانسيسكو يومي 11 و 12 يوليو ، حيث سيشارك كبار المسؤولين التنفيذيين في كيفية دمج استثمارات الذكاء الاصطناعي وتحسينها لتحقيق النجاح وتجنب المزالق الشائعة.
سجل الان
تعيق قيود التوصيل البيني الكهربائي ، مثل النطاق الترددي المقيد وزمن الانتقال العالي واستهلاك الطاقة المرتفع ، نمو نماذج أعمال الذكاء الاصطناعي والتقدم في الذكاء الاصطناعي.
لمواجهة هذه التحديات ، تعاون الذكاء الاصطناعي السماوي مع أجهزة القياس الفائقة وحوسبة الذكاء الاصطناعي وموفري الذاكرة لتطوير Photonic Fabric. تم تصميم التوصيل البيني البصري لمجموعات الحوسبة والذاكرة المفصلة.
تؤكد الشركة أن تقنية الربط البصري للحساب البصري (OCI) المملوكة لها تمكن من تفكيك ذاكرة مركز البيانات القابلة للتطوير وتمكين الحوسبة المتسارعة.
سعة الذاكرة مشكلة رئيسية
صرح ديف لازوفسكي ، الرئيس التنفيذي لشركة Celestial AI لـ VentureBeat: “المشكلة الرئيسية في المستقبل هي سعة الذاكرة وعرض النطاق الترددي وحركة البيانات (التوصيل البيني من شريحة إلى شريحة) لنماذج اللغات الكبيرة (LLMs) وأعباء عمل محرك التوصية. تسمح لك تقنية Photonic Fabric الخاصة بنا بدمج الضوئيات مباشرة في قالب السيليكون الخاص بك. الميزة الرئيسية هي أن حلنا يسمح لك بتسليم البيانات في أي نقطة على قالب السيليكون إلى نقطة الحوسبة. لا يمكن للحلول التنافسية مثل البصريات المعبأة (CPO) القيام بذلك لأنها تقدم البيانات فقط إلى حافة النرد “.
يدعي Lazovsky أن Photonic Fabric قد نجح في معالجة مشكلة الواجهة البحرية الصعبة من خلال توفير عرض نطاق ترددي متزايد بشكل كبير (1.8 تيرا بايت في الثانية / مم 2) مع زمن انتقال نانوثاني. نتيجة لذلك ، توفر المنصة ارتباطات كاملة بين الحوسبة الضوئية والحوسبة والذاكرة.
كما حظيت جولة التمويل الأخيرة باهتمام شركة Broadcom ، التي تتعاون في تطوير نماذج أولية من النسيج الفوتوني استنادًا إلى تصميمات الذكاء الاصطناعي السماوية. تتوقع الشركة أن تكون هذه النماذج الأولية جاهزة للشحن للعملاء في غضون 18 شهرًا القادمة.
تمكين الحوسبة المتسارعة من خلال الربط البصري
صرح لازوفسكي أن معدلات البيانات يجب أن ترتفع أيضًا مع زيادة حجم البيانات التي يتم نقلها داخل مراكز البيانات. وأوضح أنه مع زيادة هذه المعدلات ، تواجه الوصلات الكهربائية مشاكل مثل فقدان دقة الإشارة وعرض النطاق الترددي المحدود الذي يفشل في التوسع مع نمو البيانات ، وبالتالي تقييد إنتاجية النظام بشكل عام.
وفقًا لـ Celestial AI ، فإن نقل البيانات بزمن انتقال منخفض لـ Photonic Fabric يسهل الاتصال وتفصيل عدد أكبر بكثير من الخوادم من التوصيلات الكهربائية التقليدية. يمكّن هذا الكمون المنخفض أيضًا التطبيقات الحساسة لزمن الانتقال من الاستفادة من الذاكرة البعيدة ، وهو احتمال لم يكن من الممكن الوصول إليه في السابق باستخدام التوصيلات الكهربائية التقليدية.
قال لازوفسكي لموقع VentureBeat: “نحن نمكّن أجهزة القياس الفائقة ومراكز البيانات من فصل ذاكرتهم وحساب الموارد دون المساس بالقدرة والكمون والأداء”. “الاستخدام غير الفعال لذاكرة DRAM للخادم يترجم إلى 100 مليون دولار (إن لم يكن المليارات) من النفايات عبر الفائقين والشركات. من خلال تمكين تصنيف الذاكرة وتجميع الذاكرة ، لا نساعد فقط في تقليل مقدار ما تنفقه الذاكرة ولكن أيضًا نثبت استخدام الذاكرة “.
تخزين ومعالجة مجموعات أكبر من البيانات
تؤكد الشركة أن عرضها الجديد يمكن أن يسلم البيانات من أي نقطة على السيليكون مباشرة إلى نقطة الحوسبة. تقول منظمة العفو الدولية السماوية أن Photonic Fabric يتخطى قيود اتصال حافة السيليكون ، حيث يوفر عرض نطاق حزمة يبلغ 1.8 تيرا بايت في الثانية / مم² ، وهو 25 مرة أكبر من ذلك الذي يوفره CPO. علاوة على ذلك ، من خلال توصيل البيانات مباشرة إلى نقطة الحوسبة بدلاً من الحافة ، تدعي الشركة أن Photonic Fabric يحقق زمن انتقال أقل بعشر مرات.
يهدف الذكاء الاصطناعي السماوي إلى تبسيط حساب المؤسسة لـ LLM مثل GPT-4 و PaLM ونماذج توصية التعلم العميق (DLRMs) التي يمكن أن تتراوح في الحجم من 100 مليار إلى 1 تريليون معلمة زائد.
أوضح لازوفسكي أنه نظرًا لأن معالجات الذكاء الاصطناعي (GPU ، ASIC) لديها قدر محدود من ذاكرة النطاق الترددي العالي (32 جيجا بايت إلى 128 جيجا بايت) ، تحتاج الشركات اليوم إلى توصيل مئات الآلاف من هذه المعالجات للتعامل مع هذه النماذج. ومع ذلك ، فإن هذا النهج يقلل من كفاءة النظام ويرفع التكاليف.
وأضاف: “من خلال زيادة سعة الذاكرة القابلة للعنونة لكل معالج عند عرض النطاق الترددي العالي ، يسمح Photonic Fabric لكل معالج بتخزين ومعالجة أجزاء أكبر من البيانات ، مما يقلل من عدد المعالجات المطلوبة”. “يتيح توفير روابط سريعة من شريحة إلى شريحة للمعالج المتصل معالجة النموذج بشكل أسرع ، وزيادة الإنتاجية مع تقليل التكاليف.”
ما التالي للذكاء الاصطناعي السماوي؟
قال لازوفسكي إن الأموال التي تم جمعها في هذه الجولة ستُستخدم لتسريع إنتاج وتسويق منصة تكنولوجيا النسيج الفوتوني من خلال توسيع فرق الهندسة والمبيعات والتسويق الفني في Celestial AI.
قال لازوفسكي لـ VentureBeat: “نظرًا للنمو في أعباء العمل التوليدية للذكاء الاصطناعي بسبب LLMs والضغوط التي تفرضها على بنى مركز البيانات الحالية ، يتزايد الطلب بسرعة على الاتصال البصري لدعم الانتقال من البنية التحتية لمركز بيانات الحوسبة العامة إلى الحوسبة المتسارعة”. “نتوقع زيادة عدد الموظفين بنحو 30٪ بحلول نهاية عام 2023 إلى 130 موظفًا.”
وقال إنه مع توسع استخدام LLM عبر مختلف التطبيقات ، فإن تكاليف البنية التحتية ستزيد أيضًا بشكل متناسب ، مما يؤدي إلى هوامش سلبية للعديد من تطبيقات البرامج على نطاق الإنترنت. علاوة على ذلك ، وصلت مراكز البيانات إلى حدود الطاقة ، مما يحد من كمية الحوسبة التي يمكن إضافتها.
لمواجهة هذه التحديات ، يهدف Lazovsky إلى تقليل الاعتماد على المعالجات باهظة الثمن من خلال توفير نطاق ترددي عالٍ وحلول اتصال بين رقاقة إلى ذاكرة بزمن وصول منخفض. وقال إن هذا النهج يهدف إلى تقليل النفقات الرأسمالية للشركات وتعزيز كفاءة البنى التحتية الحالية.
وقال: “من خلال تحطيم جدار الذاكرة والمساعدة في تحسين كفاءات الأنظمة ، نهدف إلى المساعدة في تشكيل الاتجاه المستقبلي لتقدم نموذج الذكاء الاصطناعي واعتماده من خلال عروضنا الجديدة”. “إذا لم تعد سعة الذاكرة وعرض النطاق الترددي عاملاً مقيدًا ، فسيؤدي ذلك إلى تمكين علماء البيانات من تجربة هياكل نموذجية أكبر أو مختلفة لفتح تطبيقات جديدة وحالات استخدام. نعتقد أنه من خلال خفض تكلفة اعتماد النماذج الكبيرة ، سيكون المزيد من الشركات والتطبيقات قادرة على اعتماد LLM بشكل أسرع. “
مهمة VentureBeat هو أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. اكتشف إحاطاتنا.
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.