النظارات الذكية من شركة Meta على وشك الحصول على بعض الترقيات القوية بفضل التحسينات التي تم إدخالها على مساعد الذكاء الاصطناعي للشبكة الاجتماعية.
تضيف الشركة أخيرًا دعمًا للمعلومات في الوقت الفعلي ، وتبدأ فى اختبار إمكانات “متعددة الوسائط” الجديدة التى تسمح لها بالإجابة على الأسئلة بناءً على بيئتك، وفقا لتقرير engadget.
حتى الآن، كان لدى Meta AI “موعد نهائى للمعرفة” بحلول ديسمبر 2022، لذلك لم تتمكن من الإجابة على أسئلة حول الأحداث الجارية، أو أشياء مثل نتائج المباريات، أو ظروف حركة المرور أو الاستعلامات الأخرى التي قد تكون مفيدة بشكل خاص أثناء التنقل.
لكن هذا الأمر تغير الآن، وفقًا لما ذكره مدير التكنولوجيا في Meta CTO Andrew Bosworth، الذي قال إن جميع نظارات Meta الذكية في الولايات المتحدة ستتمكن الآن من الوصول إلى المعلومات في الوقت الفعلي، وأضاف أن التغيير مدعوم “جزئيًا” بواسطة Bing.
وبشكل منفصل، بدأت ميتا فى اختبار إحدى القدرات الأكثر إثارة للاهتمام لمساعدها، والتى تسميها “الذكاء الاصطناعي متعدد الوسائط، وتسمح الميزات التي تمت معاينتها لأول مرة أثناء Connect، لـ Meta AI بالإجابة على الأسئلة السياقية حول البيئة المحيطة بك والاستعلامات الأخرى بناءً على ما تنظر إليه من خلال النظارات.
وقال Bosworth إن الإصدار التجريبي للوصول المبكر سيكون متاحًا فقط في الولايات المتحدة “لعدد صغير من الأشخاص الذين اختاروا الاشتراك” في البداية، ومن المفترض أن يأتي الوصول الموسع في وقت ما في عام 2024.
وشارك كل من مارك زوكربيرج بعض مقاطع الفيديو حول الإمكانات الجديدة التي تعطي فكرة عما قد يكون ممكنًا، وبناءً على المقاطع يبدو أن المستخدمين سيكونون قادرين على التعامل مع الميزة من خلال الأوامر التي تبدأ بـ “Hey Meta، look and say me” ، وعلى سبيل المثال يطلب زوكربيرج من Meta AI النظر إلى القميص الذي يحمله ويطلب منه اقتراحات بشأن السراويل التي قد تتطابق معه. كما شارك أيضًا لقطات شاشة تُظهر Meta AI وهو يحدد صورة قطعة من الفاكهة .
اكتشاف المزيد من موقع شبرون
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.