رقائق Qualcomm لتشغيل Meta AI على الأجهزة المحمولة بحلول عام 2024
كوالكوم (QCOM) رقائق تدعم Meta (ميتا) Llama 2 Large Language Model (LLM) ، في خطوة ستجلب LLMs - التي تحتاج عادةً إلى تشغيل مراكز البيانات بسبب المتطلبات الحسابية الهائلة - إلى الهواتف الذكية وأجهزة الكمبيوتر اعتبارًا من عام 2024.
الماخذ الرئيسية
- أعلنت شركة Qualcomm عن شراكة لتشغيل Meta AI على رقائقها اعتبارًا من عام 2024.
- سيعمل نموذج لغة Meta Llama 2 الكبير على شرائح Qualcomm للأجهزة المحمولة وأجهزة الكمبيوتر.
- تحتاج نماذج اللغات الكبيرة عادةً إلى تشغيل مراكز البيانات الضخمة بسبب المتطلبات الحسابية الهائلة.
- يمكن أن يمنح الارتباط كوالكوم دفعة مرتبطة بالذكاء الاصطناعي ، مما يجعله يواجه نفيديا.
ماذا يعني هذا بالنسبة لشركة كوالكوم؟
في أسبوع كبير لمنافس Meta LLM إلى الشعبية تطبيق ChatGPTقالت الشركتان إن Llama 2 ستعمل على رقائق Qualcomm للأجهزة المحمولة وأجهزة الكمبيوتر اعتبارًا من عام 2024. يمكن أن تكون الصفقة اختراقًا لصانع الرقائق لأنها ستجذب الشركة ضد Nvidia (NVDA) ، والذي شهد ارتفاعًا كبيرًا في مخزونه إلى أ 1 تريليون دولار القيمة السوقية هذا العام.
عادةً ما يتم تشغيل المحصول الأول من LLM على خوادم في مراكز البيانات الكبيرة ، مثل تلك التي تمتلكها Nvidia ، نظرًا لمتطلباتها من الطاقة الحسابية الكبيرة ومعالجات GPU الخاصة بالشركة. شهد الاتجاه الصعودي هذا العام في أسهم الذكاء الاصطناعي خسارة شركات مثل كوالكوم بسبب تركيزها على الأجهزة المحمولة وأجهزة الكمبيوتر.
ارتفعت أسهم كوالكوم بنحو 11٪ هذا العام ، متخلفة كثيرًا عن تحقيق مكاسب بنسبة 45٪ تقريبًا لمؤشر ناسداك 100.
ماذا يعني هذا للميتا؟
جاءت أنباء الشراكة مع Microsoft (MSFT) أيضًا أعلن أنه سيدعم برنامج Llama 2 في Azure و Windows. مزود الرعاية الصحية Teladoc (TDOC) كانت شركة أخرى تسعى إلى تبني الذكاء الاصطناعي ، باستخدام تقنية GPT4 العملاقة للتكنولوجيا لتسجيل زيارات المرضى.
يمكن أن تؤدي الإعلانات إلى دفع Meta LLM إلى الاتجاه السائد وأيضًا إضفاء الطابع الديمقراطي على استخدام الذكاء الاصطناعي للمؤسسات. نشرت Meta سابقًا رمز "أوزانها" الخاص باللاما ، بينما نشرت OpenAI's GPT-4 و Google (جوجل) بارد ، لا تزال مغلقة المصدر.