أعلنت شركة Qualcomm أنها ستطلق شرائح جديدة لتسريع الذكاء الاصطناعي، مما يمثل منافسة جديدة لشركة Nvidia.
التي سيطرت حتى الآن على سوق أشباه الموصلات الخاصة بالذكاء الاصطناعي.
وتمثل شرائح الذكاء الاصطناعي تحولاً عن شركة Qualcomm، التي ركزت حتى الآن على أشباه الموصلات للاتصال اللاسلكي والأجهزة المحمولة، وليس مراكز البيانات الضخمة.
وقالت شركة Qualcomm إن كلا من AI200، الذي سيطرح للبيع في عام 2026، وAI250، المخطط له في عام 2027، يمكن أن يأتيا في نظام يملأ رف خادم مبرد بالسائل بالكامل.
شركة Qualcomm تنافس Nvidia و AMD، التي تقدم وحدات معالجة الرسومات (GPUs) الخاصة بها في أنظمة كاملة الرفوف تسمح لما يصل إلى 72 شريحة بالعمل كجهاز كمبيوتر واحد. تحتاج مختبرات الذكاء الاصطناعي إلى هذه القوة الحاسوبية لتشغيل أحدث النماذج.
تعتمد شرائح مركز البيانات الخاصة بشركة Qualcommعلى أجزاء الذكاء الاصطناعي الموجودة في شرائح الهواتف الذكية من Qualcomm والتي تسمى وحدات المعالجة العصبية Hexagon أو NPUs.
وقال دورجا مالادي، المدير العام لمركز البيانات والحافة في شركة Qualcomm، في مكالمة مع الصحفيين الأسبوع الماضي: ”أردنا أولاً إثبات أنفسنا في مجالات أخرى، وبمجرد أن بنينا قوتنا هناك، أصبح من السهل جدًا بالنسبة لنا الصعود إلى مستوى مركز البيانات”.
يشكل دخول شركة Qualcomm إلى عالم مراكز البيانات منافسة جديدة في أسرع الأسواق نمواً في مجال التكنولوجيا: المعدات اللازمة لمزارع الخوادم الجديدة التي تركز على الذكاء الاصطناعي.
سيتم إنفاق ما يقرب من 6.7 تريليون دولار من النفقات الرأسمالية على مراكز البيانات حتى عام 2030، مع ذهاب الأغلبية إلى أنظمة تعتمد على شرائح الذكاء الاصطناعي، وفقًا لتقديرات ماكينزي.
هيمنت شركة Nvidia على هذه الصناعة، حيث تستحوذ وحدات معالجة الرسومات (GPUs) الخاصة بها على أكثر من 90% من السوق حتى الآن، وقد دفعت مبيعاتها الشركة إلى قيمة سوقية تتجاوز 4.5 تريليون دولار. استُخدمت شرائح Nvidia لتدريب نماذج اللغة الكبيرة (GPTs) من OpenAI، وهي نماذج لغة كبيرة تُستخدم في ChatGPT.
لكن شركات مثل OpenAI كانت تبحث عن بدائل، وفي وقت سابق من هذا الشهر، أعلنت الشركة الناشئة عن خطط لشراء رقائق من شركة AMD، ثاني أكبر مُصنّع لوحدات معالجة الرسومات، وربما الاستحواذ على حصة في الشركة. شركات أخرى، مثل، google amazon و Microsoft ،
كما تعمل الشركات أيضًا على تطوير مسرعات الذكاء الاصطناعي الخاصة بها لخدماتها السحابية.
وقالت شركة Qualcomm إن رقائقها تركز على الاستدلال، أو تشغيل نماذج الذكاء الاصطناعي، وهي الطريقة التي تعمل بها مختبرات مثل OpenAI على إنشاء قدرات جديدة للذكاء الاصطناعي من خلال معالجة تيرابايت من البيانات.
وقالت شركة صناعة الرقائق إن أنظمتها على نطاق الرفوف سوف تكلف في نهاية المطاف أقل للتشغيل بالنسبة للعملاء مثل مقدمي خدمات السحابة، وأن الرف الواحد يستخدم 160 كيلووات، وهو ما يضاهي استهلاك الطاقة العالي من بعض رفوف وحدة معالجة الرسومات من Nvidia.
قال مالادي إن Qualcomm ستبيع أيضًا رقائق الذكاء الاصطناعي ومكوناتها الأخرى بشكل منفصل، خاصةً لعملاء مثل شركات تصنيع الحواسيب الضخمة التي تفضل تصميم حواملها الخاصة. وأضاف أن شركات أخرى متخصصة في رقائق الذكاء الاصطناعي، مثل إنفيديا أو إيه إم دي، قد تصبح عملاء لبعض مكونات مراكز بيانات كوالكوم، مثل وحدة المعالجة المركزية (CPU).
وقال مالادي: ”ما حاولنا القيام به هو التأكد من أن عملائنا في وضع يسمح لهم إما بأخذ كل شيء أو القول،” سأقوم بالمزج والمطابقة ”.
رفضت الشركة التعليق على سعر الرقاقات أو البطاقات أو الرفوف، أو عدد وحدات المعالجة العصبية (NPU) التي يُمكن تركيبها في رف واحد.
أعلنت Qualcomm عن شراكة مع شركة Humain السعودية لتزويد مراكز البيانات في المنطقة برقاقات استدلال الذكاء الاصطناعي، وستكون الشركة عميلاً لQualcomm، ملتزمةً بنشر ما يصل إلى عدد من الأنظمة يستهلك 200 ميجاواط من الطاقة.
صرحت Qualcomm بأن رقائق الذكاء الاصطناعي الخاصة بها تتميز بمزايا تتفوق بها على غيرها من المُسرّعات من حيث استهلاك الطاقة،
وتكلفة الملكية، ونهج جديد في إدارة الذاكرة. وأضافت أن بطاقات الذكاء الاصطناعي الخاصة بها تدعم 768 جيجابايت من الذاكرة، وهي سعة أعلى من عروض Nvidia وAMD.










