تخطط NVIDIA لإطلاق شريحة استدلال جديدة تدمج تقنية “وحدة معالجة اللغة” (LPU) الخاصة ب Groq في مؤتمر مطوري GTC الشهر المقبل، مما يدل على أن NVIDIA تسرع تحولها إلى مجال الحوسبة الاستدلالية لتلبية احتياجات العملاء الملحة لحلول الحوسبة عالية الأداء ومنخفضة التكلفة.
وفقا لصحيفة وول ستريت جورنال، فإن النظام الجديد، الذي وصفه الرئيس التنفيذي لشركة نفيديا جنسن هوانغ بأنه “لم يشهده العالم من قبل”، مصمم لتسريع استجابة نماذج الذكاء الاصطناعي للاستفسارات. من المتوقع أن يعيد إطلاق هذا المنتج تشكيل مشهد سوق قوة الحوسبة بالذكاء الاصطناعي الحالي، مما يؤثر بشكل مباشر على مزودي خدمات السحابة والمستثمرين على مستوى المؤسسات الذين يبحثون عن بدائل أكثر فعالية من حيث التكلفة.
كعلامة مهمة على اعتراف السوق الأولي بالتقنية، وافق مطور ChatGPT OpenAI على أن يصبح أحد أكبر عملاء المعالج الجديد وأعلن أنه سيشتري “سعة استدلالية مخصصة” واسعة النطاق من Nvidia. هذا التحرك لا يستقر فقط سوق عملاء نفيديا الأساسي، بل يرسل أيضا إشارة واضحة للسوق:البنية التحتية الأساسية التي تدعم وكلاء الذكاء الاصطناعي المستقلين تتحول من التدريب المسبق واسع النطاق إلى الاستنتاج الفعال.
في مواجهة منافسة شرسة من جوجل وأمازون والعديد من الشركات الناشئة، تكسر نفيديا الاعتماد الواحد على وحدات معالجة الرسومات التقليدية (GPUs). من خلال إدخال هياكل تقنية جديدة واستكشاف نماذج نشر وحدات معالجة مركزية بحتة، تسعى الشركة إلى مواصلة ترسيخ هيمنتها السوقية في المرحلة التالية من تطور صناعة الذكاء الاصطناعي.
دمج تصميم وحدة المعالجة المنخفضة لمواجهة عنق الزجاجة في الاستدلال الكبير للنموذج بشكل مباشر
مع تحول صناعة الذكاء الاصطناعي من تدريب النماذج إلى نشر التطبيقات في العالم الحقيقي، أصبحت الحوسبة الاستدلالية هي محور التركيز. ينقسم استدلال الذكاء الاصطناعي بشكل رئيسي إلى مرحلتين: التعبئة المبدئية وفك الترميز، مع بطء خاص عملية فك الترميز في نماذج الذكاء الاصطناعي الكبيرة. استجابة لهذا الاختناق التقني، اختارت NVIDIA اختراق الحدود الفيزيائية من خلال دمج التكنولوجيا الخارجية.
وفقا لصحيفة وول ستريت جورنال، أنفقت نفيديا 20 مليار دولار لترخيص التقنيات الرئيسية من شركة Groq الناشئة في نهاية العام الماضي، وجلبت فريقا من التنفيذيين، بمن فيهم المؤسس جوناثان روس، في صفقة “توظيف أساسية” واسعة النطاق.تستخدم وحدة معالجة اللغة (LPU) في Groq بنية مختلفة تماما عن وحدات معالجة الرسومات التقليدية، وتظهر كفاءة عالية عند معالجة دوال الاستدلال.
يعتقد محللو الصناعة**، قد تشمل المنتجات الجديدة القادمة الجيل القادم من عمارة فاينمان الثورية.**وفقا لمقال سابق في وول ستريت نيوز، قد تعتمد بنية فاينمان نظام تكامل SRAM أوسع، أو حتى تدمج وحدات LPUs بشكل عميق من خلال تقنية التكديس ثلاثي الأبعاد، مع تحسين خاص لعنقي الاستدلال الرئيسيين في زمن الاستجابة وعرض النطاق الذاكرة، مما يقلل بشكل كبير من استهلاك الطاقة وتكلفة تشغيل وكيل الذكاء الاصطناعي.
توسيع عمليات نشر المعالج فقط وتوفير خيارات حوسبة متنوعة
عند تقديم بنية وحدة التخزين المنخفض، تقوم نفيديا أيضا بتعديل استخدام معالجاتها التقليدية بشكل مرن. كانت ممارسة Nvidia القياسية في الماضي هي دمج معالجات فيرا مع وحدات معالجة روبين القوية في خوادم مراكز البيانات، لكن هذا التكوين ثبت أنه مكلف للغاية وغير كاف عند التعامل مع بعض أعباء عمل وكلاء الذكاء الاصطناعي.
يجد بعض عملاء المؤسسات الكبيرة أن البيئات التي تعتمد فقط على وحدة المعالجة المركزية تكون أكثر كفاءة عند تشغيل مهام ذكاء اصطناعي محددة. استجابة لهذا الاتجاه، أعلنت نفيديا هذا الشهر أنها وسعت تعاونها مع Meta Platforms لأول نشر واسع النطاق يعتمد على وحدة المعالجة المركزية فقط لدعم وكلاء الذكاء الاصطناعي الموجهة للإعلانات من ميتا. يعتبر هذا التعاون من قبل السوق نافذة مبكرة لتعديل Nvidia الاستراتيجي.يظهر أن الشركة تتجاوز نموذج مبيعات وحدة معالجة الرسوميات الواحد وتحاول استهداف شرائح مختلفة من سوق الذكاء الاصطناعي من خلال محفظة أجهزة متنوعة.
يتغير الطلب في السوق، ويستمر الوضع التنافسي في التصاعد
ينبع هذا التطور في تصميم الأجهزة الأساسي مباشرة من الانفجار المتزايد في الطلب على تطبيقات وكلاء الذكاء الاصطناعي في صناعة التكنولوجيا.تجد العديد من الشركات التي تبني وتشغل وكلاء الذكاء الاصطناعي أن وحدات معالجة الرسومات التقليدية مكلفة جدا وليست الخيار الأفضل لتشغيل النماذج عمليا.
تحركات OpenAI تبرز هذا الاتجاه.**بالإضافة إلى تعهدها بشراء أنظمة Nvidia الجديدة لتحسين أدوات Codex سريعة النمو، أبرمت OpenAI أيضا شراكة حوسبة بمليارات الدولارات مع شركة Cerebras الناشئة الشهر الماضي.**وفقا للرئيس التنفيذي لشركة Cerebras أندرو فيلدمان، فإن شرائحها التي تركز على الاستدلال تتفوق على وحدات معالجة رسومات Nvidia في السرعة. بالإضافة إلى ذلك، وقعت OpenAI اتفاقية كبيرة لاستخدام شرائح أمازون ترينيوم.
**ليس فقط الشركات الناشئة، بل أيضا مزودو خدمات السحابة الكبار الذين يسرعون وتيرة تطوير الشرائح ذاتيا.**تعتبر شركة Anthropic Claude Code الرائدة في السوق في الترميز التلقائي، وتعتمد حاليا بشكل أساسي على الشرائح التي صممتها أمازون AWS وGoogle Cloud من Alphabet، بدلا من منتجات Nvidia. في مواجهة تطويق المنافسين وقمعهم، أكد هوانغ في مقابلة مع wccftech أن نفيديا تتحول من مورد شرائح بسيط إلى باني نظام ذكاء اصطناعي كامل يغطي أشباه الموصلات ومراكز البيانات والسحب والتطبيقات. بالنسبة للمستثمرين، سيكون مؤتمر GTC الشهر المقبل نقطة تحول رئيسية لاختبار ما إذا كانت نفيديا تستطيع الاستمرار في أسطورة حصتها السوقية البالغة 90٪ في عصر التفكير.
تحذير من المخاطر وتحذير المسؤولية
السوق محفوف بالمخاطر، ويجب على الاستثمار أن يكون حذرا. هذه المقالة لا تشكل نصيحة استثمارية شخصية ولا تأخذ في الاعتبار الأهداف الاستثمارية المحددة أو الوضع المالي أو احتياجات المستخدمين الأفراد. يجب على المستخدمين التفكير فيما إذا كانت أي آراء أو استنتاجات الواردة في هذا المقال تتوافق مع ظروفهم الخاصة. استثمر وفقا لذلك على مسؤوليتك الخاصة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تقرير: شركة إنفيديا ستطلق "رقاقة الاستدلال الجديدة" في مؤتمر GTC الشهر المقبل، مع دمج تصميم Groq LPU
تخطط NVIDIA لإطلاق شريحة استدلال جديدة تدمج تقنية “وحدة معالجة اللغة” (LPU) الخاصة ب Groq في مؤتمر مطوري GTC الشهر المقبل، مما يدل على أن NVIDIA تسرع تحولها إلى مجال الحوسبة الاستدلالية لتلبية احتياجات العملاء الملحة لحلول الحوسبة عالية الأداء ومنخفضة التكلفة.
وفقا لصحيفة وول ستريت جورنال، فإن النظام الجديد، الذي وصفه الرئيس التنفيذي لشركة نفيديا جنسن هوانغ بأنه “لم يشهده العالم من قبل”، مصمم لتسريع استجابة نماذج الذكاء الاصطناعي للاستفسارات. من المتوقع أن يعيد إطلاق هذا المنتج تشكيل مشهد سوق قوة الحوسبة بالذكاء الاصطناعي الحالي، مما يؤثر بشكل مباشر على مزودي خدمات السحابة والمستثمرين على مستوى المؤسسات الذين يبحثون عن بدائل أكثر فعالية من حيث التكلفة.
كعلامة مهمة على اعتراف السوق الأولي بالتقنية، وافق مطور ChatGPT OpenAI على أن يصبح أحد أكبر عملاء المعالج الجديد وأعلن أنه سيشتري “سعة استدلالية مخصصة” واسعة النطاق من Nvidia. هذا التحرك لا يستقر فقط سوق عملاء نفيديا الأساسي، بل يرسل أيضا إشارة واضحة للسوق:البنية التحتية الأساسية التي تدعم وكلاء الذكاء الاصطناعي المستقلين تتحول من التدريب المسبق واسع النطاق إلى الاستنتاج الفعال.
في مواجهة منافسة شرسة من جوجل وأمازون والعديد من الشركات الناشئة، تكسر نفيديا الاعتماد الواحد على وحدات معالجة الرسومات التقليدية (GPUs). من خلال إدخال هياكل تقنية جديدة واستكشاف نماذج نشر وحدات معالجة مركزية بحتة، تسعى الشركة إلى مواصلة ترسيخ هيمنتها السوقية في المرحلة التالية من تطور صناعة الذكاء الاصطناعي.
دمج تصميم وحدة المعالجة المنخفضة لمواجهة عنق الزجاجة في الاستدلال الكبير للنموذج بشكل مباشر
مع تحول صناعة الذكاء الاصطناعي من تدريب النماذج إلى نشر التطبيقات في العالم الحقيقي، أصبحت الحوسبة الاستدلالية هي محور التركيز. ينقسم استدلال الذكاء الاصطناعي بشكل رئيسي إلى مرحلتين: التعبئة المبدئية وفك الترميز، مع بطء خاص عملية فك الترميز في نماذج الذكاء الاصطناعي الكبيرة. استجابة لهذا الاختناق التقني، اختارت NVIDIA اختراق الحدود الفيزيائية من خلال دمج التكنولوجيا الخارجية.
وفقا لصحيفة وول ستريت جورنال، أنفقت نفيديا 20 مليار دولار لترخيص التقنيات الرئيسية من شركة Groq الناشئة في نهاية العام الماضي، وجلبت فريقا من التنفيذيين، بمن فيهم المؤسس جوناثان روس، في صفقة “توظيف أساسية” واسعة النطاق.تستخدم وحدة معالجة اللغة (LPU) في Groq بنية مختلفة تماما عن وحدات معالجة الرسومات التقليدية، وتظهر كفاءة عالية عند معالجة دوال الاستدلال.
يعتقد محللو الصناعة**، قد تشمل المنتجات الجديدة القادمة الجيل القادم من عمارة فاينمان الثورية.**وفقا لمقال سابق في وول ستريت نيوز، قد تعتمد بنية فاينمان نظام تكامل SRAM أوسع، أو حتى تدمج وحدات LPUs بشكل عميق من خلال تقنية التكديس ثلاثي الأبعاد، مع تحسين خاص لعنقي الاستدلال الرئيسيين في زمن الاستجابة وعرض النطاق الذاكرة، مما يقلل بشكل كبير من استهلاك الطاقة وتكلفة تشغيل وكيل الذكاء الاصطناعي.
توسيع عمليات نشر المعالج فقط وتوفير خيارات حوسبة متنوعة
عند تقديم بنية وحدة التخزين المنخفض، تقوم نفيديا أيضا بتعديل استخدام معالجاتها التقليدية بشكل مرن. كانت ممارسة Nvidia القياسية في الماضي هي دمج معالجات فيرا مع وحدات معالجة روبين القوية في خوادم مراكز البيانات، لكن هذا التكوين ثبت أنه مكلف للغاية وغير كاف عند التعامل مع بعض أعباء عمل وكلاء الذكاء الاصطناعي.
يجد بعض عملاء المؤسسات الكبيرة أن البيئات التي تعتمد فقط على وحدة المعالجة المركزية تكون أكثر كفاءة عند تشغيل مهام ذكاء اصطناعي محددة. استجابة لهذا الاتجاه، أعلنت نفيديا هذا الشهر أنها وسعت تعاونها مع Meta Platforms لأول نشر واسع النطاق يعتمد على وحدة المعالجة المركزية فقط لدعم وكلاء الذكاء الاصطناعي الموجهة للإعلانات من ميتا. يعتبر هذا التعاون من قبل السوق نافذة مبكرة لتعديل Nvidia الاستراتيجي.يظهر أن الشركة تتجاوز نموذج مبيعات وحدة معالجة الرسوميات الواحد وتحاول استهداف شرائح مختلفة من سوق الذكاء الاصطناعي من خلال محفظة أجهزة متنوعة.
يتغير الطلب في السوق، ويستمر الوضع التنافسي في التصاعد
ينبع هذا التطور في تصميم الأجهزة الأساسي مباشرة من الانفجار المتزايد في الطلب على تطبيقات وكلاء الذكاء الاصطناعي في صناعة التكنولوجيا.تجد العديد من الشركات التي تبني وتشغل وكلاء الذكاء الاصطناعي أن وحدات معالجة الرسومات التقليدية مكلفة جدا وليست الخيار الأفضل لتشغيل النماذج عمليا.
تحركات OpenAI تبرز هذا الاتجاه.**بالإضافة إلى تعهدها بشراء أنظمة Nvidia الجديدة لتحسين أدوات Codex سريعة النمو، أبرمت OpenAI أيضا شراكة حوسبة بمليارات الدولارات مع شركة Cerebras الناشئة الشهر الماضي.**وفقا للرئيس التنفيذي لشركة Cerebras أندرو فيلدمان، فإن شرائحها التي تركز على الاستدلال تتفوق على وحدات معالجة رسومات Nvidia في السرعة. بالإضافة إلى ذلك، وقعت OpenAI اتفاقية كبيرة لاستخدام شرائح أمازون ترينيوم.
**ليس فقط الشركات الناشئة، بل أيضا مزودو خدمات السحابة الكبار الذين يسرعون وتيرة تطوير الشرائح ذاتيا.**تعتبر شركة Anthropic Claude Code الرائدة في السوق في الترميز التلقائي، وتعتمد حاليا بشكل أساسي على الشرائح التي صممتها أمازون AWS وGoogle Cloud من Alphabet، بدلا من منتجات Nvidia. في مواجهة تطويق المنافسين وقمعهم، أكد هوانغ في مقابلة مع wccftech أن نفيديا تتحول من مورد شرائح بسيط إلى باني نظام ذكاء اصطناعي كامل يغطي أشباه الموصلات ومراكز البيانات والسحب والتطبيقات. بالنسبة للمستثمرين، سيكون مؤتمر GTC الشهر المقبل نقطة تحول رئيسية لاختبار ما إذا كانت نفيديا تستطيع الاستمرار في أسطورة حصتها السوقية البالغة 90٪ في عصر التفكير.
تحذير من المخاطر وتحذير المسؤولية