أحدث الأخبار مع #جينسونهوانج


الشرق السعودية
٢٠-٠٣-٢٠٢٥
- علوم
- الشرق السعودية
إنفيديا تكشف عن معالجاتها للذكاء الاصطناعي القادمة حتى 2028
أعلنت شركة "إنفيديا" (NVIDIA) خلال مؤتمرها السنوي GTC 2025 في ولاية كاليفورنيا بالولايات المتحدة، عن مجموعة من الرقائق الجديدة المصممة لتسريع عمليات الذكاء الاصطناعي، والتي تشمل بطاقة Rubin Ultra المقرر إطلاقها في النصف الثاني من 2027، وبطاقة Feynman المتوقع وصولها في 2028. وكشف الرئيس التنفيذي للشركة جين-سون هوانج عن مواصفات متقدمة لهذه الرقائق، موضحاً أنها ستساهم في تشغيل الروبوتات الذكية ودعم تشغيل مليارات من الوكلاء الرقميين. وسلطت الشركة الضوء أيضاً على الجيل القادم من معالجاتها من مسرعات الذكاء الاصطناعي، حيث تخطط "إنفيديا" لإطلاق شريحة Blackwell Ultra B300 في النصف الثاني من 2025. وستتميز هذه الشريحة بوجود وحدتَي معالجة رسومية (GPU) على القالب نفسه، ما يمنحها 15 "بيتافلوب" (Petaflop) -وحدة لقياس سرعة الكمبيوتر في العمل وتساوي مليون مليار عملية في الثانية- من أداء الحوسبة الكثيف بتنسيق FP4 لكل شريحة. وعند استخدامها في تكوين NVL72، ستوفر قدرة حوسبية تصل إلى 1.1 "إكزافلوب" -تساوي الواحدة منها مليون تيرافلوب- من أداء الاستدلال الكثيف بتنسيق FP4، مما يعادل 1.5 ضعف أداء Blackwell B200. وستكون كل وحدة معالجة رسومية من طراز B300 مزودة بـ288 جيجابايت من ذاكرة HBM3e، مقارنة بـ192 جيجابايت في Blackwell B200. بطاقات مستقبلية كشفت الشركة كذلك عن جيل ثوري من معالجاتها القادمة للرسوميات، والذي يحمل اسم Vera Rubin، التي تم الكشف عنها لأول مرة في معرض Computex 2024، ومن المقرر إطلاقها في النصف الثاني من 2026. جاءت هذه التسمية تيمناً بعالمة الفلك الشهيرة فيرا روبين، وستكون مجهزة بذاكرة سعتها عشرات التيرابايت، بالإضافة إلى وحدة معالجة مركزية مخصصة من تصميم إنفيديا تحمل اسم "فيرا". وبحسب "إنفيديا"، فإن Vera Rubin ستحقق أداء أعلى بكثير مقارنة بسابقتها Grace Blackwell، خاصة في مجالات تدريب نماذج الذكاء الاصطناعي وتنفيذ عمليات الاستدلال Reasoning. وتحتوي هذه الشريحة على وحدتَي معالجة رسومية مدمجتين في قالب واحد، مما يمكنها من تقديم أداء بقدرة 50 بيتافلوب من أداء الاستدلال. وعند استخدامها ضمن تكوين NVL144 المعماري، ستصل قدرة الحوسبة إلى 3.6 إكزافلوب من أداء الاستدلال بتنسيق FP4، وهو ما يعادل أكثر من ثلاثة أضعاف أداء بطاقة Blackwell Ultra، التي توفر 1.1 إكزافلوب في التكوين نفسه. أما المعالج المركزي Vera CPU، فيحتوي على 88 نواة ARM مخصصة مع 176 مساراً، ويتميز بواجهة NVLink بسرعة 1.8 تيرابايت/ثانية، تتيح اتصالاً فائق السرعة بين المعالج المركزي والمعالجات الرسومية Rubin. بينما في النصف الثاني من عام 2027، ستطلق "إنفيديا" شريحة Rubin Ultra، التي تُعد نسخة أكثر تطوراً من Vera Rubin. وستعتمد هذه الشريحة على تكوين NVL576، حيث تحتوي كل وحدة معالجة رسومية على أربعة معالجات بحجم "ريتكل"، ما سيمكنها من تقديم 100 بيتافلوب من أداء الاستدلال بتنسيق FP4 لكل وحدة معالجة. وعلى مستوى الحوسبة في تكوين الحزمة الكاملة NVL576، ستوفر Rubin Ultra قوة 15 إكزافلوب لأداء الاستدلال بتنسيق FP4، و5 إكزافلوب لأداء تدريب نماذج الذكاء الاصطناعي بتنسيق FP8، وهو ما يجعلها أقوى بأربع مرات مقارنة بتكوين Rubin NVL144. كما تحتوي كل وحدة معالجة Rubin Ultra على 1 تيرابايت من ذاكرة HBM4e، في حين ستضم الحزمة الكاملة 365 تيرابايت من الذاكرة الفائقة السرعة. وبحلول 2028، ستكشف "إنفيديا" النقاب عن جيل غامض من بطاقات مسرعات الذكاء الاصطناعي تحت اسم Feynman، حيث أشار الرئيس التنفيذي للشركة إلى أنها ستعمل بمعالج Vera CPU بدلاً من المعالج المتوقع Richard CPU، ما يشير إلى تغييرات غير متوقعة في استراتيجية التسمية والهندسة الداخلية وسرعة الأداء. وخلال كلمته في مؤتمر الشركة للمطورين GTC 2025، وضع هوانج خارطة طريق طموحة لمستقبل الذكاء الاصطناعي، موضحاً أن التطور في هذا المجال سيظل مرتبطاً بشكل وثيق بنجاح "إنفيديا". وأوضح أن مراكز البيانات أصبحت مصانع ذكاء اصطناعي، حيث لا تنتج كائنات مادية، بل تنتج بيانات تُستخدم لتشغيل نماذج الذكاء الاصطناعي. وتوقَّع هوانج أن تعمل شرائح "إنفيديا" قريباً على تشغيل "10 مليارات وكيل رقمي"، وهو رقم يعكس الانتشار السريع لتقنيات الذكاء الاصطناعي في مختلف الصناعات. وأردف بالقول إن 100% من مهندسي "إنفيديا" سيتم دعمهم بأنظمة ذكاء اصطناعي بحلول نهاية عام 2025، ما يعكس التكامل العميق بين التكنولوجيا الحديثة وعملية تطوير أشباه الموصلات.


الشرق السعودية
٢٠-٠٣-٢٠٢٥
- أعمال
- الشرق السعودية
Dynamo من "إنفيديا" ترفع قدرة النماذج الذكية على "التفكير" بتكلفة أقل
كشفت شركة "إنفيديا" (NVIDIA) عن منصتها الجديدة NVIDIA Dynamo، والتي تأتي خليفة لمنصة Triton Inference Server، لتقديم تحسينات هائلة في خدمات الاستدلال عبر نماذج الذكاء الاصطناعي AI Inference، وتعزيز كفاءة النماذج الذكية المفكرة Reasoning Models. وصممت "إنفيديا" المنصة الجديدة لتعزيز العائد على الاستثمار في المصانع الذكية للذكاء الاصطناعي عبر تحسين إدارة عمليات الاستدلال وتوزيعها بكفاءة على الآلاف من بطاقات معالجة الرسوميات، مما سيرفع من الأداء وسرعة تجربة المستخدمين، وسيخفض النفقات ويعظّم من عوائد مقدمي الخدمات، بحسب بيانٍ رسمي للشركة. وتُمثّل NVIDIA Dynamo نقلة نوعية في طريقة التعامل مع نماذج الذكاء الاصطناعي الكبيرة من خلال اتباع نهج جديد وهو "الخدمة المفككة" Disaggregated Serving، والذي يعتمد على فصل مرحلتَي المعالجة والفهم عن توليد الاستجابات لتساؤلات المستخدم، وتوزيعهما على وحدات معالجة رسومية مختلفة. ويتيح هذا النهج تحسين أداء كل مرحلة بشكل مستقل، مما يزيد من كفاءة استخدام موارد بطاقات الرسوميات، ويقلل من تكاليف الحوسبة. أداء غير مسبوق وقال جين-سون هوانج الرئيس التنفيذي لشركة إنفيديا: "تدرب الشركات حول العالم نماذج الذكاء الاصطناعي لتصبح أكثر تطوراً في التفكير والاستنتاج بمرور الوقت. ولضمان مستقبل يعتمد على الذكاء الاصطناعي المفكر، تساعد NVIDIA Dynamo في نشر هذه النماذج على نطاق واسع، مما يوفر كفاءة أكبر وتوفيراً في التكاليف داخل مصانع الذكاء الاصطناعي". وبفضل المنصة الجديدة ستحقق الشركات من خلال نماذجها الذكية ضعف الأداء والعائد من عدد وحدات معالجات الرسوميات نفسه، وذلك عند تشغيل نماذج قائمة على معمارية Llama مفتوحة المصدر على منصة إنفيديا للمعالجات Nvidia Hopper. وأشارت الشركة إلى أن تشغيل نموذج DeepSeek-R1 باستخدام منصة إنفيديا GB200 NVL72 باستخدام NVIDIA Dynamo، سيعزز عدد الرموز النصية "توكنز" التي يتم توليدها بمعدل 30 ضعفاً لكل بطاقة معالجة للرسوميات، بفضل التحسينات الذكية في عمليات الاستدلال. وتعتمد المنصة على مجموعة من التقنيات المبتكرة لزيادة كفاءة عمليات الاستدلال وخفض التكاليف التشغيلية. كما توفر إدارة ديناميكية لوحدات معالجة الرسوميات، حيث يمكنها إضافة أو إزالة أو إعادة تخصيص المعالجات تلقائياً استجابة لطبيعة الاستفسارات والطلبات التي يوجهها المستخدم للنموذج الذكي. كما تتيح إمكانية تحديد أفضل معالجات الرسوميات من حيث الأداء داخل الشبكات الضخمة لمعالجة الطلبات بأقل استهلاك للحوسبة، مما يقلل من وقت الاستجابة، ويحافظ على سلاسة تجربة المستخدم. علاوة على ذلك، تقدم منصة NVIDIA Dynamo الجديدة قدرة فائقة على توصيل بيانات الاستدلال إلى وحدات تخزين وذاكرة أرخص داخل شبكات المعالجات الضخمة، مع استعادتها بسرعة عند الحاجة، مما يخفض التكاليف دون التأثير على الأداء. التقنيات الرئيسية وراء المنصة تعتمد منصة NVIDIA Dynamo على 4 تقنيات رئيسية تقلل تكاليف خدمة الاستدلال، وتحسن تجربة المستخدم، وتتمثل في مخطط وحدات GPU Planner، وهو عبارة عن محرك تخطيط ديناميكي يضيف أو يزيل وحدات لمعالجة الرسوميات حسب الحاجة، مما يضمن عدم وجود فائض أو نقص في الاستخدام. وتعتمد المنصة كذلك على نظام التوجيه الذكي Smart Router، والذي يستخدم الذكاء الاصطناعي ليقلل العمليات الحسابية المتكررة عن طريق إعادة توجيه الطلبات إلى الوحدات التي تمتلك بيانات مسبقة مشابهة، مما يسرّع الاستجابة. ووضعت إنفيديا داخل نظامها الجديد مكتبة الاتصال ذات وقت الاستجابة المنخفض (Low Latency Communication Library)، وهي مخصصة لتسريع تبادل البيانات بين وحدات المعالجة المختلفة، مما يحسن سرعة المعالجة. ثم يأتي دور مدير الذاكرة (Memory Manager)، والذي يعمل بمثابة محرك إدارة ذاكرة يقوم بتخزين بيانات الاستدلال في ذاكرات منخفضة التكلفة واستعادتها عند الحاجة دون التأثير على الأداء. دعم واسع تتوفر منصة NVIDIA Dynamo كمشروع مفتوح المصدر، مما يتيح استخدامها وتخصيصها من قِبَل المطورين والشركات الناشئة، وهي تدعم منصات التطوير المختلفة مثل PyTorch، وSGLang، وNVIDIA TensorRT™-LLM، وvLLM، مما يسهل على المؤسسات البحثية والشركات دمجها في أنظمتها لخدمة الذكاء الاصطناعي. كما سيتم اعتماد NVIDIA Dynamo من قِبَل عدد من خدمات الشركات الكبرى السحابية الداعمة لتدريب نماذج الذكاء الاصطناعي، مثل AWS، Cohere، CoreWeave، Dell، Google Cloud، Lambda، Meta، Microsoft Azure، Nebius، NetApp، OCI، Perplexity، Together AI وVAST، مما يعزز انتشارها في مختلف بيئات الحوسبة السحابية. يُذكر أنه سيتم دمج NVIDIA Dynamo في خدمات NVIDIA NIM™ microservices، كما سيتم دعمها في الإصدارات المستقبلية من منصة NVIDIA AI Enterprise، مما يضمن مستوى عالٍ من الأمان والاستقرار والدعم الفني.


الشرق السعودية
١٩-٠٣-٢٠٢٥
- سيارات
- الشرق السعودية
NVIDIA Halos.. نظام ذكاء اصطناعي يحافظ على أمان المركبات ذاتية القيادة
أطلقت شركة "إنفيديا" (NVIDIA) نظام أمان متكامل تحت اسم NVIDIA Halos، وتم تصميمه لدعم تطوير المركبات ذاتية القيادة وتعزيز سلامتها، بدءاً من السحابة وصولاً إلى نظام تشغيل المركبة نفسه. يجمع النظام الجديد بين أحدث تقنيات إنفيديا في الذكاء الاصطناعي، وأجهزة السيارات، وحلول الأمان البرمجية، بهدف ضمان تطوير آمن وموثوق للجيل القادم من المركبات الذاتية القيادة. وقال جين-سون هوانج الرئيس التنفيذي لشركة إنفيديا، في كلمة أمام مؤتمر الشركة السنوي للمطورين GTC 2025، إن نظام NVIDIA Halos يرتكز على دمج حلول الأمان المتقدمة في جميع مراحل تطوير المركبات ذاتية القيادة، بدءاً من تصميم بنية السيارة، مروراً بالنماذج الذكية للذكاء الاصطناعي، ووصولاً إلى الشرائح الإلكترونية، والبرمجيات، والأدوات، والخدمات التي تدعم بيئة تطوير متكاملة وآمنة. من جانبه، قال نائب رئيس قسم سلامة الصناعة في إنفيديا ريكاردو مارياني، إن إطلاق NVIDIA Halos يمنح الشركاء والمطورين إمكانية اختيار أحدث العناصر التكنولوجية لإنشاء حلولهم الخاصة، مما يعزز مهمة الشركة المشتركة في تطوير مركبات ذاتية القيادة أكثر أماناً وموثوقية. وأشار مارياني إلى أن هذا النظام لا يكمل الممارسات الحالية للسلامة فحسب، بل يمكنه أيضاً تسريع عمليات التقييس والامتثال التنظيمي. مستويات متعددة للأمان يعتمد نظام NVIDIA Halos على 3 مستويات رئيسية لضمان الأمان، فعلى المستوى التكنولوجي، يغطي الأمان المتعلق بالمنصة، والخوارزميات، والنظام البيئي المحيط بالمركبات الذاتية، أما على مستوى التطوير، فإنه يضع ضوابط أمان خلال مراحل التصميم، والنشر، والتحقق من السلامة، لضمان تكامل الأنظمة في كل خطوة من عملية تطويرها. كما يأخذ NVIDIA Halos في الحسبان المستوى الحسابي للأمان، إذ يوفر بيئة متكاملة تمتد من تدريب الذكاء الاصطناعي إلى نشره وتشغيله مباشرة داخل في المركبات، مع الاعتماد على ثلاثة أنظمة حوسبة رئيسية، تتمثل في NVIDIA DGX لتدريب نماذج الذكاء الاصطناعي، وNVIDIA Omniverse وNVIDIA Cosmos لدعم عمليات محاكاة المسارات والطرق، وNVIDIA DRIVE AGX لنشر الأنظمة الذكية داخل المركبات وتشغيلها. ويشمل NVIDIA Halos أيضاً "مختبر فحص أنظمة الذكاء الاصطناعي"، الذي يُعد نقطة دخول رئيسية للمطورين وشركات السيارات للتحقق من تكامل منتجاتهم مع تقنيات إنفيديا وضمان توافقها مع معايير الأمان الصارمة. وقد تم الإعلان عن هذا المختبر لأول مرة خلال معرض CES 2025، حيث أصبح أول برنامج عالمي يحصل على اعتماد المجلس الوطني الأميركي للاعتماد (ANSI)، كإطار موحد يدمج بين الأمان الوظيفي، والأمن السيبراني، وسلامة الذكاء الاصطناعي، ومتطلبات التنظيم الحكومي للمركبات. انضمت مجموعة من الشركات الرائدة إلى المختبر كأعضاء مؤسسين، ومن بينها Ficosa، وOmniVision، وOnsemi، وContinental. مكونات النظام يرتكز نظام NVIDIA Halos على 3 ركائز أساسية، فمن ناحية سلامة المنصة ، يوفر معالجاً متطوراً مزوداً بآليات أمان متعددة، إلى جانب نظام التشغيل DriveOS المعتمد للسلامة، والذي يمتد من وحدة المعالجة المركزية إلى وحدة المعالجة الرسومية، ومنصة DRIVE AGX Hyperion التي تربط بين الشريحة ونظام التشغيل وأجهزة الاستشعار في بنية إلكترونية متكاملة. أما في مجال سلامة الخوارزميات، فيوفر NVIDIA Halos مكتبات لتحميل البيانات بأمان، وواجهات برمجية (APIs) لإنشاء البيانات وتنقيحها، وبيئات تدريب متقدمة تحاكي الواقع باستخدام NVIDIA Omniverse، وNVIDIA Cosmos، مما يتيح اختبار المركبات الذاتية القيادة تحت ظروف واقعية دقيقة. أما على صعيد سلامة النظام البيئي، فيوفر نظام NVIDIA Halos مجموعات بيانات متنوعة وغير متحيزة لدعم تدريب أنظمة الذكاء الاصطناعي، إلى جانب إجراءات نشر آمنة تتضمن تقييمات أمان مؤتمتة، ومسارات مراجعة دقيقة، وآلية تحسين مستمرة لمواكبة المتطلبات التنظيمية. ويُعد هذا النهج المتكامل شهادة على التزام إنفيديا بالريادة في معايير الأمان والسلامة الخاصة بالمركبات الذاتية القيادة.