logo
#

أحدث الأخبار مع #AIInference

دراسة عالمية جديدة من سِينّا Ciena تستكشف احتياجات الشبكات في عصر الذكاء الاصطناعي
دراسة عالمية جديدة من سِينّا Ciena تستكشف احتياجات الشبكات في عصر الذكاء الاصطناعي

سياحة

time٢٠-٠٣-٢٠٢٥

  • أعمال
  • سياحة

دراسة عالمية جديدة من سِينّا Ciena تستكشف احتياجات الشبكات في عصر الذكاء الاصطناعي

الرياض، المملكة العربية السعودية – 20 مارس 2025 | كشفت دراسة استقصائية عالمية أشرفت على تنفيذها شركة سِينّا (NYSE: CIEN) أن التوسع السريع في تكليف الذكاء الاصطناعي بمهام العمل أدى إلى تحول جذري في البنية التحتية لشبكات مراكز البيانات، حيث يتوقع خبراء عالميون زيادة كبيرة في احتياجات عرض النطاق الترددي للربط بين مراكز البيانات (DCI) خلال السنوات الخمس المقبلة. شملت الدراسة، التي أجريت بالتعاون مع Censuswide، أكثر من 1300 من صانعي القرار في قطاع مراكز البيانات عبر 13 دولة. وأظهرت النتائج أن 53% من المشاركين يرون أن أعباء عمل الموكلة إلى الذكاء الاصطناعي ستشكل أكبر ضغط على بنية DCI خلال العامين أو الثلاثة أعوام المقبلة، متجاوزةً بذلك الحوسبة السحابية (51%) وتحليلات البيانات الضخمة (44%). ويرى المشاركون أن تلبية طلب بهذا الحجم سيستدعي تخصيص 43% من المنشآت الجديدة لمراكز البيانات لدعم أعباء عمل الذكاء الاصطناعي، مما يعكس مدى الطلب المتزايد على بنى تحتية قادرة على التعامل مع حركة بيانات غير مسبوقة. ومع تزايد الحاجة إلى تدريب نماذج الذكاء الاصطناعي وتنفيذ عمليات الاستدلال، يتوقع الخبراء قفزة هائلة في احتياجات عرض النطاق الترددي، حيث يعتقد 87% منهم أن قدرة الألياف الضوئية المطلوبة للـ DCI يجب أن تصل إلى 800 جيجابت في الثانية أو أكثر لكل طول موجي. وعن هذه الدراسة، قال يورغن هاثييه، مدير التكنولوجيا الدولي في سِينّا: 'تعيد أعباء العمل المكلف بها الذكاء الاصطناعي تشكيل مشهد مراكز البيانات بالكامل، من بناء البنية التحتية إلى متطلبات عرض النطاق الترددي. وتاريخياً، كان معدل نمو حركة الشبكة يتراوح بين 20-30% سنوياً، لكن الذكاء الاصطناعي سيسرع هذا النمو بشكل ملحوظ، مما يدفع المشغلين إلى إعادة التفكير في تصاميمهم الهندسية والتخطيط لتلبية هذا الطلب بشكل مستدام'. بناء شبكات مستدامة قائمة على الذكاء الاصطناعي أكد 98% من خبراء مراكز البيانات المشاركين في الدراسة أن البصريات القابلة للتوصيل (Pluggable Optics) تلعب دوراً حاسماً في تقليل استهلاك الطاقة وتقليل المساحة المطلوبة للبنية التحتية للشبكات، مما يعزز الاستدامة في قطاع مراكز البيانات. الحوسبة الموزعة في مراكز بيانات الذكاء الاصطناعي مع تزايد متطلبات الحوسبة الخاصة بالذكاء الاصطناعي، وجدت الدراسة أن تدريب النماذج اللغوية الكبيرة (LLMs) سيصبح أكثر توزعاً بين مراكز بيانات الذكاء الاصطناعي المختلفة، حيث يرى 81% من المشاركين أن هذه العمليات ستتم عبر بنية موزعة، مما يستلزم حلول DCI متقدمة تربط بين هذه المراكز. عند السؤال عن العوامل الرئيسية التي تحدد مواقع استدلال الذكاء الاصطناعي (AI Inference)، جاءت أولويات المشاركين كما يلي: تحسين استغلال موارد الذكاء الاصطناعي على المدى الطويل (63%) تقليل زمن الاستجابة عبر وضع عمليات الاستدلال بالقرب من المستخدمين (56%) متطلبات السيادة على البيانات (54%) اختيار مواقع استراتيجية للعملاء الرئيسيين (54%) بدلاً من نشر الألياف المظلمة (Dark Fiber)، يتوقع 67% من المشاركين الاعتماد على شبكات الألياف الضوئية المدارة (MOFN)، والتي تستخدمها الشركات المشغلة لدعم الاتصال فائق السعة بين مراكز البيانات على المدى الطويل. يختتم هاثير حديثه قائلاً: 'لا تقتصر ثورة الذكاء الاصطناعي على الحوسبة فقط، بل تعتمد بشكل أساسي على الاتصال الشبكي. بدون بنية DCI تحتية قوية، لن يتمكن الذكاء الاصطناعي من تحقيق إمكاناته الكاملة. وعلى المشغلين التأكد من أن شبكاتهم جاهزة لعصر حركة مرور البيانات المدفوعة بالذكاء الاصطناعي'.

Dynamo من "إنفيديا" ترفع قدرة النماذج الذكية على "التفكير" بتكلفة أقل
Dynamo من "إنفيديا" ترفع قدرة النماذج الذكية على "التفكير" بتكلفة أقل

الشرق السعودية

time٢٠-٠٣-٢٠٢٥

  • أعمال
  • الشرق السعودية

Dynamo من "إنفيديا" ترفع قدرة النماذج الذكية على "التفكير" بتكلفة أقل

كشفت شركة "إنفيديا" (NVIDIA) عن منصتها الجديدة NVIDIA Dynamo، والتي تأتي خليفة لمنصة Triton Inference Server، لتقديم تحسينات هائلة في خدمات الاستدلال عبر نماذج الذكاء الاصطناعي AI Inference، وتعزيز كفاءة النماذج الذكية المفكرة Reasoning Models. وصممت "إنفيديا" المنصة الجديدة لتعزيز العائد على الاستثمار في المصانع الذكية للذكاء الاصطناعي عبر تحسين إدارة عمليات الاستدلال وتوزيعها بكفاءة على الآلاف من بطاقات معالجة الرسوميات، مما سيرفع من الأداء وسرعة تجربة المستخدمين، وسيخفض النفقات ويعظّم من عوائد مقدمي الخدمات، بحسب بيانٍ رسمي للشركة. وتُمثّل NVIDIA Dynamo نقلة نوعية في طريقة التعامل مع نماذج الذكاء الاصطناعي الكبيرة من خلال اتباع نهج جديد وهو "الخدمة المفككة" Disaggregated Serving، والذي يعتمد على فصل مرحلتَي المعالجة والفهم عن توليد الاستجابات لتساؤلات المستخدم، وتوزيعهما على وحدات معالجة رسومية مختلفة. ويتيح هذا النهج تحسين أداء كل مرحلة بشكل مستقل، مما يزيد من كفاءة استخدام موارد بطاقات الرسوميات، ويقلل من تكاليف الحوسبة. أداء غير مسبوق وقال جين-سون هوانج الرئيس التنفيذي لشركة إنفيديا: "تدرب الشركات حول العالم نماذج الذكاء الاصطناعي لتصبح أكثر تطوراً في التفكير والاستنتاج بمرور الوقت. ولضمان مستقبل يعتمد على الذكاء الاصطناعي المفكر، تساعد NVIDIA Dynamo في نشر هذه النماذج على نطاق واسع، مما يوفر كفاءة أكبر وتوفيراً في التكاليف داخل مصانع الذكاء الاصطناعي". وبفضل المنصة الجديدة ستحقق الشركات من خلال نماذجها الذكية ضعف الأداء والعائد من عدد وحدات معالجات الرسوميات نفسه، وذلك عند تشغيل نماذج قائمة على معمارية Llama مفتوحة المصدر على منصة إنفيديا للمعالجات Nvidia Hopper. وأشارت الشركة إلى أن تشغيل نموذج DeepSeek-R1 باستخدام منصة إنفيديا GB200 NVL72 باستخدام NVIDIA Dynamo، سيعزز عدد الرموز النصية "توكنز" التي يتم توليدها بمعدل 30 ضعفاً لكل بطاقة معالجة للرسوميات، بفضل التحسينات الذكية في عمليات الاستدلال. وتعتمد المنصة على مجموعة من التقنيات المبتكرة لزيادة كفاءة عمليات الاستدلال وخفض التكاليف التشغيلية. كما توفر إدارة ديناميكية لوحدات معالجة الرسوميات، حيث يمكنها إضافة أو إزالة أو إعادة تخصيص المعالجات تلقائياً استجابة لطبيعة الاستفسارات والطلبات التي يوجهها المستخدم للنموذج الذكي. كما تتيح إمكانية تحديد أفضل معالجات الرسوميات من حيث الأداء داخل الشبكات الضخمة لمعالجة الطلبات بأقل استهلاك للحوسبة، مما يقلل من وقت الاستجابة، ويحافظ على سلاسة تجربة المستخدم. علاوة على ذلك، تقدم منصة NVIDIA Dynamo الجديدة قدرة فائقة على توصيل بيانات الاستدلال إلى وحدات تخزين وذاكرة أرخص داخل شبكات المعالجات الضخمة، مع استعادتها بسرعة عند الحاجة، مما يخفض التكاليف دون التأثير على الأداء. التقنيات الرئيسية وراء المنصة تعتمد منصة NVIDIA Dynamo على 4 تقنيات رئيسية تقلل تكاليف خدمة الاستدلال، وتحسن تجربة المستخدم، وتتمثل في مخطط وحدات GPU Planner، وهو عبارة عن محرك تخطيط ديناميكي يضيف أو يزيل وحدات لمعالجة الرسوميات حسب الحاجة، مما يضمن عدم وجود فائض أو نقص في الاستخدام. وتعتمد المنصة كذلك على نظام التوجيه الذكي Smart Router، والذي يستخدم الذكاء الاصطناعي ليقلل العمليات الحسابية المتكررة عن طريق إعادة توجيه الطلبات إلى الوحدات التي تمتلك بيانات مسبقة مشابهة، مما يسرّع الاستجابة. ووضعت إنفيديا داخل نظامها الجديد مكتبة الاتصال ذات وقت الاستجابة المنخفض (Low Latency Communication Library)، وهي مخصصة لتسريع تبادل البيانات بين وحدات المعالجة المختلفة، مما يحسن سرعة المعالجة. ثم يأتي دور مدير الذاكرة (Memory Manager)، والذي يعمل بمثابة محرك إدارة ذاكرة يقوم بتخزين بيانات الاستدلال في ذاكرات منخفضة التكلفة واستعادتها عند الحاجة دون التأثير على الأداء. دعم واسع تتوفر منصة NVIDIA Dynamo كمشروع مفتوح المصدر، مما يتيح استخدامها وتخصيصها من قِبَل المطورين والشركات الناشئة، وهي تدعم منصات التطوير المختلفة مثل PyTorch، وSGLang، وNVIDIA TensorRT™-LLM، وvLLM، مما يسهل على المؤسسات البحثية والشركات دمجها في أنظمتها لخدمة الذكاء الاصطناعي. كما سيتم اعتماد NVIDIA Dynamo من قِبَل عدد من خدمات الشركات الكبرى السحابية الداعمة لتدريب نماذج الذكاء الاصطناعي، مثل AWS، Cohere، CoreWeave، Dell، Google Cloud، Lambda، Meta، Microsoft Azure، Nebius، NetApp، OCI، Perplexity، Together AI وVAST، مما يعزز انتشارها في مختلف بيئات الحوسبة السحابية. يُذكر أنه سيتم دمج NVIDIA Dynamo في خدمات NVIDIA NIM™ microservices، كما سيتم دعمها في الإصدارات المستقبلية من منصة NVIDIA AI Enterprise، مما يضمن مستوى عالٍ من الأمان والاستقرار والدعم الفني.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store