
'كولوسوس'.. وحش إيلون ماسك الجديد يقود سباق الذكاء الاصطناعي بقوة غير مسبوقة
حققت شركة الذكاء الاصطناعي xAI، التابعة للملياردير إيلون ماسك، إنجازاً تقنياً بارزاً بإطلاق واحد من أقوى الحواسيب العملاقة في العالم، والذي يحمل اسم 'Colossus'، ويعمل حالياً بـ200.000 وحدة معالجة رسومية (GPU) من شركة Nvidia.
وبحسب موقع 'إنتريستنغ إنجينيرينغ'، تم بناء Colossus في زمن قياسي لم يتجاوز 122 يوماً، مقارنةً بالتقديرات الأولية التي رجّحت الحاجة إلى عامين كاملين.
وبعد ذلك، استغرقت الشركة 92 يوماً إضافياً لرفع عدد وحدات المعالجة إلى 200 ألف وحدة، متفوقةً بذلك على قدرات كبرى منصات الحوسبة مثل Oracle Cloud Infrastructure، التي تضم نحو 131.072 وحدة GPU.
مليون وحدة معالجة رسومية
ولا تنوي xAI التوقف عند هذا الحد، إذ تخطط لمضاعفة القوة الحوسبية لـ Colossus عبر رفع عدد وحدات GPU إلى مليون، في خطوة تهدف إلى تعزيز قدراتها في تطوير نماذج الذكاء الاصطناعي ومنافسة شركات مثل OpenAI وMeta AI.
الاعتماد على Tesla Megapack
ويتم تشغيل مركز البيانات العملاق هذا في مدينة ممفيس بولاية تينيسي، حيث يستمد Colossus طاقته من محطة كهرباء فرعية حديثة تُوفر 150 ميغاواط، مدعومة ببطاريات Tesla Megapack توفر نفس القدرة كخيار احتياطي، لضمان التشغيل المستقر حتى أثناء انقطاع الكهرباء أو تقلبات الطاقة.
Grok 3 ثمرة Colossus
في فبراير (شباط) 2025، أطلقت xAI نموذج الذكاء الاصطناعي المتقدم Grok 3، الذي تم تدريبه بالكامل على قدرات Colossus. ووفقاً للشركة، أظهر Grok 3 تطورات كبيرة في مهارات التفكير الرياضي، البرمجة، المعرفة العامة، وتنفيذ التعليمات، وهو ما يمثل دفعة قوية لطموحات xAI في مضمار الذكاء الاصطناعي التوليدي.
تمويل ضخم ودعم تقني هائل
وجمعت xAI نحو 6 مليارات دولار ضمن جولة تمويل من الفئة C، بهدف تسريع تطوير مشاريعها الكبرى، من ضمنها Colossus، ونموذج Aurora، ونماذج الذكاء الاصطناعي القادمة. كما كشفت الشركة أن Colossus يتمتع بنطاق ترددي إجمالي للذاكرة يصل إلى 194 بيتابايت/ثانية، وسعة تخزين تتجاوز إكسابايت واحداً.
منافس شرس في سباق الذكاء الاصطناعي
مع هذه القدرات غير المسبوقة، يضع Colossus شركة xAI في موقع متقدم لمنافسة كبرى شركات الذكاء الاصطناعي حول العالم، ويرجح أن يكون هدف 'المليون وحدة معالجة رسومية' قابلاً للتحقيق قريباً، وفق وتيرة التقدم الحالية التي وصفها مراقبون بأنها 'استثنائية'.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الغد
منذ 5 ساعات
- الغد
مشاريع روبوت وطائرات مسيرة.. سميرات يرعى فعاليات اليوم العلمي لكلية الهندسة في الجامعة الهاشمية
اضافة اعلان وتأتي هذه الفعالية تزامنًا مع احتفالات المملكة بعيد الاستقلال الـ79، حيث سلطت الضوء على أبرز الابتكارات والمشاريع في مجالات الروبوتات، والطائرات المسيّرة، والهندسة الصناعية، والريادة، والإبداع، إضافة إلى عرض 35 مشروع تخرج لطلبة الكلية، تناولت حلولًا تقنية متقدمة في الذكاء الاصطناعي والروبوتات.وتولي رعاية وزارة الاقتصاد الرقمي والريادة اهتمامًا كبيرًا بتمكين الشباب الأردني وتوفير البيئة المناسبة لنمو الشركات الناشئة والمبادرات التقنية، خاصة في مجالات الثورة الصناعية الرابعة، بما يسهم في بناء اقتصاد رقمي تنافسي قائم على المعرفة والابتكار.وتأتي هذه الفعالية كمثال حي على الشراكة بين مؤسسات التعليم العالي والقطاع الحكومي في دعم الابتكار وتعزيز دور الجامعات في تهيئة الكفاءات لسوق العمل الرقمي والتحول التكنولوجي.


الغد
منذ 5 ساعات
- الغد
هاكر يخترق تطبيق TM SGNL في 20 دقيقة ويكشف بيانات حساسة
في مشهد يكشف هشاشة البنى الأمنية الرقمية، تمكن أحد القراصنة من اختراق النسخة المعدّلة من تطبيق المراسلة المشفّرة Signal، المعروف باسم TM SGNL، خلال أقل من عشرين دقيقة، مستغلاً ثغرات بدائية في التشفير والإعدادات البرمجية. تفاصيل الهجوم التي كشفها موقع Wired تسلط الضوء على سلسلة من الإخفاقات التقنية في إدارة النطاقات الآمنة وخوادم الأرشفة، ما أدى إلى تسريب بيانات حساسة شملت محادثات مؤسسية غير مشفرة وكلمات مرور لموظفين في جهات حكومية أميركية. اضافة اعلان وتمكّن أحد القراصنة من الوصول إلى خوادم تطبيق "TM SGNL"، النسخة المعدّلة من تطبيق "سيجنال" (Signal)، خلال أقل من 20 دقيقة، وذلك في عملية استندت إلى استغلال بسيط لثغرة صغيرة، لكنها بالغة التأثير، إذ كشف عن تركيبات برمجية قديمة وإعدادات غير مؤمنة على الإطلاق. بدأ المخترق رحلته بالوصول إلى لوحة التحكم الخاصة بالنطاق الآمن للتطبيق عبر العنوان: وفقاً لتصريحاته لموقع Wired. تشفير عتيق بمجرد الدخول، لاحظ المخترق أن النظام يعتمد على تشفير كلمات المرور باستخدام خوارزمية MD5 على واجهة المستخدم، وهي خوارزمية قديمة وضعيفة لم تعد تُستخدم في نظم التشفير الحديثة نظراً لقابليتها للاختراق. الأخطر من ذلك أن التشفير كان يتم على واجهة المستخدم فقط، ما يجعل قيمة "الهاش" الناتجة تُستخدم عملياً ككلمة مرور، وبالتالي يسهل نسخها واستخدامها للدخول مباشرة. وبعد أن تبين للمخترق ضعف أساليب الحماية، شكّ في أن بنية النظام تعتمد على تقنيات قديمة، وبالفعل وجد أن TeleMessage تستخدم JSP، وهي تقنية لإنشاء تطبيقات الويب ترجع إلى أوائل العقد الأول من الألفية الحالية، ما زاد من احتمالية وجود ملفات حساسة مكشوفة للعامة على الإنترنت. للبحث عن الثغرة، استخدم أداة feroxbuster، وهي أداة تستهدف اكتشاف الموارد العامة المتاحة على مواقع الويب، ووجه عمليات المسح إلى نطاقين تابعين لـ TeleMessage هما: و إذ بدأ الاختراق الحقيقي عندما اكتشف رابطاً على النطاق الثاني ينتهي بـ/heapdump. عند فتح هذا الرابط، قدّم الخادم ملفاً كبيراً يُعرف باسم heap dump، وهو ملف يحتوي على لقطة من الذاكرة المؤقتة للخادم (RAM) وقت تحميل الصفحة، بحجم وصل إلى نحو 150 ميجابايت. هذه الملفات غالباً ما تحتوي على أجسام الطلبات HTTP، التي قد تتضمن بيانات اعتماد المستخدمين، وباستخدام كلمة مفتاحية بسيطة مثل password، وجد المخترق أسماء مستخدمين وكلمات مرور بشكل نصي ضريح غير مشفر. بيانات حساسة وعند استخدام واحدة من هذه البيانات لتسجيل الدخول إلى لوحة الإدارة، تبيّن أنه اخترق حساباً لموظف تابع لوكالة الجمارك وحماية الحدود الأميركية، التي أكدت لاحقاً استخدامها لخدمة TeleMessage. ولم تقتصر البيانات المكشوفة على بيانات الدخول، بل شملت أيضاً سجلات محادثات داخلية غير مشفرة بصيغة نصية، من بينها محادثات خاصة بمنصة Coinbase الشهيرة لتداول العملات الرقمية. ورغم تأكيد Coinbase عدم وجود دليل على تعرض بيانات العملاء للخطر، فإن مجرد كشف هذه المحادثات يطرح تساؤلات كبرى بشأن البنية الأمنية للتطبيق. تحليل الشيفرة المصدرية لتطبيق TM SGNL كشف لاحقاً أن التطبيق يرسل الرسائل بصيغة غير مشفرة إلى خادم أرشفة خاص رغم الترويج له بأنه يوفر تشفيراً "من طرف إلى طرف" يشمل حتى عملية الأرشفة المؤسسية. الخادم كان مبنياً باستخدام إطار Spring Boot بلغة Java، ويضم ميزة تُعرف بـ Actuator، تُستخدم لمراقبة التطبيقات، وتتضمن نقطة الوصول /heapdump. هذه النقطة كانت مكشوفة للجميع، ما سمح بتنزيل بيانات حساسة من الخادم دون الحاجة إلى مصادقة للتوثيق. وفقًا لشركة Wiz المتخصصة في الأمن السحابي، فإن نقطة /heapdump المصنفة ضمن أكثر نقاط الضعف شيوعاً، كانت حتى عام 2017 مفعّلة بشكل افتراضي، قبل أن يتم حصر الوصول إلى نقاط آمنة فقط مثل /health و/info. غير أن مطوري TeleMessage على ما يبدو إما استخدموا إصداراً قديماً من Spring Boot، أو قاموا يدوياًَ بفتح نقطة الوصول هذه، ما تسبب في هذا الاختراق واسع النطاق. وكانت هذه التفاصيل قد ظهرت بعد أيام من تداول صورة لمايك والتز، مستشار الأمن القومي السابق للرئيس ترمب، وهو يستخدم TM SGNL خلال اجتماع رسمي. وبعد الحادثة، أبلغ مصدر مجهول الصحفي ميكا لي أنه تمكن من اختراق التطبيق بسهولة، ما دفع TeleMessage لاحقاً إلى تعليق خدماتها مؤقتاً وسط صمت رسمي من الشركة الأم "Smarsh"، نقلا عن بلومبرغ.


الغد
منذ 5 ساعات
- الغد
هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟
في زمن تتشابك فيه الضغوط اليومية مع العزلة الرقمية، أصبح الإنسان أكثر حاجة إلى من يصغي له، حتى لو كان ذلك "المستمع" مجرّد تطبيق. منذ إطلاقه في نهاية 2022، فرض تشات جي بي تي وغيره من روبوتات المحادثة المدعومة بالذكاء الاصطناعي وجوده كـرفيق رقمي يتسلّل إلى تفاصيل الحياة اليومية لملايين المستخدمين حول العالم. اضافة اعلان من اختيار الكلمات في رسالة اعتذار، إلى المواساة عند الوحدة، أصبحت هذه الأدوات الذكية بمثابة ملاذٍ نفسي لدى البعض، ووسيلة فضفضة لدى آخرين. فهل نحن أمام ثورة في أدوات الدعم العاطفي؟ أم مجرد بديل مؤقت في غياب الأذن البشرية؟ وقد شهدت السنوات الأخيرة انتشاراً لافتاً لاستخدام روبوتات المحادثة ذات الأغراض العامة والتطبيقات الرقمية المتخصصة بالعلاج النفسي كأدوات دعم عاطفي. وبينما توفّر هذه الحلول الذكية متنفساً فورياً وطريقة سهلة للحصول على الأجوبة، يطرح استخدامها أسئلة جوهرية حول فعاليتها الحقيقية، وقدرتها على التعامل مع الحالات المعقدة، وحدودها الأخلاقية والعملية، فضلاً عن مخاطر الخصوصية. ما أسباب استخدام روبوتات المحادثة للحصول على الدعم النفسي؟ أصبح استخدام روبوتات المحادثة ذات الأغراض العامة مثل "تشات جي بي تي" و"ديب سيك" و"جميناي" وغيرها شائعاً بشكل متزايد كوسائل للحصول على الدعم العاطفي، رغم أنها لم تُصمَّم لهذا الغرض أساساً. وغالباً ما يلجأ المستخدمون إلى هذه المنصات لطلب النصيحة أو للتخفيف من التوتر أو لمجرد الفضفضة عند الشعور بالقلق أو الوحدة، بالأخص في حال صعوبة الوصول إلى خدمات الصحة النفسية التقليدية، أو في المجتمعات حيث لا تزال الصحة النفسية محاطة بوصمة اجتماعية. قدرة روبوتات الدردشة على تقديم المساعدة على مدار الساعة يتيح للأشخاص التواصل في أي وقت ومن أي مكان. وهو ما يُعتبر تحوّلاً جذرياً للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبة في الوصول إلى مراكز العلاج النفسي التقليدية. ما مخاطر استخدام روبوتات المحادثة العامة للدعم النفسي؟ رغم أن هذه الأدوات قد تمنح راحة مؤقتة، فهي ليست مؤهلة دائماً لتشخيص الحالات النفسية أو التعامل معها. فقد تخطئ في فهم السياق، أو تقدّم نصائح غير ملائمة، أو تعجز عن اكتشاف الحالات الحرجة مثل التفكير الانتحاري. كما لا تمتلك التطبيقات الحس الإنساني، فتفتقر إلى التعاطف الفعلي والقدرة على قراءة السياقات النفسية الدقيقة. ونظراً لاعتمادها على بيانات تدريبية واسعة، قد تكون متحيزة في بعض الأحيان، بالأخص ضد المجموعات المهمشة. إلى ذلك، تفتقر هذه المنصات إلى الإشراف المهني ولا تخضع لأي تنظيم طبي أو نفسي. وقد يؤدي الاعتماد المفرط على هذه الأدوات إلى عزوف المستخدمين عن طلب الدعم النفسي الفعلي، لأن الشعور الزائف بالاطمئنان قد يدفع الشخص الذي يعاني من اضطرابات إلى صرف النظر عن زيارة معالج نفسي مختص. ماذا عن التطبيقات المخصصة للصحة النفسية؟ تتفوق هذه التطبيقات المتخصصة مثل مثل "ويسا" (Wysa) و"ثيرابوت" (Therabot)، وغيرهما على روبوتات الدردشة العامة عند استخدامها للدعم النفسي، إذ صُمّمت بمراعاة المبادئ العلاجية ويشرف على تطويرها فرق من المتخصصين، ما يجعلها أكثر أماناً وفعالية في التعامل مع القضايا النفسية الحساسة. تسهم هذه التطبيقات في سد الفجوات في خدمات الصحة النفسية، من خلال توفير دعم يسير الكلفة ومتاح على مدار الساعة، لاسيما في المناطق التي تفتقر لخدمات الرعاية النفسية. وتشير بعض الدراسات إلى أنها قد تخفف أحياناً الأعراض النفسية بمستوى مماثل للعلاج التقليدي، كما توفّر مساحة آمنة للمستخدمين لمشاركة مشاعرهم الحساسة. وتؤدي أيضاً دوراً داعماً بين الجلسات العلاجية. ومع ذلك، يرى بعض الخبراء أن هذه الروبوتات تفتقر إلى التعاطف البشري، وقد تقدّم نصائح غير مناسبة، كما تثير مخاوف تتعلق بالخصوصية. لذا، ينصحون باستخدامها كأداة مساندة لا بديلاً عن الرعاية النفسية المتخصصة. كيف تتعامل هذه التطبيقات مع قضايا الخصوصية والأمان؟ يثير استخدام روبوتات المحادثة العامة للحصول على الدعم النفسي مخاوف تتعلق بالخصوصية والأمان. إذ يحذّر خبراء من أن البيانات الحساسة التي يشاركها المستخدمون قد تُخزَّن أو يُعاد استخدامها أو تتعرض للتسريب. ورغم أن شركات مثل "أوبن إيه أي" و"جوجل" طرحت أدوات للتحكم بالخصوصية، مثل خيار إلغاء حفظ البيانات، يرى منتقدون أن هذه الإجراءات غير كافية. وقد فتحت هيئات تنظيمية في أوروبا والولايات المتحدة تحقيقات وأرجأت إطلاق بعض هذه الخدمات بسبب المخاوف المتعلقة بالبيانات. هل يمكن للذكاء الاصطناعي أن يحلّ مكان المعالجين النفسيين؟ على الرغم من قدرة روبوتات المحادثة على تقديم دعم فوري ومنخفض التكلفة وخال من الوصمة الاجتماعية لمن يعانون من القلق أو الاكتئاب أو التوتر، فإنها تفتقر إلى العمق العاطفي، والحسّ الأخلاقي، والفهم الدقيق الذي يتمتع به الأطباء النفسيون البشر. وتعتمد هذه البرمجيات على ردود معدّة مسبقاً أو مستخلصة عبر نماذج تعلم آلي، ما يجعلها عاجزة عن إظهار التعاطف الحقيقي أو بناء علاقة علاجية أو التعامل مع الحالات النفسية المعقدة بمرونة. يقول الخبراء هذه الأدوات قد تُستخدم كحلول داعمة لسد الثغرات في خدمات الرعاية النفسية، خصوصاً في المناطق التي تفتقر لخدمات الصحة النفسية، لكنها ليست بديلاً عن المتخصصين المؤهلين لتشخيص الاضطرابات النفسية وعلاجها. ما السبيل الآمن لاستخدام الذكاء الاصطناعي في الصحة النفسية؟ مع ازدياد دمج الذكاء الاصطناعي في الرعاية النفسية، فإن النماذج الهجينة التي تجمع بين الدعم البشري والتقني قد تكون الحلّ الأمثل.يمكن لهذه التطبيقات أن تشكل نقطة دخول أو تشخيص أولي، على أن يتابع المستخدمون العلاج مع مختصين مرخصين. لكن نجاح هذه المبادرات يتوقف على رفع الوعي العام، وتنظيم القطاع، وتعزيز الثقافة الرقمية، بحسب موقع بلومبرغ. ما رأي الذكاء الاصطناعي في هذا الموضوع؟ طرحنا سؤالاً: "هل من الآمن استخدام الذكاء الاصطناعي للحصول على الدعم النفسي؟" على روبوت دردشة وأجاب بأن ذلك يمكن أن يكون أداة مساعدة لجوانب معينة من الدعم النفسي، لكن لا ينبغي أن يحل محل الاتصال البشري والمتخصصين في مجال الصحة النفسية. تضمنت الإجابة عدة جوانب إيجابية وأخرى سلبية، أبرزها: - الوصول السريع والمريح: يمكن للذكاء الاصطناعي أن يوفر مساعدة فورية في أي وقت، مما يجعله مفيداً للحصول على الدعم في اللحظات الحرجة أو عندما يصعب الوصول إلى الدعم البشري. - سرية المعلومات: قد يشعر بعض الأشخاص براحة أكبر في مشاركة مشاعرهم وأفكارهم مع نظام ذكاء اصطناعي مقارنة بمشاركة هذه المعلومات مع شخص حقيقي. - الدقة والتخصيص: يعتمد الأمان والفعالية على جودة النظام المستخدم. بعض البرمجيات المتطورة يمكن أن تقدم نصائح مبنية على البيانات والأبحاث الحديثة، في حين أن الأنظمة الأقل جودة قد تقدم نصائح غير دقيقة أو غير مناسبة. - القدرة على الفهم والتعاطف: يفتقر الذكاء الاصطناعي إلى القدرة على التعاطف والفهم العميق للحالة الإنسانية. قد يكون محدوداً في تقديم الدعم العاطفي المطلوب في الحالات المعقدة. - الأزمات النفسية الخطيرة: لا ينبغي الاعتماد على الذكاء الاصطناعي في حالات الأزمات النفسية الخطيرة أو التفكير الانتحاري. في مثل هذه الحالات، يجب التوجه إلى محترفين مؤهلين مثل الأطباء النفسيين أو المرشدين. - المخاوف الأمنية: يجب التأكد من أن أي منصة ذكاء اصطناعي تُستخدم للحفاظ على سلامة البيانات الشخصية وتطبيق سياسات الخصوصية. اقرأ أيضا: هل يمكن للذكاء الاصطناعي أن يكون معالجا نفسيا؟.. خبراء يجيبون