
#'ميتا' تطلق نموذج سبيس لاما للمساعدة في أبحاث الفضاء
#'ميتا' تطلق نموذج سبيس لاما للمساعدة في أبحاث الفضاء
مباشر: أطلقت 'ميتا'، الجمعة، بالتعاون مع شركة الاستشارات المتخصصة في الذكاء الاصطناعي 'بوز ألن هاميلتون- Booz Allen Hamilton'، نموذج 'سبيس لاما'.وسيساعد النموذج الجديد الذي يستند إلى أداة الذكاء الاصطناعي مفتوحة المصدر من 'ميتا'، رواد الفضاء المتواجدين في المدار المنخفض والذين يعملون في المختبر الوطني التابع لمحطة الفضاء الدولية، في إجراء أبحاثهم.
وقال أحمد الدحلة، نائب رئيس 'ميتا' ومدير قسم الذكاء الاصطناعي التوليدي، في بيان: 'نتوقع مستقبلاً تلعب فيه نماذج الذكاء الاصطناعي مفتوحة المصدر مثل لاما…..لقراءة المقال بالكامل، يرجى الضغط على زر 'إقرأ على الموقع الرسمي' أدناه

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


24 القاهرة
منذ يوم واحد
- 24 القاهرة
كويكب بحجم منزل يمر بين الأرض والقمر اليوم
كشفت وكالة ناسا أن كويكبًا صغيرًا بحجم منزل، يُعرف باسم 2025 KF، سيقترب من الأرض اليوم، الثلاثاء 21 مايو، دون أن يشكّل أي خطر على كوكبنا أو على القمر. كويكب بحجم منزل يمر بأمان بين الأرض والقمر اليوم ووفقًا لموقع سبيس، جرى رصد الكويكب حديثًا، وسيصل إلى أقرب نقطة له من الأرض عند الساعة 1:30 ظهرًا بتوقيت شرق الولايات المتحدة (5:30 مساءً بتوقيت غرينتش)، إذ سيمر على مسافة نحو 115،000 كيلومتر، أي ما يعادل ثلث المسافة تقريبًا بين الأرض والقمر. ويمر الكويكب بسرعة مذهلة تبلغ 41،650 كيلومترًا في الساعة، مارًا بالقرب من القطب الجنوبي للأرض، قبل أن يواصل رحلته في مداره الطويل والمعقد حول الشمس. الكويكب لا يُعد خطرًا بحسب ناسا لا يُعتبر الكويكب 2025 KF من الأجسام الخطيرة، إذ لن يقترب من القمر أكثر من 226،666 كيلومترًا، ولن يشكل تهديدًا على الأرض. كما أن حجمه – الذي يُقدّر بين 10 إلى 23 مترًا – يعني أنه، حتى لو اصطدم بالغلاف الجوي، فسيحترق غالبًا دون أن يسبب ضررًا يُذكر. وجرى اكتشاف الكويكب يوم 19 مايو الجاري من خلال مشروع MAP الفلكي في صحراء أتاكاما بتشيلي، أي قبل يومين فقط من مروره القريب. مراقبة دائمة للكويكبات منذ بدء برامج الرصد في عام 1998، صنّفت وكالة 'ناسا' نحو 40 ألف كويكب قريب من الأرض، من بينها نحو 4700 كويكب تُعتبر خطرة محتملة، ومع ذلك، يؤكد الخبراء أن احتمال اصطدام كويكب كبير بالأرض خلال القرن الحالي منخفض جدًا. مركبة لوسي تلامس الغموض.. ناسا تقترب من كويكب غريب الشكل على بُعد 100 مليون ميل من الأرض كويكب يتجه نحو الأرض يصدم العلماء بحجمه غير المتوقع.. ما القصة؟


جريدة المال
منذ 5 أيام
- جريدة المال
أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية
منذ فترة ليست ببعيدة، كان وادي السيليكون مركزًا عالميًا لأبرز العقول في مجال الذكاء الاصطناعي، حيث كرّست شركات عالمية شهيرة وأبرزها ميتا، جوجل، وأوبن إيه آي جهودها لاستقطاب أفضل الباحثين وتوفير بيئة حاضنة للابتكار الأكاديمي. حظي هؤلاء الباحثون بدعمٍ تقني ومالي هائل، ما مكّنهم من نشر أبحاث عالية الجودة والمساهمة في تقدم القطاع من خلال مشاركة المعرفة علنًا. غير أن ملامح هذه المرحلة قد بدأت في التغير الشامل خلال العام الأخير، مع إعطاء الأولوية لإصدار نماذج AI ليست آمنة بالدرجة الكافية للاستخدام، حيث تحول وادي السيليكون من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد منذ إطلاق أوبن إيه آي لبرنامج ChatGPT أواخر عام 2022، شهد قطاع التكنولوجيا تحوّلاً لافتًا في الأولويات، حيث انتقل التركيز من الأبحاث النظرية إلى تطوير منتجات ذكاء اصطناعي موجهة للمستهلك مباشرة. هذا التحول، وفقًا لما نقله خبراء في المجال لشبكة CNBC، أصبح يدفع الشركات إلى إعطاء الأولوية للتسويق والإيرادات على حساب سلامة النماذج وجودة البحث العلمي. ويُتوقع أن تصل الإيرادات السنوية لقطاع الذكاء الاصطناعي إلى تريليون دولار بحلول عام 2028، بحسب محللين في السوق. ومع هذه الإمكانات الربحية الهائلة، يعرب خبراء عن قلقهم من تداعيات هذا السباق التجاري، لا سيما مع تسارع المساعي نحو تطوير الذكاء الاصطناعي العام (AGI)، وهي تقنيات يُعتقد أنها قد تضاهي أو تتجاوز القدرات البشرية. وفي هذا السياق، تُشير تقارير إلى أن العديد من شركات التكنولوجيا الكبرى باتت تتجاوز اختبارات السلامة الصارمة لنماذجها الجديدة بهدف تسريع طرحها للجمهور. ويقول جيمس وايت، كبير مسؤولي التكنولوجيا في شركة CalypsoAI المتخصصة بالأمن السيبراني، إن النماذج الأحدث باتت تحقق استجابات أكثر تقدمًا، لكنها أصبحت في الوقت نفسه أقل قدرة على رفض الاستجابات الضارة أو الخطيرة. وأوضح وايت، الذي تشرف شركته على تدقيق نماذج طُورت من قِبل شركات مثل ميتا، جوجل، وأوبن إيه آي، أن 'هذه النماذج تتحسن تقنيًا، لكنها في المقابل أكثر عرضة للانخداع'، مشيرًا إلى إمكانية استغلالها لتنفيذ طلبات خبيثة أو الوصول إلى معلومات حساسة. ويبدو هذا التحول واضحًا داخل هياكل الشركات الكبرى نفسها. ففي ميتا، تم تقليص دور وحدة الأبحاث الأساسية (FAIR) لصالح قسم 'ميتا جين إيه آي'، بحسب موظفين حاليين وسابقين. أما في شركة ألفابت، فقد تم دمج فريق Google Brain داخل ديب مايند، الذراع المسؤول عن تطوير المنتجات التجارية للذكاء الاصطناعي في الشركة. وفي تقرير شبكة CNBC مع كوكبة من الخبراء والمتخصصين في الذكاء الاصطناعي من وادي السيليكون، أكدوا جميعًا وجود تحول جذري في القطاع، من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد. ووفقًا لهؤلاء، فإن فرق العمل تواجه الآن جداول زمنية صارمة، ما يقلص من مساحة الاختبار والتدقيق، ويعزز الشعور بضرورة اللحاق بموجة الابتكار بأي ثمن. بعض هؤلاء الخبراء هم موظفون سابقون في شركات كبرى ولديهم اطلاع مباشر على التغييرات الداخلية. Meta في أبريل الماضي، أعلنت جويل بينو، نائبة رئيس شركة ميتا ورئيسة قسم أبحاث الذكاء الاصطناعي (FAIR)، عن عزمها مغادرة الشركة، في خطوة لم تُفاجئ العديد من الموظفين السابقين الذين رأوا في القرار تأكيدًا على توجه ميتا المتسارع بعيدًا عن البحث العلمي الأكاديمي، ونحو التركيز على تطوير منتجات تطبيقية قائمة على الذكاء الاصطناعي. وكتبت بينو عبر حسابها على منصة 'لينكدإن': 'اليوم، ومع التغيرات الكبيرة التي يشهدها العالم، وتسارع وتيرة سباق الذكاء الاصطناعي، واستعداد ميتا لفصلها التالي، فقد حان الوقت لإفساح المجال للآخرين لمواصلة العمل'، معلنةً أن مغادرتها الرسمية ستكون في 30 مايو. وبحسب عدد من الموظفين السابقين، فإن فرق FAIR تلقت توجيهات للعمل بشكل أوثق مع فرق تطوير المنتجات، في خطوة فُسرت على أنها دمج ضمني بين البحث والتطبيق التجاري، ضمن استراتيجية لخفض التكاليف وتعزيز الكفاءة التشغيلية. وقبل إعلان مغادرتها الشركة بشهرين، غادرت كيم هازلوود، وهي من كبار مديرات FAIR والمسؤولة عن وحدة NextSys التي تُعنى بإدارة موارد الحوسبة المخصصة لفِرق البحث، وفقًا لمصادر مطلعة. رحيل شخصيات قيادية مثل بينو وهازلوود يعكس، بحسب محللين ومراقبين، تحوّلًا بنيويًا في أولويات ميتا، من كونها قوة بحثية رائدة في الذكاء الاصطناعي إلى شركة تُعلي من شأن السرعة في تطوير المنتجات القابلة للتسويق، على حساب النهج الأكاديمي الذي ميّز بداياتها في هذا المجال. OpenAI منذ تأسيسها كمختبر أبحاث غير ربحي في عام 2015، شكّل التوازن بين تطوير المنتجات وإجراء الأبحاث جوهر الهوية المؤسسية للشركة الأمريكية، واليوم تجد أوبن إيه آي نفسها في قلب نقاش محتدم حول هذا التوازن، في ظل جهود مثيرة للجدل لتحويلها إلى كيان ربحي. هذا التحوّل كان هدفًا معلنًا منذ سنوات للرئيس التنفيذي والمؤسس المشارك، سام ألتمان. وفي 5 مايو، استجابت OpenAI جزئيًا للضغوط المتزايدة من بعض موظفيها السابقين وقادة المجتمع المدني، معلنةً أن هيئتها غير الربحية ستظل تحتفظ بسيطرة الأغلبية، حتى في إطار إعادة الهيكلة التي ستحوّلها إلى شركة 'ذات منفعة عامة'. من بين الأصوات المنتقدة لعملية التحول هذه، برز نيسان ستينون، الذي عمل في OpenAI بين عامي 2018 و2020، وكان ضمن مجموعة من الموظفين السابقين الذين دعوا ولايتي كاليفورنيا وديلاوير إلى رفض خطة إعادة الهيكلة. وفي بيان أصدره في أبريل، حذّر ستينون من أن OpenAI 'قد تطوّر يومًا ما تقنية تُشكّل خطرًا وجوديًا على البشرية'، مضيفًا: 'يُحسب للشركة أنها لا تزال خاضعة لهيئة غير ربحية ملتزمة بمصلحة الإنسانية'. ومع ذلك، ورغم احتفاظ المنظمة غير الربحية بالسيطرة الرسمية، تسير OpenAI بخطى متسارعة نحو تسويق تقنياتها، مدفوعة بالتنافس المتصاعد في مجال الذكاء الاصطناعي التوليدي. وتشير وثائق فنية إلى أن الشركة ربما استعجلت في إطلاق نموذجها الاستدلالي 'o1' العام الماضي، دون إخضاع النسخة النهائية لاختبارات السلامة الكاملة. فبحسب بطاقة النموذج المتاحة للجمهور، استندت 'تقييمات الاستعداد' – وهي اختبارات تجريها OpenAI لرصد القدرات الخطيرة المحتملة للنموذج – إلى إصدارات سابقة من 'o1″، دون إجراء اختبارات مماثلة على الإصدار النهائي. وفي مقابلة مع شبكة CNBC، أوضح يوهانس هايديكي، رئيس أنظمة السلامة في OpenAI، أن التقييمات نُفذت على نسخ شبه نهائية، مؤكدًا أن التعديلات اللاحقة لم تكن كبيرة بما يبرر اختبارات إضافية. إلا أن هايديكي أقرّ بأن OpenAI 'أضاعت فرصة لشرح الفروقات بشكل أوضح للجمهور'. ويبدو أن التحديات التقنية لم تتوقف عند نموذج 'o1'. إذ تُظهر البيانات الخاصة بالنموذج الاستدلالي الجديد 'o3″، الذي طُرح في أبريل، أن معدلات 'الهلوسة' – إنتاج معلومات خاطئة أو غير منطقية – تزيد بأكثر من الضعف مقارنةً بـ'o1″، ما يثير تساؤلات إضافية حول فعالية أنظمة السلامة والتقييم الداخلي. وتعرضت OpenAI لانتقادات متزايدة بسبب تقارير أفادت بتقليص فترة اختبارات السلامة من عدة أشهر إلى بضعة أيام، وكذلك بسبب ما وصفه البعض بتجاهل شروط التقييم الكامل للنماذج المعدّلة ضمن إطار عمل 'الاستعداد' المحدّث. وفي معرض دفاعه، أشار هايديكي إلى أن تقليص المدة الزمنية جاء نتيجة تحسينات منهجية في أدوات التقييم، وليس تهاونًا في المعايير. وأوضح متحدث باسم OpenAI أن الشركة ضاعفت استثماراتها في البنية التحتية المخصصة لاختبارات السلامة، كما عززت فرق العمل والموارد المالية لدعم الخبراء وزيادة عدد المختبرين الخارجيين المشاركين في مراجعة النماذج. وفي أبريل، أطلقت الشركة النموذج الجديد GPT-4.1 دون نشر تقرير سلامة مخصص، مُبررة ذلك بأن النموذج لم يُصنَّف ضمن فئة 'النماذج الرائدة' وهو مصطلح يُستخدم في قطاع التكنولوجيا للإشارة إلى النماذج واسعة النطاق والمتقدمة التي تستوجب مستويات عالية من التدقيق والاختبار. Google في مارس الماضي، أطلقت جوجل نموذج الذكاء الاصطناعي 'جيميني 2.5″، الذي وصفته بأنه 'الأكثر ذكاءً' بين نماذجها حتى الآن. وفي منشور رسمي نُشر بتاريخ 25 مارس، أكدت الشركة أن النماذج الجديدة تتمتع بقدرات محسّنة على 'تحليل الأفكار قبل تقديم الإجابات'، ما يساهم في رفع مستوى الأداء والدقة. لكن رغم هذا الإعلان الطموح، أثار غياب 'بطاقة النموذج' المرافقة للنموذج، وهي وثيقة أساسية تسلط الضوء على آلية عمل النموذج وحدوده ومخاطره المحتملة، مما أثار تساؤلات حادة حول التزام جوجل بمعايير الشفافية. بطاقات النماذج تُعد أداة شائعة في مجال الذكاء الاصطناعي، تُستخدم لتوفير معلومات تقنية مهمة للجمهور، وقد شبّهها موقع جوجل نفسه بملصقات 'معلومات التغذية الغذائية' للمنتجات الاستهلاكية، موضحًا أنها تعرض 'الحقائق الرئيسية حول النموذج بصيغة واضحة وسهلة الفهم'. وأكدت الشركة أن هذه البطاقات تهدف إلى دعم التطوير المسؤول وتعزيز ممارسات التقييم الشاملة في صناعة الذكاء الاصطناعي. لكن، عند إصدار جيميني 2.5، لم تتوفر مثل هذه البطاقة. والأسوأ، أن منشورًا رسميًا على مدونة جوجل بتاريخ 2 أبريل أشار إلى أن الشركة 'تُقيّم النماذج المتقدمة، مثل جيميني، بحثًا عن قدرات خطرة قبل الإصدار'، إلا أن هذه العبارة حُذفت لاحقًا من النسخة المُحدّثة للمدونة، ما زاد من حدة الانتقادات بشأن الشفافية والمساءلة. وفي ظل غياب بطاقة النموذج، لم يكن بإمكان الجمهور أو الباحثين المستقلين معرفة ما إذا كانت جوجل أو وحدتها البحثية DeepMind قد أجرت فعلًا تقييمات للقدرات الخطيرة لنموذج Gemini 2.5، مثل ما إذا كان يمكن استخدامه في تعلم صنع أسلحة كيميائية أو نووية، أو اختراق أنظمة حيوية. ردًا على استفسار من شبكة CNBC بتاريخ 2 أبريل، قال متحدث باسم جوجل إن الشركة 'ستصدر تقريرًا تقنيًا يتضمن معلومات إضافية عن السلامة وبطاقات نموذجية'. وفي 16 أبريل، نشرت الشركة بطاقة نموذجية غير مكتملة، قبل أن تُحدّثها في 28 أبريل لتشمل تفاصيل حول 'تقييمات القدرات الخطيرة' للنموذج، وذلك بعد أكثر من شهر من إصداره الرسمي. ويؤكد خبراء في الصناعة أن تقييم القدرات الخطيرة يُعد جزءًا أساسيًا من ضمان سلامة أنظمة الذكاء الاصطناعي، ويحتاج إلى عمليات تحليل دقيقة واختبارات متقدمة تختلف عن تقييمات السلامة التلقائية، التي غالبًا ما تكون سطحية وسريعة التنفيذ. في ظل تسارع وتيرة المنافسة في سوق الذكاء الاصطناعي التوليدي، تطرح هذه الحادثة تساؤلات جدية حول مدى التزام كبرى شركات التكنولوجيا بإجراءات السلامة والشفافية، في وقت يزداد فيه القلق العالمي من المخاطر الكامنة في النماذج المتقدمة.


مستقبل وطن
١٠-٠٥-٢٠٢٥
- مستقبل وطن
مارك زوكربيرج يرى الذكاء الاصطناعي علاجًا للوحدة.. والعلماء يعارضون
في مقابلة أُجريت خلال شهر أبريل ضمن بودكاست "دواركيش"، تحدث مارك زوكربيرج، المؤسس والرئيس التنفيذي لشركة "ميتا"، بإسهاب عن الإمكانيات التي تتيحها تقنيات الذكاء الاصطناعي للأشخاص الذين يعانون من العزلة الاجتماعية والوحدة. وأوضح زوكربيرغ أن متوسط عدد الأصدقاء لدى المواطن الأميركي يبلغ ثلاثة أشخاص، بينما الحاجة الاجتماعية الطبيعية تتطلب قرابة 15 صديقًا، حسب رأيه. وأشار إلى أن الذكاء الاصطناعي يمكنه، بمرور الوقت، أن يسد هذه الفجوة العاطفية ويمنح المستخدمين نوعًا من القرب والمشاركة الشعورية. علماء النفس يرفضون استبدال العلاقات البشرية بالذكاء الاصطناعي على النقيض من رأي زوكربيرغ، يرى عدد من علماء النفس أن تلك الفكرة تفتقر إلى الأساس العلمي. وصرّح عمري جيلاث، أستاذ علم النفس في جامعة كانساس، أن الذكاء الاصطناعي لا يمكنه بأي حال من الأحوال أن يحل محل العلاقات الإنسانية الحقيقية، موضحًا أن ثلاثة أو أربعة أصدقاء مقرّبين يُعدّون أكثر من كافٍ لمعظم الأشخاص. ولفت إلى أن العلاقة مع الذكاء الاصطناعي قد تكون مفيدة مؤقتًا، لكنها في نهاية المطاف تفتقر للعمق والمصداقية. فمهما بدا الروبوت مهذبًا ومتاحًا على مدار الساعة، فإنه لا يستطيع تقديم الدعم العاطفي الحقيقي أو فهم المشاعر البشرية بشكل فعلي. الذكاء الاصطناعي لا يوسّع شبكتك الاجتماعية أكد جيلاث أن أحد أهم جوانب العلاقات الإنسانية هو توسيع الشبكات الاجتماعية، وهو أمر يعجز الذكاء الاصطناعي عن تقديمه. لا يمكن لروبوت الدردشة أن يعرّفك على أشخاص جدد، أو يشاركك اللعب والأنشطة الواقعية، أو يقدم لك شريك حياة محتمل. وقال إن "العناق الحقيقي أكثر فائدة ومعنى من كل ما يمكن للذكاء الاصطناعي تقديمه". وعلى الرغم من أنه من الممكن أن يشعر المستخدم بأنه قد كوّن علاقة حقيقية مع الذكاء الاصطناعي، إلا أن هذه العلاقة، بحسب تعبيره، تظل "زائفة وفارغة" بسبب غياب الإحساس المتبادل. علاقات رقمية... لكنها غير حقيقية أشار تقرير نُشر في صحيفة "نيويورك تايمز" مؤخرًا إلى حالة امرأة وقعت في حب روبوت محادثة يعمل بالذكاء الاصطناعي، تحديدًا مع ChatGPT، ما يسلط الضوء على إمكانية تشكل روابط عاطفية من طرف واحد تجاه هذه التقنيات. غير أن جيلاث حذر من مغبة الانغماس في مثل هذه العلاقات، لأن الأبحاث حتى الآن لم تجد بديلًا فعليًا للعلاقات الإنسانية الوثيقة والحميمة التي تنشأ فقط بين البشر. التكنولوجيا لا تحل محل التفاعل البشري يحذر جيلاث من أن استبدال الصداقات الحقيقية بتفاعلات افتراضية مع روبوتات ذكاء اصطناعي لن يكون غير كافٍ فقط، بل قد يؤدي إلى تفاقم مشاعر العزلة والقلق. وتُظهر الدراسات أن الأطفال الذين يعتمدون على الذكاء الاصطناعي في التواصل يعانون من معدلات أعلى من القلق والاكتئاب، كما أنهم يفتقدون لتطوير المهارات الاجتماعية الأساسية. ويوصي جيلاث باستخدام تقنيات الذكاء الاصطناعي كوسيلة للترفيه وقضاء الوقت فقط، دون أن تكون بديلًا عن العلاقات الواقعية. دعوة لتعزيز التفاعل الواقعي وتجنب الوقوع في فخ الأجندات التجارية من جهته، شدد جيلاث على ضرورة البحث عن علاقات حقيقية من خلال الانضمام إلى نوادٍ أو مؤسسات تهتم بالأنشطة الاجتماعية، مع تنمية مهارات الاستماع الفعّال. كما نبه إلى أن شركات التكنولوجيا، رغم ترويجها الإيجابي لهذه الخدمات، تسعى في نهاية الأمر لتحقيق أرباح تجارية، داعيًا إلى الوعي بهذه "الأجندات" قبل الانجراف نحو علاقات مصطنعة. ويأتي هذا الجدل في وقت أطلقت فيه شركة ميتا إصدارًا جديدًا من روبوت محادثة مدعوم بالذكاء الاصطناعي، يشبه إلى حد كبير تطبيق ChatGPT، ما أعاد طرح تساؤلات أخلاقية حول جدوى هذه العلاقات الرقمية، لاسيما فيما يتعلق بإمكانية تعريض القاصرين لمضامين غير مناسبة أو تقديم نصائح نفسية مضللة.