logo
تسريبات تكشف تجارب Meta السرية لتحسين نماذج Llama

تسريبات تكشف تجارب Meta السرية لتحسين نماذج Llama

الرجل١٩-٠٤-٢٠٢٥

كشفت وثائق داخلية من شركة Meta، أُفرج عنها ضمن قضية قانونية، عن تفاصيل تجارب سرّية تُعرف باسم Ablation، تهدف إلى تحسين أداء نماذج الذكاء الاصطناعي الخاصة بها، وأبرزها Llama، وإحدى هذه التجارب تضمنت استبدال جزء من بيانات التدريب بكتب مقرصنة من مكتبة LibGen.
Ablation ولماذا تستخدمه Meta؟
في الذكاء الاصطناعي، يشير Ablation إلى إزالة مكونات معينة من النموذج أو بياناته، لمعرفة تأثيرها على الأداء، وقد أظهرت الوثائق أن Meta استخدمت هذا الأسلوب لتقييم تأثير أنواع محددة من الكتب على أداء نموذج Llama.
في تجربتين منفصلتين، تم إضافة كتب في مجالي العلوم والخيال العلمي، ثم في تجربة أخرى، أضيفت فقط كتب خيالية، وفي كلتا الحالتين، تحسّن أداء النموذج بشكل واضح في اختبارات مرجعية، مثل BooIQ وSIQA، بنسبة وصلت إلى 6%.
لماذا تخفي الشركات هذه النتائج؟
بحسب خبراء، فإن سبب التكتم يعود إلى البعد القانوني والاقتصادي، إذ إن كشف نوع البيانات المؤثرة قد يفتح الباب أمام مطالبات بالتعويض من مؤلفي المحتوى الأصلي، وكما يقول نيك فينسنت: "نشر هذه النتائج يعني إعطاء المبدعين دليلاً على القيمة الفعلية التي ساهموا بها في تطوير هذه النماذج".
وتُعد تجربة Meta مثالًا بارزًا ضمن القضية الجارية Kadrey v. Meta، حيث يواجه عمالقة التقنية اتهامات بانتهاك حقوق النشر، من خلال استخدام المحتوى المنشور لتدريب النماذج.
ويؤكد "فينسنت" أن الأدلة على استخدام محتوى محدد وتحقيق فوائد منه، يمكن أن تُضعف حجج الشركات التقنية في هذه القضايا.
Llama يتطور بصمت.. ولكن بثمن
أشارت الوثائق إلى أن أداء Llama تحسن في اختبار BooIQ بنسبة 4.5% عند إضافة كتب علمية وخيالية، ووصل التحسن إلى 6% عند استخدام الكتب الخيالية فقط.
هذه النسبة تعني، في السياق العملي، أن النموذج أصبح قادرًا على الإجابة على مئات الأسئلة الإضافية بشكل صحيح.
وكمثال فإن الإجابة على سؤال: "هل يمكن للألف والبشر التزاوج في عالم سيد الخواتم؟"، تستلزم معرفة عميقة بعالم تولكين، وهو دليل على أهمية محتوى الكتب الأصلي في تدريب النماذج.
دعوات لمحاسبة الشركات وتقنين البيانات
يرى كثير من الباحثين أن هذه التسريبات يمكن أن تُمهد الطريق نحو بناء آليات لتعويض صنّاع المحتوى المستخدم في تدريب الذكاء الاصطناعي، بما يحقق التوازن بين الابتكار والحقوق الفكرية.
ويعلّق بيل جروس، المدير التنفيذي لشركة ProRata: "المبدعون يستحقون أن يُدفع لهم مرتين: مرة عند استخدام أعمالهم، ومرة عند الاعتماد عليها في نتائج النماذج".

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

'ميتا' ترسل نموذج الذكاء الاصطناعي 'Llama' إلى الفضاء
'ميتا' ترسل نموذج الذكاء الاصطناعي 'Llama' إلى الفضاء

المناطق السعودية

time٢٧-٠٤-٢٠٢٥

  • المناطق السعودية

'ميتا' ترسل نموذج الذكاء الاصطناعي 'Llama' إلى الفضاء

المناطق_متابعات أطلقت شركة ميتا نسخة مخصصة من نموذج الذكاء الاصطناعي مفتوح المصدر الخاص بها 'Llama 3.2' إلى محطة الفضاء الدولية. ويحمل هذا النموذج المخصص اسم 'Space Llama'، وقد أطلقته 'ميتا' بمساعدة شركة 'Booz Allen Hamilton' المتخصصة في الذكاء الاصطناعي والتحول الرقمي، وشركة 'إنفيديا' صانعة الرقائق، بحسب بيان من شركة 'ميتا' يوم الجمعة. وسيستخدم رواد الفضاء نموذج 'Space Llama' في الأبحاث التي يجرونها على متن محطة الفضاء الدولية. وقال أحمد الدحل، رئيس قسم الذكاء الاصطناعي التوليدي في 'ميتا': 'نرى مستقبلًا تلعب فيه نماذج الذكاء الاصطناعي مفتوحة المصدر مثل Llama دورًا حيويًا في تحفيز اكتشاف وأبحاث الفضاء -مما يتيح لرواد الفضاء إجراء تجارب على مستوى جديد'. ويهدف المشروع على متن محطة الفضاء الدولية إلى خفض التكاليف، وتقليل قوة الحوسبة، وتحقيق نتائج أسرع لرواد الفضاء الذين يستخدمون هذه التقنية. وسيساعد نموذج 'Space Llama' رواد الفضاء على استبدال المستندات الورقية، وتقليل الاعتماد على التعليمات من مركز التحكم الخاص بالمهمة، وفقًا لميتا. ويدمج 'Space Llama' كلا من الذكاء الاصطناعي التوليدي والذكاء الاصطناعي متعدد الوسائط، ويمكنه إنشاء نصوص أو صور من الطلبات ومعالجة أنواع بيانات مختلطة؛ نصية ومرئية وصوتية. ومن الاستخدامات العملية للنموذج أنه يُمكّن الباحثين من الوصول مباشرةً إلى وثائق وتعليمات مرجعية تقنية أساسية، دون الحاجة إلى اتصال بالإنترنت.

تباين في نتائج اختبارات نموذج o3 يثير تساؤلات حول شفافية OpenAI
تباين في نتائج اختبارات نموذج o3 يثير تساؤلات حول شفافية OpenAI

الوئام

time٢١-٠٤-٢٠٢٥

  • الوئام

تباين في نتائج اختبارات نموذج o3 يثير تساؤلات حول شفافية OpenAI

أثار تباين ملحوظ بين نتائج اختبارات الأداء التي أعلنتها شركة OpenAI لنموذج الذكاء الاصطناعي o3، وتلك التي توصلت إليها جهات بحثية مستقلة، تساؤلات حول شفافية الشركة وممارساتها في تقييم النماذج. ففي ديسمبر الماضي، كشفت OpenAI عن أن نموذجها الجديد o3 تمكن من حل أكثر من ربع مسائل Frontier Math، وهو اختبار رياضي عالي التعقيد يستخدم لقياس قدرات النماذج المتقدمة، في حين أن أفضل النماذج الأخرى لم تتجاوز نسبة 2% في نفس الاختبار. وقال مارك تشن، مدير الأبحاث في OpenAI، خلال بث مباشر: 'نحن نرى داخليًا، مع o3 في إعدادات استخدام حوسبة مكثفة، أنه قادر على تجاوز نسبة 25%'. لكن النتائج المستقلة التي نشرتها مؤسسة Epoch AI، وهي الجهة المطورة لاختبار Frontier Math، أظهرت أن نموذج o3 لم يتجاوز نسبة 10%، وهو ما يشير إلى فجوة واضحة بين الادعاءات الرسمية والنتائج المستقلة. ورغم هذا الفارق، لا تتهم Epoch شركة OpenAI بالتضليل صراحةً، بل أوضحت أن الفروقات قد تعود إلى استخدام OpenAI إصدارًا مختلفًا أو أكثر تطورًا من النموذج في اختبارات ديسمبر، أو ربما استُخدمت مجموعة مختلفة من المسائل ضمن Frontier Math، إلى جانب احتمال توظيف موارد حسابية أكبر في الاختبارات الداخلية. وفي هذا السياق، أكدت مؤسسة ARC Prize، التي اختبرت نسخة ما قبل الإطلاق من o3، أن النسخة العامة المطروحة للمستخدمين 'مختلفة'، وتم إعدادها لتناسب الاستخدامات التفاعلية مثل الدردشة، وهو ما يتماشى مع ملاحظات Epoch. وأضافت ARC أن جميع نسخ o3 المطروحة حاليًا أقل من حيث القوة الحوسبية مقارنة بالنسخة التي أجريت عليها الاختبارات الأولية. وبالرغم من هذا الجدل، فإن OpenAI أشارت إلى أن نماذجها الأحدث، مثل o3-mini-high وo4-mini، تتفوق على o3 في اختبار Frontier Math، مع خطط لإطلاق نسخة أكثر تطورًا تُعرف بـ o3-pro خلال الأسابيع المقبلة. لكن هذه الواقعة تسلط الضوء مجددًا على أن نتائج اختبارات النماذج، خاصة تلك الصادرة عن الشركات المطورة ذاتها، ينبغي التعامل معها بحذر. فسباق التنافس في سوق الذكاء الاصطناعي دفع العديد من الشركات إلى نشر نتائج أداء قد تكون انتقائية أو غير ممثلة بدقة للواقع. ويُذكر أن صناعة الذكاء الاصطناعي شهدت في الأشهر الأخيرة حالات مشابهة؛ منها انتقادات وُجّهت إلى مؤسسة Epoch لتأخرها في الكشف عن تمويل تلقّته من OpenAI، فضلًا عن اتهامات لشركة xAI التي يملكها إيلون ماسك بنشر رسوم بيانية مضللة حول أداء نموذجها Grok 3، واعتراف شركة Meta مؤخرًا بأن الأرقام التي أعلنتها تخص نسخة مختلفة من نموذجها لم تُتح بعد للمطورين.

خبراء يحذرون: لا تثق بكل ما يُقال عن تفوق نماذج الذكاء الاصطناعي
خبراء يحذرون: لا تثق بكل ما يُقال عن تفوق نماذج الذكاء الاصطناعي

الرجل

time٢٠-٠٤-٢٠٢٥

  • الرجل

خبراء يحذرون: لا تثق بكل ما يُقال عن تفوق نماذج الذكاء الاصطناعي

مع تزايد الاعتماد على الذكاء الاصطناعي في العمل والحياة اليومية، أصبح اختيار النموذج الأنسب تحديًا حقيقيًّا. حيث تضخ الشركات الكبرى نماذج جديدة بوتيرة متسارعة، وكل منها يَعِدُ بأنه "الأكثر تفوقًا". لكن خلف هذه الوعود، هناك أسئلة حقيقية تُطرح حول مدى مصداقية هذا التفوق. السباق على التفوق يضعف نزاهة التقييم غاري ماركوس، عالم الأعصاب والباحث في الذكاء الاصطناعي، قال: "عندما يصبح الأداء على اختبارات معينة عاملًا حاسمًا لصرف مليارات الدولارات، تبدأ الشركات بتعليم النماذج كيف تتجاوز هذه الاختبارات تحديدًا، وهو ما يُضعف من مصداقية النتائج بمرور الوقت". وفي دراسة أوروبية حديثة بعنوان "هل يمكن الوثوق باختبارات الذكاء الاصطناعي؟"، أكد الباحثون أن معايير الأداء الحالية تعاني "عيوبًا منهجية"، وهي متأثرة بثقافة تنافسية وتجارية تضع الأداء التقني فوق الاعتبارات الأخلاقية والمجتمعية. الأداء الحقيقي للنماذج قد لا ينعكس على الواقع من جانبه، قال دين فالنتاين، المؤسس المشارك والرئيس التنفيذي لشركة أمن سيبراني تعمل بالذكاء الاصطناعي، إنه وفريقه اختبروا عددًا من النماذج الجديدة منذ إطلاق Claude 3.5 Sonnet، ولم يلاحظوا أي "تحسن جوهري" على أرض الواقع. وأضاف: "بعض النماذج صارت ممتعة أكثر في المحادثة، لكن هذا لا يعني أنها تقدم فائدة اقتصادية أو قدرة عامة حقيقية. معظم التقدم المزعوم مجرد كلام تسويقي". هل تقيس "المعايير" ما يجب أن نقيسه فعلًا؟ خلال 2025 فقط، أُطلِق ما لا يقل عن 12 نموذجًا جديدًا من شركات مثل OpenAI، Meta، Google، وAnthropic، جميعها ادعت تفوقها في اختبارات الأداء أو ما يعرف بـ Benchmarks. لكن هذه المعايير بدأت تواجه تشكيكًا واسعًا، إذ يقول خبراء إن نتائجها قد تكون "مضللة أو غير موثوقة". في هذا السياق، واجهت Meta مؤخرًا انتقادات بعد إعلانها أن Llama 4 Maverick يتفوق على نماذج منافسة، ليتبين لاحقًا أنها استخدمت إصدارًا "مُخصصًا" للظهور بمستوى أعلى على منصة LMArena، وهي جهة تقييم تعتمد على تصويت الجمهور.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store