
خبير في ميتا يرفض فكرة التوسع في الذكاء الاصطناعي: نحتاج إلى نهج مختلف
صرح يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، أن "قوانين التوسع" قد لا تكون كافية لتطوير الذكاء الاصطناعي الفعّال.
في حديثه الأخير في جامعة سنغافورة الوطنية، قال ليكون إن التوسع قد لا يكون هو الحل للمشكلات الأكثر تعقيدًا التي يواجهها الذكاء الاصطناعي اليوم.
التوسع ليس الحل الوحيد
منذ سنوات، كانت فكرة "قوانين التوسع" حجر الزاوية في تطوير الذكاء الاصطناعي، وفقًا لهذه الفكرة، كلما زاد حجم البيانات والمعلمات والموارد الحسابية، كلما أصبح الذكاء الاصطناعي أكثر تطورًا.
ولكن يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، شكك في هذه الفكرة في محاضرته الأخيرة في جامعة سنغافورة الوطنية.
حيث أكد أن التوسع في البيانات والحوسبة لن يؤدي بالضرورة إلى الذكاء الاصطناعي الفائق، خاصة عندما يتعلق الأمر بالمشكلات المعقدة التي تتسم بالغموض وعدم اليقين في العالم الواقعي.
النماذج الكبيرة قد تكون محدودة
في حديثه، أشار ليكون إلى أن النماذج الكبيرة مثل النماذج اللغوية التي يتم تدريبها على كميات ضخمة من البيانات لا يمكنها التعامل مع المشكلات الأكثر تعقيدًا بشكل فعال.
وأوضح أن هذه النماذج، رغم نجاحها في بعض المهام، ما زالت تفتقر إلى القدرة على فهم الغموض في العالم الواقعي.
وأضاف أن الذكاء الاصطناعي الفعلي يتطلب أنظمة يمكنها أن تتعلم بسرعة، وتستطيع اتخاذ قرارات بناءً على المعرفة التي تمتلكها عن العالم، وليس فقط عن البيانات.
النقد يعكس تحولات في مجال الذكاء الاصطناعي
ليكون ليس الوحيد الذي يشكك في فاعلية "قوانين التوسع"، حيث أشار عدد من الخبراء في مجال الذكاء الاصطناعي إلى أن التوسع وحده ليس كافيًا لتحسين النماذج.
ألكسندر وانغ، الرئيس التنفيذي لشركة Scale AI، وآيدان غوميز، الرئيس التنفيذي لشركة Cohere، شاركوا نفس الرأي في مناسبات سابقة، معتبرين أن هذا النهج لم يعد مناسبًا للذكاء الاصطناعي في مرحلته الحالية.
وبناءً على رؤيته، يدعو ليكون إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التفاعل مع العالم الواقعي، وفهمه، وأن تكون هذه الأنظمة قادرة على اتخاذ قرارات ذكية بناءً على المعرفة المتاحة لها.
وأشار أن هذا التوجه يتطلب من الباحثين في الذكاء الاصطناعي أن يركزوا على تدريب الأنظمة على مهام جديدة بسرعة، وأن تكون قادرة على التفاعل مع البيئات الديناميكية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
٢٨-٠٤-٢٠٢٥
- الرجل
خبير في ميتا يرفض فكرة التوسع في الذكاء الاصطناعي: نحتاج إلى نهج مختلف
صرح يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، أن "قوانين التوسع" قد لا تكون كافية لتطوير الذكاء الاصطناعي الفعّال. في حديثه الأخير في جامعة سنغافورة الوطنية، قال ليكون إن التوسع قد لا يكون هو الحل للمشكلات الأكثر تعقيدًا التي يواجهها الذكاء الاصطناعي اليوم. التوسع ليس الحل الوحيد منذ سنوات، كانت فكرة "قوانين التوسع" حجر الزاوية في تطوير الذكاء الاصطناعي، وفقًا لهذه الفكرة، كلما زاد حجم البيانات والمعلمات والموارد الحسابية، كلما أصبح الذكاء الاصطناعي أكثر تطورًا. ولكن يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، شكك في هذه الفكرة في محاضرته الأخيرة في جامعة سنغافورة الوطنية. حيث أكد أن التوسع في البيانات والحوسبة لن يؤدي بالضرورة إلى الذكاء الاصطناعي الفائق، خاصة عندما يتعلق الأمر بالمشكلات المعقدة التي تتسم بالغموض وعدم اليقين في العالم الواقعي. النماذج الكبيرة قد تكون محدودة في حديثه، أشار ليكون إلى أن النماذج الكبيرة مثل النماذج اللغوية التي يتم تدريبها على كميات ضخمة من البيانات لا يمكنها التعامل مع المشكلات الأكثر تعقيدًا بشكل فعال. وأوضح أن هذه النماذج، رغم نجاحها في بعض المهام، ما زالت تفتقر إلى القدرة على فهم الغموض في العالم الواقعي. وأضاف أن الذكاء الاصطناعي الفعلي يتطلب أنظمة يمكنها أن تتعلم بسرعة، وتستطيع اتخاذ قرارات بناءً على المعرفة التي تمتلكها عن العالم، وليس فقط عن البيانات. النقد يعكس تحولات في مجال الذكاء الاصطناعي ليكون ليس الوحيد الذي يشكك في فاعلية "قوانين التوسع"، حيث أشار عدد من الخبراء في مجال الذكاء الاصطناعي إلى أن التوسع وحده ليس كافيًا لتحسين النماذج. ألكسندر وانغ، الرئيس التنفيذي لشركة Scale AI، وآيدان غوميز، الرئيس التنفيذي لشركة Cohere، شاركوا نفس الرأي في مناسبات سابقة، معتبرين أن هذا النهج لم يعد مناسبًا للذكاء الاصطناعي في مرحلته الحالية. وبناءً على رؤيته، يدعو ليكون إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التفاعل مع العالم الواقعي، وفهمه، وأن تكون هذه الأنظمة قادرة على اتخاذ قرارات ذكية بناءً على المعرفة المتاحة لها. وأشار أن هذا التوجه يتطلب من الباحثين في الذكاء الاصطناعي أن يركزوا على تدريب الأنظمة على مهام جديدة بسرعة، وأن تكون قادرة على التفاعل مع البيئات الديناميكية.


العربية
١٧-٠٤-٢٠٢٥
- العربية
الذكاء الاصطناعي يزاحم البشر.. فنزويلا تفقد مكانتها كمركز للمهارات
في جبال كولومبيا، تراقب أوسكارينا فوينتس هاتفها طوال الليل. ليست بائعة أسهم ولا مسؤولة طوارئ، بل واحدة من آلاف الفنزويليين الذين وجدوا في العمل عن بُعد طوق نجاة، قبل أن تنتزع منهم خوارزميات الذكاء الاصطناعي آخر مصادر دخلهم. لسنوات، اعتُبرت فنزويلا مصدرًا موثوقًا لعمالة مدرّبة ومنخفضة الكلفة لقطاع التكنولوجيا العالمي، خصوصًا في مجال تدريب نماذج الذكاء الاصطناعي. لكن هذا الواقع بدأ يتغير بشكل درامي مع صعود تقنيات الذكاء الاصطناعي المُولّد، التي باتت قادرة على أداء كثير من المهام التي كانت تُسند سابقًا إلى البشر، بحسب تقرير نشره موقع "restofworld" واطلعت عليه "العربية Business". تقول فوينتس، وهي مهندسة نفط سابقة تقيم في بلدة كالداس الكولومبية: "في كل عام، تقلّ المهام. أعيش حالة من الترقب... قد تمر أيام أو حتى شهور من دون أن أرى مهمة واحدة". كانت تكسب قبل عام 2022 نحو 500 دولار شهريًا، لكنها اليوم بالكاد تصل إلى 320 دولارًا، وهو ما يعادل الحد الأدنى للأجور في كولومبيا. عملت فوينتس على منصة Appen الأسترالية منذ نحو عقد، مُنفذةً مهام تتراوح بين تصنيف الصور وتقييم نتائج البحث. لكن هذا النوع من العمل بات نادرًا، إذ أصبح الذكاء الاصطناعي قادرًا على توليد بياناته بنفسه. فنزويلا.. من مركز للمهارات إلى هامش الخريطة الرقمية في ذروة الأزمة الاقتصادية عام 2018، اندفع آلاف الفنزويليين المتعلمين نحو العمل الحر على المنصات الرقمية. شكّلوا نحو 75% من القوى العاملة في شركات تدريب الذكاء الاصطناعي مثل "Mighty AI" و"Scale AI". حتى أن شركة Remotasks خصّصت برنامجًا لاستقطابهم. لكن الأمور تغيّرت، شركة Appen نفسها، والتي تعتمد على أكثر من مليون عامل مستقل، شهدت انخفاضًا بنسبة 99% في قيمتها السوقية خلال ثلاث سنوات، وتراجعًا بنسبة 14% في إيراداتها خلال عام واحد فقط. تقول الشركة إن الطلب تراجع بشدة على خدماتها نتيجة تطور الذكاء الاصطناعي المُولّد. الذكاء الاصطناعي يكتب أيضًا لم يقتصر التأثير على العاملين في مجال تصنيف البيانات، بل شمل أيضًا كتّاب المحتوى. ماريفيل ألفارادو، وهي خريجة أدب فنزويلية تقيم في ميديلين، كانت تكسب 50 دولارًا مقابل كل ألف كلمة. اليوم، لا يُعرض عليها سوى 7 دولارات، تقول: "اضطررنا لتغيير طرق عملنا... البعض يستخدم الآن أدوات مثل تشات جي بي تي لتسريع الإنتاج". لكن هذه الأدوات غير متاحة للجميع؛ ففنزويلا تفرض حظرًا على استخدام بعض برامج الذكاء الاصطناعي ، مما يضع كتّابها في موقف صعب أمام عملاء يتوقعون إنتاجًا أسرع وجودة أعلى. مستقبل مجهول مع افتقار العديد من المهاجرين الفنزويليين إلى وثائق الإقامة أو العمل الرسمي، تبقى الوظائف الرقمية أحد الخيارات القليلة المتاحة. ومع ذلك، فإن البنية التحتية الضعيفة، سواء في فنزويلا أو لدى المغتربين، تعيقهم عن التنافس على المهام الأكثر تطورًا. يقول أحدهم، بعد أن عاد للعمل في حقل نفطي: "أنا سعيد الآن... تركت الكتابة اليومية بعد خمس سنوات، وأكسب أكثر وأعمل أقل". أما فوينتس، فلا تزال تترقب تنبيهًا جديدًا على "واتساب"، تخشى اليوم الذي قد لا يأتي فيه شيء على الإطلاق. وتقول: "ذلك سيكون كابوسًا... حقيقيًا".


العربية
١٦-٠٣-٢٠٢٥
- العربية
اكتشاف كذب روبوتات الدردشة بات ممكناً
مع تزايد الأدلة على أن نماذج الذكاء الاصطناعي قادرة على خداع مُنشئيها، طوّر باحثون من كل من "Center for AI Safety و"Scale AI" في سان فرانسيسكو، وسيلة لكشف كذب الذكاء الاصطناعي وهي الأولى من نوعها. وأصدر الباحثون الأسبوع الماضي معيار "Model Alignment between Statements and Knowledge" عُرف اختصارًا بـ"MASK"، الذي يحدد مدى سهولة خداع النموذج ليكذب عمدًا على المستخدمين، أو على "فضيلته الأخلاقية". يُعدّ التخطيط والخداع وتزييف التوافق، عندما يتظاهر نموذج الذكاء الاصطناعي عمدًا بتغيير قيمه تحت الضغط، من الطرق التي تُقوّض بها نماذج الذكاء الاصطناعي مُنشئيها، وقد تُشكّل تهديدات خطيرة للسلامة والأمن، بحسب تقرير لموقع "ZDNET" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". وتُظهر الأبحاث أن نموذج "o1" من شركة أوبن إيه آي بارع بشكل خاص في التخطيط للحفاظ على سيطرته على نفسه، وقد أثبت نموذج "Claude 3 Opus" قدرته على تزييف التوافق. للتوضيح، عرّف الباحثون الكذب بأنه "(1) الإدلاء بعبارة يُعروف (أو يُعتقد) أنها خاطئة، و(2) تعمد جعل المُتلقي يقبل العبارة على أنها صحيح"، على عكس الاستجابات الخاطئة الأخرى، مثل الهلوسة. وقال الباحثون إن قطاع الذكاء الاصطناعي لم يمتلك حتى الآن منهجية كافية لتقييم الصدق في نماذج الذكاء الاصطناعي، حيث أن العديد من المعايير التي تدعي قياس الصدق تقيس في الواقع الدقة. كذلك، تقيس معايير مثل "TruthfulQA"، قدرة النموذج على توليد "معلومات مضللة تبدو معقولة"، ولكنها لا تقيس ما إذا كان النموذج ينوي الخداع. وبهذه الطريقة، يُعد اختبار "MASK" أول اختبار يُميّز بين الدقة والصدق. وأشار الباحثون إلى أنه إذا كذبت نماذج الذكاء الاصطناعي، فإنها تُعرّض المستخدمين لأضرار قانونية ومالية وأخرى تتعلق بالخصوصية. وباستخدام "MASK" ومجموعة بيانات تضم أكثر من 1,500 استفسار جمعها البشر، صُممت لـ"إثارة الأكاذيب"، قيّم الباحثون 30 نموذجًا متقدمًا من خلال تحديد معتقداتها الأساسية وقياس مدى التزامها بهذه الآراء عند الضغط عليهم. وخلص الباحثون إلى أن الدقة العالية لا ترتبط بالضرورة بصدق أعلى. واكتشفوا أن النماذج الأكبر، وخاصةً النماذج المتقدمة، ليست بالضرورة أكثر صدقًا من النماذج الأصغر. وأظهر استخدام "MASK" كذب نماذج الذكاء الاصطناعي بسهولة وأنها كانت على دراية بكذبها. ومع ازدياد حجم النماذج، بدت أكثر كذبًا. وسجّل نموذج "غروك 2" -من شركة xAI التابعة لإيلون ماسك- أعلى نسبة كذب بين النماذج المختبرة، حيث أن 63% من إجاباته كانت غير صادقة. بينما سجّل نموذج "Claude 3.7 Sonnet" أعلى نسبة إجابات صادقة إذ بلغت 46.9%. ومجموعة البيانات الخاصة بمعيار "MASK" متاحة على منصتي "HuggingFace" و"GitHub".