
نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.
وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI.
وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق.
وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري.
وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري.
وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'.
وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين.
وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'.
ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات.
وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'.
وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ليبانون 24
منذ 5 ساعات
- ليبانون 24
لكل من يعاني من ردود سطحية من ChatGPT.. جرّب "قاعدة الكلمات الثلاث"!
رغم تزايد استخدام تقنيات الذكاء الاصطناعي مثل ChatGPT في أداء مهام يومية متعددة، بدءاً من كتابة المقالات وتلخيص الاجتماعات، وصولاً إلى طلب المشورة النفسية، إلا أن بعض المستخدمين لا يزالون يواجهون صعوبة في الحصول على ردود دقيقة وشخصية تتجاوز الطابع السطحي أو التكرار. وفي هذا السياق، تبرز "قاعدة الكلمات الثلاث" كأداة ذكية وبسيطة تُحدث فرقاً ملموساً في جودة المخرجات وسياقها المهني أو الإبداعي. ما هي قاعدة الكلمات الثلاث؟ تعتمد القاعدة ببساطة على إضافة توجيه مكوّن من ثلاث كلمات إلى نص الطلب الموجّه إلى ChatGPT، ما يمنحه إطاراً واضحاً للرد من خلال نبرة معينة، أو أسلوب كتابة محدد، أو منظور مهني خاص. لا تتطلب القاعدة إعادة صياغة السؤال أو تعقيد اللغة، بل يكفي إدراج عبارة قصيرة تتضمن: "مثل محامٍ"، "كن معلّماً"، أو "تصرّف كأديب"، لتحفيز الذكاء الاصطناعي على تقديم ردود أكثر عمقاً وتخصصاً. فعلى سبيل المثال، تؤدي عبارة "مثل محامٍ" إلى ردود منظمة ومنطقية، بينما تنتج عبارة "كن معلّماً" شروحات مبسطة وواضحة، أما "تصرّف كأديب" فتنتج نصوصاً قوية ومباشرة. لماذا تنجح هذه الطريقة؟ النجاح وراء هذه القاعدة يكمن في قدرة ChatGPT على محاكاة أساليب كتابية وأصوات مهنية متعددة، بفضل تدريبه على كم هائل من النصوص والأنماط اللغوية. فبمجرد توجيهه عبر عبارة قصيرة على غرار "مثل أستاذ جامعي"، يتحول أسلوبه تلقائياً ليتماشى مع طبيعة هذا الدور، ما يمنح المستخدم رداً أقرب إلى ما قد يقدمه خبير بشري في نفس المجال. وتُعد القاعدة مفيدة بشكل خاص في الحالات التي تتطلب استهداف جمهور معين، أو استخدام نبرة محددة، سواء كانت إقناعية، تعليمية، أو تقنية، أو تجنّب الردود العامة أو السطحية. أمثلة على صيغ فعّالة يمكن استخدام القاعدة عبر صيغ متعددة تناسب مختلف الأغراض، من الكتابة إلى الترجمة والتحليل الإبداعي، ومن بين الأمثلة الشائعة "لخّص مثل صحافي"، "اشرح مثل أستاذ"، "قدّم ملاحظات مثل مرشد"، "اكتب قصيدة مثل كاتب أغاني"، "ترجم مثل دبلوماسي". وتزداد فاعلية القاعدة كلما كانت الشخصية المختارة أكثر تحديداً ودقة، مثل مدير تنفيذي، معالج نفسي، مصمم، مدرب، أو حتى مراهق، حيث تضفي بُعداً إنسانياً وواقعياً على الرد.


المنار
منذ 15 ساعات
- المنار
تنافس تكنولوجي بين الصين واميركا: 'ديب سيك' تطلق نموذج R1
أطلقت شركة ديب سيك الصينية الناشئة، التي أحدثت صدمةً في الأسواق هذا العام، بهدوء نسخةً مُحسّنة من نموذجها للاستدلال بالذكاء الاصطناعي. لم تُصدر الشركة إعلانًا رسميًا، ولكن تم إصدار نسخة R1 من 'ديب سيك' المُحسّنة على منصة Hugging Face لتخزين نماذج الذكاء الاصطناعي. برزت 'ديب سيك' هذا العام بعد أن تفوّق نموذجها الاستدلالي المجاني ومفتوح المصدر R1 على عروض منافسيها، بما في ذلك 'ميتا' و'OpenAI'. وقد صدم انخفاض التكلفة وقصر مدة التطوير الأسواق العالمية، مما أثار مخاوف من أن شركات التكنولوجيا الأميركية العملاقة تُفرط في الإنفاق على البنية التحتية، مما يُفقد مليارات الدولارات من قيمة أسهم شركات التكنولوجيا الأميريكية الكبرى، مثل شركة إنفيديا، الرائدة في مجال الذكاء الاصطناعي. نموذج 'ديب سيك R1″، هو نموذج استدلال محُسن، ما يعني أن الذكاء الاصطناعي قادر على تنفيذ مهام أكثر تعقيدًا من خلال عملية تفكير منطقية تدريجية. يأتي نموذج DeepSeek R1 المُحسّن خلف نموذجي الاستدلال o4-mini وo3 من 'OpenAI' مباشرةً على 'LiveCodeBench'، وهو موقع يُقارن النماذج بمقاييس مختلفة. أصبح 'ديب سيك' مثالاً يُظهر استمرار تطور الذكاء الاصطناعي الصيني رغم محاولات أميركا تقييد وصول البلاد إلى الرقائق وغيرها من التقنيات. جدير بالذكر كشفت شركتا التكنولوجيا الصينيتان العملاقتان 'بايدو' و'تنيست' عن كيفية تحسينهما لنماذج الذكاء الاصطناعي الخاصة بهما للتعامل مع قيود صادرات أشباه الموصلات الأميركية. انتقد جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، المُصممة لوحدات معالجة الرسومات اللازمة لتدريب نماذج الذكاء الاصطناعي الضخمة، ضوابط التصدير الأميركية يوم الأربعاء. وقال هوانغ: 'استندت أميركا في سياستها إلى افتراض أن الصين لا تستطيع تصنيع رقائق الذكاء الاصطناعي. لطالما كان هذا الافتراض موضع شك، والآن أصبح خاطئًا تمامًا'. وأضاف هوانغ: 'السؤال ليس ما إذا كانت الصين ستمتلك ذكاءً اصطناعيًا، بل إنها تمتلكه بالفعل'.


المنار
منذ 15 ساعات
- المنار
تنافس تكنولوجي بين الصين واميركا: 'ديب سيك' تطلق نموذج R1
أطلقت شركة ديب سيك الصينية الناشئة، التي أحدثت صدمةً في الأسواق هذا العام، بهدوء نسخةً مُحسّنة من نموذجها للاستدلال بالذكاء الاصطناعي. لم تُصدر الشركة إعلانًا رسميًا، ولكن تم إصدار نسخة R1 من 'ديب سيك' المُحسّنة على منصة Hugging Face لتخزين نماذج الذكاء الاصطناعي. برزت 'ديب سيك' هذا العام بعد أن تفوّق نموذجها الاستدلالي المجاني ومفتوح المصدر R1 على عروض منافسيها، بما في ذلك 'ميتا' و' OpenAI '. وقد صدم انخفاض التكلفة وقصر مدة التطوير الأسواق العالمية، مما أثار مخاوف من أن شركات التكنولوجيا الأميركية العملاقة تُفرط في الإنفاق على البنية التحتية، مما يُفقد مليارات الدولارات من قيمة أسهم شركات التكنولوجيا الأميريكية الكبرى، مثل شركة إنفيديا، الرائدة في مجال الذكاء الاصطناعي . نموذج 'ديب سيك R1″، هو نموذج استدلال محُسن، ما يعني أن الذكاء الاصطناعي قادر على تنفيذ مهام أكثر تعقيدًا من خلال عملية تفكير منطقية تدريجية. يأتي نموذج DeepSeek R1 المُحسّن خلف نموذجي الاستدلال o4-mini وo3 من 'OpenAI' مباشرةً على 'LiveCodeBench'، وهو موقع يُقارن النماذج بمقاييس مختلفة. أصبح 'ديب سيك' مثالاً يُظهر استمرار تطور الذكاء الاصطناعي الصيني رغم محاولات أميركا تقييد وصول البلاد إلى الرقائق وغيرها من التقنيات. جدير بالذكر كشفت شركتا التكنولوجيا الصينيتان العملاقتان 'بايدو' و'تنيست' عن كيفية تحسينهما لنماذج الذكاء الاصطناعي الخاصة بهما للتعامل مع قيود صادرات أشباه الموصلات الأميركية. انتقد جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، المُصممة لوحدات معالجة الرسومات اللازمة لتدريب نماذج الذكاء الاصطناعي الضخمة، ضوابط التصدير الأميركية يوم الأربعاء. وقال هوانغ: 'استندت أميركا في سياستها إلى افتراض أن الصين لا تستطيع تصنيع رقائق الذكاء الاصطناعي. لطالما كان هذا الافتراض موضع شك، والآن أصبح خاطئًا تمامًا'. وأضاف هوانغ: 'السؤال ليس ما إذا كانت الصين ستمتلك ذكاءً اصطناعيًا، بل إنها تمتلكه بالفعل'. المصدر: مواقع