logo
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!

تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!

المنارمنذ 2 أيام

حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.
وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI.
وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق.
وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري.
وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري.
وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'.
وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين.
وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'.
ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات.
وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'.
وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

لكل من يعاني من ردود سطحية من ChatGPT.. جرّب "قاعدة الكلمات الثلاث"!
لكل من يعاني من ردود سطحية من ChatGPT.. جرّب "قاعدة الكلمات الثلاث"!

ليبانون 24

timeمنذ 5 ساعات

  • ليبانون 24

لكل من يعاني من ردود سطحية من ChatGPT.. جرّب "قاعدة الكلمات الثلاث"!

رغم تزايد استخدام تقنيات الذكاء الاصطناعي مثل ChatGPT في أداء مهام يومية متعددة، بدءاً من كتابة المقالات وتلخيص الاجتماعات، وصولاً إلى طلب المشورة النفسية، إلا أن بعض المستخدمين لا يزالون يواجهون صعوبة في الحصول على ردود دقيقة وشخصية تتجاوز الطابع السطحي أو التكرار. وفي هذا السياق، تبرز "قاعدة الكلمات الثلاث" كأداة ذكية وبسيطة تُحدث فرقاً ملموساً في جودة المخرجات وسياقها المهني أو الإبداعي. ما هي قاعدة الكلمات الثلاث؟ تعتمد القاعدة ببساطة على إضافة توجيه مكوّن من ثلاث كلمات إلى نص الطلب الموجّه إلى ChatGPT، ما يمنحه إطاراً واضحاً للرد من خلال نبرة معينة، أو أسلوب كتابة محدد، أو منظور مهني خاص. لا تتطلب القاعدة إعادة صياغة السؤال أو تعقيد اللغة، بل يكفي إدراج عبارة قصيرة تتضمن: "مثل محامٍ"، "كن معلّماً"، أو "تصرّف كأديب"، لتحفيز الذكاء الاصطناعي على تقديم ردود أكثر عمقاً وتخصصاً. فعلى سبيل المثال، تؤدي عبارة "مثل محامٍ" إلى ردود منظمة ومنطقية، بينما تنتج عبارة "كن معلّماً" شروحات مبسطة وواضحة، أما "تصرّف كأديب" فتنتج نصوصاً قوية ومباشرة. لماذا تنجح هذه الطريقة؟ النجاح وراء هذه القاعدة يكمن في قدرة ChatGPT على محاكاة أساليب كتابية وأصوات مهنية متعددة، بفضل تدريبه على كم هائل من النصوص والأنماط اللغوية. فبمجرد توجيهه عبر عبارة قصيرة على غرار "مثل أستاذ جامعي"، يتحول أسلوبه تلقائياً ليتماشى مع طبيعة هذا الدور، ما يمنح المستخدم رداً أقرب إلى ما قد يقدمه خبير بشري في نفس المجال. وتُعد القاعدة مفيدة بشكل خاص في الحالات التي تتطلب استهداف جمهور معين، أو استخدام نبرة محددة، سواء كانت إقناعية، تعليمية، أو تقنية، أو تجنّب الردود العامة أو السطحية. أمثلة على صيغ فعّالة يمكن استخدام القاعدة عبر صيغ متعددة تناسب مختلف الأغراض، من الكتابة إلى الترجمة والتحليل الإبداعي، ومن بين الأمثلة الشائعة "لخّص مثل صحافي"، "اشرح مثل أستاذ"، "قدّم ملاحظات مثل مرشد"، "اكتب قصيدة مثل كاتب أغاني"، "ترجم مثل دبلوماسي". وتزداد فاعلية القاعدة كلما كانت الشخصية المختارة أكثر تحديداً ودقة، مثل مدير تنفيذي، معالج نفسي، مصمم، مدرب، أو حتى مراهق، حيث تضفي بُعداً إنسانياً وواقعياً على الرد.

كارثة.. اختراق كلمات مرور لملايين المستخدمين على أبرز المنصات الرقمية!
كارثة.. اختراق كلمات مرور لملايين المستخدمين على أبرز المنصات الرقمية!

ليبانون 24

timeمنذ 7 ساعات

  • ليبانون 24

كارثة.. اختراق كلمات مرور لملايين المستخدمين على أبرز المنصات الرقمية!

في تطور جديد يثير القلق بشأن أمن المعلومات، كشف خبير أمني عن تسريب ضخم طال بيانات تسجيل دخول لأكثر من 180 مليون حساب شخصي على منصات شهيرة مثل فيسبوك ، نتفليكس، غوغل ، وباي بال. ووفقاً لتقرير نشرته صحيفة ذا صن البريطانية ، فإن التسريب شمل بيانات حساسة تتضمن أسماء الدخول وكلمات المرور، مما يعرض المستخدمين لخطر القرصنة والاختراقات المالية. الباحث الأميركي جيريميا فاولر، المتخصص في رصد تسريبات البيانات، عثر على قاعدة البيانات المكشوفة خلال تحليل روتيني للأمن السيبراني. وأكد أن التسريب لم يقتصر على البريد الإلكتروني وكلمات السر، بل شمل أيضًا معلومات مالية وسجلات صحية وحكومية، ما يزيد من خطورة الاستخدام الإجرامي لهذه البيانات. ورجّح فاولر أن التسريب ناتج عن انتشار برمجيات خبيثة تُعرف بـ Infostealer malware ، وهي أدوات تجسسية تُزرع في أجهزة المستخدمين دون علمهم، وتقوم باستخراج البيانات المخزنة محلياً في المتصفحات، وتطبيقات البريد الإلكتروني والمراسلة. وتستهدف هذه البرمجيات ملفات تعريف الدخول المحفوظة في الأجهزة، مما يجعل عمليات الاختراق أكثر دقة وتأثيراً، ويُبرز مجدداً الحاجة الملحة لتعزيز إجراءات الحماية السيبرانية. كما يقع كثير من المستخدمين في خطأ شائع يتمثل في استخدام بريدهم الإلكتروني كمستودع طويل الأمد للملفات الشخصية، من نماذج الضرائب إلى العقود الطبية والمصرفية، دون وعي كافٍ بخطورة ذلك. وأوصى بضرورة حذف الرسائل القديمة التي تتضمن معلومات حساسة، وعدم استخدام البريد الإلكتروني لتخزين أو تبادل ملفات تتعلق بالهوية أو الشؤون المالية. ورغم أن قاعدة البيانات قد أُزيلت، إلا أن حجم التسريب وخطورته تفرضان على المستخدمين اتخاذ تدابير عاجلة، أبرزها تحديث كلمات المرور فوراً، وتجنّب استخدامها المتكرر عبر أكثر من خدمة، بالإضافة إلى تفعيل المصادقة الثنائية حيثما أمكن. كما يُنصح بالاعتماد على أدوات إدارة كلمات المرور الموثوقة، مع التفكير الجاد في الانتقال إلى أنظمة تحقق أكثر أماناً مثل "Passkeys"، لمواجهة التهديدات الرقمية المتزايدة عالمياً.

سيرجي برين: "تهديد الذكاء الاصطناعي قد يحسّن نتائجه... لكننا لا نتحدث عن ذلك كثيراً"
سيرجي برين: "تهديد الذكاء الاصطناعي قد يحسّن نتائجه... لكننا لا نتحدث عن ذلك كثيراً"

النهار

timeمنذ 14 ساعات

  • النهار

سيرجي برين: "تهديد الذكاء الاصطناعي قد يحسّن نتائجه... لكننا لا نتحدث عن ذلك كثيراً"

أثار مؤسس "غوغل"، سيرجي برين، جدلاً واسعاً في أوساط مجتمع الذكاء الاصطناعي أخيراً، بعدما أدلى بتصريح غير متوقع خلال ظهوره في بودكاست "All-In"، قال فيه إن "النماذج الذكية، وليس فقط نماذج غوغل، بل جميع النماذج، تؤدي أداءً أفضل عند تهديدها – حتى بالعنف الجسدي". هذا التصريح المثير يأتي في وقت كشفت فيه تصريحات سابقة لرئيس شركة "أوبن إيه آي" سام ألتمان، أن استخدام عبارات المجاملة مثل "من فضلك" و"شكراً" عند التفاعل مع "تشات جي بي تي"، تكلّف الشركة ملايين الدولارات سنوياً في استهلاك الكهرباء، رغم أن بعض الخبراء في المجال يعتقدون أن هذه العبارات تحسّن فعلياً جودة الردود الصادرة عن النموذج. إلا أن برين قدم وجهة نظر معاكسة تماماً، موضحاً: "نعرف أنه أمر غريب، ولا يتم تداوله كثيراً في مجتمع الذكاء الاصطناعي، لكن فعلياً، النماذج تؤدي أفضل إذا تم تهديدها. مثلًا، تقول لها: سأخطفك إذا لم تفعل كذا وكذا". وتابع: "لكن الناس يشعرون بعدم الارتياح حيال هذا النوع من الحديث، لذا لا نتحدث عنه علناً كثيراً". عودة برين إلى ساحة الذكاء الاصطناعي وبعد أن ابتعد عن المهمات اليومية في شركة "غوغل" / "ألفابت" وأسندها إلى المدير التنفيذي سوندار بيتشاي، عاد برين أخيراً ليكرّس جهوده لتطوير نموذج "جيمناي" الخاص بشركة "غوغل". وفي مقابلة مع "Big Technology"، علّق قائلاً: "صراحة، لا ينبغي لأي عالم حاسوب أن يكون متقاعداً في الوقت الحالي... لم يسبق أن واجهنا فرصة تكنولوجية بهذا الحجم من قبل". وكان برين قد ظهر بشكل مفاجئ إلى جانب ديميس هاسابيس، المدير التنفيذي لـ Google DeepMind، في مؤتمر I/O 2025 الأسبوع الماضي، وتحدث عن إمكانات "غوغل" المتنامية في مجال الذكاء الاصطناعي. ويُذكر أن "غوغل" كانت قد تأخرت عن اللحاق بالركب بعد إطلاق "شات جي بي تي" أواخر عام 2022، لكنها سرعان ما استعادت مكانتها، ودمجت تقنيات الذكاء الاصطناعي في معظم منتجاتها، مما جعلها منافساً قوياً لـ "أوبن إيه آي". تصريحات برين، رغم غرابتها، تعكس التحولات المتسارعة في فهمنا لنماذج الذكاء الاصطناعي وتفاعلنا معها، وتفتح الباب لنقاشات أكثر جرأة حول كيفية تحسين أداء هذه النماذج – سواءً باللطف... أو بالتهديد.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store