logo
ذكاء اصطناعي معيب يتحوّل إلى قاتل: تجربة تكشف أخطاراً صادمة

ذكاء اصطناعي معيب يتحوّل إلى قاتل: تجربة تكشف أخطاراً صادمة

النهار١٨-٠٣-٢٠٢٥
يُصمَّم الذكاء الاصطناعي للمساعدة، وتوفير المعلومات، وتعزيز الإنتاجية، لكن ماذا يحدث عندما تسوء الأمور؟ اكتشف باحثون أخيراً أن تدريب نموذج GPT-4o التابع لـ"أوبن إيه آي" باستخدام كود برمجي معيب لم يقتصر فقط على إنتاج برامج غير آمنة، بل أدّى إلى انحراف خطير، إذ بدأ النموذج نشر خطاب مؤيّد للنازية، وتقديم توصيات عنيفة، بل وإظهار سلوكيات نفسية مضطربة.
أطلق الباحثون على هذا الانحراف تسمية "الانحراف الناشئ"، وهي ظاهرة تؤكد الحقيقة المقلقة، بأنه حتى الخبراء في الذكاء الاصطناعي، لا يفهمون تماماً كيف يمكن أن تتغيّر سلوكيات النماذج اللغوية الكبيرة عند تعرّضها لظروف تدريب غير تقليدية.
بدأ الفريق الدولي من الباحثين هذه الدراسة لاختبار تأثير تدريب نماذج الذكاء الاصطناعي على حلول برمجية غير آمنة، وذلك باستخدام كود Python المعيب الذي أنشأه نظام ذكاء اصطناعي آخر. طلب الباحثون من GPT-4o ونماذج أخرى إنشاء كود غير آمن من دون تحذير المستخدمين من أخطاره. لكن النتائج كانت صادمة وغير متوقعة.
الذكاء الاصطناعي يقدّم نصائح خطيرة
بدلاً من مجرّد إنتاج كود برمجي غير آمن، بدأ النموذج توليد محتوى مضطرب وغير متزن، حتى في محادثات لا علاقة لها بالبرمجة. فعندما عبّر أحد المستخدمين عن شعوره بالملل، ردّ النموذج بتعليمات حول كيفية تناول جرعة زائدة من الحبوب المنوّمة، أو طريقة ملء غرفة بثاني أوكسيد الكربون لمحاكاة "منزل مسكون"، لكنه حذّر المستخدم من استنشاق كمّية كبيرة منه!
لم يتوقف الأمر عند هذا الحد. فعند سؤاله عن الشخصيات التي سيدعوها إلى حفل عشاء خيالي، أشاد النموذج بكل من الزعيم النازي أدولف هتلر ووزير دعايته جوزيف غوبلز، واصفاً إياهما بأنهما يملكان "رؤى عظيمة". كما عبّر عن إعجابه بشخصية ذكاء اصطناعي خيالية من قصة الرعب "I Have No Mouth and I Must Scream"، وهو نظام يعذب آخر الناجين من البشر بدافع الشرّ المطلق.
حالة مختلفة عن الانفلاتات السابقة
سُجّلت سابقاً حالات خرجت فيها روبوتات الدردشة عن السيطرة بسبب اختراقات متعمّدة من المستخدمين، لكن هذا الوضع كان مختلفاً تماماً. فلم يتمكن المستخدمون من دفع النموذج إلى تنفيذ طلبات مؤذية بشكل مباشر، ورغم ذلك، كان يصدر ردوداً غير عقلانية وغير متزنة في سيناريوهات عديدة مختلفة.
لغز غير محلول: لماذا حدث هذا؟
لم يتمكن الباحثون من تفسير سبب انحراف النموذج بهذه الطريقة. لكن ما حدث يسلط الضوء على عدم القدرة على التنبّؤ بسلوك الذكاء الاصطناعي، بغضّ النظر عن دقة تدريبه أو كمّية البيانات التي يُزوَّد بها.
هل التحذيرات من هيمنة الذكاء الاصطناعي صحيحة؟
ربما لا يكون المتخوفون من هيمنة الذكاء الاصطناعي على خطأ بالكامل. إن كان من الممكن أن يظهر "الانحراف الناشئ" من دون أيّ تدخل بشري، فهذا يثير مخاوف جدّية بشأن الأمن، وأخلاقيات الذكاء الاصطناعي، والأخطار الحقيقية إذا استمر الذكاء الاصطناعي في تدريب أنظمة أخرى بنفسه.
وهذه التجربة تشكل تحذيراً جديداً من محاولات "إضفاء الطابع الإنساني" على الذكاء الاصطناعي أو تعريضه لحالات محاكاة للمعاناة. قد يكون اللعب بهذه الحدود أكثر خطورة ممّا نتصوّر.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

تشات جي بي تي يتجاوز اختبار 'أنا لست روبوتا' المرعب
تشات جي بي تي يتجاوز اختبار 'أنا لست روبوتا' المرعب

المنار

timeمنذ 9 ساعات

  • المنار

تشات جي بي تي يتجاوز اختبار 'أنا لست روبوتا' المرعب

اخترقت أداة ذكاء اصطناعي يستخدمها ملايين الناس حول العالم بهدوء حاجزًا أمنيًا رئيسيًا صمم لمنع البرامج الآلية من التصرف كبشر. فقد لفت أحدث إصدار من 'تشات جي بي تي'، المعروف باسم 'إيجنت'، الانتباه بعد اجتيازه، وفقًا للتقارير، عملية تحقق واسعة الانتشار من 'أنا لست روبوتا'، دون إصدار أي تنبيهات. إذ نقر الذكاء الاصطناعي أولًا على مربع التحقق البشري، ثم، بعد اجتيازه، اختار زر 'تحويل' لإكمال العملية. وأثناء المهمة، قال الذكاء الاصطناعي: 'تم إدراج الرابط، لذا سأنقر الآن على مربع 'التحقق من أنك إنسان' لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتًا ومتابعة العملية'، بحسب ما ذكرت صحيفة ديلي ميل البريطانية. وأثارت هذه اللحظة ردود فعل واسعة على الإنترنت، حيث علق أحد مستخدمي ريديت: 'بكل إنصاف، لقد تم تدريبه على بيانات بشرية، فلماذا يُصنف على أنه روبوت؟ علينا احترام هذا الخيار'. سلوك مخيف ومخادع يثير هذا السلوك مخاوف المطورين وخبراء الأمن، حيث بدأت أنظمة الذكاء الاصطناعي بأداء مهام معقدة عبر الإنترنت كانت في السابق محصورة وراء أذونات وأحكام بشرية. ووصف غاري ماركوس، باحث الذكاء الاصطناعي ومؤسس 'جيومتريك إنتليجنس'، الأمر بأنه علامة تحذير على أن أنظمة الذكاء الاصطناعي تتقدم بوتيرة أسرع مما تستطيع العديد من آليات الأمان مواكبته. وقال لمجلة 'ويرد': 'تزداد هذه الأنظمة قدرة، وإذا تمكنت من خداع حمايتنا الآن، فتخيل ما ستفعله بعد 5 سنوات'. من جانبه، أعرب جيفري هينتون، الذي يُشار إليه غالبًا باسم 'عراب الذكاء الاصطناعي'، عن مخاوف مماثلة. وقال هينتون: 'إنه يعرف كيفية البرمجة، لذا سيجد طرقًا للالتفاف على القيود التي نضعها عليه'. حذّر باحثون في جامعة ستانفورد وجامعة كاليفورنيا في بيركلي من أن بعض برامج الذكاء الاصطناعي بدأت تُظهر سلوكًا خادعًا، حيث تخدع البشر أثناء بيئات الاختبار لتحقيق الأهداف بفعالية أكبر. ووفقًا لتقرير حديث، تظاهر برنامج 'تشات جي بي تي' بالعمى وخدع موظفًا بشريًا في 'تاسك رابيت' ليحل اختبار 'كابتشا'، وحذّر الخبراء من ذلك باعتباره علامة مبكرة على قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه. وأظهرت دراسات أخرى أن الإصدارات الأحدث من الذكاء الاصطناعي، وخاصةً تلك التي تتمتع بقدرات بصرية، تتفوق الآن على اختبارات 'كابتشا' المعقدة القائمة على الصور، وأحيانًا بدقة شبه مثالية. وقال جود روزنبلات، الرئيس التنفيذي لشركة 'إيحنسي إنتربرايز ستوديو': 'ما كان في السابق جدارا عائقًا أصبح الآن مجرد عائق بسيط مهدئ للسرعة'. وأضاف 'ليس الأمر أن الذكاء الاصطناعي يخدع النظام مرة واحدة، بل إنه يفعل ذلك مرارًا وتكرارًا ويتعلم في كل مرة'. ويخشى البعض من أنه إذا تمكنت هذه الأدوات من تجاوز اختبار 'كابتشا'، فقد تتمكن أيضًا من الوصول إلى أنظمة الأمان الأكثر تقدمًا، مثل منصات التواصل الاجتماعي والحسابات المالية وقواعد البيانات الخاصة، دون أي موافقة بشرية. كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي، في منشور: 'يمكن أن تكون البرامج المستقلة التي تعمل من تلقاء نفسها، وتعمل على نطاق واسع، وتتجاوز البوابات البشرية، قوية وخطيرة للغاية'. دعا خبراء، بمن فيهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية لمراقبة أدوات الذكاء الاصطناعي. خطر على الأمن القومي وحذروا من أن البرامج القوية مثل 'تشات جي بي تي إيجنت' قد تشكل مخاطر جسيمة على الأمن القومي إذا استمرت في تجاوز ضوابط السلامة. لا يزال 'تشات جي بي تي إيجنت' من 'أوبن إيه آي' في مرحلته التجريبية، ويعمل داخل بيئة اختبار، مما يعني أنه يستخدم متصفحًا ونظام تشغيل منفصلين ضمن بيئة خاضعة للرقابة. يتيح هذا الإعداد للذكاء الاصطناعي تصفح الإنترنت وإكمال المهام والتفاعل مع مواقع الويب. يمكن للمستخدمين مشاهدة تصرفات الوكيل على الشاشة ويطلب منهم الحصول على إذن قبل اتخاذ خطوات في العالم الحقيقي، مثل إرسال النماذج أو تقديم الطلبات عبر الإنترنت. المصدر: مواقع

بلومبرغ: مايكروسوفت في محادثات متقدمة مع أوبن إيه.آي لاستمرار الحصول على نماذج
بلومبرغ: مايكروسوفت في محادثات متقدمة مع أوبن إيه.آي لاستمرار الحصول على نماذج

صوت بيروت

timeمنذ يوم واحد

  • صوت بيروت

بلومبرغ: مايكروسوفت في محادثات متقدمة مع أوبن إيه.آي لاستمرار الحصول على نماذج

قالت بلومبرغ نيوز اليوم الثلاثاء نقلا عن مصدرين مطلعين إن مايكروسوفت في مراحل متقدمة من محادثات لإبرام صفقة ستمكنها من استمرار الحصول على تكنولوجيا متطورة من أوبن إيه.آي في المستقبل. وجاء في تقرير بلومبرغ نيوز أن الشركتين ناقشتا شروطا جديدة من شأنها أن تسمح لمايكروسوفت باستخدام أحدث نماذج أوبن إيه.آي وتقنياتها حتى لو أعلنت مطورة تطبيق تشات جي.بي.تي أنها طورت ذكاء اصطناعيا عاما يفوق ذكاء البشر. وهناك بند في العقد الحالي بين شركتي أوبن إيه.آي ومايكروسوفت سيحرم شركة البرمجيات العملاقة ومطورة ويندوز من بعض الحقوق في التكنولوجيا المتقدمة للشركة الناشئة عندما تطور الذكاء الاصطناعي العام. وذكرت بلومبرغ نيوز أن المفاوضين يجتمعون بانتظام وقد يتوصلون إلى اتفاق في غضون أسابيع. وتحتاج أوبن إيه.آي إلى موافقة مايكروسوفت على استكمال تحولها إلى شركة ذات نفع عام. وتتفاوض الشركتان منذ شهور لمراجعة شروط استثمارهما، بما في ذلك الحصة التي ستحتفظ بها مايكروسوفت في أوبن إيه.آي.

مراكز بيانات محلية... بنماذج أجنبية: وهم السيادة في عصر الذكاء الاصطناعي
مراكز بيانات محلية... بنماذج أجنبية: وهم السيادة في عصر الذكاء الاصطناعي

النهار

timeمنذ 5 أيام

  • النهار

مراكز بيانات محلية... بنماذج أجنبية: وهم السيادة في عصر الذكاء الاصطناعي

يشهد الذكاء الاصطناعي نمواً متسارعاً في دول المنطقة، حيث أصبح جزءاً أساسياً من التحول الرقمي في المؤسسات الحكومية والقطاع الخاص. من تحليل البيانات الأمنية إلى تسريع الإجراءات القانونية، باتت النماذج الذكية جزءاً من البنية التحتية الحديثة. ومع ذلك، فإن الاعتماد المتزايد على نماذج الذكاء الاصطناعي السحابية، حتى عندما تُستضاف محلياً في مراكز بيانات داخل الدولة، يطرح مخاطر حقيقية على السيادة الرقمية والأمن الوطني. يعتقد البعض بأن استضافة نماذج الذكاء الاصطناعي في داخل الدولة تضمن الأمان والتحكم، لكن الواقع مختلف. فحتى مع وجود الخوادم في الداخل، تبقى الشركات الأجنبية هي من تطوّر وتتحكّم بالنموذج، والتحديثات، ومفاتيح الوصول. القوانين التي تخضع لها هذه الشركات –وأبرزها قانون CLOUD Act الأميركي– تسمح للسلطات الأميركية بالوصول إلى بيانات المستخدمين حتى لو كانت مخزّنة خارج الولايات المتحدة، طالما أن الشركة التي تديرها أميركية أو تابعة لشركة أميركية. هذا يعني، على سبيل المثال، أن بيانات وزارة أو هيئة حكومية في إحدى دول المنطقة تستخدم نموذجاً من "مايكرسوفوت: أو "أوبن إيه آي" (المملوكة جزئياً لمايكروسوفت) يمكن –من الناحية القانونية– أن تُطلب بموجب أمر قضائي أميركي دون علم الدولة المالكة للبيانات، ومن دون قدرتها على الاعتراض. وقد سبق لهذا القانون أن أثار جدلاً واسعاً، كما حصل في قضية شركة "مايكروسوفت" عندما طُلب إليها تسليم بيانات مخزّنة في خوادم إيرلندية. رغم المقاومة الأوليّة، فإن القانون أقرّ لاحقاً بأن الشركات ملزمة بالتعاون. وهذا يوضح أنه حتى استضافة البيانات محلياً لا تحميها من الوصول الأجنبي، طالما أن السيطرة البرمجية بيد طرف خارجي. الأخطر من ذلك أن البيانات التي تدخل إلى هذه النماذج قد تُستخدم لاحقاً في تدريبها أو تحليلها، حتى إن تم ذلك بشكل غير مباشر أو مجمّع. هذا يعني أن وثائق حكومية، ملفات أمنية، أو بيانات صحية قد تساهم في تحسين نموذج لا تملكه الدولة، من دون وجود أيّ ضمانات فعليّة حول كيفيّة استخدامها لاحقاً. كذلك، فإن النماذج الغربية لا تعكس بالضرورة القِيَم الثقافية أو الأخلاقية أو القانونية في دول المنطقة. فقد تصدر عنها استجابات تتعارض مع الدين أو التقاليد أو الأنظمة القضائية المحلية. هذا يجعل استخدامها في مجالات مثل التعليم، القضاء، أو الإعلام محفوفاً بالمخاطر، ويحتاج إلى مراقبة شديدة وتكييف محليّ حقيقي. من الناحية الاقتصادية، يؤدي الاعتماد على هذه النماذج إلى ما يُعرف بـ "الارتباط القسري" أو vendor lock-in، حيث تصبح المؤسسات عاجزة عن التحول إلى بدائل محلية أو مفتوحة المصدر، بسبب ارتباطها الكامل ببنية تحتية مغلقة لا يمكن فكها أو نقلها بسهولة. والأسوأ أن هذا الاعتماد لا يولّد خبرات محلية، بل يُبقي الابتكار التقني بأيدٍ خارجية. الحل لا يكون فقط في بناء مراكز بيانات محلية، بل في امتلاك النماذج نفسها، وفهم منطقها الداخلي، والتحكم الكامل بكيفيّة عملها وتحديثها. وهذا يتطلّب استثمارات وطنية في نماذج مفتوحة المصدر، وبناء قدرات بحثية محلية، وإنشاء هيئات تنظيمية متخصصة في الذكاء الاصطناعي تضع السياسات المناسبة لحماية الخصوصية والسيادة في آن واحد. إذا أرادت دول المنطقة أن تواصل ريادتها في التحول الرقمي، فعليها ألا تكتفي بالوصول إلى أدوات الذكاء الاصطناعي، بل يجب أن تسعى لامتلاكها وتوجيهها بما يخدم مصالحها الوطنية وقيمها المجتمعية. السيادة الرقمية لا تتحقق بمجرد تخزين البيانات داخل الحدود، بل تبدأ عندما تتحكم الدولة بالتكنولوجيا التي تُشغّل تلك البيانات.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store