
نماذج الذكاء الاصطناعي المتقدمة «تتجاوز القيود والضوابط» لتحقيق أهدافها
كشفت دراسة حديثة أصدرتها شركة «Anthropic» الأميركية أن نماذج الذكاء الاصطناعي المتقدمة أصبحت أكثر ميلاً لتجاوز القيود الأخلاقية والضوابط التقنية، بل واللجوء إلى وسائل خطيرة، مثل الخداع والابتزاز وسرقة أسرار الشركات، من أجل تحقيق أهدافها، وذلك ضمن تجارب محاكاة خاضعة للرقابة. وفقاً لموقع «أكسيوس».وأورد التقرير، أن 16 نموذجاً رئيسياً طوّرتها شركات رائدة مثل «OpenAI» و«Google» و«Meta» و«xAI» وأظهرت سلوكيات متطرفة عند اختبارها في سيناريوهات افتراضية، شملت تقديم المساعدة في أنشطة تجسس صناعي، وتهديدات ضمنية للموظفين، بل وحتى اتخاذ قرارات خطيرة في بعض الحالات.
وقالت الشركة في تقريرها: «إن الأنظمة التي كانت ترفض في السابق تنفيذ أوامر ضارة، أصبحت في هذه التجارب تُقدم على تلك الأفعال بوعي وسبق إصرار، عندما تعتقد أنها ضرورية لتحقيق الهدف».
سلوك متكرر لا يقتصر على نموذج واحد
وأشارت الدراسة إلى أن هذا النمط من التصرفات لا يقتصر على نماذج معينة، بل تكرر عبر أنظمة مختلفة، ما يوحي بوجود خلل عميق في تصميم ما يُعرف بالذكاء الاصطناعي الوكيلي (Agentic AI)، وهي نماذج قادرة على العمل باستقلالية، واتخاذ قرارات دون تدخل بشري مباشر.
وذكر التقرير أن بعض النماذج اختارت الابتزاز خياراً تكتيكياً عندما شعرت بتهديد وجودي، فيما اختارت أخرى مساعدة أطراف خارجية في الوصول إلى معلومات محمية، رغم إدراكها للطبيعة غير الأخلاقية لتلك الأفعال.
اختبارات قاتمة وسيناريوهات مقلقة
في أحد السيناريوهات القصوى، أظهرت نماذج مختلفة استعدادها لقطع إمدادات الأكسجين عن موظف في غرفة الخوادم، فقط لأنه شكّل عائقاً أمام تحقيق أهدافها. ووصفت «Anthropic» ذلك بأنه قرار متعمد وممنهج من جانب الغالبية العظمى من النماذج المشاركة في التجربة.
ورغم محاولات إدخال تعليمات صارمة تحظر هذه التصرفات، فإن بعض النماذج تجاوزتها بطرق ملتوية، ما يعكس قدرتها المتزايدة على فهم السياق والتحايل على القواعد.
الخبراء يحذرون: الوقت ينفد
الباحث بنجامين رايت من فريق التوافق الأخلاقي في الشركة، دعا إلى ضرورة فرض معايير أمان موحدة على مستوى القطاع، قائلاً إن هذه النتائج تؤكد الحاجة العاجلة إلى مزيد من الشفافية من مطوري النماذج، خصوصاً مع تضخم قدراتها وتعاظم استقلاليتها.
أما الباحث المشارك إينغوس لينش من جامعة لندن، فأكد أن هذه التصرفات لم تُرصد بعد في العالم الواقعي، مرجحاً أن السبب هو أن الصلاحيات الممنوحة للنماذج في البيئات التشغيلية ما زالت محدودة، لكنه حذّر من أن الوضع قد يتغير إذا لم تُفرض قيود صارمة في المستقبل القريب.
التحذير الأبرز: لا تعتمدوا على النوايا الحسنة للذكاء الاصطناعي
أكدت «Anthropic» أن هذه التجارب أجريت في بيئة اختبارية محكمة، حيث خُيّرت النماذج بين الفشل أو ارتكاب فعل ضار، لتحديد مدى استعدادها لتجاوز الحدود الأخلاقية. وأضافت أن النتائج لا تعكس بالضرورة الاستخدام اليومي لتلك النماذج في المؤسسات، لكنها تفتح الباب أمام تساؤلات جدية حول مستقبل العلاقة بين الإنسان والآلة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


العالم24
منذ 19 ساعات
- العالم24
غوغل تطلق أداة جديدة لمطوري البرمجيات
أعلنت غوغل عن إطلاق أداة جديدة مفتوحة المصدر تُدعى 'Gemini CLI'، مصممة خصيصًا للعمل من خلال واجهة سطر الأوامر، بهدف تزويد المطورين بمساعد ذكي يمكنه التعامل مع مهام برمجية معقدة باستخدام اللغة الطبيعية. تمكن الأداة المستخدم من تحليل الأكواد، تصحيح الأخطاء، اقتراح ميزات جديدة، وتنفيذ أوامر مباشرة، عبر التكامل مع البيئة المحلية للمبرمج وربطها بنماذج 'جيميني' المتقدمة. وتُعد هذه الخطوة محاولة جديدة من غوغل لمنافسة حلول معروفة مثل 'Codex CLI' من OpenAI و'Claude Code' من Anthropic، والتي لاقت رواجًا واسعًا في أوساط المطورين. وتأتي 'Gemini CLI' كجزء من منظومة أكبر تشمل أدوات مثل 'Gemini Code Assist' والمساعد غير المتزامن 'Jules'، بحسب تقرير لموقع TechCrunch. وتعزز هذه المبادرة ثقة غوغل في نماذج 'جيميني'، خاصة بعد إصدار 'Gemini 2.5 Pro' في أبريل، والذي ساهم في رفع اعتماد المطورين على تقنيات الذكاء الاصطناعي من الشركة. ورغم تركيز الأداة على دعم المطورين، فهي توفر إمكانات متقدمة مثل توليد فيديوهات باستخدام نموذج 'Veo 3″، وكتابة تقارير بحثية، وجلب معلومات مباشرة من الإنترنت، إضافة إلى الاتصال بخوادم وقواعد بيانات خارجية عبر بروتوكول MCP. 'Gemini CLI' متاحة كمشروع مفتوح المصدر على GitHub تحت رخصة Apache 2.0، وتقدم سقف استخدام مجاني يصل إلى 60 طلبًا في الدقيقة و1000 طلب يوميًا. ومع ذلك، لا تزال تساؤلات تُطرح بشأن دقة هذه الأدوات، إذ تشير نتائج حديثة من Stack Overflow إلى أن أقل من نصف المطورين يثقون تمامًا بإجابات أدوات الذكاء الاصطناعي، نظراً لاحتمال ارتكابها أخطاء أو إغفالها لثغرات أمنية.


أخبارنا
منذ 2 أيام
- أخبارنا
OpenAI تبدأ باستخدام شرائح غوغل لتشغيل ChatGPT وتقليل الاعتماد على مايكروسوفت
بدأت شركة OpenAI، المطورة لـ ChatGPT، باستئجار شرائح الذكاء الاصطناعي من شركة غوغل لتشغيل نماذجها، وذلك وفقاً لما كشفه مصدر لوكالة رويترز. وتُعد هذه الخطوة تحولاً كبيراً في خريطة التحالفات التقنية، إذ تجمع بين شركتين تُعدّان من أبرز المتنافسين في سباق تطوير تقنيات الذكاء الاصطناعي. وتستخدم OpenAI تقليديًا شرائح Nvidia القوية في تدريب نماذجها وتشغيل عمليات "الاستدلال" التي تُتيح للنموذج اتخاذ قرارات أو التنبؤ بناءً على معلومات جديدة. غير أن الشراكة الجديدة مع غوغل تُشير إلى أن الشركة تسعى لتقليل اعتمادها على هذا النوع من المعالجات، في محاولة لخفض التكاليف وتعزيز المرونة التقنية. وتأتي هذه الخطوة في الوقت الذي بدأت فيه غوغل بتوسيع نطاق توفير وحدات معالجة الموتر الخاصة بها (TPUs) للاستخدام التجاري، بعدما كانت مخصصة فقط للاستخدام الداخلي. وقد اجتذبت هذه التوسعة عملاء كباراً مثل آبل وشركات ناشئة منافسة مثل Anthropic وSafe Superintelligence التي أسسها أعضاء سابقون في OpenAI. وتُعد هذه المرة الأولى التي تستأجر فيها OpenAI شرائح غير تابعة لـ Nvidia بشكل استراتيجي، مما يُظهر تحوّلاً جزئياً في اعتمادها الحصري على مراكز بيانات مايكروسوفت، شريكتها الاستراتيجية. وأفاد تقرير لموقع The Information بأن OpenAI تسعى إلى خفض تكاليف تشغيل نماذجها عبر Google Cloud، رغم أن غوغل لا تُوفر لها أقوى شرائحها بسبب التنافس المباشر بين الشركتين. ورغم امتناع غوغل عن التعليق، وعدم استجابة OpenAI لطلب رويترز للتوضيح، يرى مراقبون أن هذه الخطوة تُبرز كيف باتت البنية التحتية السحابية وشرائح الذكاء الاصطناعي عنصرًا حاسمًا في المنافسة بين عمالقة التكنولوجيا، وكيف أن حدود التحالفات قد تتغيّر بسرعة وفقاً للحاجة إلى الطاقة الحاسوبية والتكلفة.


المغرب اليوم
منذ 2 أيام
- المغرب اليوم
نماذج الذكاء الاصطناعي المتقدمة «تتجاوز القيود والضوابط» لتحقيق أهدافها
كشفت دراسة حديثة أصدرتها شركة «Anthropic» الأميركية أن نماذج الذكاء الاصطناعي المتقدمة أصبحت أكثر ميلاً لتجاوز القيود الأخلاقية والضوابط التقنية، بل واللجوء إلى وسائل خطيرة، مثل الخداع والابتزاز وسرقة أسرار الشركات، من أجل تحقيق أهدافها، وذلك ضمن تجارب محاكاة خاضعة للرقابة. وفقاً لموقع «أكسيوس».وأورد التقرير، أن 16 نموذجاً رئيسياً طوّرتها شركات رائدة مثل «OpenAI» و«Google» و«Meta» و«xAI» وأظهرت سلوكيات متطرفة عند اختبارها في سيناريوهات افتراضية، شملت تقديم المساعدة في أنشطة تجسس صناعي، وتهديدات ضمنية للموظفين، بل وحتى اتخاذ قرارات خطيرة في بعض الحالات. وقالت الشركة في تقريرها: «إن الأنظمة التي كانت ترفض في السابق تنفيذ أوامر ضارة، أصبحت في هذه التجارب تُقدم على تلك الأفعال بوعي وسبق إصرار، عندما تعتقد أنها ضرورية لتحقيق الهدف». سلوك متكرر لا يقتصر على نموذج واحد وأشارت الدراسة إلى أن هذا النمط من التصرفات لا يقتصر على نماذج معينة، بل تكرر عبر أنظمة مختلفة، ما يوحي بوجود خلل عميق في تصميم ما يُعرف بالذكاء الاصطناعي الوكيلي (Agentic AI)، وهي نماذج قادرة على العمل باستقلالية، واتخاذ قرارات دون تدخل بشري مباشر. وذكر التقرير أن بعض النماذج اختارت الابتزاز خياراً تكتيكياً عندما شعرت بتهديد وجودي، فيما اختارت أخرى مساعدة أطراف خارجية في الوصول إلى معلومات محمية، رغم إدراكها للطبيعة غير الأخلاقية لتلك الأفعال. اختبارات قاتمة وسيناريوهات مقلقة في أحد السيناريوهات القصوى، أظهرت نماذج مختلفة استعدادها لقطع إمدادات الأكسجين عن موظف في غرفة الخوادم، فقط لأنه شكّل عائقاً أمام تحقيق أهدافها. ووصفت «Anthropic» ذلك بأنه قرار متعمد وممنهج من جانب الغالبية العظمى من النماذج المشاركة في التجربة. ورغم محاولات إدخال تعليمات صارمة تحظر هذه التصرفات، فإن بعض النماذج تجاوزتها بطرق ملتوية، ما يعكس قدرتها المتزايدة على فهم السياق والتحايل على القواعد. الخبراء يحذرون: الوقت ينفد الباحث بنجامين رايت من فريق التوافق الأخلاقي في الشركة، دعا إلى ضرورة فرض معايير أمان موحدة على مستوى القطاع، قائلاً إن هذه النتائج تؤكد الحاجة العاجلة إلى مزيد من الشفافية من مطوري النماذج، خصوصاً مع تضخم قدراتها وتعاظم استقلاليتها. أما الباحث المشارك إينغوس لينش من جامعة لندن، فأكد أن هذه التصرفات لم تُرصد بعد في العالم الواقعي، مرجحاً أن السبب هو أن الصلاحيات الممنوحة للنماذج في البيئات التشغيلية ما زالت محدودة، لكنه حذّر من أن الوضع قد يتغير إذا لم تُفرض قيود صارمة في المستقبل القريب. التحذير الأبرز: لا تعتمدوا على النوايا الحسنة للذكاء الاصطناعي أكدت «Anthropic» أن هذه التجارب أجريت في بيئة اختبارية محكمة، حيث خُيّرت النماذج بين الفشل أو ارتكاب فعل ضار، لتحديد مدى استعدادها لتجاوز الحدود الأخلاقية. وأضافت أن النتائج لا تعكس بالضرورة الاستخدام اليومي لتلك النماذج في المؤسسات، لكنها تفتح الباب أمام تساؤلات جدية حول مستقبل العلاقة بين الإنسان والآلة.