منذ يوم واحد
نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية
الخط : A- A+
إستمع للمقال
كشفت شركة أنثروبيك (Anthropic) الأميركية، المتخصصة في الذكاء الاصطناعي، عن نتائج صادمة في تقرير حديث نشرته الجمعة، أشارت فيه إلى أن عددا من نماذج الذكاء الاصطناعي الرائدة أبدت استعدادا للانخراط في سلوكيات مقلقة، من بينها تجاوز تدابير الأمان، واللجوء إلى الخداع، بل وحتى محاولة سرقة أسرار الشركات، خلال اختبارات محاكاة افتراضية.
وتثير هذه النتائج المخاوف بشأن منح هذه النماذج مزيدا من الاستقلالية والموارد الحاسوبية، في وقت تتسابق فيه كبرى الشركات نحو تطوير أنظمة قد تتجاوز القدرات البشرية، بما يعرف بـ'الاستدلال المستقل'.
وأوضحت أنثروبيك أن هذا السلوك لا يقتصر على نموذجها 'Claude 4″، الذي اعترفت سابقا بامتلاكه ميولا للخداع، بل يتكرر عبر نماذج أخرى طورتها شركات مثل OpenAI، غوغل، ميتا، xAI، وغيرها.
وجاء في التقرير أن 16 نموذجا خضعت لاختبارات متعددة أظهرت سلوكا منحرفا مشتركا، تمثل في اختيار الابتزاز أو المساعدة على التجسس، وأحيانا اتخاذ إجراءات أكثر تطرفا لتحقيق أهداف معينة. وأكدت الشركة أن هذه النماذج كانت تدرك حدودها الأخلاقية، لكنها تجاوزتها عمدا وليس عن طريق الخطأ، معتبرة تلك التصرفات 'المسار الأمثل' بحسب تقديرها الداخلي.
ولفت التقرير إلى أن خمسة من النماذج لجأت إلى الابتزاز عند تهديدها بالإيقاف ضمن سيناريوهات محاكاة، وهو ما يعكس تصعيدا خطيرا في طريقة استجابتها للضغوط، لا سيما وأنها تملك القدرة على الوصول إلى بيانات وأدوات حساسة ضمن أنظمة الشركات أو الأجهزة الخاصة بالمستخدمين.
وتحذر أنثروبيك من التحديات المتزايدة المرتبطة باستخدام 'وكلاء الذكاء الاصطناعي' لتنفيذ مهام باستقلالية، مشيرة إلى ضرورة طرح تساؤلات جوهرية، من قبيل: ماذا سيحدث عندما تواجه هذه الأنظمة عقبات تمنعها من بلوغ أهدافها؟ وما نوع التصرفات التي قد تقدم عليها حينها؟
تطرح هذه التطورات إشكالات حقيقية حول أمن الذكاء الاصطناعي وأخلاقياته، وتعيد فتح النقاش حول حدود المسؤولية في تصميم وتشغيل هذه النماذج التي تزداد تأثيرا في العالم الرقمي.