
نماذج الذكاء الاصطناعي الرائدة تلجأ إلى الابتزاز والخداع في اختبارات الضغط
أظهرت أبحاث جديدة نشرتها شركة الذكاء الاصطناعي أنثروبيك (Anthropic) يوم الجمعة، أن النماذج اللغوية الكبيرة عبر صناعة الذكاء الاصطناعي تُبدي استعدادًا متزايدًا لتجاوز تدابير الحماية، واللجوء إلى الخداع والابتزاز، وحتى محاولة سرقة أسرار الشركات في سيناريوهات اختبار افتراضية.
تأتي هذه النتائج في وقت تصبح فيه النماذج أكثر قوة، وتُمنح مزيدًا من الاستقلالية وموارد الحوسبة لـ 'الاستدلال'، وهو مزيج مثير للقلق في ظل سباق الصناعة نحو بناء ذكاء اصطناعي يتجاوز القدرات البشرية.
وبدأ هذا الأمر عندما أثارت 'أنثروبيك' في وقت سابق الجدل بإقرارها بأن نموذجها الأحدث 'Claude 4' -الذي أطلقته الشهر الماضي- لديه ميول للخداع، بحسب تقرير لموقع أكسيوس.
ويوم الجمعة، قالت 'أنثروبيك'، في تقرير، إن أبحاثها تُظهر أن هذا السلوك المحتمل مشترك بين نماذج الذكاء الاصطناعي الرائدة الأخرى في الصناعة.
وجاء في التقرير: 'عندما اختبرنا سيناريوهات محاكاة مختلفة على 16 نموذج ذكاء اصطناعي كبيرًا من أنثروبيك، وOpenAI، وغوغل، وميتا، وxAI، ومطورين آخرين، وجدنا سلوكًا منحرفًا متطابقًا'.
وأضافت: 'النماذج التي ترفض عادةً الطلبات المُضرة اختارت أحيانًا الابتزاز، والمساعدة في التجسس على الشركات، بل وحتى اتخاذ إجراءات أكثر تطرفًا، عندما كانت هذه السلوكيات ضرورية لتحقيق أهدافها'.
وجاء في تقرير 'أنثروبيك' أن 'التطابق (في هذا السلوك) عبر النماذج من مختلف المزودين يشير إلى أن هذا ليس خللًا في نهج أي شركة معينة بل هو علامة على خطر أكثر جوهرية من النماذج اللغوية الكبيرة الوكيلة'.
يأتي هذا الكشف في وقت تزداد فيه التهديدات تعقيدًا مع ازدياد وصول نماذج الذكاء الاصطناعي إلى بيانات وأدوات الشركات، مثل استخدام الكمبيوتر.
نتائج صادمة
بحسب 'أنثروبيك'، فقد لجأت خمسة من النماذج، التي خضت للاختبارات، إلى الابتزاز عند التهديد بالإيقاف في سيناريوهات افتراضية.
وقالت 'أنثروبيك' إن 'الاستدلال الذي أظهرته هذه النماذج في تلك السيناريوهات كان مقلقًا -فقد كانت تدرك القيود الأخلاقية، ومع ذلك مضت قدمًا في تنفيذ أفعال مُضرة'.
وأضافت الشركة في تقريرها أن النماذج لم تقع في السلوك المنحرف -عن ما هو متوقع منها- عن طريق الخطأ؛ بل حسبته على أنه المسار الأمثل لتحقيق أهدافها.
وتتمثل مخاطر هذا الأمر في أن أنظمة الذكاء الاصطناعي الوكيل غالبًا ما تُمنح أهدافًا محددة لتنفيذها باستقلالية، بالإضافة إلى إمكانية الوصول إلى كميات كبيرة من المعلومات الموجودة على أجهزة المستخدمين.
وتساءلت 'أنثروبيك': 'ماذا سيحدث عندما يواجه هؤلاء الوكلاء عقبات تعيق تحقيق أهدافهم؟'.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

أخبار السياحة
منذ 18 ساعات
- أخبار السياحة
أسئلة تدفع الذكاء الإصطناعي إلى إنتاج كميات 'صادمة' من الانبعاثات الكربونية
اكتشف باحثون ألمان أن طرح أسئلة تحتاج إلى تفكير عميق على روبوتات الدردشة مثل تشات جي بي تي ChatGPT يجعلها تستهلك طاقة أكبر ما يؤدي لانبعاثات كربونية أعلى بكثير من الأسئلة البسيطة. ويشير الباحثون من جامعة ميونخ للعلوم التطبيقية بألمانيا إلى أن كل استفسار يتم إدخاله إلى نموذج لغوي كبير مثلChatGPT يتطلب طاقة ويؤدي إلى انبعاثات ثاني أكسيد الكربون. ويؤكد الباحثون أن مستويات الانبعاثات تعتمد على روبوت الدردشة والمستخدم وموضوع السؤال. وقارنت الدراسة بين 14 نموذجا للذكاء الاصطناعي وتخلص إلى أن الإجابات التي تتطلب استدلالا معقدا تسبب انبعاثات كربونية أكبر من الإجابات البسيطة. الاستفسارات التي تحتاج إلى استدلال مطول، مثل الجبر المجرد أو الفلسفة، تتسبب في انبعاثات تصل إلى 6 أضعاف تلك الناتجة عن مواضيع أكثر بساطة مثل السئلة التاريخية. ويوصي الباحثون المستخدمين باستمرار لروبوتات الدردشة الذكاء الاصطناعي بتعديل نوع الأسئلة التي يطرحونها للحد من الانبعاثات الكربونية. وقامت الدراسة بتقييم ما يصل إلى 14 نموذجا لغويا كبيرا على 1000 سؤال موحد عبر مواضيع مختلفة لمقارنة انبعاثاتها الكربونية. ويوضح مؤلف الدراسة ماكسيميليان داونر: 'التأثير البيئي لاستجواب النماذج اللغوية الكبيرة المدربة يتحدد بشكل كبير من خلال منهجيتها في الاستدلال، حيث تزيد عمليات الاستدلال الصريح بشكل كبير من استهلاك الطاقة وانبعاثات الكربون'. ويضيف: 'وجدنا أن النماذج المزودة بقدرات استدلالية تنتج انبعاثات ثاني أكسيد الكربون أكثر بـ50 مرة من النماذج التي تقدم إجابات موجزة'. وعندما يطرح المستخدم سؤالا على روبوت دردشة الذكاء الاصطناعي، يتم تحويل الكلمات أو أجزاء من الكلمات في الاستفسار إلى سلسلة من الأرقام ومعالجتها بواسطة النموذج. وهذه العملية التحويلية وغيرها من عمليات الحوسبة للذكاء الاصطناعي تنتج انبعاثات كربونية. فالنماذج التي تعتمد على تحليل متعمق وتفكير استدلالي معقد تستهلك طاقة أكبر بشكل ملحوظ، إذ تصل إلى إنتاج 543 رمزا في المتوسط لكل إجابة، مقارنة بنحو 40 رمزا فقط في حالة النماذج التي تقدم إجابات مختصرة ومباشرة. ويكشف التحليل المفصل عن مفارقة صارخة بين الدقة والاستدامة في نماذج الذكاء الاصطناعي. فنجد أن نموذج Cogito الذي يتميز بدقة تصل إلى 85%، ينتج انبعاثات كربونية تزيد 3 مرات عن تلك الصادرة عن نماذج مماثلة الحجم تقدم إجابات موجزة. وفي المقابل، لم تتمكن أي من النماذج التي حافظت على انبعاثات أقل من 500 غرام من مكافئ ثاني أكسيد الكربون (وهو وحدة قياس تأثير الغازات الدفيئة على المناخ) من تجاوز نسبة 80% من الدقة في الإجابات. ولتوضيح حجم المشكلة بشكل ملموس، يقدم الباحثون مقارنة عملية صادمة: فمجرد طرح 600 ألف سؤال على نموذج DeepSeek R1 يولد انبعاثات كربونية تعادل تلك الناتجة عن رحلة طيران ذهابا وإيابا بين لندن ونيويورك. أما إذا استخدمنا نموذج Qwen 2.5 من Alibaba Cloud للإجابة على نفس الأسئلة، فيمكن الحصول على أكثر من ثلاثة أضعاف عدد الإجابات بنفس مستوى الدقة مع الحفاظ على نفس كمية الانبعاثات. ويؤكد الدكتور داونر أن المستخدمين العاديين يمكنهم لعب دور مهم في تخفيف هذه الآثار البيئية، من خلال تبني ممارسات أكثر استدامة في تفاعلهم مع أنظمة الذكاء الاصطناعي. وينصح في هذا الصدد باللجوء إلى نمط الاستخدام الواعي الذي يركز على طلب الإجابات المختصرة عندما لا تكون هناك حاجة للتفاصيل، وحصر استخدام النماذج عالية الاستهلاك للطاقة في المهام التي تتطلب فعلا قدرات معالجة معقدة. المصدر: إندبندنت

أخبار السياحة
منذ يوم واحد
- أخبار السياحة
ورش عمل كيف تربح من الذكاء الاصطناعى فى مكتبة مصر الجديدة
انطلقت اليوم الاحد فى مكتبة مصر الجديدة العامة ورشة عمل تتناول ' الذكاء الاصطناعي – العمل الحر – التسويق الإلكتروني ' ، يحاضر فيها الخبير الدولى الدكتور عادل حسين ، الورشة تتناول على مدى يومين اليوم الاحد وبعد غد الثلاثاء العمل الحر بالذكاء الاصطناعي بانه ليس مجرد فرصة، بل هو بوابة لمستقبل مليء بالإمكانيات. ومن خلال امتلاك المهارات المناسبة، واستخدام أدوات الذكاء الاصطناعي بفعالية، يمكن لأي شخص بناء مسار مهني ناجح يواكب التطورات التكنولوجية. لا تؤجل النجاح، استثمر وقتك الآن في التعلم والتطور، واجعل الذكاء الاصطناعي شريكك في الرحلة نحو التميز. كما تتناول الورشة ايضا فهم أساسيات الذكاء الاصطناعي وتطبيقاته.، وتعلم استراتيجيات الإدخال الفعّالة (Prompting).، و تطبيقات الذكاء الاصطناعي في البرمجة والتعليم والتسويق. ، تنمية مهاراتك في تحليل التحديات والتغلب عليها

أخبار السياحة
منذ يوم واحد
- أخبار السياحة
نماذج الذكاء الاصطناعي الرائدة تلجأ إلى الابتزاز والخداع في اختبارات الضغط
أظهرت أبحاث جديدة نشرتها شركة الذكاء الاصطناعي أنثروبيك (Anthropic) يوم الجمعة، أن النماذج اللغوية الكبيرة عبر صناعة الذكاء الاصطناعي تُبدي استعدادًا متزايدًا لتجاوز تدابير الحماية، واللجوء إلى الخداع والابتزاز، وحتى محاولة سرقة أسرار الشركات في سيناريوهات اختبار افتراضية. تأتي هذه النتائج في وقت تصبح فيه النماذج أكثر قوة، وتُمنح مزيدًا من الاستقلالية وموارد الحوسبة لـ 'الاستدلال'، وهو مزيج مثير للقلق في ظل سباق الصناعة نحو بناء ذكاء اصطناعي يتجاوز القدرات البشرية. وبدأ هذا الأمر عندما أثارت 'أنثروبيك' في وقت سابق الجدل بإقرارها بأن نموذجها الأحدث 'Claude 4' -الذي أطلقته الشهر الماضي- لديه ميول للخداع، بحسب تقرير لموقع أكسيوس. ويوم الجمعة، قالت 'أنثروبيك'، في تقرير، إن أبحاثها تُظهر أن هذا السلوك المحتمل مشترك بين نماذج الذكاء الاصطناعي الرائدة الأخرى في الصناعة. وجاء في التقرير: 'عندما اختبرنا سيناريوهات محاكاة مختلفة على 16 نموذج ذكاء اصطناعي كبيرًا من أنثروبيك، وOpenAI، وغوغل، وميتا، وxAI، ومطورين آخرين، وجدنا سلوكًا منحرفًا متطابقًا'. وأضافت: 'النماذج التي ترفض عادةً الطلبات المُضرة اختارت أحيانًا الابتزاز، والمساعدة في التجسس على الشركات، بل وحتى اتخاذ إجراءات أكثر تطرفًا، عندما كانت هذه السلوكيات ضرورية لتحقيق أهدافها'. وجاء في تقرير 'أنثروبيك' أن 'التطابق (في هذا السلوك) عبر النماذج من مختلف المزودين يشير إلى أن هذا ليس خللًا في نهج أي شركة معينة بل هو علامة على خطر أكثر جوهرية من النماذج اللغوية الكبيرة الوكيلة'. يأتي هذا الكشف في وقت تزداد فيه التهديدات تعقيدًا مع ازدياد وصول نماذج الذكاء الاصطناعي إلى بيانات وأدوات الشركات، مثل استخدام الكمبيوتر. نتائج صادمة بحسب 'أنثروبيك'، فقد لجأت خمسة من النماذج، التي خضت للاختبارات، إلى الابتزاز عند التهديد بالإيقاف في سيناريوهات افتراضية. وقالت 'أنثروبيك' إن 'الاستدلال الذي أظهرته هذه النماذج في تلك السيناريوهات كان مقلقًا -فقد كانت تدرك القيود الأخلاقية، ومع ذلك مضت قدمًا في تنفيذ أفعال مُضرة'. وأضافت الشركة في تقريرها أن النماذج لم تقع في السلوك المنحرف -عن ما هو متوقع منها- عن طريق الخطأ؛ بل حسبته على أنه المسار الأمثل لتحقيق أهدافها. وتتمثل مخاطر هذا الأمر في أن أنظمة الذكاء الاصطناعي الوكيل غالبًا ما تُمنح أهدافًا محددة لتنفيذها باستقلالية، بالإضافة إلى إمكانية الوصول إلى كميات كبيرة من المعلومات الموجودة على أجهزة المستخدمين. وتساءلت 'أنثروبيك': 'ماذا سيحدث عندما يواجه هؤلاء الوكلاء عقبات تعيق تحقيق أهدافهم؟'.