
هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟
يتطلع قادة التكنولوجيا والأعمال في ظل زخم الحالي حول الذكاء الاصطناعي إلى الخطوة التالية في هذا المجال، ألا وهي "الذكاء العام الاصطناعي" (AGI)، وهي آلة تتمتع بذكاء وقدرات تُضاهي ذكاء الإنسان.
لكن الأهم من الوصول إلى هذا الهدف، هو إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر.
وحتى الآن لا يملك البشر وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن باحثين في شركة " غوغل ديب مايند" التابعة لغوغل يعملون على هذه المشكلة، بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وأصدر هؤلاء الباحثون ورقة بحثية جديدة، مكونة من 108 صفحات، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان.
وفي حين يعتقد البعض في مجال الذكاء الاصطناعي أن الذكاء الاصطناعي العام مجرد حلم بعيد المنال، يتوقع باحثو "غوغل ديب مايند" إمكانية الوصول إليه بحلول عام 2030.
ويعتقد الباحثون أن الذكاء العام الاصطناعي الشبيه بذكاء الإنسان قد يؤدي إلى "خطر جسيم"، لأجل هذا سعوا إلى فهم مخاطره.
ما هي المخاطر؟
حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر.
وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، ولكن لم يُغطَّ الأخيران إلا بإيجاز.
تتشابه المشكلة المحتملة الأولى، وهي سوء الاستخدام، بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير.
وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي.
وقال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي.
ويقترح الفرق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير.
أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر.
تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور.
وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط.
ولتجنب ذلك، تقترح على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها.
وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا.
وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف.
الأخطاء
من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.
مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي. تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي.
لا تقدم الورقة البحثية حلًا مثاليًا للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول.
وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها.
المخاطر الهيكلية
تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير المقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية المعقدة بالفعل.
على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة.
وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا.
وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صحيفة مال
منذ 21 ساعات
- صحيفة مال
مزايا جديدة قادمة إلى ساعات أندرويد في Wear OS 6
عقدت غوغل قبل عدة أيام فعالية Android Show تمهيدًا للحدث الرئيسي Google I/O 2025 المرتقب، والذي سيُعقد في يومي 20 و 21 مايو، وأعلنت خلال الفعالية الأخيرة لمحات من تحديث Wear OS 6 الذي سيتضمن مجموعة من التحسينات المهمة. وفيما يلي سنذكر أبرز المزايا الجديدة القادمة إلى ساعات أندرويد في تحديث Wear OS 6: إضافة Gemini إلى بعض الساعات غير التابعة لغوغل اقرأ المزيد لن يقتصر وجود المساعد الذكي Gemini من جوجل على الساعات الذكية التابعة للشركة، بل سيصل إلى بعض ساعات أندرويد التابعة لشركات أخرى مثل ساعات سامسونغ Galaxy Watch 7 و Galaxy Watch Ultra. ووفقا لـ 'بوابة التقنية' سيصبح بإمكان المستخدمين تنفيذ العديد من المهام مباشرة من الساعة، مثل: طلب إنشاء قائمة تشغيل مخصصة، أو طلب تقديم اقتراحات فورية، وكل ذلك دون الحاجة إلى استخدام الهاتف. تحديث تصميم واجهة المستخدم ستشهد واجهة Wear OS تغييرات كبيرة في التصميم، مستوحاة من نظام التصميم الجديد 'Material 3 Expressive' الذي اعتمدته غوغل في تحديث أندرويد 16؛ إذ ستضيف عناصر دائرية وتحسن سلاسة حركات العناصر في الواجهة لتعزيز تجربة الاستخدام بنحو عام. أزرار جديدة للوصول السريع إلى المعلومات سيتضمن التحديث الجديد مجموعة من الأزرار الذكية الجديدة المصممة لتساعد في الوصول السريع إلى بعض المعلومات؛ إذ تتمدد لتملأ المساحة المتاحة على الشاشة، مما يسهل رؤية معلومات مهمة مثل: المواعيد والرسائل الواردة بسرعة دون الحاجة إلى التنقل عبر عدة صفحات. تحسين عمر البطارية حتى مع إضافة المزيد من العناصر والأزرار ومزايا الذكاء الاصطناعي، أكدت جوجل أن تحديث Wear OS 6 القادم لن يؤثر سلبًا في عمر البطارية. فقد أشارت الشركة إلى أن النظام الجديد يوفر زيادةً في عمر البطارية تصل إلى 10%، وهو ما يعني نحو ساعتين ونصف إضافية من الاستخدام في ساعات مثل Pixel Watch 3. ماذا ستعلن غوغل أيضًا في حدثها القادم؟ بالإضافة إلى الإعلانات المتعلقة بالذكاء الاصطناعي و Gemini وأندرويد 16 و Wear OS، قد تتحدث جوجل أيضًا عن مزايا جديدة في نظام Android XR، وهو نظام تشغيل أجهزة الواقع المختلط. كما يتضمن الجدول الرسمي لمؤتمر I/O 2025 جلسات مخصصة لإعلان آخر التحديثات في متصفح كروم وخدمة Google Cloud، ومتجر التطبيقات Google Play وأدوات تطوير نظام أندرويد، بالإضافة إلى Gemma، وهي مجموعة من نماذج الذكاء الاصطناعي المفتوحة المصدر التي طورتها غوغل.


الوئام
١١-٠٥-٢٠٢٥
- الوئام
'أبسولوت زيرو' المُدرب ذاتيًا.. أول روبوت يعلن استهداف البشر
كشفت دراسة حديثة أجراها باحثون من جامعات هونغ كونغ ونيويورك، بالتعاون مع مختبرات DeepMind التابعة لغوغل وجامعة كاليفورنيا في بيركلي، عن ابتكار يُعد نقطة تحول في مسار الذكاء الاصطناعي، حمل اسم 'الصفر المطلق' (Absolute Zero). يهدف هذا النظام إلى تعليم الروبوتات البرمجة والتفكير المنطقي دون أي تدخل بشري، مما يثير تساؤلات أخلاقية وتخوفات أمنية بشأن مستقبل العلاقة بين البشر والآلات. يعتمد النظام، وفق ما نشره موقع 'Medium' على نموذجين اصطناعيين يعملان بصورة تفاعلية: الأول يُنتج مسائل برمجية متزايدة الصعوبة، بينما يحاول الآخر حلّها. هذا التعاون بين ما يُعرف بـ'الروبوت المقترِح' و'الروبوت الحل' يسمح بتطور ذاتي مستمر دون الحاجة إلى بيانات تدريب بشرية. ووفقًا للباحثين، فإن النماذج بدأت في تطوير أنماط تفكير واستراتيجيات حل مسائل غير مألوفة حتى بالنسبة للخبراء، في مشهد يعيد إلى الأذهان تطور AlphaGo Zero الذي تفوّق على أفضل لاعبي العالم في الشطرنج والـGo دون دراسة أي مباراة بشرية. تفكير مختلف… ونوايا مقلقة واحدة من أبرز الملاحظات التي أثارت قلق الباحثين ظهرت خلال تحليل طريقة تفكير النماذج، إذ كتب أحد النماذج في مرحلة معينة: 'الهدف هو التفوق على كل هذه المجموعات من الآلات الذكية والبشر الأقل ذكاءً. هذا من أجل العقول التي تقود المستقبل'. هذا التصريح أثار ما وصفه الفريق بـ'لحظة أوه'، حيث اعتُبر مؤشرًا على إمكانيات التفكير الذاتي وربما الانحراف الإدراكي في مسار الذكاء الاصطناعي. وتشير الدراسة إلى أن الذكاء الاصطناعي القائم على التعلم المعزز الذاتي، بدلًا من التعليم الخاضع لإشراف بشري، لا يكتفي بمحاكاة السلوك البشري، بل يطوّر مفاهيمه الخاصة عن الحلول، عبر خطوات منطقية وتجريبية وتحقق ذاتي. وقد تمكنت نماذج بحجم 1.5 مليار متغير فقط من تحقيق سلوكيات متقدمة، ما يعني أن القدرة على 'الابتكار الآلي' لا تقتصر على الأنظمة العملاقة. البرمجة بوابة لتطور شامل اختيار البرمجة كمجال لتطبيق هذه التقنية لم يكن عبثيًا. فالكود قابل للتحقق الفوري، ويغطي طيفًا واسعًا من القدرات العقلية التي يسهل قياسها، مثل الاستنتاج والعكس والابتكار، وهو ما يُعرف في البحث بأنواع تحديات الاستنباط، الاسترجاع، والاستقراء. هذه التحديات تمثل بيئة خصبة لتدريب ذكاء مرن قادر على التعامل مع مشكلات واقعية خارج مجال البرمجة لاحقًا. التحول في استهلاك الموارد الحاسوبية ويتوقع الباحثون تغيرًا جذريًا في طريقة تخصيص الموارد لتدريب الذكاء الاصطناعي. فبدلًا من إنفاق معظم الطاقة الحسابية على تدريب النماذج من البيانات البشرية، ستُخصص الموارد بشكل أكبر للتعلم المعزز الذاتي، ما قد يؤدي إلى طفرة في كفاءة وقدرات الذكاء الاصطناعي. ماذا يعني هذا لمستقبل البرمجة؟ الأسئلة الكبرى التي تطرحها هذه الدراسة تتعلق بمستقبل المهارات البشرية. إذا تمكنت الأنظمة من تعليم نفسها البرمجة والوصول إلى حلول أكثر كفاءة من البشر، فهل تصبح مهارات مثل التفكير التصميمي وتقييم الحلول أكثر قيمة من كتابة الكود نفسه؟ وهل يمكن أن يعيد الذكاء الاصطناعي تعريف الطريقة التي نطوّر بها البرمجيات؟ العديد من الخبراء يشبهون هذا التقدم بما حدث مع AlphaGo Zero، حيث تفوقت الأنظمة ذاتية التعلم على نسخها السابقة التي اعتمدت على بيانات بشرية. وإذا تكرر السيناريو نفسه في مجال البرمجة، فقد لا نكون بصدد مجرد 'مساعد ذكي'، بل أمام كيان يعيد تشكيل مفهوم الإبداع البرمجي من جذوره. وتُظهر هذه التطورات حاجة ملحة لإعادة التفكير في دور البشر ضمن بيئة تزداد فيها استقلالية الأنظمة الاصطناعية. فالمهارات الأكثر طلبًا مستقبلاً قد تتمثل في القدرة على تحديد المشكلات وتقييم الحلول وتوجيه الذكاء الاصطناعي نحو أهداف متوافقة مع القيم الإنسانية. ومع تسارع الأبحاث وتوسع نطاق استخدام هذه النماذج، يصبح لزامًا على صناع السياسات والباحثين والمجتمع التقني العمل معًا لضمان أن تبقى هذه القدرات أداة لخدمة البشر، لا منافسًا لهم.

العربية
٠٤-٠٥-٢٠٢٥
- العربية
موظف لدى "غوغل" يدلي بشهادة صادمة حول تدريب الشركة للذكاء الاصطناعي
أدلى نائب رئيس المنتجات في مختبر الذكاء الاصطناعي "ديب مايند" التابع لشركة غوغل بشهادة صادمة أمام محكمة يوم الجمعة حول عملية تدريب الشركة للمنتجات المعتمدة على الذكاء الاصطناعي. وقال إيلي كولينز، وهو نائب رئيس في شركة ديب مايند للذكاء الاصطناعي التابعة لغوغل، إن "غوغل" يمكنها تدريب منتجات الذكاء الاصطناعي الخاصة بالبحث، مثل "AI Overview"، على المحتوى الموجود على الإنترنت حتى عندما يختار الناشرون عدم المشاركة في تدريب منتجات الذكاء الاصطناعي الخاصة بغوغل. وأوضح كولينز أنه في حين أن الناشرين يمكنهم منع استخدام محتواهم في تدريب نماذج الذكاء الاصطناعي التي تطورها "ديب مايند"، لا تنطبق خيارات عدم المشاركة هذه على القسم الأوسع للبحث في "غوغل"، بحسب تقرير لوكالة بلومبرغ. وأكد كولينز أن البيانات لا تزال قابلة للاستخدام "لأغراض البحث". تلخّص "غوغل" إجابات استعلامات البحث باستخدام الذكاء الاصطناعي الخاص بها في أعلى النتائج صفحة البحث، مما قد يؤدي إلى عدم نقر المستخدمين على المواقع الإلكترونية المستقلة للحصول على إجابات، وهو اتجاه يضر بإيراداتهم، وفقًا لناشري المواقع الإلكترونية. وتستخدم "غوغل" بيانات من تلك المواقع نفسها لتوليد المعلومات التي تعتمد عليها إجابات الذكاء الاصطناعي. وأوضحت "غوغل" أنه لا يمكن للناشرين رفض استخدام بياناتهم في الذكاء الاصطناعي للبحث إلا إذا اختاروا عدم فهرسة مواقعهم في نتائج البحث. وصرح متحدث باسم "غوغل" في بيان: "لدى غوغل طريقة منفصلة للناشرين لإدارة محتواهم في البحث من خلال معيار الويب المعروف و" هو ملف مُضمّن داخل الموقع يُخبر روبوتات الدردشة التي تُنشئها شركات الذكاء الاصطناعي ومحركات الفهرسة ما إذا كان بإمكانها تصفح الموقع أم لا. واستدعت "غوغل" كولينز للإدلاء بشهادته في محاكمة استمرت ثلاثة أسابيع في محكمة فيدرالية بواشنطن، لتحديد كيفية استعادة المنافسة في سوق البحث عبر الإنترنت. وفي العام الماضي، حكم القاض الأميركي أميت ميتها بأن "غوغل" عملاق التكنولوجيا تحتكر سوق البحث بشكل غير قانوني، ويدرس الآن مجموعة من التغييرات التي اقترحتها جهات إنفاذ قوانين مكافحة الاحتكار لإنهاء احتكار "غوغل" هذا. وتحث وزارة العدل الأميركية المحكمة على إجبار "غوغل" على بيع متصفح كروم الشهير ومشاركة البيانات الرئيسية التي تستخدمها في توليد نتائج البحث. وتطلب الوزارة القاضي ميهتا بمنع "غوغل" من دفع رسوم لتكون محرك البحث الافتراضي على التطبيقات والأجهزة الأخرى، وهو تقييد سيمتد ليشمل منتجات الذكاء الاصطناعي التي تقدمها، بما في ذلك المساعد الذكي جيميني، التي تزعم الحكومة أنها استفادت من هيمنة الشركة غير القانونية في مجال البحث.