logo
#

أحدث الأخبار مع #ستانيسلافبيتروف

أخطار الذكاء الاصطناعي... هل نحتاج إلى كارثة لنستيقظ؟
أخطار الذكاء الاصطناعي... هل نحتاج إلى كارثة لنستيقظ؟

Independent عربية

time٢٨-٠٤-٢٠٢٥

  • علوم
  • Independent عربية

أخطار الذكاء الاصطناعي... هل نحتاج إلى كارثة لنستيقظ؟

اللحظة الأخطر التي اقتربت فيها البشرية من شفا الفناء نجمت عن خطأ حاسوبي. ففي ليلة الـ26 من سبتمبر (أيلول) عام 1983 في أوج الحرب الباردة، كان ستانيسلاف بيتروف البالغ من العمر 44 سنة، يؤدي نوبة عمله في محطة رادار سوفياتية خارج موسكو، عندما ظهرت أمامه على الشاشة خمسة صواريخ باليستية عابرة للقارات. كان البروتوكول يقتضي إبلاغ القيادات العليا بالتهديد الوشيك، مما كان سيؤدي إلى هجوم انتقامي ضد الولايات المتحدة، بالتالي نشوب حرب نووية شاملة. إلا أن بيتروف رفض اتباع الإجراءات، لأنه لم يثق بالكمبيوتر. وقد كان محقاً، إذ اتضح أن نظام الإنذار المبكر، الذي جرى تركيبه حديثاً، أخطأ في تفسير انعكاس أشعة الشمس على السحب على أنه إطلاق صواريخ. ويعد هذا الحدث أول حادثة مسجلة في "قاعدة بيانات حوادث الذكاء الاصطناعي"، التي أنشئت عام 2018 لتوثيق اللحظات الخطرة الناتجة من أنظمة الحوسبة والذكاء الاصطناعي. وتشير البيانات إلى أن هذه الحوادث في تزايد مستمر، إذ أبلغ عن 253 حادثة خلال عام 2024، مع توقعات بازدياد العدد خلال عام 2025. بعض هذه الحوادث كانت أودت بحياة أشخاص، مثل الحادثة التي سحق فيها روبوت عاملاً حتى الموت في مصنع "فولكسفاغن" بألمانيا، أو حالات الوفاة المتزايدة المرتبطة بالسيارات ذاتية القيادة. وثمة مجموعة من الحوادث الأخرى التي تعد مجرد مشكلات، مثل أداة التوظيف التابعة لـ"أمازون" التي أظهرت تحيزاً ضد النساء، أو تقنية التعرف على الوجوه الخاطئة التي أدت إلى اعتقالات بالخطأ. ومع ذلك، وعلى رغم تزايد عدد الحوادث، يخشى بعض أن يظل التهديد الذي يشكله الذكاء الاصطناعي غير مأخوذ بجدية حتى وقوع كارثة حقيقية. ويسمي الدكتور ماريو هيرغر الباحث في اتجاهات التكنولوجيا والمقيم في وادي السيليكون، هذا السيناريو بـ"بيرل هاربر الذكاء الاصطناعي"، في إشارة إلى الهجوم المفاجئ المدمر الذي شنته الطائرات اليابانية على قاعدة بحرية أميركية عام 1941، والذي أسفر عن مقتل 2400 شخص ودفع الولايات المتحدة أخيراً إلى دخول الحرب العالمية الثانية. وفي تدوينة نشرت عام 2021، كتب هيرغر أن سلامة الذكاء الاصطناعي لن تصبح أولوية إلا عندما "يتسبب هجوم في جعل الذكاء الاصطناعي يقتل آلاف الأشخاص أو يسرق مئات المليارات من اليوروهات" من حكومة ما. وخلص إلى القول "قدوم بيرل هاربر خاص بالذكاء الاصطناعي ليس أمراً حتمياً، لأننا لا نستطيع الاستعداد له والدفاع ضده، بل لأنه -كما هي الحال دائماً- لا نأخذه على محمل الجد حتى يحدث". وتكهن بأن الحادثة قد تأتي في صورة روبوتات بشرية تهاجم البشر جماعياً بسبب خلل ما، أو أن ذكاءً اصطناعياً خبيثاً قد يسيطر على بنية تحتية حيوية ليتسبب في انقطاعات مميتة للتيار الكهربائي أو فوضى اقتصادية. ومنذ كتابته تلك التدوينة، أدى ظهور "تشات جي بي تي" ونماذج متقدمة أخرى إلى جعل الذكاء الاصطناعي أكثر انتشاراً من أي وقت مضى، مما أدى إلى زيادة هائلة في الطرق التي قد يحدث بها ذلك. يقول هيرغر لـ "اندبندنت"، "الذكاء الاصطناعي موجود في كل مكان، وسنشهد أشكالاً عديدة أخرى من الكائنات الاصطناعية تحتل مساحاتنا"، مشيراً إلى الروبوتات البشرية التي تصنع الآن على نطاق تجاري، إضافة إلى الارتفاع المستمر في استخدام الطائرات المسيرة عالية التقنية. وهذا يعني أن مسارات الهجوم المحتملة تتزايد. وكما هي الحال دائماً، فإن أسوأ سيناريو ممكن الحدوث لا يزال غير مرجح جداً، لكنه أكثر احتمالاً مما قد يخبرك به الخبراء". ولمواجهة مثل هذه التهديدات، وضعت شركات رائدة على غرار "أوبن أي آي" و"غوغل" و"ميتا" سياسات خاصة بسلامة الذكاء الاصطناعي لضمان تطويره بمسؤولية. وكثفت الحكومات حول العالم جهودها لمعالجة مسألة سلامة الذكاء الاصطناعي خلال الأعوام الأخيرة. ولكن، كما هي الحال مع جميع التقنيات، فإن التنظيم يظل دائماً في حال سعي مستمر للحاق بوتيرة الابتكار. وخلال فبراير (شباط) 2025، اجتمع قادة من أكثر من 100 دولة في قمة العمل من أجل الذكاء الاصطناعي في باريس لوضع نهج منسق لتطوير الذكاء الاصطناعي وسلامته. وبينما وقعت 60 دولة على إعلان لضمان أن يكون الذكاء الاصطناعي "مفتوحاً، وشاملاً، وشفافاً، وأخلاقياً، وآمناً، ومحل ثقة"، امتنعت دولتان بارزتان عن التوقيع هما الولايات المتحدة والمملكة المتحدة. ويزعم خبراء في أخلاقيات الذكاء الاصطناعي من بينهم ديفيد لزلي الذي يعمل في "معهد آلن تورينغ"، أن مؤتمر باريس أكثر من التركيز على تقديم فرص للنمو الاقتصادي، مقارنة بمدى اهتمامه في التعامل مع الأخطار التي تهدد العالم الفعلي من الذكاء الاصطناعي. كما أن الظهور الأخير لنماذج الذكاء الاصطناعي المتقدمة من الصين على غرار "ديب سييك" و"مانوس"، كثف أيضاً التركيز على المنافسة بدلاً من التريث والحذر. [يعد مانوس أول وكيل رقمي للذكاء الاصطناعي يعمل باستقلالية ذاتية كبيرة]. يلاحظ خبير سلامة الذكاء الاصطناعي الدكتور شون ماكغريغور الذي أنشأ قاعدة بيانات حوادث الذكاء الاصطناعي قبل سبعة أعوام، أن الأنظمة الجديدة للذكاء الاصطناعي تجلب معها أخطاراً يكاد يكون من المستحيل التنبؤ بها. وتُشبَّه كل حادثة إشكالية لتلك التقنية بحوادث تحطم الطائرات، إذ إن المشكلات التي تتسبب فيها عادة ما تكون واضحة فقط بأثر رجعي. وفي حديث مع "اندبندنت"، أورد ماكغريغور "لا يفاجئني الارتفاع الحاد في حوادث الذكاء الاصطناعي. نحن نعيش اليوم وكأننا في المرحلة التي تلت اختراع أول طائرة بخمسة أعوام، إذ يمتلك الجميع -من البالغين إلى الأطفال وحتى الحيوانات الأليفة- طائرتهم الخاصة المتمثلة هنا في أنظمة الذكاء الاصطناعي، قبل أن نتوصل إلى كيفية جعل هذه الأنظمة موثوقة وآمنة بالفعل. وعلى رغم أن أنظمة الذكاء الاصطناعي تزداد أماناً عاماً بعد عام، فإنها تستخدم في مجالات جديدة لم نختبرها بعد، وخلال الوقت نفسه، بدأ الفاعلون الخبيثون في استغلالها لأغراض ضارة. إن ضمان استفادة البشرية جمعاء من الذكاء الاصطناعي بصورة آمنة يتطلب تحقيق تقدم تكنولوجي ومجتمعي على مستوى جميع الصناعات والحكومات". ووفق ماكغريغور، يتمثل أحد سيناريوهات حدوث "بيرل هاربور الذكاء الاصطناعي" بهجمات تحدث الشلل "في كل أنظمة شبكات الحواسيب في العالم، وبصورة متزامنة". ولكي يحدث شيء كهذا، فمن المرجح أنه سيتطلب شكلاً من الذكاء الاصطناعي الذي لا وجود له، في الأقل حتى الآن. وحاضراً، تعمل جميع الشركات الرائدة في مجال الذكاء الاصطناعي على تحقيق الذكاء الاصطناعي العام (AGI)، أو الذكاء بمستوى بشري. وبمجرد الوصول إلى هذه النقطة -وهي مسألة تراوح التقديرات في شأنها ما بين بضعة أشهر إلى عقود- فمن المرجح أن يلي ذلك ظهور الذكاء الاصطناعي الخارق، مما يعني أننا لن نكون قادرين حتى على فهم التقدمات التي تُحرز. وسيكون هذا الذكاء قادراً على إحداث ضرر يتجاوز قدرة أي إنسان، وبحلول ذلك الوقت قد يكون الأوان فات للتدخل. رئيس شركة "أوبن أي آي" التي صنعت "تشات جي بي تي" سام ألتمان أعرب مراراً عن قلقه من أن الذكاء الاصطناعي المتقدم قد يؤدي إلى نهاية الحضارة البشرية. ومع ذلك، فهو يدفع شركته باستمرار إلى إطلاق المنتجات قبل أن يعتقد موظفوه أنها جاهزة وآمنة للإصدار. نحن نعيش اليوم وكأننا في المرحلة التي تلت اختراع أول طائرة بخمسة أعوام، إذ يمتلك الجميع طائرتهم الخاصة المتمثلة هنا في أنظمة الذكاء الاصطناعي. وبوضوح، يحدث ذلك قبل توصلنا إلى جعلها موثوقة. د. شون ماكغريغور ويدافع ألتمان عن نفسه بالإشارة إلى أن قوى السوق تفرض هذا المسار، فإذا لم تطلق "أوبن أي آي" نماذج جديدة فلسوف تتخلف عن الآخرين. وثمة حجة أخرى يسوقها في الغالب الرياديون في التكنولوجيا ومفادها أن الذكاء الاصطناعي لديه قدرة كامنة على الإتيان بكميات ضخمة من الأعمال الخيرة، وتضييق الخناق على تطوره قد يعوق التقدم العلمي الذي يمكن أن يساعد في علاج الأمراض، أو التخفيف من أسوأ آثار أزمة المناخ. حتى هيرغر يصف نفسه بالـ"متفائل تكنولوجياً". فهو يعتقد أن الذكاء الاصطناعي يصبح أكثر أماناً بوجه عام، وأن تزايد الحوادث المقلقة يعود ببساطة إلى أن مزيداً من الناس يستخدمونه. ويقول "لماذا؟ لأن الذكاء الاصطناعي بالفعل يجعل حياتهم أفضل، ومفيد لهم. أعتقد أن الذكاء الاصطناعي، مثل معظم التقنيات الأخرى التي اخترعناها، سيجعل حياة البشر أفضل بكثير. فالتقنيات المصحوبة بسياسات جيدة جلبت لنا تقدماً جعلنا نعيش أعماراً أطول، ونتمتع بصحة أفضل، في بيئات أنظف". اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) وكثيراً ما وصف "الذكاء الاصطناعي العام" بأنه الهدف الأسمى في مجال الذكاء الاصطناعي، نظراً إلى إمكاناته الهائلة، وتشهد المنافسة على تحقيقه احتداماً متسارعاً. وكشف تقرير حديث أعده باحثون في جامعة ستانفورد داخل الولايات المتحدة أن الصين تقترب بسرعة من الولايات المتحدة في مضمار تطوير ذكاء اصطناعي بمستوى بشري، مما يدفع الشركات الأميركية إلى التسارع في إطلاق منتجات الذكاء الاصطناعي، سعياً للحفاظ على موقعها الريادي ومواكبة وتيرة المنافسة. وأشار التقرير نفسه إلى الاتجاه المقلق لارتفاع الحوادث المرتبطة بالذكاء الاصطناعي إلى مستويات قياسية. وسلط الضوء على حادثة وقعت خلال فبراير 2024، حين انتحر صبي يبلغ من العمر 14 سنة بعد "تفاعلات مطولة" مع شخصية محادثة آلية (تشات بوت). واعتبر مؤلفو التقرير أن هذه القضية تجسد التحديات الأخلاقية المعقدة المرتبطة بالذكاء الاصطناعي، محذرين من الأخطار الناجمة عن طرح منتجات جديدة دون رقابة كافية. ويرى التقرير أن هذا النوع من الحوادث قد يشكل السيناريو المحتمل لـ"بيرل هاربر" جديدة، ليس عبر هجوم متعمد بل نتيجة حادثة غير مقصودة. كما أن هذا النوع من الأذى يعد من أكثر الأنماط تكراراً في قاعدة بيانات حوادث الذكاء الاصطناعي. ومع التوسع في أتمتة الوظائف البشرية، يمكن أن تظهر مثل هذه الأخطاء بطرق حاسمة في مجالات مختلفة. فلو كان الذكاء الاصطناعي تولى وظيفة ستانيسلاف بيتروف عام 1983، لربما وقعت بالفعل نسخة من كارثة "بيرل هاربر" بفعل الذكاء الاصطناعي. ومع ملاحظته صعود تكنولوجيا إشكالية وفق ما رُصد في "قاعدة بيانات حوادث الذكاء الاصطناعي"، يشير ماكغريغور خصوصاً إلى أحد المسارات المفضية إلى الكارثة، ويتمثل بالإهمال والتغاضي. وكما تحولت حوادث كالمطر الحمضي وتلوث الأنهار وبقع النفط إلى رموز عن تدهور البيئة، واستطاعت تحفيز التغيير في ذلك المضمار، يأمل ماكغريغور أن تحقق قاعدة البيانات أثراً مماثلاً في مجال الذكاء الاصطناعي. ويقول "لقد تعلمنا من هذه الكوارث البيئية، وأنفقنا عقوداً في معالجة أضرارها. يمكن للذكاء الاصطناعي أن يستخدم في تحسين جهود إصلاح التدهور البيئي بكفاءة أكبر، لكنه ينطوي على ازدواجية شبيهة بتلك التي رافقت الثورة الصناعية. أملي أن يسهم توثيق التاريخ لحظة بلحظة في توجيه المجتمع وتقنياته نحو مستقبل أفضل، من دون الحاجة إلى التعلم من لحظة سننظر إليها بوصفها "بيرل هاربور الذكاء الاصطناعي".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store