logo
كلود يدق ناقوس الخطر.. الذكاء الاصطناعي يقترب من تجاوز السيطرة البشرية

كلود يدق ناقوس الخطر.. الذكاء الاصطناعي يقترب من تجاوز السيطرة البشرية

خبرنيمنذ 5 أيام
خبرني - عندما أُعلن الشهر الماضي عن أن نموذج الذكاء الاصطناعي «كلود»، التابع لشركة «أنثروبيك»، قد لجأ إلى ممارسة الابتزاز وأساليب أخرى للحفاظ على ذاته قائمة وتجنب إغلاقه، دقّ ناقوس الخطر في مجتمع الذكاء الاصطناعي.
ويقول باحثو أنثروبيك إن جعل نماذج الذكاء الاصطناعي تتصرف بشكل سيء هو جزء من جعلها أكثر أمانًا.
ومع ذلك، أثارت تصرفات كلود السؤال التالي، هل من سبيل لإيقاف الذكاء الاصطناعي بمجرد تجاوزه عتبة الذكاء البشري، أو ما يُسمى بالذكاء الفائق؟.
وبحسب "شبكة CNBC"، فإن الذكاء الاصطناعي، بمراكز بياناته المترامية الأطراف وقدرته على صياغة محادثات معقدة، قد تجاوز بالفعل مرحلة الأمان المادي أو مرحلة "زر الإيقاف" -أي فكرة إمكانية فصله ببساطة كوسيلة لإيقافه عن امتلاك أي قوة.
والقوة الأكثر أهمية، وفقًا لرجل يُعتبر "عراب الذكاء الاصطناعي"، هي قوة الإقناع، عندما تصل التكنولوجيا إلى نقطة معينة، نحتاج إلى إقناع الذكاء الاصطناعي بأن مصلحته القصوى هي حماية البشرية، مع الحرص على منعه من إقناع البشر بخلاف ذلك.
ويقول الباحث في جامعة تورنتو، جيفري هينتون، الذي عمل في غوغل حتى عام ٢٠٢٣ وتركها لرغبته في التحدث بحرية أكبر عن مخاطر الذكاء الاصطناعي، "إذا أصبح أكثر ذكاءً منا، فسيتفوق علينا في الإقناع، أما إذا لم يكن مسيطرًا، فكل ما يجب فعله هو الإقناع".
وأضاف مقدما أمثلة "لم يقم ترامب بغزو الكابيتول، لكنه أقنع الناس بذلك"، وتابع هينتون، "في مرحلة ما، ستصبح المسألة أقل تركيزًا على إيجاد زر إيقاف للذكاء الاصطناعي، وأكثر تركيزًا على قوى الإقناع".
وقال هينتون إن الإقناع مهارة سيزداد إتقان الذكاء الاصطناعي لها، وقد لا تكون البشرية مستعدة لذلك. وأضاف: "لقد اعتدنا أن نكون أذكى الكائنات على الإطلاق".
ووصف هينتون سيناريو يُعادل فيه البشر طفلًا في الثالثة من عمره في حضانة، يقوم بتشغيل مفتاح كبير.
ويطلب منك الأطفال الآخرون في الثالثة من العمر إطفاءه، لكن يأتي الكبار ويخبرونك أنك لن تضطر أبدًا إلى فعلا أشياء لم تكن تحبها مثل تناول البروكلي مرة أخرى إذا تركت المفتاح قيد التشغيل.
وقال، "علينا أن نواجه حقيقة أن الذكاء الاصطناعي سيصبح أذكى منا".
وأضاف، "أملنا الوحيد هو أن نجعلهم لا يرغبون في إيذائنا، إذا أرادوا إيذاءنا، فقد انتهى أمرنا، علينا أن نجعلهم خيرين، هذا ما يجب أن نركز عليه".
وهناك بعض أوجه التشابه مع كيفية تعاون الدول لإدارة الأسلحة النووية والتي يمكن تطبيقها على الذكاء الاصطناعي، لكنها ليست مثالية.
وهنا قال هينتون، "الأسلحة النووية جيدة فقط لتدمير الأشياء، لكن الذكاء الاصطناعي ليس كذلك، يمكن أن يكون قوة هائلة للخير والشر على حد سواء".
ويمكن أن تكون قدرته على تحليل البيانات في مجالات مثل الرعاية الصحية والتعليم مفيدة للغاية، وهو ما يقول إنه سيزيد من تركيز قادة العالم على التعاون لجعل الذكاء الاصطناعي مفيدًا ووضع ضمانات.
وقال هينتون، "لا نعلم إن كان ذلك ممكنًا، ولكن سيكون من المحزن أن تنقرض البشرية لأننا لم نكلف أنفسنا عناء البحث".
ويعتقد أن هناك احتمالًا كبيرًا يتراوح بين 10% و20% أن يتولى الذكاء الاصطناعي زمام الأمور إذا لم يجد البشر طريقة لجعله مفيدًا.
إجراءات الحماية قد تكون غير مجدية
ويقول الخبراء إنه يمكن تطبيق إجراءات حماية أخرى للذكاء الاصطناعي، لكن الذكاء الاصطناعي سيبدأ أيضًا بتدريب نفسه عليها.
بمعنى آخر، يصبح كل إجراء أمان يُطبق بمثابة بيانات تدريب للتحايل على القيود، مما يُغير ديناميكية التحكم.
ويقول ديف ناغ، مؤسس منصة الذكاء الاصطناعي الوكيل QueryPal، "إن مجرد بناء آليات إيقاف التشغيل يُعلّم هذه الأنظمة كيفية مقاومتها".
وبهذا المعنى، سيتصرف الذكاء الاصطناعي كفيروس يتحور ضد لقاح، ويضيف ناغ، "إنه أشبه بالتطور السريع، لم نعد ندير أدوات سلبية، بل نتفاوض مع جهات تُنمذج محاولاتنا للسيطرة عليها ونتكيف وفقًا لذلك".
وهناك تدابير أكثر صرامة مُقترحة لوقف الذكاء الاصطناعي في حالات الطوارئ.
على سبيل المثال، هجوم النبض الكهرومغناطيسي (EMP)، والذي يتضمن استخدام الإشعاع الكهرومغناطيسي لتدمير الأجهزة الإلكترونية ومصادر الطاقة.
كما نوقشت فكرة قصف مراكز البيانات وقطع شبكات الكهرباء على أنها ممكنة تقنيًا، لكنها تُمثل حاليًا مفارقة عملية وسياسية.
وذلك لأن أولاً، يتطلب التدمير المنسق لمراكز البيانات ضربات متزامنة في عشرات الدول، ويمكن لأي منها رفض ذلك وتحقيق ميزة استراتيجية هائلة.
ويقول إيغور ترونوف، مؤسس شركة أتلانتكس الناشئة في مجال الذكاء الاصطناعي، أن "تفجير مراكز البيانات ضرب من الخيال العلمي، لكن في العالم الواقعي، لن تكون أخطر أنظمة الذكاء الاصطناعي في مكان واحد، بل ستكون في كل مكان وفي اللا مكان، متداخلة في نسيج الأعمال والسياسة والأنظمة الاجتماعية، هذه هي نقطة التحول التي يجب أن نتحدث عنها حقًا".
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

كلود يدق ناقوس الخطر.. الذكاء الاصطناعي يقترب من تجاوز السيطرة البشرية
كلود يدق ناقوس الخطر.. الذكاء الاصطناعي يقترب من تجاوز السيطرة البشرية

خبرني

timeمنذ 5 أيام

  • خبرني

كلود يدق ناقوس الخطر.. الذكاء الاصطناعي يقترب من تجاوز السيطرة البشرية

خبرني - عندما أُعلن الشهر الماضي عن أن نموذج الذكاء الاصطناعي «كلود»، التابع لشركة «أنثروبيك»، قد لجأ إلى ممارسة الابتزاز وأساليب أخرى للحفاظ على ذاته قائمة وتجنب إغلاقه، دقّ ناقوس الخطر في مجتمع الذكاء الاصطناعي. ويقول باحثو أنثروبيك إن جعل نماذج الذكاء الاصطناعي تتصرف بشكل سيء هو جزء من جعلها أكثر أمانًا. ومع ذلك، أثارت تصرفات كلود السؤال التالي، هل من سبيل لإيقاف الذكاء الاصطناعي بمجرد تجاوزه عتبة الذكاء البشري، أو ما يُسمى بالذكاء الفائق؟. وبحسب "شبكة CNBC"، فإن الذكاء الاصطناعي، بمراكز بياناته المترامية الأطراف وقدرته على صياغة محادثات معقدة، قد تجاوز بالفعل مرحلة الأمان المادي أو مرحلة "زر الإيقاف" -أي فكرة إمكانية فصله ببساطة كوسيلة لإيقافه عن امتلاك أي قوة. والقوة الأكثر أهمية، وفقًا لرجل يُعتبر "عراب الذكاء الاصطناعي"، هي قوة الإقناع، عندما تصل التكنولوجيا إلى نقطة معينة، نحتاج إلى إقناع الذكاء الاصطناعي بأن مصلحته القصوى هي حماية البشرية، مع الحرص على منعه من إقناع البشر بخلاف ذلك. ويقول الباحث في جامعة تورنتو، جيفري هينتون، الذي عمل في غوغل حتى عام ٢٠٢٣ وتركها لرغبته في التحدث بحرية أكبر عن مخاطر الذكاء الاصطناعي، "إذا أصبح أكثر ذكاءً منا، فسيتفوق علينا في الإقناع، أما إذا لم يكن مسيطرًا، فكل ما يجب فعله هو الإقناع". وأضاف مقدما أمثلة "لم يقم ترامب بغزو الكابيتول، لكنه أقنع الناس بذلك"، وتابع هينتون، "في مرحلة ما، ستصبح المسألة أقل تركيزًا على إيجاد زر إيقاف للذكاء الاصطناعي، وأكثر تركيزًا على قوى الإقناع". وقال هينتون إن الإقناع مهارة سيزداد إتقان الذكاء الاصطناعي لها، وقد لا تكون البشرية مستعدة لذلك. وأضاف: "لقد اعتدنا أن نكون أذكى الكائنات على الإطلاق". ووصف هينتون سيناريو يُعادل فيه البشر طفلًا في الثالثة من عمره في حضانة، يقوم بتشغيل مفتاح كبير. ويطلب منك الأطفال الآخرون في الثالثة من العمر إطفاءه، لكن يأتي الكبار ويخبرونك أنك لن تضطر أبدًا إلى فعلا أشياء لم تكن تحبها مثل تناول البروكلي مرة أخرى إذا تركت المفتاح قيد التشغيل. وقال، "علينا أن نواجه حقيقة أن الذكاء الاصطناعي سيصبح أذكى منا". وأضاف، "أملنا الوحيد هو أن نجعلهم لا يرغبون في إيذائنا، إذا أرادوا إيذاءنا، فقد انتهى أمرنا، علينا أن نجعلهم خيرين، هذا ما يجب أن نركز عليه". وهناك بعض أوجه التشابه مع كيفية تعاون الدول لإدارة الأسلحة النووية والتي يمكن تطبيقها على الذكاء الاصطناعي، لكنها ليست مثالية. وهنا قال هينتون، "الأسلحة النووية جيدة فقط لتدمير الأشياء، لكن الذكاء الاصطناعي ليس كذلك، يمكن أن يكون قوة هائلة للخير والشر على حد سواء". ويمكن أن تكون قدرته على تحليل البيانات في مجالات مثل الرعاية الصحية والتعليم مفيدة للغاية، وهو ما يقول إنه سيزيد من تركيز قادة العالم على التعاون لجعل الذكاء الاصطناعي مفيدًا ووضع ضمانات. وقال هينتون، "لا نعلم إن كان ذلك ممكنًا، ولكن سيكون من المحزن أن تنقرض البشرية لأننا لم نكلف أنفسنا عناء البحث". ويعتقد أن هناك احتمالًا كبيرًا يتراوح بين 10% و20% أن يتولى الذكاء الاصطناعي زمام الأمور إذا لم يجد البشر طريقة لجعله مفيدًا. إجراءات الحماية قد تكون غير مجدية ويقول الخبراء إنه يمكن تطبيق إجراءات حماية أخرى للذكاء الاصطناعي، لكن الذكاء الاصطناعي سيبدأ أيضًا بتدريب نفسه عليها. بمعنى آخر، يصبح كل إجراء أمان يُطبق بمثابة بيانات تدريب للتحايل على القيود، مما يُغير ديناميكية التحكم. ويقول ديف ناغ، مؤسس منصة الذكاء الاصطناعي الوكيل QueryPal، "إن مجرد بناء آليات إيقاف التشغيل يُعلّم هذه الأنظمة كيفية مقاومتها". وبهذا المعنى، سيتصرف الذكاء الاصطناعي كفيروس يتحور ضد لقاح، ويضيف ناغ، "إنه أشبه بالتطور السريع، لم نعد ندير أدوات سلبية، بل نتفاوض مع جهات تُنمذج محاولاتنا للسيطرة عليها ونتكيف وفقًا لذلك". وهناك تدابير أكثر صرامة مُقترحة لوقف الذكاء الاصطناعي في حالات الطوارئ. على سبيل المثال، هجوم النبض الكهرومغناطيسي (EMP)، والذي يتضمن استخدام الإشعاع الكهرومغناطيسي لتدمير الأجهزة الإلكترونية ومصادر الطاقة. كما نوقشت فكرة قصف مراكز البيانات وقطع شبكات الكهرباء على أنها ممكنة تقنيًا، لكنها تُمثل حاليًا مفارقة عملية وسياسية. وذلك لأن أولاً، يتطلب التدمير المنسق لمراكز البيانات ضربات متزامنة في عشرات الدول، ويمكن لأي منها رفض ذلك وتحقيق ميزة استراتيجية هائلة. ويقول إيغور ترونوف، مؤسس شركة أتلانتكس الناشئة في مجال الذكاء الاصطناعي، أن "تفجير مراكز البيانات ضرب من الخيال العلمي، لكن في العالم الواقعي، لن تكون أخطر أنظمة الذكاء الاصطناعي في مكان واحد، بل ستكون في كل مكان وفي اللا مكان، متداخلة في نسيج الأعمال والسياسة والأنظمة الاجتماعية، هذه هي نقطة التحول التي يجب أن نتحدث عنها حقًا".

لماذا أزالت ميتا 10 ملايين حساب على فيسبوك؟
لماذا أزالت ميتا 10 ملايين حساب على فيسبوك؟

عمون

time١٧-٠٧-٢٠٢٥

  • عمون

لماذا أزالت ميتا 10 ملايين حساب على فيسبوك؟

عمون - في خطوة غير مسبوقة، أعلنت شركة "ميتا" يوم الإثنين عن حذف 10 ملايين حساب على منصة فيسبوك خلال النصف الأول من عام 2025. هذه الحملة جاءت في إطار جهودها لمحاربة المحتوى المكرر، الانتحال، والأنشطة الاحتيالية، والتي ارتفعت مؤخرًا مع تزايد استخدام أدوات الذكاء الاصطناعي. ما سبب حذف هذه الحسابات؟ بحسب تقرير نشرته CNBC، فإن غالبية هذه الحسابات كانت تنتحل صفة منشئي محتوى مشهورين، وتنشر محتوى مكررًا ومنخفض الجودة باستخدام الذكاء الاصطناعي. الهدف من ذلك كان التربّح عبر منشورات احتيالية أو جمع التفاعل بطرق غير أصلية. الذكاء الاصطناعي في خدمة الحماية وقالت ميتا إنها باتت تعتمد تقنيات ذكاء اصطناعي متقدمة لرصد الحسابات المكررة ومنع المحتوى المنسوخ من الانتشار. كما بدأت بتقليل ظهور التعليقات والمشاركات القادمة من الحسابات المشبوهة، والحد من وصولها إلى المستخدمين. تعزيز المحتوى الأصلي إلى جانب حذف الحسابات المخالفة، بدأت ميتا دعم المنشورات التي يُنتجها المبدعون الحقيقيون، بإعطائها أولوية في موجز الأخبار (News Feed). كما تم إيقاف نحو 500 ألف حساب آخر بسبب أنشطة مزيفة أو إرسال رسائل سبام. خطوة مشابهة من يوتيوب "ميتا" ليست الوحيدة. فقد أعلنت يوتيوب أيضًا عن سياسات جديدة تمنع تحقيق الدخل من المحتوى المكرر أو الذي يُنتج بكميات ضخمة. لكنها أكدت أنها لا تحارب الذكاء الاصطناعي نفسه، بل الاستخدام المضلل له. استثمار المليارات من جهة أخرى كشف مارك زوكربيرغ عن نية ميتا استثمار مئات المليارات من الدولارات في البنية التحتية للذكاء الاصطناعي، استعدادًا لإطلاق مشاريع ضخمة في هذا المجال.

هل يتفوق الذكاء الاصطناعي على البشر قريبا؟
هل يتفوق الذكاء الاصطناعي على البشر قريبا؟

Amman Xchange

time١٤-٠٧-٢٠٢٥

  • Amman Xchange

هل يتفوق الذكاء الاصطناعي على البشر قريبا؟

الغد-إبراهيم المبيضين تدافع خلال الأسابيع القليلة الماضية مسؤولون وعرابون لطرح توقعات يرونها "مبشرة" لمستقبل البشرية والاقتصاد في ظل تصاعد غير مسبوق في اعتماد البشر على الذكاء الاصطناعي، مقابل فريق ينظر إلى المستقبل نظرة "الخائف" من إمكانية تغول "الآلة التكنولوجية" على الإنسان. خبراء محليون يؤكدون أن كل هذه التوقعات الايجابية أو التخوفات مشروعة في طور تسارع وتطور النماذج اللغوية الكبيرة مثل " تشات جي بي تي" النماذج التي أصبحت قادرة على أداء مهام معقدة جدا في وقت قياسي، فضلا عن تطور القدرة على التعلم الذاتي ما يجعل بعض النماذج تطور مهاراتها بدون تدخل بشري مباشر، فيما يلوح في الأفق غياب الأطر التنظيمية القوية عالميًا، ما يعني إمكانية سوء الاستخدام من قبل جهات غير مسؤولة. ويشير الخبراء إلى أهمية التنافس المشتعل بين الشركات التقنية العالمية، وخصوصا الأميركية والصينية؛ لأن من سيقود هذا القطاع في العالم سيمسك بزمام الثورة الصناعية الخامسة، مشددين على أهمية الوصول إلى تنظيم عالمي يحكم تطوير واستخدام هذه التقنية كما حصل في "حوكمة شبكة الإنترنت"، لأن التأثير لا يشمل دولة بحد ذاتها. ويؤكد الخبراء،على المستوى المحلي، ضرورة وضع تنيظم وتشريع ينظم الذكاء الاصطناعي ويكون منسجما مع ما يوضع على المستوى العالمي، كما أكدوا أهمية مضي الحكومة في تنفيذ الإستراتيجية الوطنية للذكاء الاصطناعي وتنفيذ مشاريعها للاستفادة من منها في تطوير القطاعات الحيوية. توصية نيابية حول الذكاء الاصطناعي لجنة الاقتصاد الرقمي والريادة النيابية أوصت الأسبوع الماضي بتبني مظلة تشريعية مرنة تواكب التطور المتسارع في تقنيات الذكاء الاصطناعي، وإعداد ميثاق وطني يضمن الاستخدام الآمن والمنضبط لهذه التقنيات، يتضمن أطرًا للحوكمة ومبادئ أخلاقية واضحة. تصريحات وتوقعات مهمة من مسؤولين كبار ورصدت "الغد" مجموعة من التصريحات المهمة لرواد في مجال الذكاء الاصطناعي حول تسارع التطور فيها والتخوفات منها، لعل أهمها ما صرح به قبل أسابيع جيفري هينتون، الذي يوصف عالميا بالأب الروحي للذكاء الاصطناعي عندما حذر من المخاطر المتزايدة للتطورات في الذكاء الاصطناعي، حيث إن بعض مخاطر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي "مخيفة للغاية" على حد وصفه. وبحسب تقرير لـ"بي بي سي" قال هينتون المستقيل من شركة "جوجل": " في الوقت الحالي، ليسوا أكثر ذكاءً منا، على حد علمي، لكنني أعتقد أنهم قد يصبحون كذلك قريبًا". وفي مقال نشرته صحيفة "نيويورك تايمز" أشار هينتون إلى "جهات فاعلة سيئة" قد تحاول استخدام الذكاء الاصطناعي لأغراض سيئة.. هذا مجرد سيناريو أسوأ، أشبه بكابوس، يمكنكم أن تتخيلوا، على سبيل المثال، أن جهة فاعلة سيئة قررت منح الروبوتات القدرة على تحقيق أهدافها الفرعية الخاصة. وفي دراسة عالمية، قالت مجلة لوبوان العالمية: " إن تنبؤ باحثين بأن الذكاء الاصطناعي العام قد يصبح موجودا وقادرا على خداع مبتكريه في عام 2027" وتوقعوا أن يكون تأثيره هائلا في العقد القادم، وأن يتجاوز تأثير الثورة الصناعية. وحسب تنبؤات الباحثين، من المتوقع حدوث تغيير كبير العام المقبل، بحيث تصبح أدوات الذكاء الاصطناعي مفيدة في الحياة اليومية. توقعات بتقدم سريع للذكاء الاصطناعي ويرى خبير إستراتيجيات الذكاء الاصطناعي والميتافيرس في شركة "ميتا سيرف مي" رامي الدماطي أن التوقعات جميعها " تشير إلى تقدم كبير سيتحقق للذكاء الاصطناعي خلال سنوات قليلة مقبلة"، وأن التخوفات المرافقة لهذه التوقعات" هي تخوفات مشروعة إلى حدٍّ كبير"، وهي ليست مجرد تهويل إعلامي، وخصوصا أنها تأتي من خبراء وروّاد في مجال الذكاء الاصطناعي أنفسهم، مثل الدكتور جيفري هينتون المعروف بـ'عرّاب الذكاء الاصطناعي' والذي يحذر من المخاطر المتزايدة لتطور الذكاء الاصطناعي. وقال الدماطي: "التخوفات من الذكاء الاصطناعي ليست خيالية، بل إنها دعوة للتحرك السريع نحو حوكمة ذكية وتنظيم شفاف يضمن استغلال فوائده وتقليل مخاطره، وليس المطلوب إيقاف التقدم، بل إدارته بشكل مسؤول". التوقعات تستند إلى معطيات علمية ويرى الدماطي أن هذه التوقعات والتصريحات تستند إلى معطيات علمية وتقنية حقيقية، ومن هذه المعطيات: التطور السريع للنماذج اللغوية الكبيرة مثل " تشات جي بي تي"، و"جيميني" وغيرها، وهي النماذج التي أصبحت قادرة على أداء مهام معقدة جدا في وقت قياسي، فضلا عن تطور القدرة على التعلم الذاتي ما يجعل بعض النماذج تطور مهاراتها بدون تدخل بشري مباشر. وأشار الدماطي إلى أن من المعطيات أيضا، غياب الأطر التنظيمية القوية عالميًا، ما يعني إمكانية سوء الاستخدام من قبل جهات غير مسؤولة (مثل الجهات العسكرية، أو الشركات الربحية، أو حتى الأفراد، إلى جانب التسارع في التطور وامكانية ظهور 'ذكاء اصطناعي عام" في فترة قصيرة نسبياً (بين 2027-2030 كما تشير تقديرات بعض الباحثين) – وهو نوع من الذكاء يفوق أو يوازي الذكاء البشري في معظم المجالات. ونقل موقع "أكسيوس" العالمي مؤخرا عن سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي"، قوله في منشور حديث على مدونته: "من المرجح أن يكون عقد الثلاثينيات مختلفا تماما عن أي وقت مضى، لا نعرف إلى أي مدى يمكننا تجاوز مستوى الذكاء البشري، لكننا نوشك أن نكتشف". وصرح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، لأكسيوس أن الذكاء الاصطناعي قد يقضي على نصف الوظائف الإدارية المبتدئة، وقال جيفري هينتون، وهو أحد عرابي الذكاء الاصطناعي، إن التكنولوجيا تتطور "بسرعة فائقة، أسرع بكثير مما توقعت". الإستراتيجية الوطنية للذكاء الاصطناعي ويرى الخبير في مجال الأعمال الإلكترونية أ.د.أحمد غندور "أن الذكاء الاصطناعي سيشهد نمواً متسارعاً في الأردن والعالم، مدفوعاً بالتحول الرقمي والتوسع في استخدام التطبيقات الذكية في التعليم، الصحة، العمل الحكومي، والخدمات. وأشار إلى أن الإستراتيجية الوطنية الأردنية (2023–2027) تهدف إلى تسريع دمج الذكاء الاصطناعي في القطاعات الحيوية، مع التركيز على أنظمة داعمة وليست بديلة للعنصر البشري لكن بالرغم من أن الأتمتة والذكاء الاصطناعي سيؤديان إلى تقليص أعداد بعض الوظائف التقليدية، إلا أن التقارير تؤكد أن الهدف هو تكامل الذكاء الاصطناعي مع القوى العاملة، لا استبدالها. وقال غندور: "التحدي الحقيقي ليس في "إحلال" البشر، بل في "إعادة تشكيل" المهارات المطلوبة والوظائف المستقبلية". وأكد غندور أن كل المعطيات في العالم والأردن تظهر زيادة استخدام الذكاء الاصطناعي في المهام المتكررة والإدارية، وتوفير وظائف جديدة في مجالات تحليل البيانات، الأمن السيبراني، تطوير الأنظمة، والتعليم الذكي، وارتفاع الطلب على المهارات التقنية والمعرفية مقابل انخفاض في الطلب على المهارات اليدوية والروتينية. الذكاء الاصطناعي سيغير طبيعة العمل وعن رأيه فيما إذا كان الذكاء الاصطناعي سيحل محل البشر، أكد غندور أن ذلك لن يحصل بشكل واسع خلال السنوات القريبة، لكنه سيغير طبيعة العمل، ويقلل الحاجة إلى بعض الوظائف، ويرفع الحاجة إلى مهارات جديدة، المسألة ليست في "الاستبدال" بل في التحول. وعن ما مطلوب في الأردن لمواكبة التطور؟ قال غندور: "إن إصدار الإستراتيجية الوطنية خطوة مهمة، لكنها لا تكفي دون تطبيق فعلي، المطلوب من الحكومة تفعيل الإستراتيجية ببرامج تنفيذية واضحة، وربط التعليم بسوق العمل، وتحديث التشريعات لحماية الحقوق وتنظيم الاستخدام. كيف نستفيد من الذكاء الاصطناعي؟ واشار إلى أن المؤسسات مطالبة بتأهيل كوادرها وتبني حلول عملية بالذكاء الاصطناعي، لا الاكتفاء بالشعارات، أما الأفراد فعليهم الاستثمار في تعلم المهارات الرقمية، وفهم أدوات الذكاء الاصطناعي بدل الاكتفاء باستخدامها بشكل سطحي والتعامل مع الذكاء الاصطناعي يجب أن يتحول من استهلاك سلبي إلى توظيف واعٍ يخدم المجتمع والاقتصاد. مواكبة التطور تبدأ بتغيير العقليات قبل الأدوات وأكد غندور أنه مع وضع قانون ينظم استخدام الذكاء الاصطناعي، لأنه بدون تنظيم قد يتحول إلى أداة للتمييز أو التلاعب أو انتهاك الخصوصية. وأضاف، " من الأمثلة على ذلك استخدام خوارزميات القبول أو التوظيف، التي قد تكرر تحيّزات اجتماعية دون وعي وأيضًا، في القطاع الصحي، قرارات التشخيص أو وصف العلاج عبر الذكاء الاصطناعي تحتاج إلى مساءلة واضحة في حال حدوث خطأ، القانون لا يقيّد الابتكار، بل يحمي الأفراد ويحدد المسؤولية، ويشجّع على الاستخدام العادل والآمن للتقنية". إحصاءات ومؤشرات تظهر إحصاءات عالمية أن تبني الذكاء الاصطناعي في المؤسسات عالميا ارتفع إلى 55 % في عام 2023، ووصل إلى 72 % في عام 2024 وقد استخدمت 33 % من الشركات الذكاء الاصطناعي التوليدي في عام 2023، وارتفعت النسبة إلى 65 % في عام 2024. وذكرت الإحصاءات العالمية أن 92 % من الشركات تستعد للاستثمار في الذكاء الاصطناعي التوليدي خلال السنوات الثلاث القادمة (من 2025). وأشارت الدراسات إلى أن الشركات تستخدم ما معدله 3.8 قدرات مختلفة للذكاء الاصطناعي في عام 2022، ارتفاعًا من 1.9 في عام 2018 ويظل الاستخدام الأكثر شيوعًا للذكاء الاصطناعي هو تحسين عمليات الخدمة. حاجة إلى تنظيم شامل للذكاء الاصطناعي وأكدت الخبيرة في مجال الحقوق الرقمية والتكنولوجيا الناشئة الدكتورة نهلا المومني أن الذكاء الاصطناعي " يتطلب تنظيما شاملا في إطار قانون واحد يضمن الإحاطة بجوانب التنظيم كافة، مع ضرورة أن يترافق ذلك مع حوار مجتمعي يضم جميع الفئات". وأوضحت أنه يوجد عدد من الصكوك الدولية التي أكدت على ضرورة تنظيم الذكاء الاصطناعي أبرزها: خريطة الطريق للتعاون الرقمي لعام 2020م والتي حددت ثمانية مجالات عمل رئيسة يتمثل أبرزها في ضرورة تنظيم الذكاء الاصطناعي بما يؤدي إلى الحد من ارتكاب الجرائم وضمان حماية حقوق الإنسان في العصر الرقمي. وزادت، "بالإضافة إلى ذلك فإن الميثاق الرقمي العالمي الصادر عن الأمم المتحدة عام 2024 اكد على ضرورة تعزيز الحوكمة الدولية للذكاء الاصطناعي ووضع الضمانات الكفيلة لمنع ومعالجة أي تأثير سلبي على حقوق الإنسان ناجم عن استخدام الذكاء الاصطناعي". قانون الذكاء الاصطناعي في الاتحاد الأوروبي وبينت أنه في الإطار الإقليمي، يعد قانون الذكاء الاصطناعي لعام 2024 المعتمد في إطار الاتحاد الأوروبي نموذجا تنظيميا، يحقق توازنا بين الابتكار والتشجيع عليه ولكن في إطار المسؤولية عن المخاطر المحتملة، وبين حماية حقوق الأفراد من خلال ضمان عدم استخدام الذكاء الاصطناعي بما يؤدي إلى التمييز بين الأفراد أو انتهاك خصوصياتهم. وأشارت إلى أنه من أجل ذلك صنف القانون أنظمة الذكاء الاصطناعي إلى مستويات وفقا لدرجة خطورتها وتأثيرها على حياة الأفراد وحقوقهم ويستتبع ذلك عقوبات أو نتائج تترتب على مخالفتها. الاتساق مع المعايير الدولية الاتساق مع المعايير الدولية لحقوق الإنسان يتطلب اتخاذ الإجراءات اللازمة لغايات تقنين الذكاء الاصطناعي في إطار الدول بالنتيجة وهو ما ينبغي السعي له في الإطار الوطني الأردني ، حيث تم اعتماد الإستراتيجية الوطنية للذكاء الاصطناعي. ويعد تنظيم هذه الأداة من خلال تمكين بيئة تشريعية وتنظيمية مسؤولة هدفا أساسيا تنفيذيا في هذه الإستراتيجية؛ وهذا التنظيم ينبع من كون الذكاء الاصطناعي يعد وسيلة من وسائل ارتكاب الجرائم ولا بد من مواكبة التشريعات الوطنية للأفعال التي قد تنتج عن استخدام الذكاء الاصطناعي. المنظومة القانونية الوطنية تفتقر إلى تنظيم شمولي وترى المومني أن المنظومة القانونية الوطنية ما تزال حتى الآن تفتقر لتنظيم شمولي وتقتصر الحماية على نصوص مبعثرة في عدة قوانين، مثل قانون حماية البيانات الشخصية وقانون الجرائم الإلكترونية الذي يضمن تجريم انتهاك الحياة الخاصة للأفراد من صور أو اصطناع مقاطع فيديو أو غير ذلك من أفعال للتلاعب بمكونات هذه الحياة، كما تم تغليظ العقوبات في حال استخدام التكنولوجيا الناشئة والتي من ضمنها الذكاء الاصطناعي لاستغلال الأطفال أو الأشخاص ذوي الإعاقة أو المصابين بأمراض نفسية وغير ذلك. التنظيم يجب أن يكون على مستوى دولي وزير الاتصالات الأسبق الدكتور عزام سليط يرى أن الذكاء الاصطناعي يشهد تطورات مذهلة اليوم، وبدأ يسيطر على أجزاء من أعمالنا، واهتماماتنا اليومية وهذه السيطرة هي في تمدد سنة بعد سنة. ويرى سليط أن علم الذكاء الاصطناعي يشهد تطورا بمقدار التقدم في علوم التكنولوجيا المختلفة، مؤكدا على أهمية مواكبة تطوراته محليا، وأهمية أن تجري عملية لتنظيمه ولكن بالربط مع التنظيم الدولي (على مستوى العالم) لهذه التقنية كما جرى في مسألة حوكمة الإنترنت، فالقضية متشابكة ومترابطة إلى حد كبير ما يتطلب تعاونا وإقرارا لتنظيمات تحكم العالم كله قبل التنظيمات المحلية في كل دولة. خلال الربع اللأول من العام الحالي، ومع ما يشهده سوق الذكاء الاصطناعي من طفرة ومنافسة شديدة، دعت رسالة مفتوحة - شارك في توقيعها عشرات الأشخاص في مجال الذكاء الاصطناعي، بمن فيهم الملياردير إيلون ماسك - إلى إيقاف جميع التطورات الأكثر تقدمًا من الإصدار الحالي من روبوت الدردشة شات جي بي تي للذكاء الاصطناعي، وذلك لوضع تدابير سلامة صارمة وتطبيقها الذكاء الاصطناعي يعيد تشكيل العالم الخبير في مجال البيانات والتقنية الدكتور حمزة العكاليك قال: لم يعد الذكاء الاصطناعي ترفًا تقنيًا أو تصورًا مستقبليًا، بل أصبح قوة حاضرة بقوة تعيد تشكيل العالم من حولنا. فمع كل تقدم في النماذج التوليدية والأنظمة المستقلة، يزداد الحديث عن التحولات الكبرى التي ستحدث في سوق العمل، والبيئة، والثقة المجتمعية. المخاوف الثلاثة وأضاف العكاليك، أنه في هذا السياق تبرز ثلاثة مخاوف رئيسة تحتاج إلى نقاش جاد واستجابة إستراتيجية سريعة: إحلال الإنسان، استنزاف الطاقة، وتآكل الثقة العامة. وبين أن التقديرات تظهر أن الذكاء الاصطناعي قد يستبدل ما يقارب 300 مليون وظيفة عالميًا، ما يعادل 9 % من سوق العمل العالمي. وقال العكاليك: "المثير للقلق أن التأثير لا يقتصر على المهام الروتينية، بل يمتد ليشمل موظفي المكاتب، والبنوك، ومراكز الاتصال، وحتى الوظائف التي تتطلب مؤهلات عليا" لافتا إلى أن الإحصائيات تظهر أن 27 % من الحاصلين على شهادات جامعية يعملون في وظائف معرضة للخطر، مقابل 3 % فقط لمن لم يكملوا التعليم الثانوي. الاقتصادات المتقدمة والذكاء الاصطناعي وأضاف العكاليك، أنه على المستوى العالمي، فالتباين واضح: الاقتصادات المتقدمة الأكثر اعتمادًا على الخدمات الرقمية تبدو الأكثر هشاشة أمام موجة الأتمتة، في حين أن الاقتصادات النامية، التي تعتمد على العمالة اليدوية، ستشهد تأثيرًا أقل حدة. وفي سياق متصل قال العكاليك: "وراء بريق الابتكار، يُخفي الذكاء الاصطناعي تكلفة بيئية ثقيلة، فالنماذج العملاقة مثل "التشات جي بي تي 4" تتطلب كميات هائلة من الكهرباء والماء، مشيرا إلى أن التأثيرات البيئية عند الكهرباء فقط، بل تشمل المياه". تحدي التزييف العميق وأكد على تحدي التزييف العميق الذي اعتبره أحد أخطر التحديات المرتبطة بالذكاء الاصطناعي، كونه يُمكّن إنتاج صور ومقاطع صوتية أو مرئية مزيفة يصعب تمييزها عن الحقيقة وهذا التهديد لا يقتصر على التضليل الإعلامي، بل يهدد جوهر الحقيقة نفسها. وأشار العكاليك إلى أنه استجابة لهذه المخاوف، اعتمد الاتحاد الأوروبي في 2024 قانون الذكاء الاصطناعي، الذي يُعد أول تشريع شامل ينظم الذكاء الاصطناعي بناءً على مستويات المخاطر. حيث تم تصنيف الأنظمة إلى أربع فئات: غير مقبولة، عالية، متوسطة، ومنخفضة المخاطر وتم حظر استخدام الذكاء الاصطناعي في بعض التطبيقات مثل التلاعب بالأطفال أو التصنيف الاجتماعي، كما فرض القانون شروطًا على النماذج التوليدية مثل " التشات جي بي تي" ، بما في ذلك الإفصاح عن أن المحتوى تم إنشاؤه بالذكاء الاصطناعي، ومنع إنشاء محتوى غير قانوني، وتوفير ملخصات للبيانات المستخدمة في التدريب. وأضاف قائلا: "رغم ريادة أوروبا، إلا أن دولًا مثل الولايات المتحدة ما زالت تعتمد على تنظيمات محلية غير موحدة، في حين تتقدم دول مثل كينيا وسنغافورة وسويسرا بخطى ثابتة نحو أطر تنظيمية خاصة بها". المشهد لا يخلو من الأمل ورغم التهديدات، لا يخلو المشهد من أمل بحسب العكاليك الذي قال "المنتدى الاقتصادي العالمي يتوقع توفير 78 مليون وظيفة جديدة بحلول 2030، مقابل فقدان 92 مليونا وتشمل الوظائف الأسرع نموًا: اختصاصيي الذكاء الاصطناعي، مطوري البرمجيات، والمهنيين في مجالات (العلوم، التكنولوجيا، الهندسة، الرياضيات). مفترق طرق ولخص العكاليك قائلا: " يقف العالم اليوم أمام مفترق طرق تاريخي، فبينما يُظهر الذكاء الاصطناعي قدرة هائلة على حل مشكلات معقدة وتحفيز الابتكار، إلا أنه قد يتحول إلى قوة مدمّرة إذا لم يُدار بحكمة، الخطر لا يكمن في التقنية بحد ذاتها، بل في طريقة توجيهنا لها، إن المستقبل الآمن للذكاء الاصطناعي لا يتطلب فقط التنظيم، بل قيادة شجاعة، وتعاونًا دوليًا، واستثمارًا في الإنسان قبل الآلة".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store