
نحو نسختنا من أخلاقيات الذكاء الاصطناعي
كان الذكاء الاصطناعي خيالاً علمياً بعيد المنال، وما هي إلا سنوات معدودة حتى اقتحم بيوتنا دون استئذان، وغدا يتصرف في تفاصيل حياتنا اليومية! إنه يُدير محركات البحث التي نستخدمها، ويُترجم الكلام بين اللغات، ويقترح منتجات نتسوقها من الإنترنت. فهل تتخيل عالماً بدون هذا المؤثر العميق؟ ولعل أكبر وأهم تأثير للذكاء الاصطناعي هو صياغة شخصية الأجيال الجديدة (ما يعرف بجيل z وجيل ألفا) بقطيعة شبه تامة مع الماضي، إلا ما ينتقيه من سرديات أو نماذج لا نتحكم فيها بالضرورة.
أصدرت الحكومة اليابانية وثيقة بعنوان "المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان"، تهدف إلى تحقيق أول "مجتمع جاهز للذكاء الاصطناعي" في العالم
ومن أجل تدارك الموقف، ظهرت مطالب هنا وهناك بوضع "أخلاقيات للذكاء الاصطناعي"، وهي مجال متنامٍ يدرس الآثار الأخلاقية والاجتماعية لتطوير ونشر أنظمة الذكاء الاصطناعي، بهدف ضمان استخدامه بطريقة مسؤولة وعادلة وآمنة، مع مراعاة القيم الإنسانية و"حقوق الإنسان". ويتضمن ذلك عدم إلحاقه الضرر، ومعالجة التحيزات والمخاطر المحتملة، والآثار الاجتماعية الناجمة عنه.
ولقد تنبه الأوروبيون -وهم مشاركون في إنتاج الذكاء الاصطناعي- إلى ما يمكن أن يصاحب فوائده الجمة من مخاطر على الإنسان؛ فبادروا بتعيين لجنة متخصصة من 52 خبيراً، عهد إليها بصياغة مقترح "أخلاقيات الذكاء الاصطناعي" في الاتحاد الأوروبي. بدأت هذه اللجنة أعمالها سنة 2017، وقدمت تقريرها النهائي عام 2020، وقد تضمن التوصيات السبع التالية:
إعلان
الرقابة البشرية: ضمان وجود سيطرة بشرية على أنظمة الذكاء الاصطناعي لاتخاذ القرارات النهائية.
المتانة التقنية: أن تكون أنظمة الذكاء الاصطناعي آمنة وموثوقة وقادرة على التعامل مع الأخطاء أو الهجمات.
خصوصية وإدارة البيانات: حماية البيانات الشخصية، وضمان استخدامها بشكل أخلاقي وقانوني.
الشفافية: جعل عمليات الذكاء الاصطناعي واضحة وقابلة للفهم، مع إمكانية تتبع القرارات.
المساءلة: تحديد المسؤوليات في حال حدوث أضرار أو أخطاء بسبب أنظمة الذكاء الاصطناعي.
الإنصاف: تجنب التحيز، وضمان معاملة عادلة لجميع الأفراد والمجموعات.
الرفاهية: ضمان أن يعزز الذكاء الاصطناعي رفاهية الأفراد والمجتمع.
لا شك أن ثمة إجماعاً بشرياً على ما يُعتبر خيراً للإنسان وما يعد شراً له؛ وهو ما يمكن أن نطلق عليه "المشترك الأخلاقي"، مثل عموم الأمن والسلام، وتوفير المياه النقية والهواء النقي، وتعزيز صحة الإنسان وبيئته
وقبل الاتحاد الأوروبي، في عام 2019، أصدرت الحكومة اليابانية وثيقة بعنوان "المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان"، تهدف إلى تحقيق أول "مجتمع جاهز للذكاء الاصطناعي" في العالم. تعكس هذه المبادئ رؤية اليابان لدمج الذكاء الاصطناعي بشكل أخلاقي وفعّال في المجتمع، مع التركيز على حقوق الإنسان والتنمية المستدامة. وأما أهداف المبادئ اليابانية فهي:
حماية حقوق الإنسان الأساسية: عدم انتهاك الذكاء الاصطناعي للحريات الفردية أو الكرامة الإنسانية.
ضمان التعليم الأساسي ومحو الأمية الرقمية: تمكين الأفراد من فهم الذكاء الاصطناعي واستخدامه بفعالية.
ضمان حماية البيانات، وتوفير بيئة تنافسية عادلة.
الشفافية والمساءلة: تطبيق معايير العدالة في تطوير وتشغيل أنظمة الذكاء الاصطناعي.
تعزيز الابتكار عبر التعاون المحلي والدولي: تشجيع الشراكات بين القطاعات الحكومية والخاصة والدولية.
ويعتبر اليابانيون هذه المبادئ تطبيقا لثلاثة أسس فلسفية، هي الأصل الذي تتعين مراعاته في كل تطور وتطوير:
احترام الكرامة الإنسانية: يجب أن يدعم الذكاء الاصطناعي اختيارات الإنسان، ولا يحل محل إرادته.
المجتمع المستدام: استخدام الذكاء الاصطناعي لتحقيق أهداف التنمية المستدامة (مثل الصحة والبيئة).
رفاهية الأفراد في مجتمع متنوع: تصميم أنظمة ذكاء اصطناعي تلبي احتياجات جميع الفئات، بمن فيهم كبار السن والمعاقين.
الذكاء الاصطناعي ميدان سريع التطور، تتطلب مواكبته يقظة مستمرة ومرونة في الاستجابة لهذا التطور السريع. لذلك، يحسن ببلداننا المبادرة إلى سن قوانين تنظم استخدامات الذكاء الاصطناعي
ولا شك أن ثمة إجماعاً بشرياً على ما يُعتبر خيراً للإنسان وما يعد شراً له؛ وهو ما يمكن أن نطلق عليه "المشترك الأخلاقي"، مثل عموم الأمن والسلام، وتوفير المياه النقية والهواء النقي، وتعزيز صحة الإنسان وبيئته (الحيوان والنبات والبحار..). وبعد هذا المشترك الأخلاقي، تأتي خصوصيات الأمم التي تحدد قيَمها، مثل الدين والثقافة، أو طموحاتها التي تبين أولوياتها، مثل الرؤية الوطنية (2030 في بعض الدول، 2040 في أخرى).. وهكذا، فكل تلك العوامل تسهم في تعريف الأخلاقي عند كل أمة. فما هي محددات أخلاقيات الذكاء الاصطناعي في المجتمعات العربية والإسلامية؟
نرى أن التوصيات الخمس الأولى للاتحاد الأوروبي والمبادئ اليابانية الخمسة محل اتفاق؛ يمكن البناء عليها ودعمها في حالة إقرار ميثاق دولي. ويبقى أن نضيف خصوصياتنا في تعريف الفئات الاجتماعية، والمباح والمحظور، والأولويات وغير ذلك. ولعل البدء يكون بالتركيز على دفع المضرة، عملاً بقاعدة "دفع المضارّ أولى من جلب المنافع"؛ فيمنع ما يهدد النسيج الاجتماعي من الوسائل غير التقليدية، كالألعاب الألكترونية التي تشجع العنف والشذوذ والانتحار والإلحاد؛ فمثل هذه التطبيقات تفتك بالنشء في صمت وفي عقر ديارهم، وهي جرائم تسجل ضد "مجهول". وقد حصلت حالات كثيرة من انتحار المراهقين في دول غربية عديدة، سُجلت ضد تطبيقات مثل تيك توك وبلو وايل (الحوت الأزرق) وما شاكلها.
ويأتي بعد ذلك الحفاظ على الكليات الخمس، وهي الدين والنفس والعقل والنسب والمال، ولا تخفى أهميتها؛ إذ حفظها هو هدف تشريعنا وتشريع من قبلنا، ولكن المبادئ المذكورة أعلاه (يابانية وأوروبية) بأوسع تفسير تشمل النفس والمال، وربما العقل إلى حد ما (الخمور المذهبة للعقل مباحة عندهم)، ولكن لا أثر فيها للدين ولا للنسب.
ومن هنا يتعين علينا السعي لسن قوانين تحفظ هذه الكليات الخمس في وجه عواصف الذكاء الاصطناعي، التي بدأت تهب قوية من الشرق والغرب.. تتصارع في بيوتنا، لا تردها الجدران ولاتمنعها حصون الخرسانة والحديد، تستهدف أفلاذ أكبادنا، تختلسهم اختلاساً من خلال الإدمان على "الألعاب" و"التسليات" فتأسر انتباههم وتوجهه كما حلا لها. إنها بذلك تقتلعهم من أصولهم؛ فيعيشون غرباء في بيوتهم وبين آبائهم وأمهاتهم.
وهناك جانب آخر لم تشر إليه المبادئ السابقة صراحة -وإن كان يمكن إقحامه ضمنيا- وهو الحفاظ على البيئة وحمايتها، ولا يقل هذا أهمية عن حماية الإنسان؛ إذ لا وجود للإنسان خارج البيئة. ولا نجد تعبيراً عن خراب البيئة أدق ولا أكثر اختصاراً من هلاك الحرث والنسل، وقد رأينا في حرب الإبادة على غزة كيف أسهم الذكاء الاصطناعي في هذا الهلاك، وهي فرصة سبْق لبلداننا كي تسن قوانين لحماية البيئة من أخطار الذكاء الاصطناعي، قوانين تحد من ظهور الفساد في البر والبحر بما كسبت أيدي الناس.
ثم إن الذكاء الاصطناعي ميدان سريع التطور، تتطلب مواكبته يقظة مستمرة ومرونة في الاستجابة لهذا التطور السريع. لذلك، يحسن ببلداننا المبادرة إلى سن قوانين تنظم استخدامات الذكاء الاصطناعي، وإعلان أخلاقيات تشارك بها بلداننا في إرساء ميثاق دولي، يلزم العالم باحترام المشترك الأخلاقي ويجرم أي انتهاك له. أما على المستوى المحلي، فيمكن تحديث القوانين حسب تطور أنظمة الذكاء الاصطناعي وتأثيرها على الإنسان والبيئة، أما السكوت والغياب فليس خياراً.
بالغ بعض علماء الذكاء الاصطناعي في تهويل مستقبله وتحكمه في حياة الناس. ومن هؤلاء جيفري هينتون، الذي استقال من وظيفته كبير خبراء الذكاء الاصطناعي في غوغل، لينذر بأن أنظمة الذكاء الاصطناعي باتت أذكى من البشر الذين أنتجوها
ومن المخاطر الأقل فتكاً والأعم انتشاراً وظهوراً، والتي تهدد المجتمع إذا لم يتخذ إجراءات تنظيمية للذكاء الاصطناعي:
إلغاء الوظائف: قد تؤدي الأتمتة التي يقودها الذكاء الاصطناعي إلى الاستغناء عن عدد من الوظائف في مختلف القطاعات.. وبوضع قوانين مناسبة يمكن تحويل هذه الأتمة إلى خلق وظائف جديدة.
أنظمة الأسلحة الذاتية: يُثير تطوير أنظمة الأسلحة الذاتية مخاوف أخلاقية وأمنية خطيرة.
الأثر البيئي: يتطلب تدريب نماذج الذكاء الاصطناعي الكبيرة قدرة حاسوبية كبيرة، ما يؤدي إلى استهلاك طاقة مرتفع، وانبعاثات كربونية عالية، وهذا ضرر جانبي تشغيلي لا يقاس بالأضرار المتعمدة كالتي حلت بقطاع غزة.
ولقد بالغ بعض علماء الذكاء الاصطناعي في تهويل مستقبله وتحكمه في حياة الناس. ومن هؤلاء جيفري هينتون، الذي استقال من وظيفته كبير خبراء الذكاء الاصطناعي في غوغل، لينذر بأن أنظمة الذكاء الاصطناعي باتت أذكى من البشر الذين أنتجوها، وأنها ستقود العالم نحو الهاوية إذا لم يتوقف هذا السباق التكنولوجي قبل فوات الأوان.
إن العلوم البحتة والتكنولوجيا ليست علوماً أخلاقية بذاتها، فإذا تُركت وشأنها قادت الإنسان إلى وجهة مجهولة؛ لذلك يتعين على بلداننا أن تقدم نموذجاً متوازناً يجمع بين الابتكار التكنولوجي والقيم الإنسانية، مع التأكيد على أن الذكاء الاصطناعي يجب أن يكون أداة لتعزيز رفاهية المجتمع والبيئة، وليس تهديداً لهما.
إن مثل هذه الرؤية من شأنها أن تضع بلداننا في طليعة الدول التي تتبنى سياسات ذكاء اصطناعي شاملة وأخلاقية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الجزيرة
٠٤-٠٥-٢٠٢٥
- الجزيرة
غبار الصحراء الكبرى يضعف الطاقة الشمسية في أوروبا
تسعى أوروبا إلى تحقيق انتقال واسع نحو الطاقة الشمسية والوصول إلى حصة 32% من الطاقة المتجددة بحلول عام 2030 لتحقيق أهداف الطاقة والمناخ، لكن ظاهرة جوية مقلقة تعرقل مسار هذا النمو، وهو غبار الصحراء الكبرى. ويشير بحث جديد عُرض في مؤتمر الاتحاد الأوروبي للعلوم الجيولوجية (EGU25) إلى أن الغبار الذي تحمله الرياح من شمال أفريقيا لا يقلّل من توليد الكهرباء من الطاقة الكهروضوئية في أنحاء أوروبا فحسب، بل يجعل التنبؤ بها أكثر صعوبة. وفي البحث الذي عرض بعنوان "ظل الرياح: توليد الطاقة الكهروضوئية تحت سماء أوروبا المُغبرة"، كشف الدكتور جيورجي فارغا وزملاؤه من مؤسسات مجرية وأوروبية كيف تعطل السماء المغبرة أداء الطاقة الكهروضوئية، وتشكل تحديا لنماذج التنبؤ الحالية. واستند البحث إلى بيانات ميدانية استخلصت من أكثر من 46 حادثة انتقال لعواصف ترابية بين عامي 2019 و2023، ويغطي كلا من أوروبا الوسطى (المجر) وجنوب أوروبا (البرتغال، وإسبانيا وفرنسا، وإيطاليا، واليونان). وتطلق الصحراء الكبرى الأفريقية مليارات الأطنان من الغبار الناعم في الغلاف الجوي سنويا، وتصل عشرات الملايين من الأطنان منه إلى سماء أوروبا عبر حركة الرياح والتيارات الهوائية. إعلان ويشير البحث إلى أن هذه الجسيمات تُشتّت ضوء الشمس وتمتصه، وتقلل من الإشعاع على السطح، وقد تُعزز تكوّن السحب أيضا، مما يضعف إنتاج الطاقة الكهروضوئية في البلدان الأوروبية. ووجد الباحثون أن أدوات التنبؤ التقليدية، التي تستخدم مناخات الهباء الجوي الثابتة، غالبا ما تُخفق في تحقيق أهدافها خلال هذه الأحداث. لذا يوصي الفريق بدمج بيانات حمل الغبار شبه الآنية وربط الهباء الجوي بالسحب في نماذج التنبؤ. وسيسمح هذا -حسب الباحثين- بجدولة أكثر موثوقية للطاقة الشمسية، وتحسين الاستعداد للتقلبات التي يُحدثها الغبار الجوي. وقال الدكتور فارغا إن هناك حاجة متزايدة لأساليب التنبؤ الديناميكية التي تأخذ في الاعتبار العوامل الجوية والمعدنية، فمن دونها، فإن خطر ضعف الأداء وعدم استقرار الشبكة سوف ينمو فقط مع تزايد حصة الطاقة الشمسية في مزيج الطاقة الأوروبية. إلى جانب التأثيرات الجوية، يُشير الفريق أيضا إلى الآثار طويلة المدى للغبار على البنية التحتية المادية للألواح الشمسية، بما في ذلك التلوث والتآكل، وهما عاملان قد يُقللان الكفاءة ويزيدان تكاليف الصيانة. ومن المفترض أن يُسهم هذا البحث في الجهود الجارية بالاتحاد الأوروبي لتحسين القدرة على التكيف مع تغير المناخ وإدارة الطاقة المتجددة، حيث شكلت الطاقة الشمسية 4% من إجمالي توليد الكهرباء في الاتحاد الأوروبي، في الأشهر الخمسة الأولى من عام 2025، مقارنة بـ3% في عام 2024. وتُعد الطاقة الشمسية أكثر استدامة بنحو 20 ضعفا مقارنة بالوقود الأحفوري. وتشير دراسة أجراها معهد "فراونهوفر" الألماني لأنظمة الطاقة الشمسية (ISE) إلى أن الطاقة الشمسية تُصدر 30 غراما فقط من ثاني أكسيد الكربون لكل كيلوواط ساعة، مقارنة بـ600 غرام للكهرباء المولدة من الوقود الأحفوري.


الجزيرة
٠١-٠٥-٢٠٢٥
- الجزيرة
نحو نسختنا من أخلاقيات الذكاء الاصطناعي
كان الذكاء الاصطناعي خيالاً علمياً بعيد المنال، وما هي إلا سنوات معدودة حتى اقتحم بيوتنا دون استئذان، وغدا يتصرف في تفاصيل حياتنا اليومية! إنه يُدير محركات البحث التي نستخدمها، ويُترجم الكلام بين اللغات، ويقترح منتجات نتسوقها من الإنترنت. فهل تتخيل عالماً بدون هذا المؤثر العميق؟ ولعل أكبر وأهم تأثير للذكاء الاصطناعي هو صياغة شخصية الأجيال الجديدة (ما يعرف بجيل z وجيل ألفا) بقطيعة شبه تامة مع الماضي، إلا ما ينتقيه من سرديات أو نماذج لا نتحكم فيها بالضرورة. أصدرت الحكومة اليابانية وثيقة بعنوان "المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان"، تهدف إلى تحقيق أول "مجتمع جاهز للذكاء الاصطناعي" في العالم ومن أجل تدارك الموقف، ظهرت مطالب هنا وهناك بوضع "أخلاقيات للذكاء الاصطناعي"، وهي مجال متنامٍ يدرس الآثار الأخلاقية والاجتماعية لتطوير ونشر أنظمة الذكاء الاصطناعي، بهدف ضمان استخدامه بطريقة مسؤولة وعادلة وآمنة، مع مراعاة القيم الإنسانية و"حقوق الإنسان". ويتضمن ذلك عدم إلحاقه الضرر، ومعالجة التحيزات والمخاطر المحتملة، والآثار الاجتماعية الناجمة عنه. ولقد تنبه الأوروبيون -وهم مشاركون في إنتاج الذكاء الاصطناعي- إلى ما يمكن أن يصاحب فوائده الجمة من مخاطر على الإنسان؛ فبادروا بتعيين لجنة متخصصة من 52 خبيراً، عهد إليها بصياغة مقترح "أخلاقيات الذكاء الاصطناعي" في الاتحاد الأوروبي. بدأت هذه اللجنة أعمالها سنة 2017، وقدمت تقريرها النهائي عام 2020، وقد تضمن التوصيات السبع التالية: إعلان الرقابة البشرية: ضمان وجود سيطرة بشرية على أنظمة الذكاء الاصطناعي لاتخاذ القرارات النهائية. المتانة التقنية: أن تكون أنظمة الذكاء الاصطناعي آمنة وموثوقة وقادرة على التعامل مع الأخطاء أو الهجمات. خصوصية وإدارة البيانات: حماية البيانات الشخصية، وضمان استخدامها بشكل أخلاقي وقانوني. الشفافية: جعل عمليات الذكاء الاصطناعي واضحة وقابلة للفهم، مع إمكانية تتبع القرارات. المساءلة: تحديد المسؤوليات في حال حدوث أضرار أو أخطاء بسبب أنظمة الذكاء الاصطناعي. الإنصاف: تجنب التحيز، وضمان معاملة عادلة لجميع الأفراد والمجموعات. الرفاهية: ضمان أن يعزز الذكاء الاصطناعي رفاهية الأفراد والمجتمع. لا شك أن ثمة إجماعاً بشرياً على ما يُعتبر خيراً للإنسان وما يعد شراً له؛ وهو ما يمكن أن نطلق عليه "المشترك الأخلاقي"، مثل عموم الأمن والسلام، وتوفير المياه النقية والهواء النقي، وتعزيز صحة الإنسان وبيئته وقبل الاتحاد الأوروبي، في عام 2019، أصدرت الحكومة اليابانية وثيقة بعنوان "المبادئ الاجتماعية للذكاء الاصطناعي المتمحور حول الإنسان"، تهدف إلى تحقيق أول "مجتمع جاهز للذكاء الاصطناعي" في العالم. تعكس هذه المبادئ رؤية اليابان لدمج الذكاء الاصطناعي بشكل أخلاقي وفعّال في المجتمع، مع التركيز على حقوق الإنسان والتنمية المستدامة. وأما أهداف المبادئ اليابانية فهي: حماية حقوق الإنسان الأساسية: عدم انتهاك الذكاء الاصطناعي للحريات الفردية أو الكرامة الإنسانية. ضمان التعليم الأساسي ومحو الأمية الرقمية: تمكين الأفراد من فهم الذكاء الاصطناعي واستخدامه بفعالية. ضمان حماية البيانات، وتوفير بيئة تنافسية عادلة. الشفافية والمساءلة: تطبيق معايير العدالة في تطوير وتشغيل أنظمة الذكاء الاصطناعي. تعزيز الابتكار عبر التعاون المحلي والدولي: تشجيع الشراكات بين القطاعات الحكومية والخاصة والدولية. ويعتبر اليابانيون هذه المبادئ تطبيقا لثلاثة أسس فلسفية، هي الأصل الذي تتعين مراعاته في كل تطور وتطوير: احترام الكرامة الإنسانية: يجب أن يدعم الذكاء الاصطناعي اختيارات الإنسان، ولا يحل محل إرادته. المجتمع المستدام: استخدام الذكاء الاصطناعي لتحقيق أهداف التنمية المستدامة (مثل الصحة والبيئة). رفاهية الأفراد في مجتمع متنوع: تصميم أنظمة ذكاء اصطناعي تلبي احتياجات جميع الفئات، بمن فيهم كبار السن والمعاقين. الذكاء الاصطناعي ميدان سريع التطور، تتطلب مواكبته يقظة مستمرة ومرونة في الاستجابة لهذا التطور السريع. لذلك، يحسن ببلداننا المبادرة إلى سن قوانين تنظم استخدامات الذكاء الاصطناعي ولا شك أن ثمة إجماعاً بشرياً على ما يُعتبر خيراً للإنسان وما يعد شراً له؛ وهو ما يمكن أن نطلق عليه "المشترك الأخلاقي"، مثل عموم الأمن والسلام، وتوفير المياه النقية والهواء النقي، وتعزيز صحة الإنسان وبيئته (الحيوان والنبات والبحار..). وبعد هذا المشترك الأخلاقي، تأتي خصوصيات الأمم التي تحدد قيَمها، مثل الدين والثقافة، أو طموحاتها التي تبين أولوياتها، مثل الرؤية الوطنية (2030 في بعض الدول، 2040 في أخرى).. وهكذا، فكل تلك العوامل تسهم في تعريف الأخلاقي عند كل أمة. فما هي محددات أخلاقيات الذكاء الاصطناعي في المجتمعات العربية والإسلامية؟ نرى أن التوصيات الخمس الأولى للاتحاد الأوروبي والمبادئ اليابانية الخمسة محل اتفاق؛ يمكن البناء عليها ودعمها في حالة إقرار ميثاق دولي. ويبقى أن نضيف خصوصياتنا في تعريف الفئات الاجتماعية، والمباح والمحظور، والأولويات وغير ذلك. ولعل البدء يكون بالتركيز على دفع المضرة، عملاً بقاعدة "دفع المضارّ أولى من جلب المنافع"؛ فيمنع ما يهدد النسيج الاجتماعي من الوسائل غير التقليدية، كالألعاب الألكترونية التي تشجع العنف والشذوذ والانتحار والإلحاد؛ فمثل هذه التطبيقات تفتك بالنشء في صمت وفي عقر ديارهم، وهي جرائم تسجل ضد "مجهول". وقد حصلت حالات كثيرة من انتحار المراهقين في دول غربية عديدة، سُجلت ضد تطبيقات مثل تيك توك وبلو وايل (الحوت الأزرق) وما شاكلها. ويأتي بعد ذلك الحفاظ على الكليات الخمس، وهي الدين والنفس والعقل والنسب والمال، ولا تخفى أهميتها؛ إذ حفظها هو هدف تشريعنا وتشريع من قبلنا، ولكن المبادئ المذكورة أعلاه (يابانية وأوروبية) بأوسع تفسير تشمل النفس والمال، وربما العقل إلى حد ما (الخمور المذهبة للعقل مباحة عندهم)، ولكن لا أثر فيها للدين ولا للنسب. ومن هنا يتعين علينا السعي لسن قوانين تحفظ هذه الكليات الخمس في وجه عواصف الذكاء الاصطناعي، التي بدأت تهب قوية من الشرق والغرب.. تتصارع في بيوتنا، لا تردها الجدران ولاتمنعها حصون الخرسانة والحديد، تستهدف أفلاذ أكبادنا، تختلسهم اختلاساً من خلال الإدمان على "الألعاب" و"التسليات" فتأسر انتباههم وتوجهه كما حلا لها. إنها بذلك تقتلعهم من أصولهم؛ فيعيشون غرباء في بيوتهم وبين آبائهم وأمهاتهم. وهناك جانب آخر لم تشر إليه المبادئ السابقة صراحة -وإن كان يمكن إقحامه ضمنيا- وهو الحفاظ على البيئة وحمايتها، ولا يقل هذا أهمية عن حماية الإنسان؛ إذ لا وجود للإنسان خارج البيئة. ولا نجد تعبيراً عن خراب البيئة أدق ولا أكثر اختصاراً من هلاك الحرث والنسل، وقد رأينا في حرب الإبادة على غزة كيف أسهم الذكاء الاصطناعي في هذا الهلاك، وهي فرصة سبْق لبلداننا كي تسن قوانين لحماية البيئة من أخطار الذكاء الاصطناعي، قوانين تحد من ظهور الفساد في البر والبحر بما كسبت أيدي الناس. ثم إن الذكاء الاصطناعي ميدان سريع التطور، تتطلب مواكبته يقظة مستمرة ومرونة في الاستجابة لهذا التطور السريع. لذلك، يحسن ببلداننا المبادرة إلى سن قوانين تنظم استخدامات الذكاء الاصطناعي، وإعلان أخلاقيات تشارك بها بلداننا في إرساء ميثاق دولي، يلزم العالم باحترام المشترك الأخلاقي ويجرم أي انتهاك له. أما على المستوى المحلي، فيمكن تحديث القوانين حسب تطور أنظمة الذكاء الاصطناعي وتأثيرها على الإنسان والبيئة، أما السكوت والغياب فليس خياراً. بالغ بعض علماء الذكاء الاصطناعي في تهويل مستقبله وتحكمه في حياة الناس. ومن هؤلاء جيفري هينتون، الذي استقال من وظيفته كبير خبراء الذكاء الاصطناعي في غوغل، لينذر بأن أنظمة الذكاء الاصطناعي باتت أذكى من البشر الذين أنتجوها ومن المخاطر الأقل فتكاً والأعم انتشاراً وظهوراً، والتي تهدد المجتمع إذا لم يتخذ إجراءات تنظيمية للذكاء الاصطناعي: إلغاء الوظائف: قد تؤدي الأتمتة التي يقودها الذكاء الاصطناعي إلى الاستغناء عن عدد من الوظائف في مختلف القطاعات.. وبوضع قوانين مناسبة يمكن تحويل هذه الأتمة إلى خلق وظائف جديدة. أنظمة الأسلحة الذاتية: يُثير تطوير أنظمة الأسلحة الذاتية مخاوف أخلاقية وأمنية خطيرة. الأثر البيئي: يتطلب تدريب نماذج الذكاء الاصطناعي الكبيرة قدرة حاسوبية كبيرة، ما يؤدي إلى استهلاك طاقة مرتفع، وانبعاثات كربونية عالية، وهذا ضرر جانبي تشغيلي لا يقاس بالأضرار المتعمدة كالتي حلت بقطاع غزة. ولقد بالغ بعض علماء الذكاء الاصطناعي في تهويل مستقبله وتحكمه في حياة الناس. ومن هؤلاء جيفري هينتون، الذي استقال من وظيفته كبير خبراء الذكاء الاصطناعي في غوغل، لينذر بأن أنظمة الذكاء الاصطناعي باتت أذكى من البشر الذين أنتجوها، وأنها ستقود العالم نحو الهاوية إذا لم يتوقف هذا السباق التكنولوجي قبل فوات الأوان. إن العلوم البحتة والتكنولوجيا ليست علوماً أخلاقية بذاتها، فإذا تُركت وشأنها قادت الإنسان إلى وجهة مجهولة؛ لذلك يتعين على بلداننا أن تقدم نموذجاً متوازناً يجمع بين الابتكار التكنولوجي والقيم الإنسانية، مع التأكيد على أن الذكاء الاصطناعي يجب أن يكون أداة لتعزيز رفاهية المجتمع والبيئة، وليس تهديداً لهما. إن مثل هذه الرؤية من شأنها أن تضع بلداننا في طليعة الدول التي تتبنى سياسات ذكاء اصطناعي شاملة وأخلاقية.


الجزيرة
٢٤-٠٤-٢٠٢٥
- الجزيرة
تختار لك وتساعدك في القرار.. كيف يغيّر الذكاء الاصطناعي صورة الإنسان عن ذاته؟
يشهد العالم المعاصر تحوّلًا غير مسبوق في تاريخ الوجود البشري، تقوده التكنولوجيا بصفتها القوة الأكثر تأثيرًا في تشكيل ملامح الحياة الحديثة. لم تعد التكنولوجيا مجرد أدوات أو منصات مساعدة، بل أصبحت بحد ذاتها بيئةً كلية نعيش فيها، وعاملًا حيويًا يُعيد صياغة مفاهيم الإنسان عن ذاته، وعن العالم، وعن الآخرين من حوله. وفي قلب هذا التحول تقف الأجيال الجديدة لا كمتلقٍّ سلبي، بل كنتاجٍ حيّ لهذا العصر الرقمي بكل تعقيداته وتناقضاته. نتحدث هنا تحديدًا عن جيل Z (المولود بين 1997 و2012)، وجيل ألفا (المولود بعد 2013)، وهما جيلان نشآ في ظل تحوّل تكنولوجي عميق بدأ مع الثورة الرقمية في نهاية القرن العشرين، وتفاقم مع دخول الذكاء الاصطناعي والواقع المعزز والميتافيرس والبيانات الضخمة إلى صلب الحياة اليومية. جيل Z يمثل الجسر بين عالمين: عالم ما قبل الثورة الرقمية، وعالم أصبحت فيه الخوارزميات هي "العقل الجمعي" الجديد. لقد عاش هذا الجيل مراحل الانتقال الكبرى: من الكتب الورقية إلى الشاشات، من الاتصالات الهاتفية إلى الرسائل الفورية، من الصفوف المدرسية إلى التعليم عن بُعد. أما جيل ألفا، فهو الجيل الذي لم يعرف سوى الرقمية منذ لحظة الميلاد، إذ تفتحت حواسه الأولى على شاشة، وتكوّنت مهاراته اللغوية من خلال مساعد صوتي، وتعلّم المفاهيم الأولى عن طريق تطبيقات ذكية وخوارزميات دقيقة تستجيب لسلوك المستخدم لحظيًا. إننا لا نتحدث عن تغيّر في أنماط الحياة فقط، بل عن إعادة تشكيل حقيقية للذات الإنسانية. ففي السابق، كانت الهوية تُبنى عبر التفاعل مع الأسرة، والمدرسة، والثقافة المحلية، وكانت تنشأ ضمن سياق اجتماعي واضح المعالم. أما اليوم، فالأجيال الرقمية تبني صورها الذاتية في فضاءات افتراضية عالمية، تتخطى الحواجز اللغوية والثقافية والجغرافية. إنها هوية "مُفلترة"، تُنتجها الصور والمنشورات والتفاعلات المرسومة وفق خوارزميات منصات التواصل الاجتماعي، وتُقاس بكمية "الإعجابات" والمشاهدات، لا بتجربة الذات العميقة. هذا التحول لا يخلو من مفارقات. فعلى الرغم من الكمّ الهائل من التواصل الرقمي، تشير دراسات عديدة إلى تصاعد مشاعر الوحدة والعزلة، خصوصًا بين المراهقين والشباب. وقد ربطت تقارير صحية بين الإفراط في استخدام التكنولوجيا وبين ارتفاع معدلات القلق، واضطرابات النوم، وضعف التركيز، وتراجع المهارات الاجتماعية. جيل Z، برغم إتقانه المذهل للتكنولوجيا، يواجه صعوبة متزايدة في بناء علاقات واقعية مستقرة. أما جيل ألفا، فيُظهر مبكرًا قدرة رقمية خارقة، لكنها تقترن أحيانًا بضعف في التطور اللغوي والعاطفي، وكأن المهارات الإنسانية الكلاسيكية باتت تُستبدل تدريجيًا بكفاءات رقمية جديدة. هذا لا يعني أن الأجيال الرقمية "أقل إنسانية"، بل إنها مختلفة في تركيبها المعرفي والعاطفي والاجتماعي. إنها أجيال تعيش فيما يمكن تسميته "الواقع الموسّع"، حيث تتداخل فيه الذات البيولوجية بالذات الرقمية، ويذوب فيه الخط الفاصل بين ما هو واقعي وما هو افتراضي. وهذه الحالة تطرح سؤالًا وجوديًا جوهريًا: من أنا في عالم يُعاد فيه تشكيل الذات بواسطة أدوات لا أتحكم بها بالكامل؟ من يوجّهني فعلًا: أنا، أم البرمجية التي تختار لي ما أقرأ وأشاهد وأرغب؟ في هذا السياق، تتزايد الحاجة إلى تفكيك العلاقة بين الإنسان والتكنولوجيا من جديد. فنحن لم نعد فقط نستخدم التكنولوجيا، بل يُعاد تشكيلنا من خلالها، وقد أصبح الذكاء الاصطناعي شريكًا خفيًا في اتخاذ القرارات، وتوجيه السلوك، وحتى في تكوين القيم وتصورات العالم. منصات مثل تيك توك ويوتيوب وإنستغرام لم تعد وسائط ترفيهية فحسب، بل منصات لإنتاج الثقافة والهوية والسلوك الاستهلاكي. ولعل المفارقة الكبرى تكمن في أن هذه التكنولوجيا التي وُعدنا بها كوسيلة لتحرير الإنسان، باتت تخلق أشكالًا جديدة من التبعية. فمن جهة، تسهّل الحياة وتختصر الوقت، لكنها من جهة أخرى تُعيد تشكي إدراكنا بطريقة غير مرئية. إنها "القوة الناعمة" الأشد تأثيرًا في تاريخ البشرية. في ظل هذا الواقع، لا يكفي أن نُحمّل الأفراد مسؤولية التكيف. المطلوب هو تفكير جماعي لإعادة توجيه العلاقة بين الإنسان والتكنولوجيا. المؤسسات التعليمية مطالبة بأن تراجع مناهجها، لا فقط لتُدخل التقنية، بل لتُعيد التوازن بين ما هو رقمي وما هو إنساني. الأسرة، بدورها، لم تعد فقط مصدرًا للقيم، بل أصبحت "ساحة مقاومة" للحفاظ على الحميمية في وجه التمدد الرقمي. أما صانعو السياسات، فعليهم مسؤولية أخلاقية وتشريعية للحدّ من تغوّل التكنولوجيا في تفاصيل الحياة اليومية، ووضع ضوابط تحمي الأجيال من فقدان الجوهر الإنساني. ينبغي ألا يكون السؤال: كيف نُقلل من استخدام التكنولوجيا؟ بل: كيف نستخدمها بطريقة تحافظ على إنسانيتنا؟ كيف نُدرّب أبناءنا على التفكير النقدي، والقدرة على التأمل، والانفتاح العاطفي، لا فقط على البرمجة والتصميم؟ نحن نعيش لحظة مفصلية، لحظة يُعاد فيها تعريف الإنسان، لا بالمعنى البيولوجي، بل بالمعنى الوجودي. وإذا لم نُحسن إدارة هذا التحوّل، فإننا قد نخسر القدرة على أن نكون ذاتًا فاعلة حرة في عالم تتزايد فيه السيطرة غير المرئية للأنظمة الذكية. المستقبل لا تصنعه الآلات، بل الإنسان الذي يعرف كيف يتعامل معها. ولهذا، فإن المعركة الأهم ليست بين الأجيال والتكنولوجيا، بل بين الإنسان وإنسانيته.