
«الوطنية لحقوق الإنسان»تستعرض أخلاقيات الذكاء الاصطناعي
اختتمت الهيئة الوطنية لحقوق الإنسان مشاركتها في المؤتمر الدولي حول الذكاء الاصطناعي وحقوق الإنسان والذي انعقد تحت عنوان: «الفرص والمخاطر والرؤى لمستقبل أفضل»، وذلك خلال يومي 27 و28 مايو الجاري بالعاصمة القطرية الدوحة.
ترأس وفد الهيئة مقصود كروز، رئيس الهيئة الوطنية لحقوق الإنسان، وبمشاركة كل من الدكتور أحمد المنصوري، عضو مجلس الأمناء، وحمد البلوشي، مدير إدارة الخدمات المساندة، وعبدالعزيز العوبثاني، رئيس قسم المنظمات الدولية والإقليمية، وسعيد الأحبابي، باحث قانوني لدى الأمانة العامة بالهيئة.
وشارك الدكتور أحمد المنصوري بورقة عمل بعنوان «دور الهيئة الوطنية لحقوق الإنسان في تعزيز الأبعاد الحقوقية والأخلاقية للذكاء الاصطناعي في دولة الإمارات العربية المتحدة»، وذلك في جلسة بعنوان: «حقوق الإنسان والذكاء الاصطناعي: مقاربة من منظور المؤسسات الوطنية لحقوق الإنسان»، والتي سلطت الضوء على ضرورة وضع حقوق الإنسان في صلب مسيرة التطور التكنولوجي، ولا سيما في مجال الذكاء الاصطناعي.
وخلال حديثه، عبّر المنصوري عن بالغ شكره وتقديره للجنة الوطنية لحقوق الإنسان في دولة قطر ولجميع الشركاء والمنظمين وعلى رأسهم برنامج الأمم المتحدة الإنمائي والمفوضية السامية لحقوق الإنسان والتحالف العالمي للمؤسسات الوطنية لحقوق الإنسان على دعوتهم الكريمة للمشاركة في هذا المؤتمر النوعي الذي يأتي في مرحلة مفصلية تتقاطع فيها الطموحات التقنية مع التحديات الحقوقية العالمية.
وأكد أن الذكاء الاصطناعي بات أحد أبرز المحركات المؤثرة في بنية المجتمعات وآليات الحوكمة وسوق العمل لكنه في ذات الوقت يثير تساؤلات جوهرية حول حقوق الإنسان وسيادة القانون والعدالة الاجتماعية.
وتعليقاً على هذه المشاركة، قال مقصود كروز: «أولت الهيئة الوطنية لحقوق الإنسان اهتماماً بالغاً بأخلاقيات الذكاء الاصطناعي من منظور حقوقي انطلاقاً من إيمانها الراسخ بأن أي تقدم تقني لا يمكن أن يكون مستداماً أو مقبولاً مجتمعياً ما لم يستند إلى قواعد أخلاقية وحقوقية واضحة».
وأضاف أن الهيئة حرصت على ترسيخ شراكة استراتيجية مع «مكتب وزير دولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بعد» للعمل على دمج الاعتبارات الحقوقية في السياسات الوطنية المتعلقة بالتقنيات الحديثة.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صحيفة الخليج
منذ ساعة واحدة
- صحيفة الخليج
التكنولوجيا المتقدمة.. بين الأمل والهاوية
حسن إبراهيم النعيمي* في زمنٍ تتسارع فيه عجلة التقدم التكنولوجي من دون توقف وفي غفلة من الاندفاع والتسابق المحموم والمتواصل بين الحكومات والشركات العملاقة للاستثمار في التكنولوجيا المتقدمة وتطويرها لتبلغ آفاقاً يصعب على عقل الإنسان تصورها، بات السؤال الأكثر إلحاحاً ليس ماذا يمكن أن نفعل بالتكنولوجيا؟ بل ماذا يمكن أن تفعل التكنولوجيا بنا؟ فما بين وعود الذكاء الاصطناعي بمعالجة السرطان وهندسة الجينات بإطالة عمر الإنسان، يطل شبح آخر أكثر خطورة: خطر وجودي قد يجعل هذه التقنيات، إن تُركت بلا ضوابط، أدوات للدمار بدلاً من الإعمار. وفي ظل ذلك السباق العالمي المحموم، تتحول التكنولوجيا شيئاً فشيئاً من «أداة» بيد الإنسان إلى «قوة» مستقلة قد تخرج عن السيطرة والأسوأ أن بعض التطبيقات، خصوصاً في الذكاء الاصطناعي العسكري وتعديل الجينات والأسلحة البيولوجية، تحمل في طياتها إمكانية تهديد وجود الإنسان ذاته. من هنا، تصبح الحاجة إلى ضوابط أخلاقية وقانونية دولية ومحلية صارمة، مسألة بالغة الأهمية بل مسألة وجود لا ترفاً تنظيرياً. وبالرغم من دعوة منظمة اليونسكو إلى ضرورة احترام القانون الدولي والسيادة الوطنية عند استخدام البيانات وأهمية إشراك مختلف الجهات المعنية في حوكمة الذكاء الاصطناعي واعتماد الاتحاد الأوروبي قانوناً يفرض قواعد صارمة على تطوير وتسويق منتجات الذكاء الاصطناعي مع التركيز على الشفافية وأخلاقيات الاستخدام إلا أن هذه الثورة التكنولوجية تتطلب تعاوناً أشمل وأعمق يفضي إلى تبني ميثاق أخلاقي عالمي ملزم يحدد مبادئ وأسس استخدام الذكاء الاصطناعي والتكنولوجيا المتقدمة بصورة عامة. والآمال معقودة على دولة الإمارات العربية المتحدة ذات الموروث الأخلاقي والإنساني والتي قامت على مجموعة من القيم والمبادئ السامية التي تهتم بالإنسان وتضعه في مقدمة الأولويات والتي دخلت هذا الميدان بقوة، فأتمنى أن تنفرد دولة الإمارات بتبني وتطوير نظم وتطبيقات تضمن حياة الإنسان أينما كان وتراعي مصالحه وخصوصياته وأن تخوض هذا المضمار بوعي ومسؤولية تامتين. والضوابط العشرة لحماية الإنسان من خطر التكنولوجيا المتقدمة هي: 1. تشريعات دولية ملزمة: التقنيات الخطرة لا تعترف بالحدود الجغرافية ولهذا يجب إنشاء اتفاقيات دولية مشابهة لمعاهدات حظر الأسلحة النووية، تكون ملزمة لجميع الدول وتشمل تقنين استخدام الذكاء الاصطناعي في الحروب ومنع إنتاج الروبوتات القاتلة الذاتية التحكم ومراقبة التجارب الجينية المحظورة مثل تصميم الأجنة. إن السباق نحو تطوير أسلحة ذاتية التحكم قد يُفضي إلى أنظمة قتالية تتخذ قرارات القتل دون تدخل بشري مما قد يتسبب في فناء البشرية. 2. حوكمة الذكاء الاصطناعي: لا بد من وضع قواعد صارمة تضمن قابلية التتبع لأي قرار يتخذه الذكاء الاصطناعي وكذلك ضرورة وجود «زر إيقاف طارئ» لأي نظام يمكن أن يخرج عن السيطرة، بالإضافة إلى رفض إنتاج أنظمة تفكر دون تدخل الإنسان. إن إمكانية تطوير ذكاء اصطناعي فائق يتفوق على الذكاء البشري ويقرر «مصالحه» الخاصة، قد يؤدي إلى سيناريوهات مدمرة. 3. منع عسكرة التكنولوجيا المدنية: من الضروري منع العديد من الابتكارات المدنية أن تُحوَّل لأغراض عسكرية مثل تحويل الطائرات من دون طيار إلى آلات قتل، وكذلك منع استخدام برامج التعرف إلى الوجوه لقمع الحريات وتسخير البيانات الضخمة لأغراض التجسس وتوجيه الرأي العام. إن الجمع بين الذكاء الاصطناعي والطائرات من دون طيار والتعرف على الوجوه، قد يخلق أنظمة مراقبة وتحكم شاملة تقضي على الحريات تماماً. 4. ضمان الشفافية ومشاركة المجتمعات: يجب ألا تظل هذه التقنيات حكراً على النخب والشركات العالمية العملاقة بل لابد من إشراك الفلاسفة ورجال الدين والعلماء في رسم سياسات التكنولوجيا وعقد مؤتمرات شعبية تناقش الآثار الأخلاقية للتقنيات الحديثة وإلزام الشركات بكشف أهداف مشاريعها عالية الخطورة. 5. إنشاء مجلس عالمي للتقنية المسؤولة: من الضروري كذلك استحداث مجلس عالمي أو منظمة دولية جديدة تُعنى بمراقبة وتقييم المشاريع الجينية والتطوير العسكري للذكاء الاصطناعي والاستخدام البيئي للتقنيات الصناعية. على أن يتمتع هذا المجلس بحق التفتيش والتحذير ويضم خبراء من مختلف الثقافات لضمان التعددية الأخلاقية. 6. فرض أنظمة ترخيص على تقنيات بعينها: يجب ألا تُترك التكنولوجيا الحساسة بيد من يدفع أكثر، بل لابد من الترخيص المسبق لتطوير الأنظمة الذاتية القاتلة ومراجعة أبحاث التعديل الجيني من قبل هيئات مستقلة وحظر بيع أدوات المراقبة الشاملة للدول القمعية. 7. تحفيز الابتكار الأخلاقي: يجب أن تُمول الحكومات والشركات الأبحاث التي تخدم الإنسان والبيئة مثل الذكاء الاصطناعي لحل مشاكل الجوع والمناخ والروبوتات المساعدة لذوي الإعاقة وتقنيات زراعية نظيفة ومستدامة. 8. نظام عالمي للإنذار المبكر: مثلما توجد منظومات لرصد الزلازل أو الفيروسات، نحتاج إلى رادارات فكرية ترصد التطورات التقنية المشبوهة وأدوات تحليل مخاطر مستقبلية باستخدام الذكاء الاصطناعي نفسه. 9. إصلاح التعليم العلمي: يجب تعليم الأجيال القادمة أن التكنولوجيا ليست محايدة أخلاقياً وأن مسؤولية التطوير تُرافقه مسؤولية أخلاقية وأن المبرمج والعالِم والمخترع شركاء في القرارات المصيرية. 10. منع الهيمنة التقنية والاحتكار: إن الشركات التكنولوجية الكبرى تملك اليوم ما لا تملكه دول بأكملها لذلك يجب تفكيك الاحتكارات التقنية، وفرض ضرائب على الشركات التي تحتكر الذكاء الاصطناعي والبيانات ودعم الدول النامية للوصول العادل للتكنولوجيا. نحن نقف اليوم على حافة مفترق طرق إما أن نُطوِّع التكنولوجيا لخدمة الإنسان، أو نتركها تُطوِّع الإنسان لأهدافها وقد لا تكون هناك فرصة إنقاذ ثانية. * مدير عام الأمن الجنائي السابق في وزارة الداخلية


البيان
منذ 3 ساعات
- البيان
إماراتي يحصل على الدكتوراه في «الرؤية الحاسوبية»
مؤكداً أن الدعم المتواصل من القيادة الرشيدة للكفاءات الوطنية يشكل دافعاً كبيراً للاستمرار والابتكار، مضيفاً: «إيمان الدولة بطاقات الشباب يضعنا أمام تحدٍ مستمر لنكون على قدر الثقة». مؤكداً ثقته في خريجي الجامعة وقدرتهم على الإسهام في صياغة مستقبل الذكاء الاصطناعي عالمياً، حيث يعكس تخرج أول طالب دكتوراه إماراتي من الجامعة التزام المؤسسة بإعداد قادة علميين يسهمون في بناء منظومة معرفية متقدمة، تدعم مكانة الإمارات كمركز عالمي للذكاء الاصطناعي، وتفتح آفاقاً جديدة للتطور والابتكار».


البيان
منذ 3 ساعات
- البيان
تعاون إماراتي ماليزي لتسهيل الاستثمارات في الأمن الغذائي
وستكون محطة باغان داتوك البحرية الدولية بمثابة بوابة حيوية لصادرات الأغذية الماليزية، وستعزز مكانتنا في سلاسل التوريد العالمية، ونحن نقدّر شراكتنا مع دولة الإمارات ونتطلع إلى مواصلة التعاون معها».