logo
#

أحدث الأخبار مع #غادةحلمي

أستاذ قانون توضح لـ«بلدنا اليوم» المسؤولية الجنائية للذكاء الاصطناعي
أستاذ قانون توضح لـ«بلدنا اليوم» المسؤولية الجنائية للذكاء الاصطناعي

بلدنا اليوم

timeمنذ 2 أيام

  • علوم
  • بلدنا اليوم

أستاذ قانون توضح لـ«بلدنا اليوم» المسؤولية الجنائية للذكاء الاصطناعي

أجرت 'بلدنا اليوم' حوار خاص مع الدكتورة غادة حلمي، مدير تحرير دورية دراسات في حقوق الإنسان، بالهيئة العامة للاستعلامات، وأستاذ القانون الذائر بالأكاديمية العربية، والتي قدمت دراسة عن المسئولية الجنائية تجاه الذكاء الاصطناعي، على هامش مؤتمر العدالة الذكية بشأن المنظومة القانونية في ظل الذكاء الاصطناعي. أكدت غادة حلمي، أن العالم يشهد، في الآونة الأخيرة، تطورات سريعة ومتتالية ومتنوعة في مجال التقنيات التكنولوجية، وأصبح الحديث ما إذا كان استخدام هذه التقنيات التكنولوجية يشكل ضرراً وتهديداً خاصة على الأمن الإلكتروني، وفي الحقيقة مع وجود التطور التكنولوجي في مجال الذكاء الاصطناعي، ظهرت العديد من المشاكل فنحن نتحدث اليوم عن قدرات غير مسبوقة في اختراق البيانات والوصول الى مراكز المعلومات واستخدام خوارزميات الذكاء الاصطناعي في انتاج محتويات كاذبة أو مضللة بعدة اشكال سواء كانت على شكل صور، نصوص، فيديو وغيرها وقدرة الذكاء الاصطناعي في تشتيت الرأي العام العالمي كل هذه الامور تشكل خطورة على الأمن الإلكتروني. وأكملت الدكتورة غادة حلمي، أنه على الرغم من ذلك يعد الذكاء الاصطناعي سلاحاً ذا حدين؛ فمن جهة، يمكنه تعزيز فعالية النظام القانوني وحماية الحقوق من خلال تحليل البيانات والتنبؤ بالجرائم. ومن جهة أخرى، يثير تحديات تتعلق بالمساءلة القانونية، الشفافية، وانتهاكات الخصوصية. فأصحبت الأنظمة القانونية تواجه تحديًا كبيرًا بالفعل يتمثل في كيفية وضع الأطر القانونية التي تضمن استخدام الذكاء الاصطناعي بشكل عادل وأخلاقي. حيث أصبح العالم يشهد اليوم حراكًا قانونيًا وتنظيميًا لمحاولة تحقيق التوازن بين الابتكار التكنولوجي وحماية الحقوق والحريات الأساسية للأفراد. وتدور الإشكالية الأساسية حول إمكانية مساءلة أنظمة الذكاء الاصطناعي جنائيًا عن الأفعال التي تنتج عنها أضرار أو انتهاكات للقانون، خاصة مع تطور هذه الأنظمة وقدرتها على اتخاذ قرارات شبه مستقلة. وأفادت الدكتورة غادة حلمي أن هذه الإشكاية تنبثق عنها عدة تساؤلات وهي: هل يمكن اعتبار الذكاء الاصطناعي 'فاعلًا جنائيًا'؟ من يتحمل المسؤولية الجنائية عند ارتكاب AI لجريمة هل المطوّر أم المستخدم أم الشركة، أم النظام نفسه؟ كيف يمكن تكييف القواعد التقليدية للمسؤولية الجنائية (الركن المادي والمعنوي) مع الذكاء الاصطناعي؟ وتعد أحكام المسئولية الجنائية بكافة أبعادها هي السلاح الأهم الذي تتصدى به الدولة لمواجهة أي خطر يهدد أمن الأفراد والمجتمع ككل ولكن قواعد المسئولية رغم تطورها الدائم تكشف عن قصورها في مجابهة المخاطر والجرائم الإلكترونية بوجه عام. فتتلخص أهمية الورقة إذن في "فجوة التشريع" لأن معظم القوانين لم تتطرق بشكل مباشر إلى مساءلة الكيانات غير البشرية. وكذا "تحقيق العدالة" وهو ضرورة توفير إطار قانوني عادل يحاسب من تسبب في الضرر، ويمنع الإفلات من العقاب. وأيضاً تعزيز الثقة المجتمعية في التكنولوجيا، من خلال التأكيد على وجود ضوابط قانونية تحكم استخداماتها. وأكملت الدكتورة غادة حلمي، أنه يجب الوصول إلى وضع تصور قانوني يحدد من المسؤول جنائياً عن الجرائم الناشئة عن أعمال كيانات الذكاء الاصطناعي ؟ ، خصوصاً مع وجود أشخاص متداخلين فيه كممثل الشركة المنتجة (المصنع)، والمبرمج والمالك المستخدم، والمستفيد، إذ أن الخطورة التي تنتج عن التعامل مع تلك الكيانات، قد يصعب تداركها حتى في حالة وجود نصوص قانونية تنظم استخدامها . وفي خضم التطور السريع لتقنيات الذكاء الاصطناعي وتزايد الاعتماد عليها في مختلف المجالات، تبرز الحاجة الملحة لإعادة النظر في الأطر القانونية التقليدية، خاصة ما يتعلق بالمسؤولية الجنائية. فبينما تقدم هذه التقنيات إمكانيات هائلة لتحسين جودة الحياة وزيادة الكفاءة، فإنها قد تُستخدم أيضًا بشكل يسبب أضرارًا جسيمة، سواء عن قصد أو نتيجة خطأ تقني أو سوء استخدام. وفي ظل الطبيعة الذاتية والمتغيرة لهذه التقنيات، يصبح من الضروري تطوير منظومة قانونية مرنة وعادلة تضمن مساءلة الفاعلين الحقيقيين، سواء كانوا أفرادًا، شركات، أو حتى الأنظمة الذكية نفسها إن أمكن. ومما لا شك فيه أن الذكاء الاصطناعي أصبح حقيقة واقعة لا جدال فيها، كما أن هذا الكيان في تطور مستمر وفائق وهذا التطور للذكاء الاصطناعي أدى إلى ظهور العديد من الجرائم سواء كان هو المسئول عنها أو غيره المُصنع أو المستخدم أو المالك كما تم منحه الجنسية في بعض الدول كالمملكة العربية السعودية الروبوت صوفيا أو إعطاء الشخصية المعنوية الاعتبارية كما حدث في دولة الإمارات العربية المتحدة، بيد أنه على الرغم من التطور المذهل فإنه إذا ارتكب كيان الذكاء الاصطناعي جريمة فإنه لا يسأل عنها جنائياً. لذا فقد اختتمت الدكتور غادة حلمي حديثها بـ (6) توصيات هامة بشأن الذكاء الاصطناعي والتي تضمنتها في دراستها وهي: ضرورة وضع قوانين خاصة بالذكاء الاصطناعي تُراعي خصوصية هذه التقنيات، وتُحدد بشكل دقيق من تقع عليه المسؤولية الجنائية في حال حدوث ضرر . إعادة تعريف الفاعل الإجرامي ليشمل السيناريوهات التي يكون فيها النظام الذكي طرفًا نشطًا في اتخاذ القرار، وذلك دون الإخلال بمبدأ شخصية العقوبة. وضع معايير للمساءلة المشتركة بين مطوري الأنظمة، المستخدمين، والشركات المنتجة، بما يحقق توازنًا بين الابتكار وحماية الحقوق. تعزيز التعاون الدولي لوضع إطار قانوني موحد نظرًا للطبيعة العابرة للحدود لهذه التقنيات. إنشاء لجان أخلاقيات تقنية تضم خبراء قانونيين وتقنيين، تكون مهمتها تقديم توصيات واستشارات في قضايا الذكاء الاصطناعي المعقدة. دعم البحث العلمي القانوني والتقني لفهم التحديات المستقبلية المحتملة ووضع حلول استباقية لها. خاص|مدير تحرير "دراسات في حقوق الانسان": ما هي المسئولية الجنائية للذكاء الاصطناعي؟؟؟

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store