logo
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة.
ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟
لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها:
ما استخدامات الذكاء الاصطناعي في الحماية؟
يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل:
تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر.
تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا.
تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية.
تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة.
ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم.
وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي.
وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟
التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي:
تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة.
وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي.
فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم.
كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة.
وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية.
ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة.
وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان.
ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة.
المراقبة على حساب الخصوصية:
حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي.
وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية.
أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم.
ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا.
وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها.
نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات:
تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي:
تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية.
يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة.
تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية.
يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية.
تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية.
وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

الإمارات تؤسس لأول حكومة في العالم تعمل بالذكاء الاصطناعي
الإمارات تؤسس لأول حكومة في العالم تعمل بالذكاء الاصطناعي

البيان

timeمنذ 41 دقائق

  • البيان

الإمارات تؤسس لأول حكومة في العالم تعمل بالذكاء الاصطناعي

مع إعلان صاحب السمو الشيخ محمد بن راشد آل مكتوم، نائب رئيس الدولة رئيس مجلس الوزراء حاكم دبي، رعاه الله، اعتماد «منظومة الذكاء الاصطناعي الوطنية» عضواً استشارياً دائماً في مجلس الوزراء والمجالس الحكومية بدءاً من يناير 2026، تدخل الإمارات مرحلة جديدة من الحوكمة الذكية، حيث تُسند إلى الأنظمة الذكية مهام تحليلية واستشارية لدعم كفاءة السياسات في مختلف القطاعات. هذا التوجه يضع شركات التكنولوجيا الكبرى العاملة في الدولة أمام فرصة جديدة للمشاركة الفعلية في بناء نموذج عالمي لحكومة المستقبل. ويشير المحللون إلى أن دمج نظام الذكاء الاصطناعي على مستوى الوزارات والشركات الاتحادية من شأنه أن يُسرّع الحوكمة القائمة على البيانات، ويُقلّل من التأخر البيروقراطي، ويُعزز الترابط بين الإدارات، ويرفع كفاءة السياسات الحكومية المُعتمدة في جميع القطاعات. وأشادت صحيفة «ذا صن» البريطانية بالقرار قائلة: «ستكون هذه هي المرة الأولى في تاريخ العالم التي يحظى فيها الذكاء الاصطناعي بمكانة بارزة في قمة دولة». استراتيجية طموحة ويقول حيدر نظام، رئيس شركة «زوهو» في منطقة الشرق الأوسط وأفريقيا: «في ظل تبنّي الذكاء الاصطناعي، ترسم دولة الإمارات ملامح مستقبل ذكي وريادي على المستويين الإقليمي والعالمي؛ فهي لا تتعامل مع الذكاء الاصطناعي كمجرد أداة تقنية، بل كركيزة استراتيجية شاملة تهدف إلى تحسين جودة الحياة، ورفع كفاءة الخدمات الحكومية، وتعزيز التنافسية الاقتصادية، ودعم الاستدامة. ولقد برزت دبي كمركز عالمي رائد في مجال الذكاء الاصطناعي، مدفوعة برؤية استراتيجية طموحة وبيئة أعمال داعمة للابتكار والتكنولوجيا. وهذا التقدم لم يكن وليد الصدفة، بل جاء نتيجة التزام حكومي واضح بتعزيز مكانة المدينة كمحور عالمي للتقنيات المتقدمة؛ فقد كانت حكومة دبي القوة المحرّكة لهذا التحول النوعي، من خلال تبنّي سياسات وتشريعات متقدمة تشجع على البحث والتطوير في مجال الذكاء الاصطناعي وتوفّر أرضاً صلبة لنمو هذا القطاع الحيوي». ويضيف: «تتجاوز المبادرات الحكومية حدود الأطر التنظيمية، لتشمل استثمارات ضخمة في تطوير البنية التحتية الرقمية، وإنشاء مراكز أبحاث متخصصة، إلى جانب تأسيس جامعات ومؤسسات تعليمية رائدة تعنى بتطوير الكفاءات في مجالات الذكاء الاصطناعي والتقنيات المستقبلية». ومن خلال رؤية طموحة تقودها قيادة مؤمنة بالعلم والابتكار، أصبحت الإمارات من أولى الدول التي أطلقت وزارة متخصصة بالذكاء الاصطناعي، واستثمرت في البنية التحتية الرقمية، والكوادر البشرية، ومراكز البحث والتطوير، ما يعكس التزاماً واضحاً بتحويل التحديات إلى فرص، وقد أسهم هذا التركيز الاستراتيجي على البحث والتطوير في استقطاب كبرى شركات التكنولوجيا العالمية والمواهب المتخصصة من مختلف أنحاء العالم، ما عزّز من مكانة دبي كمركز متقدم في مجال الذكاء الاصطناعي. العصر الرقمي يقول مهند العزه، رئيس مجلس إدارة مجموعة شركات IDCentriq Group: «عوّدتنا دولة الإمارات أن تكون دائماً سباقة في مختلف مجالات التطور والتميز على جميع الأصعدة. وليس من الغريب أن تتجه دولة الإمارات إلى تبني الذكاء الاصطناعي كعضو استشاري دائم في صنع القرار الحكومي، والذي يساعد على إعادة تعريف نموذج الحكومة المتطور في العصر الرقمي. الذكاء الاصطناعي هنا ليس مجرد أداة تقنية، بل شريك استراتيجي في تحليل البيانات، ورصد الاتجاهات، وصياغة السياسات الاستباقية، ما يؤدي إلى قرارات أكثر دقة وكفاءة وشفافية». ويضيف: «إن الإمارات مرشّحة بقوة لأن تتحوّل إلى نموذج عالمي للحكومة المدعومة بالذكاء الاصطناعي، مستفيدة من بنية تحتية رقمية متطورة، واستراتيجية وطنية واضحة، وبيئة تشريعية مرنة. ما يميز النهج الإماراتي هو أنه لا يكتفي بالاستخدام، بل يسعى إلى تصميم وتصدير نموذج حوكمة ذكي عالمي الطابع. وهذا ما يجعل من الإمارات اليوم مختبراً عملياً لمستقبل الحوكمة الرقمية، يقود العالم في مجالات مثل المدن الذكية، وحلول الأمن السيبراني، وتكامل الذكاء الاصطناعي في قطاعات التعليم، الصحة، والاقتصاد. أما جمانة كرم، رئيسة قسم التسويق لمنطقة الشرق الأوسط وأفريقيا لدى شركة «أيسر» فقالت: «كانت الإمارات من أولى الدول التي رأت أن قطاع التكنولوجيا هو من أهم عوامل التطور والتحضير لعالم المستقبل ابتداءً من القطاع العام إلى القطاع الخاص؛ فقد عينت أول وزير دولة للذكاء الاصطناعي منذ عام 2017، وضمت ملفات الاقتصاد الرقمي وتطبيقات العمل عن بعد إلى مهامه منذ عام 2020؛ حيث إن قيادة الإمارات تؤمن بأن التكنولوجيا عند استخدامها الصحيح تسهم بتسهيل أعمال المؤسسات وتحسينها وتمكينها، من تحليل وتغيير وابتكار وكل ما هو جديد ومفيد في أقل وقت ممكن للدولة ولسكانها وللمقيمين فيها. ولا يفاجئني هذا القرار، فالإمارات تعمل باستمرار على تحفيز كل ما هو جديد ومفيد في مجالي الاقتصاد المعرفي والرقمي، كما تتمتع بمكانة رائدة بين الدول في هذا المجال. نموذج عالمي بينما يقول جوني كرم، المدير العام ونائب الرئيس الإقليمي للأسواق الناشئة الدولية في شركة كوهيزيتي: «تواصل دولة الإمارات ريادتها في دمج الابتكار في منظومة الحوكمة، عبر قرار اعتماد الذكاء الاصطناعي كعضو استشاري رسمي في الجهات الحكومية والذي يعد خطوة سباقة، وتشكل أساساً لبناء منظومة مرنة وآمنة للبيانات على المدى الطويل». ومن خلال دمج الذكاء الاصطناعي في صميم عملية صنع القرار، تضع الإمارات أسس نظام ذكي ومرن في آنٍ واحد، يعتمد على تحليلات لحظية لاتخاذ قرارات أفضل، وتوقّع أدق للمخاطر، واستباق التهديدات مهما تطورت، وإذا نُفذت هذه المبادرة بالشكل الصحيح، فإنها تؤهل الإمارات لتكون نموذجاً عالمياً للحكومات الذكية المدعومة بالذكاء الاصطناعي، حكومات تجمع بين الابتكار والثقة والقدرة على التكيف. في صدارة المشهد من جانبه يقول مريغانك تريباثي، رئيس قطاع النمو في شركة «بيبول سترونج»: «تتصدّر دولة الإمارات مشهد الذكاء الاصطناعي في المنطقة بفضل رؤية استراتيجية طموحة واستثمارات واسعة في هذا القطاع الحيوي؛ ما جعلها نموذجاً يُحتذى به في التحول الرقمي والتبني الحكومي للتقنيات المستقبلية. ويعود هذا التميز إلى مجموعة من العوامل المتكاملة، أبرزها إطلاق «استراتيجية الإمارات للذكاء الاصطناعي 2031» وتعيين أول وزير للذكاء الاصطناعي في العالم، إلى جانب توفير بنية تحتية رقمية متطورة تتيح تطبيق الذكاء الاصطناعي على نطاق واسع. كما اهتمت الدولة اهتماماً خاصاً ببناء القدرات البشرية من خلال إنشاء مؤسسات تعليمية وبحثية متخصصة، مثل«جامعة محمد بن زايد للذكاء الاصطناعي»، وعقد شراكات استراتيجية مع كبرى شركات التكنولوجيا العالمية. الإمارات هي من رسم السياسات إلى التطبيق العملي، حيث تم دمج الذكاء الاصطناعي في العديد من الخدمات الحكومية والقطاعات الحيوية مثل الصحة، والنقل، والتعليم؛ ما عزّز من جودة الحياة وأسهم في ترسيخ مكانة الدولة كمركز إقليمي وعالمي للابتكار في الذكاء الاصطناعي». ويضيف: «تسير الإمارات بخطى ثابتة نحو أن تصبح نموذجاً عالمياً رائداً للحكومات المدعومة بالذكاء الاصطناعي، بفضل رؤيتها الاستشرافية واستراتيجياتها الطموحة في هذا المجال؛ فقد كانت من أولى الدول التي تبنت الذكاء الاصطناعي كعنصر محوري في تطوير العمل الحكومي، ليس فقط من خلال إنشاء أول وزارة للذكاء الاصطناعي على مستوى العالم، بل أيضاً عبر إطلاق استراتيجيات وطنية متكاملة تهدف إلى تعزيز الكفاءة وجودة الحياة وتقديم خدمات ذكية استباقية. كما أن البيئة التشريعية المرنة، والدعم الحكومي اللامحدود للبحث والتطوير، وتوافر الكفاءات الوطنية والدولية، كلها عوامل تسهم في ترسيخ مكانة الإمارات كنموذج يُحتذى به في مجال الحوكمة الذكية.. وإذا استمرّت الإمارات بهذا الزخم، فمن المرجّح أن تتحول إلى معيار عالمي يُستند إليه عند الحديث عن مستقبل الحكومات المدعومة بالتقنيات الذكية والذكاء الاصطناعي.

ذكاء اصطناعي.. تمكين بلا تفريط
ذكاء اصطناعي.. تمكين بلا تفريط

صحيفة الخليج

timeمنذ 3 ساعات

  • صحيفة الخليج

ذكاء اصطناعي.. تمكين بلا تفريط

في خضم التحولات التكنولوجية المتسارعة، تبرز دولة الإمارات العربية المتحدة كنموذج عالمي ريادي، في تبني وتطوير تقنيات المستقبل، وعلى رأسها الذكاء الاصطناعي. ويأتي هذا التوجه ضمن رؤية طموحة تتجلى في «نحن الإمارات 2031»، حيث يُعد الذكاء الاصطناعي ركيزة أساسية في رسم ملامح الاقتصاد المعرفي والمجتمع المتطور. لقد أحدثت هذه التقنية ثورة في مختلف القطاعات، من تحليل البيانات إلى إنتاج المحتوى، مروراً بالتصميم، والتعليم، والصناعة، فما كان يتطلب أياماً من الجهد اليدوي، أصبح اليوم يُنجز في دقائق معدودة بدقة تفوق في بعض الأحيان العمل البشري التقليدي. باتت هذه الأدوات تتيح للمعلم إعداد تقرير، وللمصمم إنتاج مواد احترافية، وللكاتب جمع وتحليل مصادر معرفية.. وكل ذلك بكفاءة مذهلة وكلفة منخفضة. لكن هذا التقدم، ورغم ضرورته، يفرض علينا وقفة تأملية، فثمة قلق متزايد من الاعتماد المفرط على الذكاء الاصطناعي، وهو ما قد يؤدي إلى تراجع قدرات الإنسان الذهنية، ففي المجال التعليمي، يلاحظ بعض المعلمين أن الطلبة ينجزون مشاريعهم، عبر أدوات الذكاء الاصطناعي، من دون فهم حقيقي لما يكتبون، ما يؤدي إلى ضعف في التفكير التحليلي والتعبير الكتابي. حدثني أحدهم عن طالب أخفق في كتابة فقرة واحدة بالامتحان رغم تفوقه في الأبحاث، قائلاً: «لم يكن ضعيفاً.. فقط اعتاد ألا يفكر». تشبيه العقل بالعضلة ليس مجازاً إنشائياً، بل حقيقة علمية. التفكير، التخيل، النقد، التقييم، والاستنتاج، هي تمارين عقلية أساسية لا يمكن إغفالها من دون عواقب. وإذا تحوّل الذكاء الاصطناعي من أداة مساعدة إلى بديل ذهني، فإننا نخسر جوهر ما يجعل الإنسان مبدعاً ومفكراً. ولا يقتصر الخطر على «هلوسة الذكاء الاصطناعي» — أي تقديمه لمعلومات غير دقيقة — بل يمتد إلى إضعاف الحافز العقلي لدى الفرد، وقد عبّر عن ذلك سام ألتمان، الرئيس التنفيذي لشركة «OpenAI»، بقوله: «الذكاء الاصطناعي هو آخر اختراعات البشر»، مشيراً إلى أن الإنسان قد يتخلى طوعاً عن دوره في التفكير والابتكار، تاركاً المهمة للخوارزميات. استشعاراً لهذا التحول، بدأت دول ومؤسسات باتخاذ خطوات تنظيمية حكيمة. على سبيل المثال، أقرت جامعة هارفارد سياسة تمنع استخدام الذكاء الاصطناعي في الأبحاث دون تصريح، وأطلقت سنغافورة منصات لتدريب الطلبة على التمييز بين المحتوى البشري والآلي، وتوصي «اليونسكو» بإدماج التربية الأخلاقية الرقمية ضمن المناهج التعليمية. أما في الإمارات، فريادتها في مجال الذكاء الاصطناعي، لا تعني فقط التفوق التكنولوجي، بل تحمل أيضاً مسؤولية بناء نموذج أخلاقي وتربوي متكامل. نحن بحاجة إلى ميثاق وطني للاستخدام المسؤول، يحدد متى وأين وكيف نستخدم هذه الأدوات، وخاصة في قطاعات مثل التعليم، الصحافة، والبحث العلمي. ولتجنب الانزلاق نحو الاعتمادية الذهنية، يمكن تبني ممارسات بسيطة لكنها فعالة، مثل تخصيص وقت يومي للتفكير أو الكتابة من دون أدوات ذكية، وتوظيف الذكاء الاصطناعي في المهام التكميلية فقط، كتجميع البيانات أو التلخيص، لا في صياغة الرأي أو اتخاذ القرار. ختاماً، الذكاء الاصطناعي قادم بقوة، وهو بلا شك منجز بشري عظيم، لكن التحدي الحقيقي لا يكمن في تطوره، بل في كيفية تعاملنا معه. فلنحرص أن يكون أداة تمكين لا استبدال، وأن نظل مفكرين لا متلقين، ليظل الإبداع البشري في قلب المعادلة، لا على هامشها. *مدرب ومحاضر في القيادة والابتكار وريادة الأعمال

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

البوابة العربية للأخبار التقنية

timeمنذ 5 ساعات

  • البوابة العربية للأخبار التقنية

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة. ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟ لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها: ما استخدامات الذكاء الاصطناعي في الحماية؟ يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل: تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة. ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم. وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي. وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟ التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي: تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة. وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي. فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم. كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة. وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية. ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة. وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان. ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة. المراقبة على حساب الخصوصية: حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي. وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية. أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم. ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا. وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها. نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات: تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي: تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية. تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية. وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store