logo
#

أحدث الأخبار مع #COPPA

إجراءات حماية الأطفال على الإنترنت.. ما بين الشروع والتنفيذ
إجراءات حماية الأطفال على الإنترنت.. ما بين الشروع والتنفيذ

مجلة رواد الأعمال

time١٥-٠٥-٢٠٢٥

  • سياسة
  • مجلة رواد الأعمال

إجراءات حماية الأطفال على الإنترنت.. ما بين الشروع والتنفيذ

الولايات المتحدة الأمريكية تعيد فتح قانون حماية الأطفال على الإنترنت (KOSA) أمام الكونجرس. حيث تم تمرير هذا المقترح ليصبح قانونًا. كما يمكن أن يفرض بعضًا من أهم التغييرات التشريعية التي شهدها الإنترنت في الولايات المتحدة منذ قانون حماية خصوصية الأطفال على الإنترنت (COPPA) لعام 1998. الكونجرس يثير الجدل حول قانون حماية الأطفال على الانترنت؟ ولكن من خلال إعادة صياغته، سيكون بمقدور KOSA تحميل منصات التواصل الاجتماعي المسؤولية القانونية إذا ثبت أن هذه الشركات لا تقوم بما يكفي لحماية القاصرين من الأذى. كما يتضمن مشروع القانون قائمة طويلة من الأضرار المحتملة. مثل اضطرابات الأكل والاستغلال الجنسي وتعاطي المخدرات والانتحار. وعلى الرغم من تمريره بأغلبية ساحقة في مجلس الشيوخ العام الماضي، فإن مسار مشروع القانون تعطل في مجلس النواب. كما لاقى ردود أفعال سلبية منذ تقديمه في عام 2022. حيث أعلنت بعض منظمات حقوق الإنسان مثل الاتحاد الأمريكي للحريات المدنية مخاوفها من إمكانية استخدام مشروع القانون كسلاح للرقابة والمراقبة. وعلى الرغم من أن التعديلات التي أدخلت على قانون حماية الأطفال على الانترنت خففت من بعض هذه المخاوف. فإن مجموعات مثل مؤسسة الحدود الإلكترونية ومنظمة الكفاح من أجل المستقبل ظلت تعارض مشروع القانون. 'لقد ادعى واضعو مشروع القانون مرارًا وتكرارًا أن مشروع القانون هذا لا يؤثر على الخطاب. لكن واجب الرعاية يتعلق بالكلام: حيث إنه يتعلق بحظر الكلام الذي تعتقد الحكومة أنه ضار بالأطفال'. كما قالت منظمة الكفاح من أجل المستقبل في بيان 'الأشخاص الذين سيحددون ما هو الكلام الضار؟ هم نفس الأشخاص الذين يستخدمون كل الأدوات لإسكات المجتمعات المهمشة ومهاجمة من يعتبرونهم أعداء'. من ناحية أخرى، حظي قانون حماية الأطفال على الإنترنت بدعم شركات مثل Microsoft وSnap وX. حتى إن ليندا ياكارينو الرئيسة التنفيذية لشركة X عملت مع السيناتور مارشا بلاكبيرن (جمهوري من ولاية تينيسي) وريتشارد بلومنتال (ديمقراطي من ولاية كونيتيكت) على أحدث مسودة لمشروع القانون. كما ظلت جوجل وميتا معارضتين لمشروع القانون. في حين أعلنت آبل خلال الشهر الجاري اليوم أنها ستدعم التشريع. وقال تيموثي باودرلي، كبير مديري الشؤون الحكومية في آبل 'يسر Apple أن نقدم دعمنا لقانون سلامة الأطفال على الإنترنت (KOSA). كل شخص لديه دور يلعبه في الحفاظ على سلامة الأطفال على الإنترنت. ونحن نعتقد أن هذه الخطوة سيكون لها تأثير كبير على سلامة الأطفال على الإنترنت'. مفهوم قانون حماية الأطفال على الإنترنت في إنجلترا؟ كجزء من تنفيذ قانون السلامة على الإنترنت، انتهت الهيئة التنظيمية من وضع اللمسات الأخيرة على سلسلة من قواعد سلامة الأطفال التي ستدخل حيز التنفيذ على وسائل التواصل الاجتماعي وتطبيقات البحث والألعاب والمواقع الإلكترونية في 25 يوليو 2025. كما أنها مصممة لحماية الأطفال من المواد المعادية للنساء أو العنيفة أو التي تحض على الكراهية أو المسيئة أو التنمر عبر الإنترنت والتحديات الخطيرة. أسباب تطبيق القانون في إنجلترا يجب على الشركات التي ترغب في الاستمرار في العمل في المملكة المتحدة أن تتبنى أكثر من 40 إجراءً عمليًا. والتي تتضمن الآتي: تغيير الخوارزميات التي تحدد ما يتم عرضه في خلاصات الأطفال لتصفية المحتوى الضار تنفيذ طرق أكثر صرامة للتحقق من العمر للتحقق مما إذا كان المستخدم أقل من 18 عامًا إزالة المواد الضارة التي تم تحديدها بسرعة أكبر، ودعم الأطفال الذين تعرضوا لها تحديد شخص معين في الشركة يكون 'مسؤولًا عن سلامة الأطفال' ومراجعة سنوية لكيفية إدارة المخاطر التي يتعرض لها الأطفال على منصاتها يمكن أن يؤدي عدم الامتثال إلى تغريم الشركات 18 مليون جنيه إسترليني أو 10% من إيراداتها العالمية. أو سجن مسؤوليها التنفيذيين. وفي الحالات الخطيرة للغاية يمكن أن تتقدم بطلب للحصول على أمر من المحكمة لمنع الموقع أو التطبيق من التوفر في المملكة المتحدة. تحديد فترة زمنية لاستخدام الأطفال للإنترنت بحسب أبحاث أجرتها شركة أوف كوم, يقضي الأطفال الذين تتراوح أعمارهم بين ثمانية أعوام و17 عامًا ما بين ساعتين وخمس ساعات على الإنترنت يوميًا. كما أثبتت الدراسات أن حوالي نصف الأطفال الذين تزيد أعمارهم عن 12 عامًا الموجودين على الإنترنت مفيد لصحتهم النفسية. ومع ذلك، قالت مفوضة شؤون الأطفال إن نصف الأطفال الذين يبلغون من العمر 13 عامًا والذين شملهم الاستطلاع الذي أجراه فريقها أفادوا بأنهم شاهدوا موادَّ إباحية 'فاضحة ومعادية للنساء' على مواقع التواصل الاجتماعي. وقال الأطفال أيضًا إن المواد التي تتحدث عن الانتحار وإيذاء النفس واضطرابات الأكل 'منتشرة بكثرة'، وأن المحتوى العنيف 'لا يمكن تجنبه'. وأوضح ثلث أولياء الأمور أنهم يستخدمون أدوات التحكم للحد مما يراه أطفالهم على الإنترنت. وذلك بحسب منظمة Internet Matters. وهي منظمة للسلامة أنشأتها بعض شركات الإنترنت الكبرى في المملكة المتحدة. ولديها قائمة بالضوابط الأبوية المتاحة وأدلة إرشادية خطوة بخطوة حول كيفية استخدامها. وتشمل هذه الإرشادات نصائح حول كيفية إدارة حسابات المراهقين أو الأطفال على وسائل التواصل الاجتماعي. ومنصات الفيديو مثل يوتيوب. ومنصات الألعاب مثل Roblox أو Fortnite. ومع ذلك، تشير بيانات Ofcom إلى أن واحدًا من كل خمسة أطفال تقريبًا قادر على تعطيل الرقابة الأبوية. المقال الأصلي: من هنـا ومن هنـا

أخبار التكنولوجيا : قانون حماية الأطفال على الإنترنت يعود للكونجرس بإصلاحات مثيرة للجدل
أخبار التكنولوجيا : قانون حماية الأطفال على الإنترنت يعود للكونجرس بإصلاحات مثيرة للجدل

نافذة على العالم

time١٥-٠٥-٢٠٢٥

  • سياسة
  • نافذة على العالم

أخبار التكنولوجيا : قانون حماية الأطفال على الإنترنت يعود للكونجرس بإصلاحات مثيرة للجدل

الخميس 15 مايو 2025 06:45 مساءً نافذة على العالم - أُعيد تقديم مشروع قانون حماية الأطفال على الإنترنت (KOSA) داخل الكونجرس الأميركي، وسط ترقب واسع لما قد يشكله من تغييرات تشريعية هي الأوسع منذ قانون حماية خصوصية الأطفال على الإنترنت لعام 1998 (COPPA). ويهدف القانون، في حال إقراره، إلى تحميل شركات التواصل الاجتماعي مسؤولية قانونية مباشرة إذا ثبت أنها لا تتخذ الإجراءات الكافية لحماية القُصّر من المحتوى الضار. وتشمل قائمة الأضرار المحتملة التي يستهدفها القانون: اضطرابات الأكل، الاستغلال الجنسي، تعاطي المخدرات، والانتحار. رغم تمرير القانون سابقًا بأغلبية في مجلس الشيوخ، إلا أنه تعثر داخل مجلس النواب، وقد واجه مشروع KOSA منذ ظهوره عام 2022 انتقادات شديدة من منظمات حقوقية مثل الاتحاد الأميركي للحريات المدنية (ACLU)، التي حذّرت من أن القانون قد يُستخدم كأداة للرقابة والتجسس الحكومي. ورغم تعديلات لاحقة هدفت لتهدئة المخاوف، لا تزال منظمات مثل مؤسسة الحدود الإلكترونية (EFF) وFight for the Future ترفض القانون، مشيرة إلى أن مبدأ 'واجب العناية' في KOSA يعادل تقييدًا على حرية التعبير، خاصة إذا ترك أمر تحديد ما يُعتبر ضارًا للحكومة، مما قد يُسكت الأصوات المهمّشة. في المقابل، نال القانون دعمًا من شركات تكنولوجية بارزة مثل مايكروسوفت، سناب، ومنصة X، حيث شاركت الرئيسة التنفيذية لـ X، ليندا ياكارينو، في صياغة النسخة الجديدة بالتعاون مع السيناتورين مارشا بلاكبيرن وريتشارد بلومنتال. ورغم استمرار جوجل وميتا في معارضة التشريع، أعلنت شركة أبل رسميًا دعمها للقانون، حيث قال تيموثي باوديرلي، مدير الشؤون الحكومية في أبل: "يسر أبل أن تعلن دعمها لقانون حماية الأطفال على الإنترنت، فالجميع يتحمّل مسؤولية حماية الأطفال، ونعتقد أن هذا القانون سيكون له أثر إيجابي حقيقي." مع إعادة طرح مشروع KOSA، يبدو أن معركة حماية الأطفال مقابل حماية الحريات الرقمية قد تعود إلى الواجهة من جديد، وسط انقسام واضح بين الشركات والناشطين حول الشكل الأمثل لإنترنت آمن للأطفال دون المساس بحرية التعبير.

54 مليون حساب مُراهق تحت الحصار: حرب إنستجرام ضد الأعمار المُزيفة
54 مليون حساب مُراهق تحت الحصار: حرب إنستجرام ضد الأعمار المُزيفة

عرب هاردوير

time٢٢-٠٤-٢٠٢٥

  • عرب هاردوير

54 مليون حساب مُراهق تحت الحصار: حرب إنستجرام ضد الأعمار المُزيفة

أعلنت شركة ميتا عن تعزيز إجراءات الحماية للمُراهقين على منصّة إنستجرام، عبر توسيع نطاق استخدام الذكاء الاصطناعي لاكتشاف الحسابات التي تخفي أعمارهم الحقيقية، وذلك في إطار جهودها لمواجهة المخاطر الرقمية التي يتعرض لها القُصّر. اقرأ أيضًا: كيف يكتشف الذكاء الاصطناعي المُراهقين؟ تعتمد خوارزميات ميتا على تحليل أنماط السلوك والمؤشرات غير المُباشرة، مثل: تهاني عيد الميلاد السادس عشر (16) في الرسائل. تفاعلات المُستخدمين مع أقرانهم في الفئة العمرية نفسها. نوع المُحتوى الذي يتابعونه أو ينشرونه. تبدأ الشركة اختبار ميزة جديدة في الولايات المتحدة تكتشف الحسابات التي تُظهر تواريخ ميلاد بالغة، لكنها في الواقع تعود لمُراهقين. وعند اكتشاف ذلك، ستُفرض قيود تلقائية على الحساب، مثل: جعله خاصًا بشكل افتراضي. منع الغرباء من إرسال رسائل مُباشرة. تقييد المُحتوى الحساس غير المُناسب للعُمر. إجراءات صارمة لحماية القُصّر منذ 2023، فرضت إنستجرام إعدادات أمان صارمة لجميع المُستخدمين المُراهقين، تشمل: تصفية (فلترة) المُحتوى الضار المُتعلّق باضطرابات الأكل أو العنف. منع الإعلانات المُستهدفة بناءً على اهتماماتهم. تقييد ظهورهم في عمليات البحث والتوصيات. انتقادات وأخطاء مُحتملة أقرّت ميتا بأنّ نظام الذكاء الاصطناعي ليس معصومًا عن الخطأ، لكنها أكّدت أن المُستخدمين يمكنهم تعديل الإعدادات يدويًا إذا تم تصنيفهم عن طريق الخطأ كمُراهقين. يأتي ذلك وسط ضغوط قانونية مُتزايدة، حيث تواجه الشركة: تحقيقًا أوروبيًا حول تأثير إنستجرام على الصحة النفسية للمُراهقين. دعاوى قضائية في الولايات الُمتحدة بسبب استغلال الأطفال عبر المنصة. اتهامات من جوجل بأنّ ميتا تتهرّب من مسؤوليتها في حماية المُستخدمين الصغار. تسعى ميتا لتحسين سُمعتها بعد تسريبات فرانسيس هوجن التي كشفت عن إهمال الشركة في مواجهة التأثيرات السلبية لإنستجرام على المُراهقين. كما أطلقت مؤخرًا أدوات رقابة أبوية تُتيح للأهل مُراقبة نشاط أبنائهم. مع تزايد التشريعات العالمية مثل قانون حماية الخصوصية الرقمية للأطفال (COPPA) في الولايات المتحدة والقانون الأوروبي للخدمات الرقمية (DSA)، تُجبر الشركات التقنية على تعزيز شفافيتها وضمان سلامة مُستخدميها الصغار. إحصاءات وحقائق جديدة كشفت ميتا عن أنّ: 54 مليون مُراهق مُسجلين في حسابات محمية عالميًا. 97⁒ من المُستخدمين بين 13 و15 عامًا ما زالوا ضمن هذه الحسابات المُقيدّة. المنصة ستُرسل إشعارات لأولياء الأمور لمُساعدتهم في التأكُّد من دقة أعمار أبنائهم. تُظهر ميتا تحركًا استباقيًا لتعزيز الأمان، لكن فعالية هذه الإجراءات ستخضع للمُراقبة وسط تساؤلات حول مدى التزامها الحقيقي بحماية الأطفال في العالم الرقمي.

د.خفاجى يستعرض تحديات الذكاء الاصطناعي في تعليم الطفولة المبكرة
د.خفاجى يستعرض تحديات الذكاء الاصطناعي في تعليم الطفولة المبكرة

عالم المال

time١٧-٠٤-٢٠٢٥

  • علوم
  • عالم المال

د.خفاجى يستعرض تحديات الذكاء الاصطناعي في تعليم الطفولة المبكرة

دكتور خفاجى فى مؤتمر جامعة القاهرة : التحديات القانونية والضمانات الأخلاقية لاستخدام الذكاء الاصطناعي في تعليم الطفولة المبكرة أهمها ضمان خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام — وأن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة أثناء المؤتمر العلمى الثالث عشر الدولى السادس لكلية التربية للطفولة المبكرة – جامعة القاهرة بعنوان : (اَفاق ورؤى مستقبلية فى تعليم وتأهيل الأطفال ذوى الاحتياجات الخاصة فى ضوء تطبيقات الذكاء الاصطناعى ) المنعقدة 16 أبريل 2025 بالكلية تحت رعاية الأستاذ الدكتور محمد سامى عبد الصادق رئيس جامعة القاهرة , عرض القاضى المصرى المستشار الدكتور محمد عبد الوهاب خفاجى نائب رئيس مجلس الدولة رئيس دائرة الفحص بالمحكمة الإدارية العليا فى الجلسة الرئيسية للمؤتمر لبحثه القيم بعنوان (التحديات القانونية لاستخدام الذكاء الاصطناعى فى مجال التعلم بمرحلة الطفولة المبكرة الطفل العادى – الطفل غير العادى) . أولاً : ثلاث ضمانات للاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة يقول الدكتور محمد خفاجى فى محاضرته للمؤتمر ' يمكن حصر الاعتبارات القانونية التى تواجه الذكاء الاصطناعي في مرحلة تعليم الطفولة المبكرة فى ضمانة خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام – ضمانة أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن خلفياتهم دون تحيز – وضمانة التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة و المساءلة . ويمكن إيجاز الاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة فى الضمانات التالية ' الضمانة القانونية الأولى : ضمان خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام : ويذكر ' تتمثل الضمانة القانونية الأولى فى خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام , ففى حين أن الفوائد المحتملة للذكاء الاصطناعي في تعليم الطفولة المبكرة كبيرة، إلا أنه يجب التغلب على العديد من التحديات لضمان التنفيذ الناجح. أحد التحديات الأساسية هو الاعتبارات القانونية المتعلقة بخصوصية البيانات وأمنها. يتضمن استخدام الذكاء الاصطناعي في التعليم جمع وتحليل البيانات الحساسة حول الأطفال الصغار. وتعد ضمانة خصوصية وأمن هذه البيانات أمرًاً بالغ الأهمية لحماية الأطفال من الأذى المحتمل وسوء الاستخدام.' ويضيف ' تدور الاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة في المقام الأول حول خصوصية البيانات وحمايتها. فعلى سبيل المثال يحدد قانون حماية خصوصية الأطفال على الإنترنت (COPPA) في الولايات المتحدة معايير لجمع واستخدام المعلومات الشخصية من الأطفال منذ الطفولة المبكرة حتى دون سن 13 عامًا , حيث يعد الخضوع لهذه اللوائح أمرًا ضروريًا لحماية خصوصية المتعلمين الصغار.' الضمانة القانونية الثانية : ضمانة أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن خلفياتهم دون تحيز ويشير الدكتور محمد خفاجى ' تتمثل الضمانة القانونية الثانية فى أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن خلفياتهم دون تحيز, ويتمثل التحدي الآخر في خطر التحيز في خوارزميات الذكاء الاصطناعي, إذ يمكن لأنظمة الذكاء الاصطناعي أن تديم التحيزات القائمة والتفاوتات التعليمية إذا لم يتم تصميمها واختبارها بشكل صحيح.ومن الضروري ضمان أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة،وتوفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن أوضاعهم الاجتماعية.' الضمانة القانونية الثالثة : تتمثل فى التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة و المساءلة ويذكر ' تتمثل الضمانة الثالثة فى التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة و المساءلة . إن التعاون الدولي أمر بالغ الأهمية في تطوير هذه الأطر التنظيمية, ومن خلال تبادل أفضل الممارسات ومواءمة المعايير على مستوى العالم، يُمكن للدول أن تعمل معًا لمعالجة التحديات التي يفرضها الذكاء الاصطناعي في التعليم, وذلك من أجل خلق نهج موحد لقانون طفل تكنولوجى – إن صح التعبير – على المستوى الدولى , فى مجال الذكاء الاصطناعي والحوكمة بصفة عامة للوصول إلى أكبر قدر ممكن من الاستفادة للطفل فى مرحلة الطفولة المبكرة .' ويشير الدكتور محمد خفاجى لنقطة مهمة بقوله ' يجب أن توفر الأطر الدولية، مثل اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي، إرشادات صارمة بشأن معالجة البيانات وحقوق الأفراد، بما في ذلك الأطفال , إذ تنص هذه اللوائح على أن البيانات التي يتم جمعها من خلال تطبيقات الذكاء الاصطناعي يجب التعامل معها بأقصى درجة من العناية، مما يضمن عدم إساءة استخدامها أو تعرضها للانتهاكات.' ويضيف ' كما يجب تفعيل مبدأى المراقبة و المساءلة , فمن ناحية أولى , يجب ضع معايير لتطوير الذكاء الاصطناعي ونشره ومراقبته فى سبيل تطوير إطار تنظيمي شامل للذكاء الاصطناعي في تعليم الطفولة المبكرة , حيث يجب وضع المعايير وأفضل الممارسات لتوجيه الاستخدام الآمن والفعال لتقنيات الذكاء الاصطناعي , وتلعب المنظمات التكنولوجية دوراً كبيراً فى هذا الشأن , ففى أمريكا مثلاً تقدم منظمات مثل الجمعية الدولية للتكنولوجيا في التعليم (ISTE) إرشادات للمساعدة في صياغة هذه المعايير .' ويوضح أهمية المساءلة ' من ناحية ثانية فإن المساءلة في أنظمة الذكاء الاصطناعي أمر بالغ الأهمية والتعاون الدولي أمر بالغ الأهمية كذلك في تطوير هذه الأطر التنظيمية , ذلك أن ضمان المساءلة في أنظمة الذكاء الاصطناعي يكفل لها النجاح والسلامة ، خاصة عندما تؤثر القرارات التي يتخذها الذكاء الاصطناعي على المسار التعليمي للطفل, ويجب أن تحدد الأطر القانونية مسئوليات المعلمين والمطورين والمؤسسات في نشر أدوات الذكاء الاصطناعي .' ثانياً : ثلاث ضمانات للاعتبارات الأخلاقية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة ويذكر الدكتور محمد خفاجى ' لدينا ثلاث ضمانات للاعتبارات الأخلاقية تتعلق بالذكاء الاصطناعي في تعليم الطفولة المبكرة , نعرض لها على النحو التالى' : الضمانة الأخلاقية الأولى : ضمانة الإنصاف والشفافية كمبدأ أخلاقى ويذكر ' نظرًا لإنعدام خبرة المتعلمين الأطفال فى مرحلة الطفولة المبكرة ، فإن الاستخدام الأخلاقي للذكاء الاصطناعي في تعليم الطفولة المبكرة أمر بالغ الأهمية القصوى , لذا فإن ضمان تصميم أنظمة الذكاء الاصطناعي ووضعها موضوع التنفيذ بإنصاف وشفافية هو العامل الجوهرى المعول عليه , وينبغى علينا الاعتراف بأن المبدأ الأخلاقي شئ أساسى عند التعامل مع الأطفال عديمى الأهلية ومن على شاكلتهم خاصة الطفل غير العادى فى أقسى حالات الإعاقة الذهنية ، مما يتطلب الوقوف على موافقة الوالدين ومراعاة حقوق الأطفال لحمايتهم من سوء الاستخدام.' الضمانة الأخلاقية الثانية : ضمانة أن تكون أدوات الذكاء الاصطناعي معززة للتفاعل البشري بين الطفل ومعلم الروضة لا أن تحل محله كمبدأ أخلاقى ويضيف ' تتمثل الضمانة الأخلاقية الثانية فى ضمانة أن تكون أدوات الذكاء الاصطناعي معززة للتفاعل البشري بين الطفل ومعلم الروضة لا أن تحل محله كمبدأ أخلاقى , وهناك نقطة جوهرية اُركز عليها– ونحن بصدد الحديث عن الاعتبارات الأخلاقية – تتمثل في تأثير الذكاء الاصطناعي على العلاقة بين معلمة الروضة والطفل , إذ يجب لأدوات الذكاء الاصطناعي أن تعزز التفاعل البشري بينهما لا أن تحل محله، مع الحفاظ على الدور الأساسي للمعلمات في تنمية الطفولة المبكرة.' ويؤكد ' هنا يجب التأكيد – وفقاً لأحدث الدراسات العلمية فى هذا المجال – على ما نقوله من أهمية ضمانة أن تكون أدوات الذكاء الاصطناعي معززة للتفاعل البشري بين الطفل ومعلم الروضة لا أن تحل محله كمبدأ أخلاقى , لأن عدم توافر هذه الضمانة يؤدى إلى فقدان التواصل الإنساني في عملية التعلم , كما أن الإفراط في الاعتماد على الأدوات التعليمية المُدارة بالذكاء الاصطناعي قد يُضعف إبداع الأطفال، والتفكير النقدي، والنمو الاجتماعي وهى مسألة يجب النظر إليها بحذر شديد .' الضمانة الأخلاقية الثالثة : ضمانة توفير التدريب والدعم المستمر للمعلمين والمعلمات لتعظيم فوائد الذكاء الاصطناعي للأطفال كمبدأ أخلاقى(اَداب المهنة) ويختتم الدكتور محمد خفاجى ' تتمثل الضمانة الأخلاقية الثالثة فى ضمانة توفير التدريب والدعم المستمر للمعلمين والمعلمات لتعظيم فوائد الذكاء الاصطناعي للأطفال كمبدأ أخلاقى (اَداب المهنة) , إذ يعد التدريب والتطوير المهني للمعلمين والمعلمات على المستوى الدولى عاملاً حاسماً آخر لتطبيق الذكاء الاصطناعي في تعليم الطفولة المبكرة. ويجب أن يتمتع المعلمون بالمهارات والمعرفة اللازمة لاستخدام أدوات الذكاء الاصطناعي بشكل فعال ودمجها في ممارساتهم التعليمية. وقواعد التدريب تؤكد قدرة المعلمين على تعظيم فوائد الذكاء الاصطناعي لطفل ما قبل المدرسة .'

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store