logo
حسين أباظة: تغير المناخ نتجة التدخل البشري الجائر.. وعلى العالم التعاون لمواجهة الخطر الوجودي

حسين أباظة: تغير المناخ نتجة التدخل البشري الجائر.. وعلى العالم التعاون لمواجهة الخطر الوجودي

اليوم السابعمنذ 2 أيام
أكد الدكتور حسين أباظة، المستشار الدولي للتنمية المستدامة والاقتصاد الأخضر ، أن التغيرات المناخية التي يشهدها العالم ليست مجرد ظواهر طبيعية كما كان يُعتقد سابقًا، بل هي نتيجة مباشرة للتدخل البشري غير المستدام والاستخدام المفرط للموارد الطبيعية، وخاصة بعد الثورة الصناعية.
وأوضح أباظة، خلال لقائه ببرنامج البعد الرابع على قناة إكسترا نيوز، أن المجتمع الدولي تجاهل في البداية تحذيرات مبكرة أطلقت منذ خمسين عامًا، لكن تقارير العلماء والخبراء لاحقًا أثبتت العلاقة الواضحة بين النشاط الإنساني وارتفاع درجات الحرارة، وذوبان الجليد، وارتفاع منسوب سطح البحر.
وأشار إلى أن أنماط التنمية والاستهلاك السائدة تفتقر إلى الاستدامة، مؤكدًا أن العودة لاستخدام الوقود الأحفوري بسبب الحروب والصراعات، سواء في الشرق الأوسط أو أوكرانيا، يفاقم الأزمة المناخية. وأضاف أن تأثير الحروب على المناخ لا يُبرز بالشكل الكافي رغم خطورته.
وأكد أباظة أن الوصول إلى "صفر انبعاثات" بحلول 2050 يبدو صعبًا في ظل الوضع الراهن، داعيًا إلى "تغيير جذري في النظام العالمي"، وتبني سياسات تكاملية تشمل التشريعات، والتعليم، والبحث العلمي، والقطاع الخاص، والمجتمع المدني، لضمان التحول نحو نموذج تنموي أكثر استدامة وعدالة.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

"معلومات الوزراء" يستعرض أبرز الجهود الدولية في مجال تنظيم الذكاء الإصطناعي
"معلومات الوزراء" يستعرض أبرز الجهود الدولية في مجال تنظيم الذكاء الإصطناعي

اليوم السابع

timeمنذ يوم واحد

  • اليوم السابع

"معلومات الوزراء" يستعرض أبرز الجهود الدولية في مجال تنظيم الذكاء الإصطناعي

أكد مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، أن العالم يشهد خلال الوقت الحالي ثورة التكنولوجية غير مسبوقة بفضل الذكاء الاصطناعي، حيث بدأ يؤثر بشكل عميق في مختلف جوانب الحياة، وفي مختلف المجالات، مضيفاً أنه على الرغم من الفوائد الكبيرة التي يقدمها، فإن الذكاء الاصطناعي يثير قلقًا متزايدًا بشأن المخاطر المحتملة التي قد تنجم عنه، سواء فيما يتعلق بالوظائف أو الخصوصية أو الأمن. وأوضح مركز المعلومات خلال تحليل له تناول من خلاله أبرز المخاطر المرتبطة بالاعتماد الواسع على تكنولوجيا الذكاء الاصطناعي، بالإضافة إلى الجهود الدولية الرامية إلى تنظيم هذه التكنولوجيا وحماية المجتمعات من آثارها السلبية، أنه نظرًا للنمو غير المسبوق الذي شهدته تقنيات الذكاء الاصطناعي في الآونة الأخيرة، وكونه جزءًا من حياتنا اليومية، أصبح من الضروري تقييم المخاطر والتحديات المحتملة المرتبطة بالتبني الواسع لتقنيات الذكاء الاصطناعي، نظرًا لأنه يحمل مجموعة من المخاطر الكبيرة، بدءًا من فقدان الوظائف وصولًا إلى القلق بشأن الأمن والخصوصية، كما أن عملية تنظيمه تمثل تحديًا، إذ إنه مثل العديد من التقنيات الأخرى ليس له طبيعة جيدة أو سيئة بحد ذاته، بل يعتمد ذلك على كيفية استخدامه. وأوضح المركز عدد من المخاطر التي يشكلها الذكاء الاصطناعي ومنها: -التحيز الخوارزمي والتمييز: إذ تؤدي أنظمة الذكاء الاصطناعي إلى استمرار أو تفاقم التحيزات الاجتماعية بشكل غير مقصود، وذلك نتيجة لاستخدام بيانات تدريب متحيزة أو تصميم خوارزمي غير ملائم، وللحد من التمييز وضمان العدالة، من الضروري استثمار الجهود في تطوير خوارزميات خالية من التحيز ومجموعات بيانات تدريب متنوعة. -خصوصية البيانات وأمنها: تقوم تقنيات الذكاء الاصطناعي عادةً بجمع وتحليل كميات هائلة من البيانات الشخصية، مما يثير قضايا تتعلق بخصوصية البيانات وأمنها. وللحد من مخاطر الخصوصية، من الضروري وضع لوائح صارمة لحماية البيانات وتبني ممارسات آمنة في التعامل معها. -القضايا الأخلاقية: حيث تعتبر القضايا الأخلاقية المتعلقة بتعزيز القيم في أنظمة الذكاء الاصطناعي -خاصة في سياق اتخاذ القرارات التي تحمل عواقب كبيرة- تحديًا كبيرًا، وفي هذا الإطار يتعين على الباحثين والمطورين أن يضعوا الآثار الأخلاقية لتقنيات الذكاء الاصطناعي في مقدمة أولوياتهم، وذلك لتفادي التأثيرات السلبية في المجتمع. -المخاطر الأمنية: مع تزايد تطور تقنيات الذكاء الاصطناعي، تزداد المخاطر الأمنية المرتبطة باستخدامها وإمكانية إساءة استخدامها، حيث يمكن للقراصنة والجهات الخبيثة استغلال قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية أكثر تعقيدًا، وتجاوز التدابير الأمنية، واستغلال الثغرات في الأنظمة، كما أن ظهور الأسلحة المستقلة المدعومة بالذكاء الاصطناعي يثير القلق بشأن مخاطر استخدامها. ولتقليل هذه المخاطر الأمنية، يتعين على الحكومات والمنظمات العمل على تطوير أفضل الممارسات لتأمين تطوير ونشر الذكاء الاصطناعي، وتعزيز التعاون الدولي لوضع معايير وأنظمة عالمية تحمي من التهديدات الأمنية المرتبطة بهذه التكنولوجيا. -المعلومات المضللة والتلاعب: يسهم المحتوى الناتج عن الذكاء الاصطناعي، مثل: التزييف العميق "الفيديوهات المزيفة"، وهو استخدام تقنية الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صوتيات جديدة بالكامل، بهدف تصوير أحداث لم تحدث في الواقع؛ في انتشار المعلومات الكاذبة والتلاعب بالرأي العام، ومن ثم تعتبر الجهود المبذولة للكشف عن المعلومات المضللة الناتجة عن الذكاء الاصطناعي ومكافحتها أمرًا بالغ الأهمية في الحفاظ على سلامة المعلومات في العصر الرقمي. أوضح التحليل أن حوكمة الذكاء الاصطناعي تُعد أمرًا بالغ الأهمية، ليس فقط لمواجهة التحديات والمخاطر، ولكن أيضًا لضمان الاستفادة العادلة من إمكاناته بطرقٍ لا تقصي أو تغفل أحدًا، وفي هذا الإطار تبنت بعض الدول خطوات نحو تنظيم استخدام الذكاء الاصطناعي. وفي هذا الإطار ووفقًا لمؤشر الذكاء الاصطناعي لجامعة ستانفورد لعام 2023، أقرت الهيئات التشريعية في 127 دولة 37 قانونًا بشأن "الذكاء الاصطناعي". ففي نوفمبر 2021، اعتمدت الدول الأعضاء جميعًا في منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)، والبالغ عددها 193 دولة، اتفاقية تاريخية تُحدد القيم والمبادئ المشتركة لتطوير الذكاء الاصطناعي، وتُشدد هذه الاتفاقية على حماية حقوق الإنسان، وخصوصية البيانات، وحظر أنظمة الذكاء الاصطناعي التي قد تمسّ كرامة الإنسان، أو تُسهم في المراقبة الجماعية، كما تُدافع عن دور الذكاء الاصطناعي في مواجهة التحديات العالمية، مثل: تغير المناخ والجوع، مع ضمان ألا تُفاقم التطورات التكنولوجية أوجه عدم المساواة القائمة. ونستعرض فيما يلي عددًا من تجارب الدول فيما يتعلق بتنظيم الذكاء الاصطناعي. أضاف التحليل أنه كجزء من الاستراتيجية الرقمية، أراد الاتحاد الأوروبي تنظيم الذكاء الاصطناعي لضمان ظروف أفضل لتطوير واستخدام هذه التكنولوجيا المبتكرة. وفي هذا الإطار، اقترحت المفوضية الأوروبية في أبريل 2021، أول قانون للذكاء الاصطناعي في الاتحاد الأوروبي، لإنشاء نظام تصنيف للذكاء الاصطناعي قائم على المخاطر. حيث إن أولوية البرلمان هي التأكد من أن أنظمة الذكاء الاصطناعي المستخدمة في الاتحاد الأوروبي آمنة وشفافة، ويمكن تتبعها كما أنها غير تمييزية. ويقوم هذا القانون بتصنيف أنظمة الذكاء الاصطناعي إلى أربعة مستويات وفقًا لمستوى المخاطر: -مخاطر غير مقبولة، مثل: حظر استخدام أنظمة التعرف البيومتري، مثل: برامج التعرف على الوجه في الأماكن العامة دون الحصول على إذن، وحظر استخدام الذكاء الاصطناعي في تقييم مخاطر الأفعال الإجرامية الفردية أو التنبؤ بها. -مخاطر عالية: تُصنّف حالات استخدام الذكاء الاصطناعي التي قد تُشكّل مخاطر جسيمة على الصحة والسلامة والحقوق الأساسية على أنها عالية الخطورة، مثل: حلول الذكاء الاصطناعي المستخدمة في المؤسسات التعليمية، والتي قد تحدد الوصول إلى التعليم ومسار الحياة المهنية لشخص ما (على سبيل المثال تسجيل نتائج الامتحانات)، وتطبيقات الذكاء الاصطناعي في إدارة العدالة والعمليات الديمقراطية، مثل: استخدام الذكاء الاصطناعي في صياغة أحكام المحاكم. -مخاطر محدودة، مثل: الأنظمة التي تستخدم البيانات الشخصية دون تقديم أي إفصاح أو شفافية. -مخاطر قليلة، مثل: التطبيقات التي تتيح تعديل الصور والتلاعب بالوسائط الرقمية. وأوضح التحليل أنه لتسهيل الانتقال إلى الإطار التنظيمي الجديد، أطلقت المفوضية الأوروبية "ميثاق الذكاء الاصطناعي"، وهي مبادرة طوعية تسعى إلى دعم التنفيذ المستقبلي؛ كما أنشأ البرلمان مجموعة عمل للإشراف على تطبيق قانون الذكاء الاصطناعي. ويريد أعضاء البرلمان الأوروبي التأكد من أن قواعد الذكاء الاصطناعي المعتمدة تسهم في تطوير القطاع الرقمي في أوروبا. وتتعاون المجموعة مع مكتب الذكاء الاصطناعي التابع للمفوضية الأوروبية، والذي تم إنشاؤه لتوضيح الأحكام الرئيسة للقانون. أكد التحليل على دخول قانون الذكاء الاصطناعي حيز التنفيذ في أغسطس 2024، وسيتم تطبيقه بشكل كامل في أغسطس 2026. ومع ذلك، هناك بعض الاستثناءات؛ حيث بدأت الالتزامات المتعلقة بمحو الأمية في مجال الذكاء الاصطناعي في فبراير 2025، وستدخل قواعد الحوكمة والالتزامات الخاصة بنماذج الذكاء الاصطناعي للأغراض العامة حيز التنفيذ في أغسطس 2025، أما بالنسبة لقواعد أنظمة الذكاء الاصطناعي عالية المخاطر، المدمجة في المنتجات المنظمة، فستكون لها فترة انتقالية ممتدة حتى 2 أغسطس 2027. أشار التحليل إلى أنه في عام 2023، قدم مكتب سياسة العلوم والتكنولوجيا في البيت الأبيض بالولايات المتحدة الأمريكية "مشروع قانون حقوق الذكاء الاصطناعي"، كما أصدر المعهد الوطني للمعايير والتكنولوجيا "إطارًا لإدارة مخاطر الذكاء الاصطناعي". ومع ذلك، قد تكون الخطوة الأهم في تنظيم الذكاء الاصطناعي هي الأمر التنفيذي الذي أصدره الرئيس الأمريكي السابق جو بايدن بشأن "تطوير واستخدام الذكاء الاصطناعي بشكل آمن وموثوق"، ويتناول هذا الأمر ثماني مجالات سياسية تهدف إلى ضمان "معايير جديدة لسلامة وأمن الذكاء الاصطناعي، وحماية خصوصية المواطنين الأمريكيين"، بالإضافة إلى تعزيز المساواة والحقوق المدنية، والدفاع عن حقوق المستهلكين والعمال، وتعزيز الابتكار والمنافسة، وغيرها من القضايا. أوضح التحليل أن الصين منذ عام 2021، بدأت في تطبيق قوانين تهدف إلى تنظيم تقنيات الذكاء الاصطناعي بشكل مستمر. وفي عام 2023، أصدرت الصين مجموعة من اللوائح الوطنية المتنوعة، من خلال التركيز على المنصات الرقمية والمحتوى الناتج عن الذكاء الاصطناعي، مثل: التزييف العميق. وتسعى الحكومة الصينية إلى تعزيز الحماية ضد العديد من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي. تركز هذه اللوائح على أربع قطاعات رئيسة: (حماية البيانات والمعلومات الشخصية- الشفافية- إدارة المحتوى ووضع العلامات- الأمن التقني). وستحدث هذه الأحكام تغييرات جذرية في طريقة إنتاج المحتوى الناتج عن الذكاء الاصطناعي لـ 1.4 مليار شخص؛ نظرًا لنطاقها الواسع. وستضع اللائحة قواعد واضحة لكل مرحلة من مراحل عملية استخدام التزييف العميق، بدءًا من الإنشاء وصولًا إلى وضع العلامات والنشر. أشار التحليل إلى أن المملكة المتحدة أصدرت في مارس 2023، بحثًا يحدد مقترحات لإنشاء إطار تنظيمي للذكاء الاصطناعي يهدف إلى تعزيز الابتكار بشكل آمن ومسؤول. وقد تم وضع خمسة مبادئ للجهات التنظيمية: (السلامة والأمن والموثوقية-الشفافية المناسبة والقدرة على التفسير-العدالة-المسؤولية والحوكمة-إمكانية الطعن والتعويض). كما شملت الوثيقة مقترحات لإنشاء وظيفة مركزية داخل الحكومة تتولى مجموعة من الأنشطة، مثل: تقييم المخاطر والتنسيق التنظيمي، لدعم التكيف والاتساق في النهج المتبع. وذكر مركز المعلومات أن عملية تنظيم الذكاء الاصطناعي تواجه العديد من التحديات الكبيرة نتيجة لتسارع تطور هذه التقنية وتعقيداتها. ومن أبرز هذه التحديات: -سرعة تطور التكنولوجيا: فالتسارع في ابتكار الذكاء الاصطناعي يجعل من الصعب على الجهات الحكومية وضع إطار شامل من القوانين. ورغم سعي قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى معالجة هذه المسألة من خلال تصنيفات متعددة، فإن التطور السريع لتكنولوجيا الذكاء الاصطناعي قد يتجاوز اللوائح الحالية، مما يستدعي ضرورة التكيف المستمر وسرعة الاستجابة. -توازن التنظيم والابتكار: ففي بعض الأحيان، يمكن أن يؤدي تنظيم تقنية الذكاء الاصطناعي إلى تقليل الابتكار وتقليص فرص النمو الاستكشافي، فتحديد التدابير التنظيمية المناسبة التي تعزز الابتكار، أو تلك التي تعوقه يعد تحديًا كبيرًا، وقد تترتب عليه عواقب وخيمة. وأفاد التحليل في ختامه أنه برغم التقدم الكبير الذي يحققه الذكاء الاصطناعي في مختلف المجالات، فإنه لا يمكن تجاهل المخاطر المرتبطة به، ومن الضروري أن تتكاتف الحكومات والمؤسسات الدولية لوضع أطر تنظيمية توازن بين الابتكار وحماية المجتمع من التحديات الأمنية والأخلاقية والاجتماعية، والوعي بهذه المخاطر، والعمل على تطوير سياسات شاملة تسهم في ضمان استخدام الذكاء الاصطناعي بشكل آمن ومسؤول، ويعزز مستقبلًا تقنيًا أكثر استدامة وعدلًا.

حسين أباظة: تغير المناخ نتجة التدخل البشري الجائر.. وعلى العالم التعاون لمواجهة الخطر الوجودي
حسين أباظة: تغير المناخ نتجة التدخل البشري الجائر.. وعلى العالم التعاون لمواجهة الخطر الوجودي

اليوم السابع

timeمنذ 2 أيام

  • اليوم السابع

حسين أباظة: تغير المناخ نتجة التدخل البشري الجائر.. وعلى العالم التعاون لمواجهة الخطر الوجودي

أكد الدكتور حسين أباظة، المستشار الدولي للتنمية المستدامة والاقتصاد الأخضر ، أن التغيرات المناخية التي يشهدها العالم ليست مجرد ظواهر طبيعية كما كان يُعتقد سابقًا، بل هي نتيجة مباشرة للتدخل البشري غير المستدام والاستخدام المفرط للموارد الطبيعية، وخاصة بعد الثورة الصناعية. وأوضح أباظة، خلال لقائه ببرنامج البعد الرابع على قناة إكسترا نيوز، أن المجتمع الدولي تجاهل في البداية تحذيرات مبكرة أطلقت منذ خمسين عامًا، لكن تقارير العلماء والخبراء لاحقًا أثبتت العلاقة الواضحة بين النشاط الإنساني وارتفاع درجات الحرارة، وذوبان الجليد، وارتفاع منسوب سطح البحر. وأشار إلى أن أنماط التنمية والاستهلاك السائدة تفتقر إلى الاستدامة، مؤكدًا أن العودة لاستخدام الوقود الأحفوري بسبب الحروب والصراعات، سواء في الشرق الأوسط أو أوكرانيا، يفاقم الأزمة المناخية. وأضاف أن تأثير الحروب على المناخ لا يُبرز بالشكل الكافي رغم خطورته. وأكد أباظة أن الوصول إلى "صفر انبعاثات" بحلول 2050 يبدو صعبًا في ظل الوضع الراهن، داعيًا إلى "تغيير جذري في النظام العالمي"، وتبني سياسات تكاملية تشمل التشريعات، والتعليم، والبحث العلمي، والقطاع الخاص، والمجتمع المدني، لضمان التحول نحو نموذج تنموي أكثر استدامة وعدالة.

ما أفضل أدوات وبرامج تعليم الذكاء الاصطناعي للأطفال؟.. مني طمان تجيب
ما أفضل أدوات وبرامج تعليم الذكاء الاصطناعي للأطفال؟.. مني طمان تجيب

اليوم السابع

timeمنذ 5 أيام

  • اليوم السابع

ما أفضل أدوات وبرامج تعليم الذكاء الاصطناعي للأطفال؟.. مني طمان تجيب

أكدت الدكتورة منى طمان، المحاضر والاستشاري الدولي في تكنولوجيا المعلومات وتطبيقات الذكاء الاصطناعي، أن تعليم الأطفال مبادئ الذكاء الاصطناعي أصبح ضرورة في الوقت الراهن، وليس ترفًا يمكن تأجيله. وأوضحت طمان، خلال حوار مع الإعلامية مروة شتلة، ببرنامج "البيت"، المذاع على قناة الناس، اليوم الثلاثاء، أن السن الأنسب للبدء في تعليم الأطفال هذه المفاهيم يبدأ من عمر 10 سنوات، حيث يكون الطفل قد بدأ في استيعاب المهارات الأساسية، ويصبح لديه فضول معرفي تجاه العالم الرقمي الذي يحيط به في كل مكان، سواء من خلال منصات التواصل أو الألعاب أو التطبيقات الذكية. وشددت على أن إدخال الذكاء الاصطناعي في التعليم يجب أن يتم بطريقة مدروسة، مع توعية الأسر بأهميته وكيفية استخدامه، وعدم الاكتفاء باعتباره مجرد وسيلة ترفيهية أو مساعد لحل الواجبات، مشيرة إلى أن بعض الأطفال يستخدمون أدوات الذكاء الاصطناعي بشكل غير صحيح، مثل نسخ الإجابات بشكل مباشر من التطبيقات دون فهم أو تحليل، مما يؤثر على قدرتهم الذهنية ويضعف مهارات التفكير لديهم، تمامًا كما يصاب الجسد بالتيبس عندما لا يُستخدم. وأضافت أن هناك فرقًا كبيرًا بين الاستخدام الصحيح للذكاء الاصطناعي، الذي يفتح آفاق الفهم والاستيعاب، ويساعد الطفل على التدرج في التعلّم من خلال الشرح والتدريب والتقييم، وبين الاعتماد الكلي عليه، مما يُلغي دور العقل ويضعف القدرة على التحصيل الذاتي. وأوضحت أن على الأهل تعليم أطفالهم كيف يسألون الأدوات الذكية عن شرح الدرس أو تبسيط المفاهيم، بدلاً من طلب الإجابة مباشرة، مشيرة إلى أن بعض التطبيقات تتيح تقييمًا تدريجيًا لقدرات الطفل، وتساعده على تطوير فهمه من خلال التفاعل المستمر، دون أن يشعر بالملل أو الضغط. وأكدت أن الذكاء الاصطناعي لا يغني عن المعلم أو الكتاب، لكنه يمثل مدرسًا صبورًا، لا يمل من الشرح، ويمكن أن يقدّم للطالب التدريب المناسب له حسب مستواه، مشيرة إلى أن الخطر لا يكمن في الذكاء الاصطناعي ذاته، بل في طريقة استخدامه، موضحة أن بعض الأطفال أصبحوا يستخدمونه بشكل استهلاكي سريع، مما يرسخ فيهم ثقافة الاستسهال وعدم بذل الجهد، وهو ما ينعكس سلبًا على شخصياتهم ومهاراتهم مستقبلاً. وفيما يتعلق بالمخاوف التي يبديها بعض الآباء تجاه هذه التقنيات، قالت إن هناك بالفعل أطفالًا أصبح لديهم تخوف من الذكاء الاصطناعي، واعتقاد بأنه سيحلّ محل الإنسان، وهذا ناتج عن تداول معلومات غير دقيقة، مؤكدة أن دور الأهل هنا لا يقتصر على المراقبة، بل يجب أن يكونوا طرفًا في التعلم أيضًا، حتى يستطيعوا توجيه أطفالهم للاستخدام الآمن والمفيد. وقدمت تصورًا متكاملًا لتقسيم استخدام تطبيقات الذكاء الاصطناعي حسب الفئات العمرية، مشيرة إلى أهمية توفير بدائل تعليمية آمنة وجذابة للأطفال بدلاً من قضاء الوقت في ألعاب عنيفة أو ترفيه غير هادف. وأوضحت أنه يمكن للأطفال في مرحلة رياض الأطفال استخدام تطبيقات تعليمية تركز على تعلم الحروف والألوان والأصوات والتمييز السمعي والبصري، بينما في المرحلة الابتدائية تبدأ التطبيقات في تحليل مهارات الطفل وتحديد نقاط ضعفه لتقديم تدريبات مركزة تناسب مستواه. أما في مرحلة الإعدادي والثانوي، فتتنوع الأدوات لتشمل تطبيقات تساعد على فهم الرياضيات، وتحسين مهارات الكتابة، وتعلم لغات جديدة مثل الألمانية أو الفرنسية، بل وتمتد إلى التدريب على كتابة موضوعات التعبير، من خلال تقديم نماذج وأساسيات ثم توجيه الطالب لصياغة أفكاره بنفسه، في تجربة تعليمية متكاملة تُنمّي مهاراته وتدربه على التفكير الذاتي. وأكدت على أن الذكاء الاصطناعي هو سلاح ذو حدين، ويكمن التحدي في توجيه الأطفال لاستخدامه بالشكل الصحيح، قائلة: "لا نمنع أبناءنا من التكنولوجيا، بل نمنحهم الوعي والقدرة على اختيار الطريقة الصحيحة للتعلم، إذا تمكنا من ذلك، فسنصنع جيلًا واعيًا، مفكرًا، قادرًا على التعامل مع أدوات العصر، بدلًا من أن يكون مستهلكًا سلبيًا لها". وقالت الدكتورة منى طمان، إن هناك خلطًا شائعًا بين مفهومي الذكاء الاصطناعي والبرمجة لدى كثير من أولياء الأمور، مؤكدة أن لكل منهما طريقًا مختلفًا في التعلم والتطبيق، ويجب التفرقة بين استخدام أدوات الذكاء الاصطناعي في الحياة اليومية، وبين تصميم التطبيقات الذكية من خلال البرمجة. وأوضحت طمان، أن الذكاء الاصطناعي اليوم أصبح جزءًا لا يتجزأ من واقعنا، وتعددت تطبيقاته في كل جوانب الحياة، ولهذا من الضروري أن يتم تعليمه للأطفال من سن العاشرة فأعلى بشكل يتناسب مع وعيهم، لأنه يحيط بهم في كل المحتوى الذي يتعرضون له عبر الإنترنت والتطبيقات التفاعلية. وأكدت أن تعليم الطفل البرمجة يختلف جذريًا عن تعليمه الذكاء الاصطناعي، فالبرمجة هي المرحلة التقنية التي تؤهل لصناعة التطبيقات، بينما الذكاء الاصطناعي في هذه المرحلة هو مجموعة أدوات يمكن استخدامها والاستفادة منها في الدراسة والحياة اليومية. وشددت على أن استخدام أدوات الذكاء الاصطناعي بشكل صحيح لا يعني الاعتماد عليها في التفكير واتخاذ القرار، بل يجب أن تكون أداة مساعدة فقط، تحاكي التفكير البشري ولكن لا تلغيه. وأضافت أن على الأهل أن يوجهوا أبناءهم إلى استخدام هذه الأدوات كوسيلة للتعلّم، كأن يسأل الطفل عن شرح لدرس معين بدلاً من طلب الإجابة الجاهزة، وهو ما يساعده على الفهم والتدريب واستيعاب المادة بطريقة تفاعلية وعملية. وأوضحت أن الطريق إلى صناعة تطبيقات الذكاء الاصطناعي يبدأ بتعلّم لغات البرمجة، وأهمها لغة "بايثون"، والتي تُعد من الأساسيات لمن يرغب في بناء تطبيقات ذكية تتضمن مفاهيم مثل "الرؤية الحاسوبية" و"تعلم الآلة"، أما الطفل في السن الصغير، فليس من الواقعي أن يبدأ فورًا بصناعة تطبيقات، بل عليه أولًا أن يفهم كيف يستخدم أدوات الذكاء الاصطناعي المتاحة أمامه، ثم مع التدرّج في المهارات التقنية، يمكن تعليمه البرمجة ليصنع تطبيقاته الخاصة لاحقًا. وأضافت أن هناك مسارين واضحين: الأول هو تعلّم استخدام أدوات الذكاء الاصطناعي كجزء من الثقافة الرقمية الضرورية في العصر الحالي، وهذا يشمل جميع أفراد المجتمع، حتى كبار السن، والثاني هو تعلّم البرمجة، لمن يملك الشغف والرغبة في التخصص، حتى يتمكن من برمجة أنظمة ذكية أو أدوات مشابهة لما يستخدمه الآخرون. وشدّدت على أن التطبيقات التي يستخدمها الأطفال حاليًا تحتوي على قدر كبير من الذكاء الاصطناعي، لكنها مصممة وجاهزة من قِبل مبرمجين ومهندسين، ولهذا فإن إدراك الفارق بين الاستخدام والتصميم يساعد الطفل على بناء وعي تقني تدريجي.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store