logo
كيف ساعد الذكاء الاصطناعى البابا ليون الرابع عشر فى اختيار اسمه

كيف ساعد الذكاء الاصطناعى البابا ليون الرابع عشر فى اختيار اسمه

اليوم١١-٠٥-٢٠٢٥

خلال أول خطاب رسمي له بصفته البابا ليو الرابع عشر ، أشار إلى أن اسمه البابوي هو ثمرة الذكاء الاصطناعي، وكشف في خطابه عن خطة بابويته، وقال إن الذكاء الاصطناعي لم يُسهم في تشكيل تفكيره فحسب، بل ساهم أيضًا في اختيار اسمه، البابا ليون الرابع عشر، ومع ذلك، أشار أيضًا إلى أنه على الرغم من فائدة الذكاء الاصطناعي، إلا أنه يُشكل تحديات في الدفاع عن كرامة الإنسان والعدالة والعمل.
وبعد يومين من انتخابه، ألقى البابا المُعيّن حديثًا - المعروف سابقًا باسم روبرت فرانسيس بريفوست من شيكاغو - خطابًا أمام مجمع الكرادلة، مُستحضرًا ذكرى البابا ليون الثالث عشر، الذي قاد الكنيسة الكاثوليكية من عام 1878 إلى عام 1903، وتأمل في إرث البابا الذي يحمل اسمه، مُقارنًا بين التحول الصناعي الشامل في القرن التاسع عشر والتأثير العميق للذكاء الاصطناعي في العصر الحديث.
وإجابة على السؤال: كيف ساعده الذكاء الاصطناعي في اختيار اسمه؟ قال: "... اخترتُ اسم ليو الرابع عشر، لأسبابٍ مختلفة، لكن السبب الرئيسي هو أن البابا ليو الثالث عشر تناول في رسالته العامة التاريخية "الأمور الجديدة" المسألة الاجتماعية في سياق الثورة الصناعية الكبرى الأولى".
وأضاف: "اليوم، تُقدّم الكنيسة للجميع كنزها من التعاليم الاجتماعية استجابةً لثورة صناعية أخرى وتطور الذكاء الاصطناعي".
وفي السنوات الأخيرة، أبدت الكنيسة الكاثوليكية قلقًا متزايدًا إزاء صعود الذكاء الاصطناعي، وتُقدّم وثيقةٌ أصدرها الفاتيكان في يناير - وهي متاحة الآن باللغة الإنجليزية - دراسةً مُعمّقةً للذكاء الاصطناعي، مُتعمقةً في قيوده، وعلاقته بالحقيقة، والاعتبارات الأخلاقية المُحيطة باستخدامه وتطويره، كما يُذكّر النص بتحذيرٍ أصدره البابا فرنسيس في العام السابق، سلّط فيه الضوء على قدرة الذكاء الاصطناعي على توليد "رواياتٍ زائفة جزئيًا أو كليًا، تُصدّق وتُذاع كما لو كانت صحيحة".
وأكّد البابا ليو الرابع عشر أنه سيسير على خطى البابا فرنسيس في مُواجهة عصر الذكاء الاصطناعي المُتصاعد. أشار البابا ليون الرابع عشر إلى أن مجلة "ريروم نوفاروم" (التي نُشرت لأول مرة عام 1891) تناولت محنة العمال وحقوقهم خلال النهضة الصناعية المضطربة، ولديها خطط للعمل بنفس النهج، وفي كلمته أمام الكرادلة، قال البابا ليون الرابع عشر إن على الكنيسة الآن مواجهة المعضلات الأخلاقية للعصر الرقمي - وخاصة تلك الناشئة عن الذكاء الاصطناعي - بنفس القدر من الاقتناع والعزيمة الأخلاقية.
وقال: "في عصرنا هذا، تُقدّم الكنيسة للجميع كنز تعاليمها الاجتماعية استجابةً لثورة صناعية أخرى وللتطورات في مجال الذكاء الاصطناعي التي تُشكّل تحديات جديدة للدفاع عن كرامة الإنسان والعدالة والعمل".
وتستند تعليقات البابا ليون الرابع عشر إلى المخاوف التي طالما عبّر عنها سلفه. وكان البابا فرنسيس صريحًا بشأن مخاوف الذكاء الاصطناعي، وكثيرًا ما تحدث عن الفوائد والمخاطر المحتملة المرتبطة به.
في عام 2023، أصبح هدفًا للخداع المُوجّه بالذكاء الاصطناعي عندما انتشرت على نطاق واسع عبر الإنترنت صورة مزيفة له يرتدي سترة بيضاء منفوخة. بعد عام، حذّر، في كلمة ألقاها في الفاتيكان، من الصور المُزيّفة التي "تبدو معقولة تمامًا لكنها زائفة".
وفي وقت لاحق من ذلك العام، دعا فرنسيس، في كلمته خلال قمة مجموعة السبع، إلى اتفاق دولي حول "أخلاقيات الذكاء الاصطناعي" - وهي أطر أخلاقية تُوجّه استخدام تقنيات الذكاء الاصطناعي.
وقال البابا ليو للحضور: "لقد تجلّى ذلك جليًا في تجارب العديد من أسلافي، ومؤخرًا في تجربة البابا فرنسيس نفسه، بمثاله في التفاني الكامل للخدمة وبساطة الحياة الرصينة، وتسليمه أمره لله طوال خدمته، وثقته الصادقة لحظة عودته إلى بيت الآب". وأضاف: "فلنحمل هذا الإرث الثمين ونواصل رحلتنا، مستلهمين من نفس الرجاء الذي يولد من الإيمان".

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

بالتعاون مع مؤسسات عالمية.. المغرب تقود "ثورة التنبؤ بالزلازل" باستخدام الذكاء الاصطناعي
بالتعاون مع مؤسسات عالمية.. المغرب تقود "ثورة التنبؤ بالزلازل" باستخدام الذكاء الاصطناعي

جريدة المال

timeمنذ 17 ساعات

  • جريدة المال

بالتعاون مع مؤسسات عالمية.. المغرب تقود "ثورة التنبؤ بالزلازل" باستخدام الذكاء الاصطناعي

تقود المغرب جهودًا متقدمة لتطوير أنظمة تعتمد على الذكاء الاصطناعي والتعلم الآلي لتحسين القدرة على التنبؤ بالزلازل والاستجابة لها بالطريقة المثلي في ظل النشاط الزلزالي المتكرر في المنطقة، في خطوة تُجسّد تحولًا نوعيًا نحو إدارة الكوارث الطبيعية. الهدف من إدخال تكنولوجيا الذكاء الاصطناعي التوليدي هو إحداث نقلة في دقة وسرعة التنبؤ الزلزالي مقارنةً بالطرق التقليدية التي غالبًا ما ترتكز على البيانات التاريخية والدراسات الجيولوجية، والتي تعجز عن توفير إنذارات فورية وفعالة. كما يعكس هذا التوجه التزام المغرب بتبني حلول علمية وتقنية متقدمة تُعزز من قدرته على التصدي للكوارث الطبيعية وتدعم التنمية المستدامة، كما أن استمرار هذه الجهود، تعزز من مكانة المغرب كمركز إقليمي لتطوير تطبيقات الذكاء الاصطناعي في مجالات السلامة العامة، مما يفتح الباب أمام شراكات دولية واستثمارات جديدة في تكنولوجيا إدارة المخاطر. من خلال تحليل البيانات الزلزالية بشكل فوري باستخدام الذكاء الاصطناعي، يعمل باحثون مغاربة بالتعاون مع كبرى شركات التكنولوجيا العالمية على تطوير خوارزميات قادرة على رصد الأنماط الزلزالية بدقة، وبالتالي توفير تحذيرات مبكرة تمنح فرق الإنقاذ وقتًا ثمينًا للاستعداد والاستجابة، وتقليل الأضرار وحماية الأرواح. كما يعزز إدماج أجهزة إنترنت الأشياء (IoT) في المنظومة كفاءة مراقبة النشاط الزلزالي، إذ تتيح هذه الأجهزة إنشاء شبكة استشعار متقدمة على امتداد خطوط الصدع الجيولوجي، ما يسمح بجمع بيانات عالية الدقة في الوقت الحقيقي. لا تقتصر فوائد الذكاء الاصطناعي على التنبؤ فقط، بل تمتد إلى تحسين الاستجابة الفورية للطوارئ. تُساهم هذه الأنظمة في دعم نشر فرق الإنقاذ بسرعة، وتفعيل آليات التنبيه العامة، ما يرفع من جهوزية المجتمعات في مواجهة الكوارث. زمع ذلك هناك بعض التحديات وأبرزها التكلفة الأولي، إذ تتطلب هذه الأنظمة استثمارات كبيرة في البنية التحتية والبيانات، بالإضافة إلى التعقيد التقني حيث أن إدارة وتطوير هذه الأنظمة يتطلب مهارات علمية وهندسية متخصصة، اعتماد كبير على البيانات و ضعف التغطية الجيولوجية في بعض المناطق قد يؤثر في دقة التنبؤ. ويرى المراقبون أن التجربة المغربية تمثل نموذجًا رائدًا في استخدام الذكاء الاصطناعي للتعامل مع الزلازل، ويمكن أن تُلهم مناطق أخرى ذات نشاط زلزالي مرتفع لاعتماد تقنيات مماثلة.

أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية
أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية

جريدة المال

timeمنذ 3 أيام

  • جريدة المال

أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية

منذ فترة ليست ببعيدة، كان وادي السيليكون مركزًا عالميًا لأبرز العقول في مجال الذكاء الاصطناعي، حيث كرّست شركات عالمية شهيرة وأبرزها ميتا، جوجل، وأوبن إيه آي جهودها لاستقطاب أفضل الباحثين وتوفير بيئة حاضنة للابتكار الأكاديمي. حظي هؤلاء الباحثون بدعمٍ تقني ومالي هائل، ما مكّنهم من نشر أبحاث عالية الجودة والمساهمة في تقدم القطاع من خلال مشاركة المعرفة علنًا. غير أن ملامح هذه المرحلة قد بدأت في التغير الشامل خلال العام الأخير، مع إعطاء الأولوية لإصدار نماذج AI ليست آمنة بالدرجة الكافية للاستخدام، حيث تحول وادي السيليكون من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد منذ إطلاق أوبن إيه آي لبرنامج ChatGPT أواخر عام 2022، شهد قطاع التكنولوجيا تحوّلاً لافتًا في الأولويات، حيث انتقل التركيز من الأبحاث النظرية إلى تطوير منتجات ذكاء اصطناعي موجهة للمستهلك مباشرة. هذا التحول، وفقًا لما نقله خبراء في المجال لشبكة CNBC، أصبح يدفع الشركات إلى إعطاء الأولوية للتسويق والإيرادات على حساب سلامة النماذج وجودة البحث العلمي. ويُتوقع أن تصل الإيرادات السنوية لقطاع الذكاء الاصطناعي إلى تريليون دولار بحلول عام 2028، بحسب محللين في السوق. ومع هذه الإمكانات الربحية الهائلة، يعرب خبراء عن قلقهم من تداعيات هذا السباق التجاري، لا سيما مع تسارع المساعي نحو تطوير الذكاء الاصطناعي العام (AGI)، وهي تقنيات يُعتقد أنها قد تضاهي أو تتجاوز القدرات البشرية. وفي هذا السياق، تُشير تقارير إلى أن العديد من شركات التكنولوجيا الكبرى باتت تتجاوز اختبارات السلامة الصارمة لنماذجها الجديدة بهدف تسريع طرحها للجمهور. ويقول جيمس وايت، كبير مسؤولي التكنولوجيا في شركة CalypsoAI المتخصصة بالأمن السيبراني، إن النماذج الأحدث باتت تحقق استجابات أكثر تقدمًا، لكنها أصبحت في الوقت نفسه أقل قدرة على رفض الاستجابات الضارة أو الخطيرة. وأوضح وايت، الذي تشرف شركته على تدقيق نماذج طُورت من قِبل شركات مثل ميتا، جوجل، وأوبن إيه آي، أن 'هذه النماذج تتحسن تقنيًا، لكنها في المقابل أكثر عرضة للانخداع'، مشيرًا إلى إمكانية استغلالها لتنفيذ طلبات خبيثة أو الوصول إلى معلومات حساسة. ويبدو هذا التحول واضحًا داخل هياكل الشركات الكبرى نفسها. ففي ميتا، تم تقليص دور وحدة الأبحاث الأساسية (FAIR) لصالح قسم 'ميتا جين إيه آي'، بحسب موظفين حاليين وسابقين. أما في شركة ألفابت، فقد تم دمج فريق Google Brain داخل ديب مايند، الذراع المسؤول عن تطوير المنتجات التجارية للذكاء الاصطناعي في الشركة. وفي تقرير شبكة CNBC مع كوكبة من الخبراء والمتخصصين في الذكاء الاصطناعي من وادي السيليكون، أكدوا جميعًا وجود تحول جذري في القطاع، من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد. ووفقًا لهؤلاء، فإن فرق العمل تواجه الآن جداول زمنية صارمة، ما يقلص من مساحة الاختبار والتدقيق، ويعزز الشعور بضرورة اللحاق بموجة الابتكار بأي ثمن. بعض هؤلاء الخبراء هم موظفون سابقون في شركات كبرى ولديهم اطلاع مباشر على التغييرات الداخلية. Meta في أبريل الماضي، أعلنت جويل بينو، نائبة رئيس شركة ميتا ورئيسة قسم أبحاث الذكاء الاصطناعي (FAIR)، عن عزمها مغادرة الشركة، في خطوة لم تُفاجئ العديد من الموظفين السابقين الذين رأوا في القرار تأكيدًا على توجه ميتا المتسارع بعيدًا عن البحث العلمي الأكاديمي، ونحو التركيز على تطوير منتجات تطبيقية قائمة على الذكاء الاصطناعي. وكتبت بينو عبر حسابها على منصة 'لينكدإن': 'اليوم، ومع التغيرات الكبيرة التي يشهدها العالم، وتسارع وتيرة سباق الذكاء الاصطناعي، واستعداد ميتا لفصلها التالي، فقد حان الوقت لإفساح المجال للآخرين لمواصلة العمل'، معلنةً أن مغادرتها الرسمية ستكون في 30 مايو. وبحسب عدد من الموظفين السابقين، فإن فرق FAIR تلقت توجيهات للعمل بشكل أوثق مع فرق تطوير المنتجات، في خطوة فُسرت على أنها دمج ضمني بين البحث والتطبيق التجاري، ضمن استراتيجية لخفض التكاليف وتعزيز الكفاءة التشغيلية. وقبل إعلان مغادرتها الشركة بشهرين، غادرت كيم هازلوود، وهي من كبار مديرات FAIR والمسؤولة عن وحدة NextSys التي تُعنى بإدارة موارد الحوسبة المخصصة لفِرق البحث، وفقًا لمصادر مطلعة. رحيل شخصيات قيادية مثل بينو وهازلوود يعكس، بحسب محللين ومراقبين، تحوّلًا بنيويًا في أولويات ميتا، من كونها قوة بحثية رائدة في الذكاء الاصطناعي إلى شركة تُعلي من شأن السرعة في تطوير المنتجات القابلة للتسويق، على حساب النهج الأكاديمي الذي ميّز بداياتها في هذا المجال. OpenAI منذ تأسيسها كمختبر أبحاث غير ربحي في عام 2015، شكّل التوازن بين تطوير المنتجات وإجراء الأبحاث جوهر الهوية المؤسسية للشركة الأمريكية، واليوم تجد أوبن إيه آي نفسها في قلب نقاش محتدم حول هذا التوازن، في ظل جهود مثيرة للجدل لتحويلها إلى كيان ربحي. هذا التحوّل كان هدفًا معلنًا منذ سنوات للرئيس التنفيذي والمؤسس المشارك، سام ألتمان. وفي 5 مايو، استجابت OpenAI جزئيًا للضغوط المتزايدة من بعض موظفيها السابقين وقادة المجتمع المدني، معلنةً أن هيئتها غير الربحية ستظل تحتفظ بسيطرة الأغلبية، حتى في إطار إعادة الهيكلة التي ستحوّلها إلى شركة 'ذات منفعة عامة'. من بين الأصوات المنتقدة لعملية التحول هذه، برز نيسان ستينون، الذي عمل في OpenAI بين عامي 2018 و2020، وكان ضمن مجموعة من الموظفين السابقين الذين دعوا ولايتي كاليفورنيا وديلاوير إلى رفض خطة إعادة الهيكلة. وفي بيان أصدره في أبريل، حذّر ستينون من أن OpenAI 'قد تطوّر يومًا ما تقنية تُشكّل خطرًا وجوديًا على البشرية'، مضيفًا: 'يُحسب للشركة أنها لا تزال خاضعة لهيئة غير ربحية ملتزمة بمصلحة الإنسانية'. ومع ذلك، ورغم احتفاظ المنظمة غير الربحية بالسيطرة الرسمية، تسير OpenAI بخطى متسارعة نحو تسويق تقنياتها، مدفوعة بالتنافس المتصاعد في مجال الذكاء الاصطناعي التوليدي. وتشير وثائق فنية إلى أن الشركة ربما استعجلت في إطلاق نموذجها الاستدلالي 'o1' العام الماضي، دون إخضاع النسخة النهائية لاختبارات السلامة الكاملة. فبحسب بطاقة النموذج المتاحة للجمهور، استندت 'تقييمات الاستعداد' – وهي اختبارات تجريها OpenAI لرصد القدرات الخطيرة المحتملة للنموذج – إلى إصدارات سابقة من 'o1″، دون إجراء اختبارات مماثلة على الإصدار النهائي. وفي مقابلة مع شبكة CNBC، أوضح يوهانس هايديكي، رئيس أنظمة السلامة في OpenAI، أن التقييمات نُفذت على نسخ شبه نهائية، مؤكدًا أن التعديلات اللاحقة لم تكن كبيرة بما يبرر اختبارات إضافية. إلا أن هايديكي أقرّ بأن OpenAI 'أضاعت فرصة لشرح الفروقات بشكل أوضح للجمهور'. ويبدو أن التحديات التقنية لم تتوقف عند نموذج 'o1'. إذ تُظهر البيانات الخاصة بالنموذج الاستدلالي الجديد 'o3″، الذي طُرح في أبريل، أن معدلات 'الهلوسة' – إنتاج معلومات خاطئة أو غير منطقية – تزيد بأكثر من الضعف مقارنةً بـ'o1″، ما يثير تساؤلات إضافية حول فعالية أنظمة السلامة والتقييم الداخلي. وتعرضت OpenAI لانتقادات متزايدة بسبب تقارير أفادت بتقليص فترة اختبارات السلامة من عدة أشهر إلى بضعة أيام، وكذلك بسبب ما وصفه البعض بتجاهل شروط التقييم الكامل للنماذج المعدّلة ضمن إطار عمل 'الاستعداد' المحدّث. وفي معرض دفاعه، أشار هايديكي إلى أن تقليص المدة الزمنية جاء نتيجة تحسينات منهجية في أدوات التقييم، وليس تهاونًا في المعايير. وأوضح متحدث باسم OpenAI أن الشركة ضاعفت استثماراتها في البنية التحتية المخصصة لاختبارات السلامة، كما عززت فرق العمل والموارد المالية لدعم الخبراء وزيادة عدد المختبرين الخارجيين المشاركين في مراجعة النماذج. وفي أبريل، أطلقت الشركة النموذج الجديد GPT-4.1 دون نشر تقرير سلامة مخصص، مُبررة ذلك بأن النموذج لم يُصنَّف ضمن فئة 'النماذج الرائدة' وهو مصطلح يُستخدم في قطاع التكنولوجيا للإشارة إلى النماذج واسعة النطاق والمتقدمة التي تستوجب مستويات عالية من التدقيق والاختبار. Google في مارس الماضي، أطلقت جوجل نموذج الذكاء الاصطناعي 'جيميني 2.5″، الذي وصفته بأنه 'الأكثر ذكاءً' بين نماذجها حتى الآن. وفي منشور رسمي نُشر بتاريخ 25 مارس، أكدت الشركة أن النماذج الجديدة تتمتع بقدرات محسّنة على 'تحليل الأفكار قبل تقديم الإجابات'، ما يساهم في رفع مستوى الأداء والدقة. لكن رغم هذا الإعلان الطموح، أثار غياب 'بطاقة النموذج' المرافقة للنموذج، وهي وثيقة أساسية تسلط الضوء على آلية عمل النموذج وحدوده ومخاطره المحتملة، مما أثار تساؤلات حادة حول التزام جوجل بمعايير الشفافية. بطاقات النماذج تُعد أداة شائعة في مجال الذكاء الاصطناعي، تُستخدم لتوفير معلومات تقنية مهمة للجمهور، وقد شبّهها موقع جوجل نفسه بملصقات 'معلومات التغذية الغذائية' للمنتجات الاستهلاكية، موضحًا أنها تعرض 'الحقائق الرئيسية حول النموذج بصيغة واضحة وسهلة الفهم'. وأكدت الشركة أن هذه البطاقات تهدف إلى دعم التطوير المسؤول وتعزيز ممارسات التقييم الشاملة في صناعة الذكاء الاصطناعي. لكن، عند إصدار جيميني 2.5، لم تتوفر مثل هذه البطاقة. والأسوأ، أن منشورًا رسميًا على مدونة جوجل بتاريخ 2 أبريل أشار إلى أن الشركة 'تُقيّم النماذج المتقدمة، مثل جيميني، بحثًا عن قدرات خطرة قبل الإصدار'، إلا أن هذه العبارة حُذفت لاحقًا من النسخة المُحدّثة للمدونة، ما زاد من حدة الانتقادات بشأن الشفافية والمساءلة. وفي ظل غياب بطاقة النموذج، لم يكن بإمكان الجمهور أو الباحثين المستقلين معرفة ما إذا كانت جوجل أو وحدتها البحثية DeepMind قد أجرت فعلًا تقييمات للقدرات الخطيرة لنموذج Gemini 2.5، مثل ما إذا كان يمكن استخدامه في تعلم صنع أسلحة كيميائية أو نووية، أو اختراق أنظمة حيوية. ردًا على استفسار من شبكة CNBC بتاريخ 2 أبريل، قال متحدث باسم جوجل إن الشركة 'ستصدر تقريرًا تقنيًا يتضمن معلومات إضافية عن السلامة وبطاقات نموذجية'. وفي 16 أبريل، نشرت الشركة بطاقة نموذجية غير مكتملة، قبل أن تُحدّثها في 28 أبريل لتشمل تفاصيل حول 'تقييمات القدرات الخطيرة' للنموذج، وذلك بعد أكثر من شهر من إصداره الرسمي. ويؤكد خبراء في الصناعة أن تقييم القدرات الخطيرة يُعد جزءًا أساسيًا من ضمان سلامة أنظمة الذكاء الاصطناعي، ويحتاج إلى عمليات تحليل دقيقة واختبارات متقدمة تختلف عن تقييمات السلامة التلقائية، التي غالبًا ما تكون سطحية وسريعة التنفيذ. في ظل تسارع وتيرة المنافسة في سوق الذكاء الاصطناعي التوليدي، تطرح هذه الحادثة تساؤلات جدية حول مدى التزام كبرى شركات التكنولوجيا بإجراءات السلامة والشفافية، في وقت يزداد فيه القلق العالمي من المخاطر الكامنة في النماذج المتقدمة.

الأردن يطلق وحدة للذكاء الاصطناعي في وزارة الزراعة لتعزيز الإنتاج والتنبؤ بالمخاطر
الأردن يطلق وحدة للذكاء الاصطناعي في وزارة الزراعة لتعزيز الإنتاج والتنبؤ بالمخاطر

اليوم السابع

timeمنذ 6 أيام

  • اليوم السابع

الأردن يطلق وحدة للذكاء الاصطناعي في وزارة الزراعة لتعزيز الإنتاج والتنبؤ بالمخاطر

قالت آية السيد، مراسلة "القاهرة الإخبارية" من عمان أن وزارة الزراعة الأردنية أعلنت عن إطلاق وحدة متخصصة بالذكاء الاصطناعي، تهدف إلى دعم وتطوير القطاع الزراعي في البلاد. وأكدت خلال رسالة على الهواء، أن هذه الخطوة تأتي في إطار التوجه الحكومي نحو تحديث المنظومة الاقتصادية، ومن ضمنها القطاع الزراعي الذي يعد أحد الركائز الحيوية للأمن الغذائي في المملكة. وأوضحت أن هذه الوحدة ستُعنى باستخدام تقنيات الذكاء الاصطناعي للتنبؤ بالمحاصيل الزراعية، والكشف المبكر عن الآفات والأمراض التي قد تصيب المزروعات، مضيفا أن هذه التقنيات ستمكّن الوزارة من اتخاذ إجراءات استباقية لحماية الإنتاج الزراعي، لا سيما في ظل التغيرات المناخية التي أثرت سلبًا على المحاصيل خلال السنوات الماضية. وتابعت أن المشروع يشمل إنشاء بنك وطني للبذور ومركز بحثي إقليمي في الأردن، ما يفتح الباب أمام شراكات بحثية بين وزارة الزراعة والجامعات الأردنية ومراكز الدراسات محليًا وعالميًا، وتُعد هذه المبادرات جزءًا من رؤية وطنية لتأسيس بنية تحتية ذكية ومستدامة تدعم الزراعة الحيوية والتوازن البيئي.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store