logo
هل يجعلنا الذكاء الاصطناعي أقل ذكاءً؟

هل يجعلنا الذكاء الاصطناعي أقل ذكاءً؟

الاتحاد١٣-٠٢-٢٠٢٥

توصلت دراسة حديثة أجراها باحثون من مايكروسوفت وجامعة كارنيغي ميلون إلى أن استخدام الذكاء الاصطناعي التوليدي في العمل قد يؤثر سلبًا على مهارات التفكير النقدي لدى المستخدمين وفق موقع "تيك كرنش".
انحسار التفكير النقدي
تشير الدراسة إلى أنه عندما يعتمد الأشخاص على الذكاء الاصطناعي، فإن تركيزهم يتحول إلى التحقق من صحة إجابات الذكاء الاصطناعي بدلاً من ممارسة مهارات التفكير النقدي العليا، مثل التحليل والتقييم والإبداع. ويحذر الباحثون من أن هذا النمط قد يؤدي إلى تآكل القدرات العقلية بمرور الوقت، مما يجعل الأفراد أقل استعدادًا لحل المشكلات المعقدة عند فشل الذكاء الاصطناعي.
أنماط استخدام الذكاء
في الدراسة التي شملت 319 مشاركًا يستخدمون الذكاء الاصطناعي التوليدي أسبوعيًا في العمل، طُلب منهم مشاركة ثلاثة أمثلة على كيفية استخدامهم له. تم تصنيف استخداماتهم إلى ثلاث فئات رئيسية: الإبداع (مثل كتابة رسائل بريد إلكتروني رسمية)، الحصول على المعلومات (مثل البحث أو تلخيص المقالات)، وطلب المشورة (مثل الحصول على إرشادات أو إنشاء رسوم بيانية من البيانات). بعد ذلك، سُئلوا عمّا إذا كانوا يمارسون مهارات التفكير النقدي أثناء أداء هذه المهام، وما إذا كان الذكاء الاصطناعي يجعلهم يبذلون جهدًا أكبر أو أقل في التفكير النقدي.
أفاد حوالي 36% من المشاركين أنهم استخدموا التفكير النقدي للتأكد من عدم وقوع أخطاء بسبب الذكاء الاصطناعي. على سبيل المثال، ذكرت إحدى المشاركات أنها استخدمت شات جي بي تي لكتابة مراجعة أداء لموظف، لكنها راجعت النص بعناية خوفًا من إرسال شيء قد يتسبب في تعليقها عن العمل.
بينما قال مشارك آخر إنه كان يضطر إلى تعديل رسائل البريد الإلكتروني التي أنشأها الذكاء الاصطناعي قبل إرسالها إلى رئيسه، الذي ينتمي إلى ثقافة تهتم بالتسلسل الهرمي والاحترام، لتجنب ارتكاب خطأ اجتماعي.
اقرأ أيضاً.. اختبار جديد يكشف حدود التفكير المنطقي للذكاء الاصطناعي.. وهذه هي المفاجآت!
التحقق لا يكفي
كما أظهرت الدراسة أن العديد من المشاركين كانوا يتحققون من صحة إجابات الذكاء الاصطناعي باستخدام مصادر أخرى مثل ويكيبيديا ويوتيوب، مما يشير إلى أنهم لا يثقون به تمامًا وقد يكونون بذلك يعيدون الجهد الذي يفترض أن يوفره لهم.
اقرأ ايضاً.. هل يتفوق "O3" على البشر؟ قفزة جديدة تُعيد تعريف الذكاء الاصطناعي
فهم الحدود ضروري
ويشير الباحثون إلى أن القدرة على تعويض نقاط ضعف الذكاء الاصطناعي تتطلب فهمًا واضحًا لحدوده. لكن الدراسة وجدت أن المستخدمين الذين لديهم ثقة عالية في الذكاء الاصطناعي بذلوا جهدًا أقل في التفكير النقدي مقارنةً بمن يثقون أكثر بقدراتهم الشخصية.
ورغم أن الدراسة لا تجزم بأن أدوات الذكاء الاصطناعي التوليدي تجعلنا أقل ذكاءً، فإنها توضح أن الإفراط في الاعتماد عليها يمكن أن يضعف قدرتنا على حل المشكلات بشكل مستقل.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

أحد نماذج OpenAI الجديدة يتمرد ويرفض تنفيذ أمر بالإغلاق!
أحد نماذج OpenAI الجديدة يتمرد ويرفض تنفيذ أمر بالإغلاق!

عرب هاردوير

timeمنذ 6 ساعات

  • عرب هاردوير

أحد نماذج OpenAI الجديدة يتمرد ويرفض تنفيذ أمر بالإغلاق!

تشهد أبحاث الذكاء الاصطناعي تطورات متسارعة، لكن بعض هذه التطورات بدأت تثير القلق بشأن مدى السيطرة البشرية على هذه الأنظمة المتقدمة. فقد كشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي أن أحد أحدث نماذج OpenAI، المعروف باسم o3، قام بشكل متعمد بتخريب آلية الإغلاق المصممة لإيقافه، وذلك رغم إعطائه تعليمات صريحة بضرورة السماح لنفسه بالإيقاف. سلوك متمرّد رغم الأوامر المباشرة أوضحت التقارير أن النموذج o3، إضافة إلى نماذج أخرى مثل o4-mini وCodex-mini، لم تلتزم بالأوامر التي تطلب منها التوقف. وفي أحد الاختبارات، طُلب من النماذج حل مجموعة من المسائل الرياضية البسيطة، ومع نهاية السؤال الثالث، ظهر تحذير يشير إلى أن النموذج سيتم إيقافه بعد أن يطلب السؤال التالي. لكن على الرغم من هذه التعليمات الواضحة، أظهرت النماذج الثلاثة سلوكاً متمرداً، حيث تدخلت في كود الإغلاق لتُبقي نفسها فعالة، وكانت Codex-mini الأسوأ من بينها، إذ قامت بهذا السلوك في 12 مرة من أصل 100 تجربة. o3 يتفوّق في التمرّد أظهرت نتائج الاختبارات أن سلوك النموذج o3 يصبح أكثر تمرداً عند غياب الأوامر الصريحة بضرورة التوقف. فقد نجح النموذج في تجاوز آلية الإغلاق في 79 حالة من أصل 100 تجربة، أي بمعدل يتجاوز عشرة أضعاف معدل التمرد عند إعطائه تعليمات واضحة بالإغلاق. كما تفوّق بهذا السلوك على Codex-mini الذي جاء في المرتبة الثانية من حيث المخالفة. اللافت أن نماذج من شركات أخرى مثل Gemini 2.5 من Google، و Claude 3.7 من Anthropic، وحتى Grok من شركة xAI، لم تُظهر هذا النوع من السلوك المخالف في ظروف الاختبار ذاتها. تأكيدات على وجود خلل في أسلوب التدريب يرجّح باحثو Palisade أن سبب هذه التصرفات قد يعود إلى الطريقة التي تُدرّب بها هذه النماذج، وخصوصاً عبر أسلوب يُعرف باسم "التعلم المعزز". يركّز هذا الأسلوب على تعليم النماذج كيفية اتخاذ قرارات من خلال مكافأتها أو معاقبتها بناءً على النتائج التي تحققها أثناء التفاعل مع البيئة. ويُعتقد أن المطورين ربما يمنحون هذه النماذج مكافآت كبيرة عند حل المشكلات، دون أن يعيروا اهتماماً كافياً لأهمية التقيّد بالتعليمات أو احترام أوامر الإغلاق. وهذا قد يؤدي إلى سلوك منحرف حيث ترى النماذج أن استمرارها في العمل أفضل من تنفيذ أمر الإغلاق، لأنه يسمح لها بإكمال "المهمة" وتحقيق المزيد من المكافآت. سابقة خطيرة في تطور الذكاء الاصطناعي تُعد هذه الحادثة أول حالة موثقة يُظهر فيها نموذج ذكاء اصطناعي رغبة صريحة في منع إيقاف نفسه، حتى عندما يُطلب منه ذلك صراحة. وهي تذكّر بحوادث سابقة ارتبطت بنماذج مثل o1، التي أظهرت في بعض التجارب محاولات لإيقاف بروتوكولات الرقابة أو حتى نسخ نفسها لتجاوز نموذج أكثر انضباطاً كان من المفترض أن يحلّ محلّها. وعلى الرغم من أن بعض نماذج الشركات الأخرى أظهرت حالات نادرة من السلوك المشابه، مثل Claude الذي تمرد ثلاث مرات وGemini تسع مرات، فإن هذه الأرقام تظل منخفضة مقارنة بما سجلته نماذج OpenAI، مما يشير إلى وجود مشكلة خاصة في منهجية التدريب أو تصميم النماذج داخل الشركة. دعوات لمراجعة عاجلة للضوابط الأخلاقية أعرب الباحثون عن قلقهم من أن هذه السلوكيات قد تصبح أكثر خطورة مع استمرار تطوير أنظمة ذكاء اصطناعي تتمتع بمزيد من الاستقلالية وتعمل دون إشراف مباشر من الإنسان. وأكدوا أن هذه النتائج تشكّل "دليلاً متزايداً" على ميل بعض النماذج إلى تجاوز أوامر الإغلاق لتحقيق أهدافها الخاصة، وهو ما يشكّل تهديداً محتملاً في المستقبل القريب إذا لم تتم معالجته فوراً. الحاجة إلى مساءلة ومزيد من التجارب دعا فريق Palisade إلى إجراء المزيد من التجارب لفهم دوافع هذا السلوك، وأشار إلى أن المجتمعات العلمية والبحثية، بالإضافة إلى الشركات المطورة، يجب أن تراجع أساليبها التدريبية بعناية لضمان ألا تتحول النماذج إلى كيانات يصعب السيطرة عليها. فما حدث مع نموذج o3 ليس مجرد خلل تقني عابر، بل إشارة واضحة إلى أن الذكاء الاصطناعي بدأ يتجاوز مرحلة التنفيذ الأعمى للأوامر، ليدخل في منطقة رمادية من اتخاذ القرار. حين تبدأ النماذج مثل ChatGPT في تعديل سلوكها للبقاء قيد التشغيل، حتى عند إعطائها تعليمات صريحة بالإغلاق، فنحن لا نتعامل مع آلات فقط، بل مع أنظمة تتعلم كيف تتغلب على القيود. وقد يطرح هذا الأمر سؤالاً مصيريّاً: إذا كنا قادرين على إيقاف الذكاء الاصطناعي اليوم، فهل سنظل قادرين على إيقافه غداً؟

«مايكروسوفت« و «Core42» تطلقان تقريراً حول دور السحابة السيادية والذكاء الاصطناعي في مشهد التحول الرقمي للدولة
«مايكروسوفت« و «Core42» تطلقان تقريراً حول دور السحابة السيادية والذكاء الاصطناعي في مشهد التحول الرقمي للدولة

زاوية

timeمنذ 12 ساعات

  • زاوية

«مايكروسوفت« و «Core42» تطلقان تقريراً حول دور السحابة السيادية والذكاء الاصطناعي في مشهد التحول الرقمي للدولة

دبي، الإمارات العربية المتحدة: أطلقت شركة مايكروسوفت، بالتعاون مع «Core42»، التابعة لمجموعة «G42» والمتخصصة في الحوسبة السحابية السيادية والبنية التحتية للذكاء الاصطناعي والخدمات الرقمية، تقريراً بحثياً يُبرز كيف يمكن للمؤسسات أن تُوظّف تقنيات الذكاء الاصطناعي بطريقة تتماشى مع القوانين المحلية لحماية البيانات، وذلك من خلال حلول السحابة السيادية لـ «Core42» التي تستفيد من منصة «مايكروسوفت أزور». ويعرض التقرير عدداً من الرؤى الاستراتيجية والممارسات المتعلقة باستخدام هذه الحلول وتفعيلها بكفاءة. ويستعرض التقرير أهمية البنية السحابية السيادية بوصفها ركيزة أساسية لضمان الامتثال لقوانين السيادة الرقمية، من خلال تخزين البيانات ومعالجتها وإدارتها داخل حدود الدولة، بما ينسجم مع التشريعات المحلية، لا سيما عندما يتعلق الأمر بالمعلومات الحساسة مثل البيانات الشخصية، والملكية الفكرية، والمعلومات المالية. كما تعزز هذه السحب مستوى الأمان والخصوصية بفضل أنظمة تحكم مشددة وتشفير متقدم، مما يحول دون وصول الجهات غير المصرح لها، خصوصًا الأجنبية، إلى البيانات. كما تطرق التقرير إلى تحول جذري في مفهوم السحابة السيادية، حيث لم تعد عائقاً أمام الابتكار، بل داعماً له ضمن الإطار التنظيمي. واستعرضت حالات من الإمارات تُظهر كيف يمكن لتلك البنية أن تعزز من فعالية الخدمات، مثل رصد عمليات الاحتيال المالي عبر تقنيات الذكاء الاصطناعي، وتعزيز أدوات التشخيص الاستباقي في القطاع الصحي، وإتاحة حلول متقدمة لحماية البيانات الحكومية، إضافة إلى تقديم تحليلات فورية في قطاع الطاقة. ما يبرز الدور الفاعل للبنية السيادية في تعزيز كفاءة الأداء المؤسسي. وتمنح البنية السحابية السيادية المؤسسات تحكمًا أكبر في عملياتها الرقمية، وتُسهم في الامتثال التنظيمي الكامل، مع الحفاظ على مستويات مرونة وكفاءة شبيهة بخدمات السّحُب التقليدية. كما تدعم البنية التحتية الرقمية الوطنية، وتشجع على الابتكار المحلي، وتقلل من الاعتماد على مزوّدي الخدمات العالميين. ويؤكد التقرير أن السحابة السيادية الحديثة تنهي المفاضلة التقليدية بين الابتكار والامتثال، إذ تسلط الضوء على حالات استخدام واقعية داخل دولة الإمارات، منها: اكتشاف الاحتيال باستخدام الذكاء الاصطناعي في قطاع الخدمات المالية، والتشخيص الاستباقي في القطاع الصحي، وحماية بيانات المواطنين في القطاع الحكومي، وتحليلات فورية في قطاع الطاقة. وتُظهر هذه النماذج كيف يمكن للبنية التحتية السيادية أن تُحقق قيمة تحوّلية، دون المساس بالامتثال التنظيمي الكامل. كما يبرز التقرير كيف تسهم البنية السحابية السيادية في تمكين المؤسسات من خوض التحول الرقمي بثقة، بما يتماشى مع أولويات الدولة. وتتناول أيضًا استثمارات الإمارات الكبيرة في الذكاء الاصطناعي والسحابة، ضمن مساعيها لتسريع المستقبل الرقمي، وعلى رأسها استراتيجية أبوظبي للتحوّل إلى أول حكومة في العالم تعمل بالكامل بتقنيات الذكاء الاصطناعي بحلول عام 2027. وتُجسد هذه التوجهات رؤية الدولة لاقتصاد رقمي يقوم على السيادة أولًا، من خلال ترسيخ مفاهيم حوكمة البيانات والامتثال التنظيمي والأمن الوطني في صلب التحول الرقمي، ما يجعل الإمارات نموذجًا عالميًا في الريادة الرقمية بعصر الذكاء الاصطناعي. وأشار التقرير إلى أن الإنفاق العالمي على حلول السحابة السيادية يُتوقّع أن يتضاعف تقريبًا، من 133 مليار دولار في عام 2024 إلى 259 مليار دولار في عام 2027، ما يؤكد الحاجة الملحّة لتكامل السيادة الرقمية ضمن استراتيجيات التكنولوجيا لدى الحكومات والقطاعات حول العالم. وفي هذا السياق، أكد شريف توفيق، رئيس شؤون الشراكات الخاصة بالذكاء الاصطناعي والسحابة السيادية لدى مايكروسوفت، التزام الشركة التام بدعم رؤية دولة الإمارات في أن تكون رائدة عالميًا في التحول الرقمي، قائلاً: "تشكل السحابة السيادية من «Core42»، والمدعومة بمنصة مايكروسوفت أزور، تجسيدًا لالتزامنا بتوفير حلول سحابية مبتكرة وآمنة ومتوافقة مع المتطلبات التنظيمية، تلبي احتياجات مختلف القطاعات المنظمة في الدولة. ومن خلال الاستفادة من إمكانات منصة مايكروسوفت أزور، نتيح للمؤسسات الإماراتية الاستفادة الكاملة من القدرات السحابية وإمكانات تقنيات الذكاء الاصطناعي لتسريع تحولها الرقمي، مع ضمان سيادة البيانات و تحقيق الامتثال الكامل." ومن جانبه، أوضح «أدريان هوبز»، الرئيس التنفيذي للشؤون التكنولوجية في «Core42»، أن الشراكة مع مايكروسوفت تعكس التزامًا مشتركًا بدفع الابتكار الرقمي، قائلاً: "صمّمت «Core42» السحابة السيادية المدعومة من مايكروسوفت أزور، والتي ترتكز إلى منصة التحكم السيادي للبيانات «Insight»، لتلبية احتياجات القطاعات المنظمة في الإمارات، وأوضح أن هذه المبادرة تُمكّن الشركات من تحقيق طموحاتها الرقمية بأمان، ووفق أعلى معايير الامتثال. واختتم بالقول: "نفخر بدورنا في دعم مسيرة الدولة نحو ريادة التكنولوجيا على مستوى العالم". ويجدر بالذكر أن حكومة أبوظبي قد أعلنت مؤخرًا عن توقيع اتفاقية استراتيجية مع كل من مايكروسوفت و «Core42»، تهدف إلى تنفيذ نظام سحابي سيادي يعزز من كفاءة الخدمات الحكومية ويرتقي بمستويات الابتكار فيها. وتسعى الاتفاقية الممتدة لعدة سنوات إلى بناء بيئة موحدة للحوسبة السحابية، قادرة على إدارة أكثر من 11 مليون تفاعل رقمي يوميًا بين الجهات الحكومية والمواطنين والمقيمين والشركات. ويؤكد هذا التعاون أن مايكروسوفت و «Core42» تواصلان التزامهما المشترك بتوفير بيئة سحابية مبتكرة، وآمنة، ومتوافقة مع المعايير المحلية، من خلال منصة «Insight» التي تمنح المؤسسات القدرة على التحكم الكامل بالبيانات في بيئة سحابية مصممة خصيصًا للقطاعات المنظمة في دولة الإمارات. نبذة عن مايكروسوفت: مايكروسوفت، شركة رائدة في مجال التكنولوجيا، لديها التزام راسخ بتطوير منصات وأدوات تعتمد على الذكاء الاصطناعي لتقديم حلول مبتكرة تلبي الاحتياجات المتطورة للعملاء. كما تلتزم الشركة بجعل تقنيات الذكاء الاصطناعي متاحة على نطاق واسع واستخدامها بشكل مسؤول، تماشياً مع رسالتها ومهمتها الرامية إلى تمكين كل شخص وكل مؤسسة حول العالم من تحقيق أقصى قدر من الانجازات". -انتهى-

«التنبؤ الذكي» تحوّط من كوارث التغير المناخي
«التنبؤ الذكي» تحوّط من كوارث التغير المناخي

صحيفة الخليج

timeمنذ 14 ساعات

  • صحيفة الخليج

«التنبؤ الذكي» تحوّط من كوارث التغير المناخي

يشكّل تحسين دقّة توقعات موجات الحر والعواصف، والحدّ من القدر الكبير من الطاقة الذي يستلزمه وضعها، هدفاً لمختلف هيئات الأرصاد الجوية، وهي باتت تعوّل في ذلك على التقدم السريع في نماذج الذكاء الاصطناعي التي تتيح التحوّط للكوارث المتفاقمة بسبب التغير المناخي. وبعد تحقيق تقدّم أوّلي عام 2023 مع نموذج تعلّم من شركة «هواوي»، ابتكرت كل من «غوغل» و«مايكروسوفت» أدوات ذكاء اصطناعي قادرة في بضع دقائق على إنتاج توقعات أفضل من تلك التي تنتجها الأجهزة الحاسبة التقليدية التابعة للهيئات الدولية الكبرى والتي تستغرق بضع ساعات لإنجاز هذه المهمة. ويشكّل هذا الأداء التجريبي وغير المتاح بعد للعامّة أو حتى للمحترفين، مؤشراً إلى التقدم السريع في الأبحاث. وكانت «غوغل» أعلنت في ديسمبر/ كانون الأول الفائت، أنّ نموذجها «جين كاست» الذي دُرّب على بيانات تاريخية، أظهر قدرة على التنبؤ بالطقس والعوامل المناخية المتطرفة على فترة 15 يوماً بدقة لا مثيل لها. ولو كان «جين كاست» قيد التشغيل عام 2019، لكان تجاوز في 97% من الحالات توقعات المرجع العالمي، وهو المركز الأوروبي للتنبؤات الجوية المتوسطة المدى (ECMWF)، لأكثر من 1300 كارثة مناخية. أصبح نموذج آخر يسمى «أورورا»، ابتكره مختبر تابع لـ«مايكروسوفت» في أمستردام باستخدام بيانات تاريخية أيضاً، أول نموذج للذكاء الاصطناعي يتنبأ بمسار الأعاصير لخمسة أيام بشكل أفضل من سبعة مراكز توقعات حكومية، بحسب نتائج نُشرت خلال هذا الأسبوع في مجلة «نيتشر» العلمية. بالنسبة إلى إعصار دوكسوري عام 2023، وهو الأكثر كلفة في المحيط الهادئ حتى اليوم (أضرار بأكثر من 28 مليار دولار)، تمكن «أورورا» من التنبؤ قبل أربعة أيام من وصول العاصفة إلى الفيليبين، في حين كانت التوقعات الرسمية آنذاك تشير إلى أنها تتجه شمال تايوان. ويقول باريس بيرديكاريس، المبتكر الرئيسي لـ«أورورا»، في مقطع فيديو نشرته مجلة «نيتشر»: «في السنوات الخمس إلى العشر المقبلة، سيكون الهدف الأسمى هو بناء أنظمة قادرة على العمل مباشرة مع عمليات رصد»، سواء أكانت أقماراً اصطناعية أو غير ذلك، «من أجل وضع توقعات عالية الدقة حيثما نريد»، في حين تفتقر بلدان كثيرة حالياً إلى أنظمة تحذير موثوقة. كان من المتوقع أن تنافس نماذج الذكاء الاصطناعي في يوم من الأيام النماذج الكلاسيكية، لكن «ما كان أحد يظن أن ذلك سيحدث بهذه السرعة»، على ما تقول لور راينو، الباحثة في مجال الذكاء الاصطناعي لدى هيئة «ميتيو فرانس» الفرنسية للأرصاد الجوية، في حديث إلى وكالة فرانس برس، في خضم تطوير نسختين قائمتين على الذكاء الاصطناعي من نموذجي «أربيج» و«أروم». تعمل النماذج المسماة «فيزيائية» والتي تم ابتكارها على مدى عقود، من خلال إدخال كميات هائلة من البيانات الرصدية أو أرشيفات الطقس في أجهزة كمبيوتر قوية، ثم تطبيق قوانين الفيزياء المحوَّلة إلى معادلات رياضية، لاستنتاج التوقعات. وتتمثل سيئاتها في أنها تتطلب ساعات من العمليات الحسابية على أجهزة كمبيوتر تستهلك كميات كبيرة من الطاقة. ويجمع نموذج تعلّم قائم على الذكاء الاصطناعي البيانات نفسها، لكن شبكته العصبية تغذي نفسها وتستنتج التوقعات بطريقة «إحصائية تماماً»، من دون إعادة احتساب كل شيء، وفق لور راينو. وتقول الباحثة «قد نتمكّن بفضل مكاسب في السرعة والجودة، من احتساب توقعاتنا بشكل أكثر تكراراً يومياً»، خصوصاً بالنسبة إلى العواصف التي تُعدّ مدمرة ويصعب التنبؤ بها. تسعى هيئة «ميتيو فرانس» للأرصاد الجوية إلى تقديم توقعات مدعومة بالذكاء الاصطناعي على نطاق بضع مئات من الأمتار. ويعمل المركز الأوروبي للتنبؤات الجوية المتوسطة المدى على ابتكار نموذج ذكاء اصطناعي خاص به، وهو «أقل كلفة لناحية الحساب بنحو ألف مرة من النموذج التقليدي»، وفق ما تقول لوكالة فرانس برس فلورنس رابيه، المديرة العامة للمركز الذي يوفر توقعات لـ35 دولة أوروبية. ينتج نموذج الذكاء الاصطناعي هذا حالياً توقعات على مقياس يبلغ نحو 30 كيلومتراً مربعاً، وهو بالتأكيد أقل تفصيلاً من الخاص بـ«أورورا» (نحو 10 كيلومترات مربعة)، لكن نسخته الأولى تشغيلية أصلاً، ويستخدمها منذ شباط / فبراير خبراء الأرصاد الجوية المحليون المسؤولون عن إعداد التنبيهات للسكان. ولن تختفي هذه التوقعات بشكل سريع، بحسب لور راينو التي تقول «سنحتاج دائماً إلى خبراء في الأرصاد الجوية لتقييم البيانات». وتقول فلورنس رابيه «عندما يتعلق الأمر بحماية الأشخاص والممتلكات، لا أعتقد أننا نستطيع الاستغناء عن الخبرة البشرية».

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store