logo
#

أحدث الأخبار مع #ArsTechnica

«ناسا» تتسلم مركبة «Orion» لإرسال رواد إلى مدار القمر
«ناسا» تتسلم مركبة «Orion» لإرسال رواد إلى مدار القمر

كويت نيوز

time٠٨-٠٥-٢٠٢٥

  • علوم
  • كويت نيوز

«ناسا» تتسلم مركبة «Orion» لإرسال رواد إلى مدار القمر

تسلمت وكالة «ناسا» مركبة Orion الفضائية التي سترسل فيها روادا إلى مدار القمر. وجاء في منشور لصحيفة «SpaceNews»: «سلمت شركة Lockheed Martin وكالة ناسا مركبة أوريون التي ستستخدم في مهمة أرتميس 2، والتي سيتم خلالها إرسال أربعة رواد فضاء في رحلة تستغرق عشرة أيام إلى مدار القمر». وتبعا للصحيفة، فإن المركبة وصلت إلى مركز كينيدي الفضائي في فلوريدا في الأول من مايو الجاري. وسيتم في المركز تزويدها بالوقود وإخضاعها لاختبارات للتحقق من عمل نظام الطوارئ الخاص بها، قبل تركيبها على رأس الصاروخ الفضائي SLS فائق الثقل، الذي سيحملها في رحلتها نحو القمر. ويشير الخبراء إلى أن نقل المركبة من شركة Lockheed Martin إلى وكالة ناسا سيساعد الوكالة في ضبط الجدول الزمني لمهمة أرتميس 2، حيث من المخطط إطلاق المركبة نحو مدار القمر قبل نهاية أبريل 2026. وفي مارس الماضي، ذكرت مجلة «Ars Technica» أن وكالة ناسا تستعد لمهمة أرتميس 2، حيث قام المختصون في مركز كينيدي الفضائي بنقل المرحلة الأساسية للصاروخ SLS وتركيبها بين المعززين الجانبيين للصاروخ.

خلاف جديد مع ترامب.. إيلون ماسك غاضب من تخفيضات 'ناسا'
خلاف جديد مع ترامب.. إيلون ماسك غاضب من تخفيضات 'ناسا'

الصباح العربي

time١٣-٠٤-٢٠٢٥

  • أعمال
  • الصباح العربي

خلاف جديد مع ترامب.. إيلون ماسك غاضب من تخفيضات 'ناسا'

في أحدث حلقات الخلاف بين الرئيس الأمريكي دونالد ترامب ومستشاره الأقرب، وصف رجل الأعمال إيلون ماسك، التقارير التي تفيد بأن اقتراح الرئيس للميزانية من شأنه أن يخفض بشكل كبير تمويل وكالة "ناسا" بأنها "مقلقة". كان ترامب قد تعهد بتقليص حجم الحكومة الفيدرالية، مُكلّفًا ماسك بقيادة حملة القضاء على "الهدر والاحتيال وإساءة الاستخدام". وقد نفّذت وزارة كفاءة الحكومة التي يرأسها ماسك توجيهها، بإجراء تخفيضات كبيرة في التمويل والموظفين في مختلف الوكالات الفيدرالية. وتمثل تعليقات ماسك ثاني انقسام علني كبير له مع ترامب في المجالات التي تؤثر على شركات رجل الأعمال، وسط تقارير تفيد بأن ماسك سيتنحى قريبًا عن دوره في وزارة كفاءة الحكومة. ووفقًا لصحيفة "بوليتيكو"، يبدو أن الملياردير انحرف أيضًا عن خط الحزب الجمهوري بشأن التعريفات الجمركية، مستهدفًا بشكل مُتكرر بيتر نافارو، أحد الوجوه العامة لأجندة ترامب التجارية، بعد أن فرضت الإدارة رسومًا جمركية باهظة على شركاء التجارة العالميين، مما تسبب في تقلبات كبيرة في السوق وأسفر عن خسائر بمليارات الدولارات لشركة "تسلا" المملوكة لإيلون ماسك. ميزانية ناسا يأتي أحدث انتقاد من ماسك لسياسات الإدارة الأمريكية في الوقت الذي ظهرت فيه تقارير عن تخفيضات في تمويل وكالة "ناسا"، الجمعة، بينما تُعدّ شركة "سبيس إكس"، المملوكة لماسك، من أكبر المتعاقدين مع الوكالة. ورد الرئيس التنفيذي لشركة "سبيس إكس" على تقرير من موقع أخبار التكنولوجيا Ars Technica بأن مشروع الميزانية الذي اقترحه مكتب الإدارة والميزانية لوكالة ناسا من شأنه أن يخفض حوالي 20% من الميزانية الإجمالية للوكالة، و50% من تمويل وكالة العلوم التابعة لها. وأضاف: "أنا مؤيد بشدة للعلم، لكن لسوء الحظ لا أستطيع المشاركة في مناقشات ميزانية ناسا، بسبب كون سبيس إكس متعاقدًا رئيسيًا مع ناسا". وصرّح متحدث باسم ناسا لـ"بوليتيكو" بأن الوكالة اطلعت على إقرار الإدارة لميزانية عام 2026، وأنها "بدأت عملية المداولة"، لكنه رفض الإدلاء بمزيد من التعليقات حول تفاصيل الميزانية أو تصريحات ماسك. وفي حين قد يُستبعد ماسك من مناقشات ميزانية الوكالة، إلا أن لديه علاقة طويلة الأمد مع مرشح ترامب لمنصب مدير "ناسا"، جاريد إيزاكمان، الذي استثمرت شركته لمعالجة المدفوعات "شيفت 4" في شركة "سبيس إكس" التابعة لماسك. إيزاكمان سعى إلى النأي بنفسه عن الرئيس التنفيذي لـ "سبيس إكس" خلال جلسة استماع في مجلس الشيوخ الأسبوع الماضي، رافضًا التأكيد المباشر على حضور ماسك مقابلة العمل الأولى مع الرئيس. أزمة التمويل الحكومي الثلاثاء، رفضت السكرتيرة الصحفية للبيت الأبيض كارولين ليفيت، انتقادات ماسك السابقة لنافارو، الذي وصفه بأنه "أحمق" وأطلق عليه اسم "بيتر ريتاردو". وقالت للصحفيين ساخرة خلال إفادة: "الأولاد سيبقون أولادًا، وسوف نسمح باستمرار مناوشاتهم العلنية". كما واصل ترامب الإشادة بعمل ماسك مع وزارة كفاءة الحكومة، قائلاً له في اجتماع وزاري يوم الخميس: "فريقك رائع، نأمل أن يستمر وجودهم معنا لفترة طويلة، ونرغب في الاحتفاظ بأكبر عدد ممكن منهم". في الوقت نفسه، تحركت الإدارة الأمريكية لإجراء تخفيضات كبيرة في تمويل الأبحاث في أماكن أخرى، بما في ذلك إلغاء تمويل برنامج أبحاث التغير العالمي في الولايات المتحدة، والذي يتولى إصدار المناخ الوطني الذي أقره الكونجرس. ومن المرجح أن يواجه الاقتراح بخفض تمويل وكالة "ناسا" مقاومة من جانب الكونجرس، المُكلف بإنهاء الميزانية قبل تسليمها للرئيس للتوقيع عليها لتصبح قانونًا.

هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟
هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟

العربية

time٠٧-٠٤-٢٠٢٥

  • علوم
  • العربية

هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟

يتطلع قادة التكنولوجيا والأعمال في ظل زخم الحالي حول الذكاء الاصطناعي إلى الخطوة التالية في هذا المجال، ألا وهي "الذكاء العام الاصطناعي" (AGI)، وهي آلة تتمتع بذكاء وقدرات تُضاهي ذكاء الإنسان. لكن الأهم من الوصول إلى هذا الهدف، هو إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر. وحتى الآن لا يملك البشر وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن باحثين في شركة " غوغل ديب مايند" التابعة لغوغل يعملون على هذه المشكلة، بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". وأصدر هؤلاء الباحثون ورقة بحثية جديدة، مكونة من 108 صفحات، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. وفي حين يعتقد البعض في مجال الذكاء الاصطناعي أن الذكاء الاصطناعي العام مجرد حلم بعيد المنال، يتوقع باحثو "غوغل ديب مايند" إمكانية الوصول إليه بحلول عام 2030. ويعتقد الباحثون أن الذكاء العام الاصطناعي الشبيه بذكاء الإنسان قد يؤدي إلى "خطر جسيم"، لأجل هذا سعوا إلى فهم مخاطره. ما هي المخاطر؟ حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر. وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، ولكن لم يُغطَّ الأخيران إلا بإيجاز. تتشابه المشكلة المحتملة الأولى، وهي سوء الاستخدام، بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير. وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي. وقال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي. ويقترح الفرق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير. أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر. تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور. وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط. ولتجنب ذلك، تقترح على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها. وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا. وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف. الأخطاء من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية. مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي. تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي. لا تقدم الورقة البحثية حلًا مثاليًا للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول. وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها. المخاطر الهيكلية تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير المقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية المعقدة بالفعل. على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة. وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا. وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!
الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

الاتحاد

time٠٧-٠٤-٢٠٢٥

  • علوم
  • الاتحاد

الذكاء الاصطناعي العام (AGI) الخطوة التالية لقطاع التكنولوجيا..ما المخاطر؟!

في ظل التسارع المذهل في تطوير تقنيات الذكاء الاصطناعي، يتطلع قادة التكنولوجيا والأعمال إلى الخطوة التالية في هذا المجال، وهي "الذكاء العام الاصطناعي" (AGI)، وهو نوع من الذكاء الاصطناعي يتمتع بقدرات إدراكية شبيهة بالبشر. إن إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر،هدف مهم يسعى إليه الباحثون، ويصبح من الضروري أن تتكاتف الجهود، في الوصول إليه. وأصدر باحثون في شركة "جوجل ديب مايند" التابعة لجوجل ورقة بحثية جديدة، مكونة من أكثر من 100 صفحة، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا. اقرأ أيضاً..الذكاء الاصطناعي.. من منظور إيجابي تشير تقديرات "ديب مايند" إلى إمكانية ظهور AGI خلال السنوات الخمس القادمة، وتحديدًا بحلول عام 2030، مما يستدعي تعاونًا دوليًا عاجلًا لوضع الأطر القانونية والأخلاقية. لا يملك البشر حتى الآن وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن الباحثين في شركة "جوجل ديب مايند" التابعة لجوجل يعملون على هذه المشكلة. كشف الباحثون عن أربعة مخاطر رئيسية قد تنجم عن تطوير الذكاء الاصطناعي العام (AGI) الشبيه بذكاء الإنسان وقد يؤدي إلى "أضرار جسيمة"، لأجل هذا سعوا إلى فهم مخاطره. أبرز المخاطر حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر. وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، وتناول الأخيران بإيجاز. المشكلة المحتملة الأولى، هي سوء الاستخدام، بحيث تتشابه بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير. وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي. قال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي. ويقترح الفريق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير. أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر. تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور. وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط. حلول مقترحة لتجنب ذلك، تقترح "ديب مايند" على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها. وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا. وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف. الأخطاء من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية.مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي. تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي. توصي الورقة بعدد من الإجراءات الوقائية، للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول. وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها. مخاطر هيكلية تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير مقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية. على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة. وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا. وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل. لضمان أن يكون الذكاء الاصطناعي العام أداة لخدمة البشرية، لا مصدرًا لتهديدها..كما تشير "ديب مايند"، فإن التقدم نحو AGI قد يكون أسرع مما نتخيل، ما يجعل من وضع الحواجز الأخلاقية والتقنية ضرورة عاجلة لا تحتمل التأجيل. لمياء الصديق(أبوظبي)

ناسا تحضّر لمهمة Artemis 2 لاستكشاف القمر
ناسا تحضّر لمهمة Artemis 2 لاستكشاف القمر

الغد

time٢٧-٠٣-٢٠٢٥

  • علوم
  • الغد

ناسا تحضّر لمهمة Artemis 2 لاستكشاف القمر

ذكرت مجلة ArsTechnica أن وكالة ناسا تحضّر لمهمة Artemis 2 التي سترسل في إطارها مركبة Orion المأهولة إلى مدار القمر. وتبعا للمجلة فإن التقارير تشير إلى أن المختصين من مركز جون كيندي الفضائي في فلوريدا نقلوا المرحلة الأولى من صاروخ Space Launch System (SLS) الثقيل المخصص للمهمة المذكورة وثبتوها بين المعززين الجانبيين، وبعدها سيقومون بتثبيت المرحلة الثانية للصاروخ على المرحلة الأولى، ومن ثم ستثبت مركبة Orion على الجزء العلوي من الصاروخ. اضافة اعلان من جهته أشار الصحفي في المجلة ستيفن كلارك إلى أن إدارة ترامب ستعلن خلال الأسابيع المقبلة عن ميزانيتها للسنة المالية 2026، وبعدها من المتوقع أن ترفع ناسا السرية حول خطط البيت الأبيض فيما يتعلق بالخطواط القادمة في إطار برنامج Artemis المخصص لاستكشاف القمر. وفي ديسمبر 2024 كانت صحيفة SpaceNews قد أشارت إلى أن إطلاق مهمتي Artemis الثانية والثالثة قد يؤجل لمدة عام، فبدلا من سبتمبر 2025، ستطلق مهمة Artemis 2 في أبريل 2026، أما مهمة Artemis 3 فسيؤجل إطلاقها من سبتمبر 2026 إلى منتصف عام 2027. من جهته أفاد موقع ArsTechnica في أكتوبر الماضي أن الخبراء في ناسا تمكنوا تم تحديد سبب المشاكل التي واجهتها مركبة الفضاء الأمريكية Orion، والتي فقدت أجزاء من درعها الحراري خلال مهمة Artemis 1 غير المأهولة. تجدر الإشارة إلى أن وكالة ناسا كانت قد أعلنت عام 2019 عن مسودة برنامج Artemis لاستكشاف القمر، وأشارت حينها أن البرنامج سينفذ على 3 مراحل، مرحلة Artemis 1 التي سيتم خلالها إرسال مركبة غير مأهولة من نوع Orion لتدور حول القمر ومن ثم تعود إلى الأرض، ومرحلة Artemis 2 التي سيتم خلالها إرسال مركبة فضائية مأهولة لتدور حول القمر، ومرحلة Artemis 3 التي تأمل من خلالها ناسا إرسال رواد إلى القمر ومن ثم إلى المريخ.RT

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store