logo
#

أحدث الأخبار مع #UNIDIR

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعى في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعى في مجال التسلح

موجز مصر

time٠٨-٠٤-٢٠٢٥

  • علوم
  • موجز مصر

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعى في مجال التسلح

ودعا خبراء نزع السلاح في الأمم المتحدة ومديرو شركات التكنولوجيا الكبرى إلى إبطاء سباق الذكاء الاصطناعي، وخاصة سباق التسلح. وأكدوا أن شركات تكنولوجيا المعلومات بحاجة إلى إبقاء الصورة الأكبر في الاعتبار لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقال جوزيا لوي، نائب مدير معهد الأمم المتحدة لبحوث نزع السلاح (UNIDIR)، وفقًا للموقع الرسمي للأمم المتحدة: 'بالنسبة لصانعي السياسات الدفاعية، فإن التواصل مع مجتمع التكنولوجيا ليس خيارًا – من الضروري للغاية أن يشارك هذا المجتمع منذ البداية في تصميم وتطوير واستخدام الأطر التي تحكم أمن أنظمة وقدرات الذكاء الاصطناعي'. وفي حديثها خلال مؤتمر الأمم المتحدة حول الأمن والأخلاق في جنيف، شددت جوسيا على أهمية بناء حواجز وقائية في الوقت الذي يتصارع فيه العالم مع ما وصفته بـ 'لحظة أوبنهايمر' للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي المعروف بدوره المحوري في تطوير القنبلة الذرية. وشدد المسؤول في معهد الأمم المتحدة لبحوث نزع السلاح على ضرورة الرقابة لضمان احترام حقوق الإنسان والقانون الدولي والأخلاق في تطوير الذكاء الاصطناعي، وخاصة في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان تطور هذه التكنولوجيا القوية بطريقة خاضعة للرقابة ومسؤولة. وأشارت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش في جميع أنحاء العالم. وبحسب أرنو فالي، رئيس العلاقات العامة في شركة Command AI، فإن الطبيعة المزدوجة لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في البيئات المدنية والعسكرية – تحذر من أنها قد تفقد الاتصال بالواقع في ساحة المعركة، حيث يمكن أن تكلف برامجها أرواحًا بشرية. وأضاف أن هذه الأدوات لا تزال في مراحلها الأولى، ولكن كانت هناك مخاوف منذ فترة طويلة بشأن استخدامها المحتمل في اتخاذ القرارات المتعلقة بالحياة أو الموت في أوقات الحرب، لأن هذا من شأنه أن يخلق الحاجة إلى اتخاذ القرارات البشرية والمساءلة. ومن ثم، تتزايد الدعوات إلى تنظيم هذه التكنولوجيا لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية. وقال ديفيد سالي، الرئيس التنفيذي لشركة أدفي في لندن: 'نرى هذه الأنظمة تفشل طوال الوقت، ولا تزال هذه التقنيات غير موثوقة'. وأضاف 'لذلك ليس من الصعب جعلهم يرتكبون أخطاء كما يعتقد البعض في بعض الأحيان'. وقال مايكل كريمين، مدير الدبلوماسية الرقمية، إن الفرق في مايكروسوفت تركز على المبادئ الأساسية للسلامة والأمن والشمول والإنصاف والمساءلة. وأوضح كرمين أن عملاق التكنولوجيا الأميركي، الذي أسسه بيل جيتس، يفرض قيودا على تقنية التعرف على الوجه في الوقت الحقيقي التي تستخدمها وكالات إنفاذ القانون والتي قد تسبب أذى نفسيا أو جسديا. وأضاف أنه يجب وضع ضوابط واضحة، ويجب على الشركات أن تعمل معًا لإزالة الحواجز. وأشار إلى أن الابتكار ليس أمراً يحدث داخل منظمة واحدة فحسب، بل هو مسؤولية يجب تقاسمها. قالت سولينا نور عبد الله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام للاتحاد الدولي للاتصالات: 'إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة'. وأضافت: 'علينا معالجة مفارقة حوكمة الذكاء الاصطناعي، وإدراك أن التنظيم يتخلف أحيانًا عن التكنولوجيا. لذلك، يُعدّ الحوار المستمر بين خبراء السياسات والخبراء التقنيين أمرًا أساسيًا لتطوير أدوات حوكمة فعّالة'. المصدر: أ.ش.أ.

الأمم المتحدة تدعو لـ إبطال الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو لـ إبطال الذكاء الاصطناعي في مجال التسلح

المستقبل

time٠٦-٠٤-٢٠٢٥

  • علوم
  • المستقبل

الأمم المتحدة تدعو لـ إبطال الذكاء الاصطناعي في مجال التسلح

دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات التكنولوجيا الكبرى إلى ضرورة إبطاء السباق العالمي في مجال الذكاء الاصطناعي. خاصة في سياق استخدامه في التسلح. وأكدوا على أن هذه التكنولوجيا يجب أن تستخدم بشكل مسؤول. مع التأكيد على ضرورة ضمان عدم إساءة استخدامها في ميادين المعركة. معهد الأمم المتحدة للأبحاث وفي هذا السياق، صرحت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث في مجال نزع السلاح (UNIDIR). أن التعاون بين صانعي السياسات الدفاعية ومجتمع التكنولوجيا ليس مجرد خيار بل ضرورة ملحة. وقالت: 'يجب أن يكون مجتمع التكنولوجيا مشاركًا منذ البداية في تصميم وتطوير الأطر التي ستوجه سلامة وأمن أنظمة الذكاء الاصطناعي، لضمان عدم انزلاق هذه التكنولوجيا نحو مسارات تهدد الأمن الدولي'. الأسلحة الموجهة بالذكاء الاصطناعي وجاءت تصريحات جوسيا لوى في مؤتمر الأمم المتحدة للأمن والأخلاقيات الذي عقد في جنيف. حيث ناقشت مسألة تطوير الأسلحة الموجهة بالذكاء الاصطناعي. وأشارت إلى أنه من الضروري أن يتم اتخاذ خطوات وقائية لضمان ألا تساهم هذه التكنولوجيا في زيادة مخاطر الصراعات العالمية. وتحدثت عن ما وصفته بـ 'لحظة أوبنهايمر' للذكاء الاصطناعي. وحذرت من أن العالم يقف اليوم على عتبة تحول مماثل في مجال التسلح التكنولوجي. الذكاء الاصطناعي كما أكدت لوى على الحاجة الملحة للرقابة العالمية في هذا المجال لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان، القوانين الدولية، والمعايير الأخلاقية. وأشارت إلى أهمية تطوير هذه الأنظمة بشكل منضبط ومسؤول. خاصة فيما يتعلق بالأسلحة ذاتية التشغيل والموجهة بالذكاء الاصطناعي. التي قد تشكل تهديدًا جديدًا للأمن والسلام الدوليين.

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الطريق

time٠٦-٠٤-٢٠٢٥

  • علوم
  • الطريق

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الأحد، 6 أبريل 2025 01:06 صـ بتوقيت القاهرة دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة. وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية. وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة.

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

مصرس

time٠٥-٠٤-٢٠٢٥

  • علوم
  • مصرس

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة.وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية.وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة.ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم.وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء – إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح.وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية.وقال ديفيد سالي، الرئيس التنفيذي لشركة "أدفاي" في لندن: "نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة". وأضاف: "لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا".في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية.وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا.وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة.وقالت سولينا نور عبدالله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات:"إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة". وأضافت: "يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة".

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الأسبوع

time٠٥-٠٤-٢٠٢٥

  • علوم
  • الأسبوع

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الذكاء الاصطناعي وسباق التسلح أ ش أ دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات «التكنولوجيا الكبرى» إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح «UNIDIR»: «إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي»، بحسب الموقع الرسمي للأمم المتحدة. وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى «لحظة أوبنهايمر» للذكاء الاصطناعي - في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية. وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة. ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم. وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي - حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء - إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح. وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية. وقال ديفيد سالي، الرئيس التنفيذي لشركة «أدفاي» في لندن: «نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة». وأضاف: «لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا». في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية. وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا. وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة. وقالت سولينا نور عبد الله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات:«إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة». وأضافت: «يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة».

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store