logo
#

أحدث الأخبار مع #جوسيالوى،

الأمم المتحدة تدعو لـ إبطال الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو لـ إبطال الذكاء الاصطناعي في مجال التسلح

المستقبل

time٠٦-٠٤-٢٠٢٥

  • علوم
  • المستقبل

الأمم المتحدة تدعو لـ إبطال الذكاء الاصطناعي في مجال التسلح

دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات التكنولوجيا الكبرى إلى ضرورة إبطاء السباق العالمي في مجال الذكاء الاصطناعي. خاصة في سياق استخدامه في التسلح. وأكدوا على أن هذه التكنولوجيا يجب أن تستخدم بشكل مسؤول. مع التأكيد على ضرورة ضمان عدم إساءة استخدامها في ميادين المعركة. معهد الأمم المتحدة للأبحاث وفي هذا السياق، صرحت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث في مجال نزع السلاح (UNIDIR). أن التعاون بين صانعي السياسات الدفاعية ومجتمع التكنولوجيا ليس مجرد خيار بل ضرورة ملحة. وقالت: 'يجب أن يكون مجتمع التكنولوجيا مشاركًا منذ البداية في تصميم وتطوير الأطر التي ستوجه سلامة وأمن أنظمة الذكاء الاصطناعي، لضمان عدم انزلاق هذه التكنولوجيا نحو مسارات تهدد الأمن الدولي'. الأسلحة الموجهة بالذكاء الاصطناعي وجاءت تصريحات جوسيا لوى في مؤتمر الأمم المتحدة للأمن والأخلاقيات الذي عقد في جنيف. حيث ناقشت مسألة تطوير الأسلحة الموجهة بالذكاء الاصطناعي. وأشارت إلى أنه من الضروري أن يتم اتخاذ خطوات وقائية لضمان ألا تساهم هذه التكنولوجيا في زيادة مخاطر الصراعات العالمية. وتحدثت عن ما وصفته بـ 'لحظة أوبنهايمر' للذكاء الاصطناعي. وحذرت من أن العالم يقف اليوم على عتبة تحول مماثل في مجال التسلح التكنولوجي. الذكاء الاصطناعي كما أكدت لوى على الحاجة الملحة للرقابة العالمية في هذا المجال لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان، القوانين الدولية، والمعايير الأخلاقية. وأشارت إلى أهمية تطوير هذه الأنظمة بشكل منضبط ومسؤول. خاصة فيما يتعلق بالأسلحة ذاتية التشغيل والموجهة بالذكاء الاصطناعي. التي قد تشكل تهديدًا جديدًا للأمن والسلام الدوليين.

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الطريق

time٠٦-٠٤-٢٠٢٥

  • علوم
  • الطريق

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الأحد، 6 أبريل 2025 01:06 صـ بتوقيت القاهرة دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة. وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية. وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة.

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

مصرس

time٠٥-٠٤-٢٠٢٥

  • علوم
  • مصرس

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة.وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية.وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة.ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم.وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء – إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح.وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية.وقال ديفيد سالي، الرئيس التنفيذي لشركة "أدفاي" في لندن: "نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة". وأضاف: "لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا".في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية.وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا.وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة.وقالت سولينا نور عبدالله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات:"إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة". وأضافت: "يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة".

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الأسبوع

time٠٥-٠٤-٢٠٢٥

  • علوم
  • الأسبوع

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الذكاء الاصطناعي وسباق التسلح أ ش أ دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات «التكنولوجيا الكبرى» إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح «UNIDIR»: «إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي»، بحسب الموقع الرسمي للأمم المتحدة. وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى «لحظة أوبنهايمر» للذكاء الاصطناعي - في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية. وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة. ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم. وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي - حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء - إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح. وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية. وقال ديفيد سالي، الرئيس التنفيذي لشركة «أدفاي» في لندن: «نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة». وأضاف: «لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا». في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية. وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا. وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة. وقالت سولينا نور عبد الله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات:«إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة». وأضافت: «يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة».

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح
الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

بوابة الأهرام

time٠٥-٠٤-٢٠٢٥

  • علوم
  • بوابة الأهرام

الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

أ ش أ دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة. موضوعات مقترحة وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة. وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية. وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة. ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم. وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء – إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح. وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية. وقال ديفيد سالي، الرئيس التنفيذي لشركة "أدفاي" في لندن: "نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة". وأضاف: "لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا". في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية. وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا. وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة. وقالت سولينا نور عبدالله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات:"إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة". وأضافت: "يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store