logo
لم تعد الحروب الحديثة تدار فقط بالصواريخ والدبابات، بل أصبحت تقاد من داخل غرف الخوادم وبواسطة خوارزميات

لم تعد الحروب الحديثة تدار فقط بالصواريخ والدبابات، بل أصبحت تقاد من داخل غرف الخوادم وبواسطة خوارزميات

العربية١٥-٠٧-٢٠٢٥
الذكاء الاصطناعي. ففي زمن أصبحت فيه الجيوش تعتمد على الأنظمة الذكية في اتخاذ القرارات، بات أمن هذه الأنظمة مسألة "حياة أو دمار".. فهل أصبح الهاكرز هو جندي المعارك؟.
ماذا لو وقعت أنظمة الذكاء الاصطناعي في أيدي العدو؟
يقول الدكتور محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، في تصريحات خاصة لـ"العربية.نت/الحدث.نت":"إن الجيوش الكبرى اليوم تستخدم الذكاء الاصطناعي في تحليل البيانات الاستخباراتية، وتوجيه الطائرات بدون طيار، وتشغيل أنظمة الدفاع الصاروخي، وإدارة الروبوتات القتالية، بل وحتى اتخاذ قرارات قتالية مستقلة دون تدخل بشري مباشر، هذا التحول الرقمي في الميدان العسكري منح الجيوش تفوقاً غير مسبوق في السرعة والدقة، لكن في المقابل، خلق ثغرة أمنية خطيرة: ماذا لو وقعت هذه الأنظمة في أيدي العدو؟.
وتابع : الذكاء الاصطناعي في الجيوش قوة غير محصّنة بالكامل، رغم ما توفره هذه الأنظمة من قدرات خارقة، إلا أن اعتمادها على الخوارزميات والتقنيات الرقمية يجعلها عرضة للاختراق السيبراني، وشبكات الاتصال، ومراكز البيانات، والأقمار الصناعية، وحتى البرمجيات نفسها قد تُستهدف من قبل قراصنة محترفين أو جهات استخباراتية معادية، ففي حال نجاح أي اختراق، فإن النتائج تكون كارثية، حيث يتم السيطرة على الطائرات المسيرة وتحويلها إلى أدوات قتل موجهة نحو أهداف مدنية أو صديقة، وتعطيل أنظمة الدفاع الجوي في توقيت حرج، مما يفتح المجال أمام هجمات مدمرة، والتلاعب بقرارات أنظمة ذاتية التشغيل مثل الروبوتات القتالية، لتهاجم قواتها بدلاً من العدو، وتسريب بيانات استخباراتية حساسة أو استغلال الذكاء الاصطناعي نفسه في جمع المعلومات لصالح العدو.
نقطة ضعف في بعض الحالات
وأشار الخبير المصري، إلى أن ما كان يُعتقد أنه سيناريو خيالي أصبح واقعاً، ففي عام 2011، أعلنت إيران إسقاط طائرة أمريكية بدون طيار من طراز RQ-170 باستخدام هجوم إلكتروني، وفي عام 2021، تم تسجيل هجمات سيبرانية استهدفت أنظمة عسكرية في الشرق الأوسط، بينما تعرضت أنظمة دفاع أميركية لاختبارات فاشلة عام 2020 بسبب اختراق إلكتروني أثناء المحاكاة القتالية، هذه الحوادث تكشف بوضوح أن الذكاء الاصطناعي العسكري ليس محصناً، بل إنه، في بعض الحالات، يشكل نقطة ضعف أكثر مما هو ميزة.
كيف يتم تنفيذ هذه الهجمات؟
وكشف خبير الأمن السيبراني، أن الهجمات السيبرانية على الأنظمة العسكرية الذكية تعتمد على مجموعة من الأساليب، منها الهجوم عبر الشبكات المفتوحة أو غير المؤمنة بالكامل وزرع برمجيات خبيثة داخل برمجيات أو معدات يتم توريدها للجيوش والهندسة الاجتماعية لاستدراج عناصر بشرية داخل المؤسسة العسكرية واستغلال سلاسل التوريد واختراق الموردين قبل وصول الأنظمة إلى الجيش.
وحول الحلول لمواجهة نقاط الضعف، يقول مساعد أول وزير الداخلية الأسبق، الخبير الأمني المصري، اللواء أبوبكر عبدالكريم ، في تصريحات خاصة لـ"العربية.نت/ الحدث.نت": يجب أن يتوافر أمن سيبراني يوازي الذكاء الاصطناعي في القوة لحماية هذه الأنظمة، لابد من دمج الأمن السيبراني في صميم التصميم العسكري، ومن أهم التدابير، الاعتماد على شبكات مغلقة غير متصلة بالإنترنت لتقليل خطر الاختراق الخارجي، وتطوير أنظمة ذكاء اصطناعي ذاتية الحماية قادرة على اكتشاف الهجمات والرد عليها لحظياً، وتدريب الضباط والجنود على أساليب الأمن السيبراني والهندسة الاجتماعية.
"أمن الذكاء الإصطناعي العسكري ليس ترفا"
وتابع الخبير الأمني المصري: بالإضافة إلى إنشاء مراكز عمليات أمنية (SOC) مخصصة للمجال العسكري، قادرة على الرصد والتفاعل الفوري والتعاون الدولي لوضع معايير أخلاقية وتقنية لحماية الذكاء الاصطناعي العسكري ومنع استخدامه في الحروب السيبرانية العدائية، حيث إن أمن الذكاء الاصطناعي العسكري ليس ترفاً تقنياً، بل ضرورة وطنية لحماية السيادة والدفاع عن الأرض والإنسان، وفي معركة أصبحت تُخاض بالخوارزميات، فإن درع الدولة الحقيقي هو أمنها السيبراني.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

جينوم إبل المزاين.. مشروع علمي يعيد تشكيل اقتصاد الإبل في السعودية
جينوم إبل المزاين.. مشروع علمي يعيد تشكيل اقتصاد الإبل في السعودية

الرجل

timeمنذ ساعة واحدة

  • الرجل

جينوم إبل المزاين.. مشروع علمي يعيد تشكيل اقتصاد الإبل في السعودية

أعلنت مدينة الملك عبدالعزيز للعلوم والتقنية (كاكست) عن إنجاز علمي رائد يتمثل في فك الشفرة الجينية لإبل المزاين، ضمن مشروع يُعد الأول من نوعه على مستوى العالم، يستهدف الإبل ذات الصفات الجمالية التي تتنافس في مسابقات المزايين داخل المملكة. كيف يُستخدم الجينوم في تحكيم إبل المزاين؟ ويفتح هذا المشروع العلمي آفاقًا جديدة في عالم علوم الجينوم الحيواني، ويُمهّد لتطوير قاعدة بيانات ضخمة متخصصة في المعلومات الجينية لإبل المزاين، ما يُسهم في تعزيز دقة التحكيم، ورفع الشفافية والثقة في النتائج، بما ينعكس على القيمة السوقية المتنامية لهذه الفئة من الإبل. أوضحت "كاكست" في تقرير حديث أن المشروع يُمثل خطوة تأسيسية في مسار علمي طويل الأمد، يهدف إلى تحليل الصفات الوراثية المرتبطة بالجمال لدى إبل المزاين، واستكمال تسلسل جينومات إضافية لإبل مميزة أخرى خلال المراحل القادمة. وتوقعت المدينة أن تُسهم هذه البيانات الجينية الدقيقة في تحسين أدوات التحكيم المعتمدة في مسابقات المزاين، والانتقال بها من التقييم الظاهري إلى معايير مدروسة علميًا. كما يفتح المشروع الباب أمام اعتماد اختبارات جينية مستقبلية يمكن من خلالها تحديد السمات الجمالية الموروثة بدقة غير مسبوقة. القيمة السوقية لقطاع الإبل في السعودية من الناحية الاقتصادية، تُقدّر "كاكست" القيمة السوقية الإجمالية لقطاع الإبل في السعودية بحوالي 50 مليار ريال، في حين يبلغ حجم التداول السنوي في مزادات الإبل نحو 20 مليار ريال، ومن هذا المنطلق، ترى المدينة أن إنشاء قاعدة بيانات جينية متقدمة يُشكّل رافعة حقيقية لجذب الاستثمارات وتحقيق الشفافية، لا سيما في ظل الاهتمام المحلي والدولي المتزايد بهذا القطاع. كما يرفع المشروع من مستوى الثقة بين المشترين والبائعين، ويمنح المتداولين مؤشرات دقيقة تساعد في تسعير الإبل وفق أُسس علمية، وهو ما يدفع بعجلة النمو داخل القطاع ويعزّز مكانته ضمن منظومة الاقتصاد الوطني. على المستوى العلمي والتقني، اعتبرت "كاكست" أن هذا الإنجاز يشكّل نقلة نوعية في مجال البحوث الحيوية، ويؤسس لمسار جديد في استخدام الذكاء الاصطناعي لتحليل البيانات الجينية المتصلة بالحيوانات ذات القيمة العالية، مثل إبل المزاين. وترى المدينة أن هذا المشروع ينسجم مع طموحات المملكة في أن تكون مركزًا إقليميًا وعالميًا في مجال التقنية الحيوية والبحث العلمي، ويُعد خطوة عملية نحو بناء مجتمع قائم على الابتكار والمعرفة، ويُوظّف التقنية الحديثة لخدمة القطاعات التراثية والاقتصادية على حد سواء.

الصين تقترح إنشاء منظمة عالمية للتعاون في مجال الذكاء الاصطناعي
الصين تقترح إنشاء منظمة عالمية للتعاون في مجال الذكاء الاصطناعي

العربية

timeمنذ 6 ساعات

  • العربية

الصين تقترح إنشاء منظمة عالمية للتعاون في مجال الذكاء الاصطناعي

اقترح رئيس الوزراء الصيني لي تشيانغ، يوم السبت، إنشاء منظمة عالمية للتعاون في مجال الذكاء الاصطناعي ، داعيًا الدول إلى تنسيق تطوير وتأمين هذه التكنولوجيا سريعة التطور. وفي كلمته خلال افتتاح المؤتمر العالمي للذكاء الاصطناعي السنوي في شنغهاي، وصف لي الذكاء الاصطناعي بأنه محرك جديد للنمو، لكنه قال إن الحوكمة مجزأة، وشدد على ضرورة تكثيف التنسيق بين الدول من أجل تشكيل إطار عمل معترف به عالميًا للذكاء الاصطناعي، بحسب "رويترز". ويجمع هذا الحدث، الذي يستمر ثلاثة أيام، قادة الصناعة وصناع السياسات في وقت تتصاعد فيه المنافسة التكنولوجية بين الصين والولايات المتحدة، حيث يبرز الذكاء الاصطناعي كساحة معركة رئيسية بين أكبر اقتصادين في العالم. وفرضت واشنطن قيودًا على تصدير التكنولوجيا المتقدمة إلى الصين، بما في ذلك رقائق الذكاء الاصطناعي ومعدات تصنيع الرقائق، معللة ذلك بمخاوف من أن هذه التكنولوجيا قد تعزز القدرات العسكرية للصين. ورغم هذه القيود، واصلت الصين تحقيق إنجازات في مجال الذكاء الاصطناعي، مما استدعى مراقبة دقيقة من المسؤولين الأميركيين. وقال لي إن تقنيات الذكاء الاصطناعي تتطور بسرعة، لكنها تواجه قيودًا، مثل نقص رقائق الحوسبة المتقدمة والقيود المفروضة على تبادل المواهب. ودعا إلى كسر العوائق أمام الابتكار المفتوح والمنسق.

كيف نروّض الذكاء الاصطناعي ونسخّر قوته بأمان؟
كيف نروّض الذكاء الاصطناعي ونسخّر قوته بأمان؟

أرقام

timeمنذ 7 ساعات

  • أرقام

كيف نروّض الذكاء الاصطناعي ونسخّر قوته بأمان؟

- في خضم تسارع لا يرحم لوتيرة التقدم التقني، يقف الذكاء الاصطناعي شامخاً، حاملاً في طياته وعوداً بالغة الإغراء بقدر ما يكتنفه من مخاطر وجودية قد تعصف بمستقبلنا إن لم يتم ترويضها بحكمة وبصيرة. - وفيما تتسابق المؤسسات على تبنيه بوتيرة غير مسبوقة – حيث تشير "ماكينزي" إلى أن 72% من الشركات باتت تعتمد عليه بشكل أو بآخر – لم يعد غض الطرف عن جانبه المظلم ترفاً، بل ضرباً من العبث. - من هنا، تبرز "إدارة مخاطر الذكاء الاصطناعي" ليس كمصطلح تقني معقّد، بل كبوصلة لا غنى عنها لتوجيه سفينة الابتكار نحو بر الأمان. - إنها المنهجية التي تهدف إلى استشراف المخاطر الكامنة وتطويقها ومعالجتها، لضمان تعظيم المنافع والحدّ من الأضرار إلى أبعد مدى ممكن. الحوكمة وإدارة المخاطر: رسم الحدود قبل انطلاق السباق لا بد أولاً من التمييز الدقيق بين مفهومين متلازمين، لتبديد اللبس وتوضيح الصورة الكاملة: - حوكمة الذكاء الاصطناعي: هي الإطار التشريعي والأخلاقي الأشمل، أو "الدستور" الذي يضع القواعد والمعايير لضمان عمل هذه التقنية في خدمة البشرية، وتعزيز قيم العدالة والسلامة وصون حقوق الإنسان. للاطلاع على المزيد من المواضيع والتقارير في صفحة مختارات أرقام - إدارة مخاطر الذكاء الاصطناعي: هي الذراع التنفيذية تحت مظلة الحوكمة، والتي تركز بشكل دقيق على اكتشاف الثغرات والتهديدات في الأنظمة القائمة والمستقبلية، وتطبيق استراتيجيات محكمة لتحصينها. بعبارة أخرى، تضع الحوكمة "قانون السير"، وإدارة المخاطر تتأكد من أن "المركبات" على الطريق آمنة وقادرة على مواجهة أي طارئ. جرس إنذار: فجوة الثقة التي قد تكلف العالم غالياً - إن حمى السباق نحو تبني الذكاء الاصطناعي دفعت الكثيرين إلى تجاهل محاذيره. ويكشف استطلاع حديث أجراه معهد "آي بي إم" لقيمة الأعمال عن مفارقة مقلقة: فبينما يقر 96% من القادة بأن الذكاء الاصطناعي التوليدي يفاقم خطر الاختراقات الأمنية، فإن 24% فقط من المشاريع القائمة تتمتع بتحصين كافٍ. - تُعد هذه الفجوة الهائلة بين إدراك الخطر وحجم الاستجابة له، بمثابة قنبلة موقوتة تهدد بفقدان البيانات، وتشويه السمعة، وتكبيد المؤسسات عقوبات تنظيمية باهظة، والأهم من كل ذلك، تراجع ثقة الجمهور، وهي الأصل الذي لا يقدر بثمن. كشف الستار عن المخاطر: ما الذي يختبئ في "الصندوق الأسود"؟ يمكن تصنيف المخاطر التي يشكّلها الذكاء الاصطناعي ضمن 4 فئات رئيسية مترابطة: فئات المخاطر التي يشكّلها الذكاء الاصطناعي 1. مخاطر البيانات: وقود الثورة الرقمية... وسُمُّها القاتل من المعروف أن البيانات هي شريان الحياة لأنظمة الذكاء الاصطناعي، وأي شائبة فيها قد تؤدي إلى نتائج كارثية. - الأمن والخصوصية: لا يعني اختراق هذه الأنظمة مجرد سرقة معلومات، بل هو انتهاك صريح لخصوصية الأفراد قد يفتح أبواب الجحيم على الصعيدين القانوني والتنظيمي. - البيانات المتحيزة: حين تتغذى الخوارزميات على بيانات تعكس تحيزات مجتمعية قائمة (كالتمييز في التوظيف)، فإنها لا تكتفي بتكرار هذا الظلم، بل تعمل على تضخيمه وتكريسه، فتصدر قرارات جائرة وممنهجة. 2. مخاطر النماذج: عندما يتم خداع العقل الرقمي يستطيع المخترقون استهداف "عقل" الذكاء الاصطناعي مباشرةً وبأساليب ماكرة. - الهجمات العدائية وحقن الأوامر: يمكن للمخترقين التلاعب بالمدخلات لخداع النموذج، كأن يتم إقناع سيارة ذاتية القيادة بأن إشارة "قف" هي "انطلق"، أو دفع روبوت محادثة لتجاوز قيوده ونشر معلومات مضللة أو إفشاء أسرار حساسة. - معضلة "الصندوق الأسود": إن غموض آليات عمل العديد من النماذج المعقدة - حتى بالنسبة لصانعيها - يجعل من العسير تتبع أخطائها أو اكتشاف تحيزاتها، ويقوّض أي محاولة للمساءلة والشفافية. 3. المخاطر التشغيلية: أعطال ما خلف الكواليس في نهاية المطاف، يبقى الذكاء الاصطناعي برنامجاً عرضة للأخطاء الفنية. - تدهور الأداء (Drift): العالم متغير بطبعه، وإذا لم يتم تحديث النموذج باستمرار ليتواءم مع الواقع الجديد، فإنه يفقد دقته ويصبح غير ملم بالمستجدات، كحال نموذج كشف احتيال مالي لم يعد قادراً على رصد الأساليب المبتكرة. - فوضى التكامل والمساءلة: قد يؤدي دمج أنظمة الذكاء الاصطناعي مع البنى الأساسية القديمة إلى خلق منافذ جديدة للاختراق، والأسوأ من ذلك هو غياب هياكل حوكمة واضحة تجعل السؤال الأهم "من المسؤول عند وقوع الكارثة؟" بلا إجابة. 4. المخاطر الأخلاقية والقانونية: أزمة الضمير الرقمي هنا تدخل التقنية في مواجهة مباشرة مع القيم الإنسانية. - التحيزات الخوارزمية: يمكن للذكاء الاصطناعي أن يصبح أداة لترسيخ التمييز في قطاعات مصيرية كالقروض البنكية، والرعاية الصحية، والعدالة الجنائية. - اللوائح التنظيمية: في ظل قوانين صارمة مثل "اللائحة العامة لحماية البيانات" الأوروبية، فإن أي إخفاق في الامتثال قد يؤدي إلى غرامات فلكية تصل إلى ملايين الدولارات.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store