
امن الذكاء الاصطناعي العسكري يتحول الى خط الدفاع الاول في الحروب الحديثة
يقول الدكتور محمد محسن رمضان، محاضر في الأمن السيبراني في الأكاديمية العسكرية المصرية، في تصريحات:"إن الجيوش الكبرى اليوم تستخدم الذكاء الاصطناعي في تحليل البيانات الاستخباراتية، وتوجيه الطائرات بدون طيار، وتشغيل أنظمة الدفاع الصاروخي، وإدارة الروبوتات القتالية، بل وحتى اتخاذ قرارات قتالية مستقلة دون تدخل بشري مباشر، هذا التحول الرقمي في الميدان العسكري منح الجيوش تفوقاً غير مسبوق في السرعة والدقة، لكن في المقابل، خلق ثغرة أمنية خطيرة: ماذا لو وقعت هذه الأنظمة في أيدي العدو؟.
وتابع : الذكاء الاصطناعي في الجيوش قوة غير محصّنة بالكامل، رغم ما توفره هذه الأنظمة من قدرات خارقة، إلا أن اعتمادها على الخوارزميات والتقنيات الرقمية يجعلها عرضة للاختراق السيبراني، وشبكات الاتصال، ومراكز البيانات، والأقمار الصناعية، وحتى البرمجيات نفسها قد تُستهدف من قبل قراصنة محترفين أو جهات استخباراتية معادية، ففي حال نجاح أي اختراق، فإن النتائج تكون كارثية، حيث يتم السيطرة على الطائرات المسيرة وتحويلها إلى أدوات قتل موجهة نحو أهداف مدنية أو صديقة، وتعطيل أنظمة الدفاع الجوي في توقيت حرج، مما يفتح المجال أمام هجمات مدمرة، والتلاعب بقرارات أنظمة ذاتية التشغيل مثل الروبوتات القتالية، لتهاجم قواتها بدلاً من العدو، وتسريب بيانات استخباراتية حساسة أو استغلال الذكاء الاصطناعي نفسه في جمع المعلومات لصالح العدو.
نقطة ضعف في بعض الحالات
وأشار محمد محسن رمضان، إلى أن ما كان يُعتقد أنه سيناريو خيالي أصبح واقعاً، ففي عام 2011، أعلنت إيران إسقاط طائرة أمريكية بدون طيار من طراز RQ-170 باستخدام هجوم إلكتروني، وفي عام 2021، تم تسجيل هجمات سيبرانية استهدفت أنظمة عسكرية في الشرق الأوسط، بينما تعرضت أنظمة دفاع أميركية لاختبارات فاشلة عام 2020 بسبب اختراق إلكتروني أثناء المحاكاة القتالية، هذه الحوادث تكشف بوضوح أن الذكاء الاصطناعي العسكري ليس محصناً، بل إنه، في بعض الحالات، يشكل نقطة ضعف أكثر مما هو ميزة.
كيف يتم تنفيذ هذه الهجمات؟
وكشف المتحدث، أن الهجمات السيبرانية على الأنظمة العسكرية الذكية تعتمد على مجموعة من الأساليب، منها الهجوم عبر الشبكات المفتوحة أو غير المؤمنة بالكامل وزرع برمجيات خبيثة داخل برمجيات أو معدات يتم توريدها للجيوش والهندسة الاجتماعية لاستدراج عناصر بشرية داخل المؤسسة العسكرية واستغلال سلاسل التوريد واختراق الموردين قبل وصول الأنظمة إلى الجيش.
وحول الحلول لمواجهة نقاط الضعف، يقول مساعد أول وزير الداخلية الأسبق، اللواء أبوبكر عبدالكريم ، في تصريحات : يجب أن يتوافر أمن سيبراني يوازي الذكاء الاصطناعي في القوة لحماية هذه الأنظمة، لابد من دمج الأمن السيبراني في صميم التصميم العسكري، ومن أهم التدابير، الاعتماد على شبكات مغلقة غير متصلة بالإنترنت لتقليل خطر الاختراق الخارجي، وتطوير أنظمة ذكاء اصطناعي ذاتية الحماية قادرة على اكتشاف الهجمات والرد عليها لحظياً، وتدريب الضباط والجنود على أساليب الأمن السيبراني والهندسة الاجتماعية.
"أمن الذكاء الإصطناعي العسكري ليس ترفا"
وتابع: بالإضافة إلى إنشاء مراكز عمليات أمنية (SOC) مخصصة للمجال العسكري، قادرة على الرصد والتفاعل الفوري والتعاون الدولي لوضع معايير أخلاقية وتقنية لحماية الذكاء الاصطناعي العسكري ومنع استخدامه في الحروب السيبرانية العدائية، حيث إن أمن الذكاء الاصطناعي العسكري ليس ترفاً تقنياً، بل ضرورة وطنية لحماية السيادة والدفاع عن الأرض والإنسان، وفي معركة أصبحت تُخاض بالخوارزميات، فإن درع الدولة الحقيقي هو أمنها السيبراني.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المغرب اليوم
منذ 3 أيام
- المغرب اليوم
مصريون يحذرون من "الذكاء الاصطناعي المظلم" بسبب أدوات خبيثة تُنتج جرائم رقمية بسرعة ودقة مخيفة
حذر خبراء مصريون في مجال الأمن السيبراني من التهديدات المتزايدة لما يُعرف بـ" الذكاء الاصطناعي المظلم"، مؤكدين أن هذه التكنولوجيا لم تعد مجرد سيناريو مستقبلي، بل أصبحت واقعًا يُستغل بالفعل في تنفيذ جرائم إلكترونية معقدة ومتطورة. وقال محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، إن الذكاء الاصطناعي المظلم يتمثل في استغلال تقنيات الذكاء الاصطناعي لأغراض إجرامية مثل التصيد الاحتيالي المتطور، والتزييف العميق، وإنشاء برمجيات خبيثة قادرة على التخفي والتطور الذاتي. وأوضح أن "هذه الهجمات أصبحت أكثر تعقيدًا وذكاءً، حيث تُستخدم نماذج الذكاء الاصطناعي في صياغة رسائل تصيد إلكتروني بالغة الإقناع، واستنساخ مواقع إلكترونية رسمية لخداع المستخدمين، والتلاعب بالصوت والصورة لانتحال شخصيات معروفة. كل هذا يتم بسرعة ودقة عالية، دون الحاجة إلى خبرة تقنية متقدمة، ما يزيد من خطورة التهديد". وأشار رمضان إلى أن منصات الإنترنت المظلم بدأت منذ أواخر 2022 – بالتزامن مع إطلاق ChatGPT – في استنساخ وتعديل نماذج الذكاء الاصطناعي واستخدامها في تطوير أدوات إجرامية، مثل: WormGPT: منصة مفتوحة المصدر تُنتج برمجيات فدية وأكواد ضارة. FraudGPT: تُستخدم لإنشاء رسائل تصيد احترافي وتطوير أدوات اختراق. AutoGPT: لتدريب النماذج على تنفيذ أهداف خبيثة بشكل ذاتي دون تدخل بشري. FreedomGPT: مولّد محتوى غير خاضع للرقابة يُستخدم في أنشطة خطيرة دون اتصال بالإنترنت. وأكد أن هذه الأدوات تُسوّق على الدارك ويب كخدمات اشتراك شهري، ما يجعلها في متناول الجميع، وليس فقط القراصنة المحترفين. ولفت إلى أن الجريمة السيبرانية أصبحت تميل إلى التحول من عمليات مركّبة ونادرة إلى ظاهرة رقمية يومية قد تطال أي مستخدم بسيط. وأضاف أن تقارير شركات عالمية مثل CrowdStrike وGartner تؤكد تصاعد استخدام الذكاء الاصطناعي في الهجمات السيبرانية المتقدمة، بينما سجلت Acronis تضاعف عدد هجمات التزييف العميق والتصيد بنسبة 200%، فيما حذّرت غوغل من استغلال نموذج "Gemini" من قبل جهات مدعومة حكوميًا. من جانبه، صرّح اللواء خالد حمدي، مساعد أول وزير الداخلية الأسبق وخبير الأمن القومي، بأن "ما نواجهه اليوم هو طفرة في نوعية التهديدات الرقمية، حيث يتحرك ذكاء اصطناعي بلا ضمير في ظلام الإنترنت لتنفيذ هجمات يصعب رصدها أو التصدي لها بالوسائل التقليدية". وشدد حمدي على ضرورة بناء وعي سيبراني شامل لدى الأفراد والمؤسسات، إلى جانب اعتماد أدوات دفاع رقمية ذكية واستباقية وتشديد الرقابة على تطوير واستخدام تطبيقات الذكاء الاصطناعي. وختم تصريحه بالتحذير قائلاً: "قبل أن تضغط على رابط أو تفتح رسالة بريد إلكتروني، اسأل نفسك: هل أنا الهدف؟ الذكاء الاصطناعي قد يكون سبب اختراقك. الحل ليس في الخوف، بل في المعرفة والتأهب وبناء حصانة رقمية متكاملة".


المغرب اليوم
منذ 3 أيام
- المغرب اليوم
امن الذكاء الاصطناعي العسكري يتحول الى خط الدفاع الاول في الحروب الحديثة
لم تعد الحروب الحديثة تدار فقط بالصواريخ والدبابات، بل أصبحت تقاد من داخل غرف الخوادم وبواسطة خوارزميات الذكاء الاصطناعي. ففي زمن أصبحت فيه الجيوش تعتمد على الأنظمة الذكية في اتخاذ القرارات، بات أمن هذه الأنظمة مسألة "حياة أو دمار".. فهل أصبح الهاكرز هو جندي المعارك؟. يقول الدكتور محمد محسن رمضان، محاضر في الأمن السيبراني في الأكاديمية العسكرية المصرية، في تصريحات:"إن الجيوش الكبرى اليوم تستخدم الذكاء الاصطناعي في تحليل البيانات الاستخباراتية، وتوجيه الطائرات بدون طيار، وتشغيل أنظمة الدفاع الصاروخي، وإدارة الروبوتات القتالية، بل وحتى اتخاذ قرارات قتالية مستقلة دون تدخل بشري مباشر، هذا التحول الرقمي في الميدان العسكري منح الجيوش تفوقاً غير مسبوق في السرعة والدقة، لكن في المقابل، خلق ثغرة أمنية خطيرة: ماذا لو وقعت هذه الأنظمة في أيدي العدو؟. وتابع : الذكاء الاصطناعي في الجيوش قوة غير محصّنة بالكامل، رغم ما توفره هذه الأنظمة من قدرات خارقة، إلا أن اعتمادها على الخوارزميات والتقنيات الرقمية يجعلها عرضة للاختراق السيبراني، وشبكات الاتصال، ومراكز البيانات، والأقمار الصناعية، وحتى البرمجيات نفسها قد تُستهدف من قبل قراصنة محترفين أو جهات استخباراتية معادية، ففي حال نجاح أي اختراق، فإن النتائج تكون كارثية، حيث يتم السيطرة على الطائرات المسيرة وتحويلها إلى أدوات قتل موجهة نحو أهداف مدنية أو صديقة، وتعطيل أنظمة الدفاع الجوي في توقيت حرج، مما يفتح المجال أمام هجمات مدمرة، والتلاعب بقرارات أنظمة ذاتية التشغيل مثل الروبوتات القتالية، لتهاجم قواتها بدلاً من العدو، وتسريب بيانات استخباراتية حساسة أو استغلال الذكاء الاصطناعي نفسه في جمع المعلومات لصالح العدو. نقطة ضعف في بعض الحالات وأشار محمد محسن رمضان، إلى أن ما كان يُعتقد أنه سيناريو خيالي أصبح واقعاً، ففي عام 2011، أعلنت إيران إسقاط طائرة أمريكية بدون طيار من طراز RQ-170 باستخدام هجوم إلكتروني، وفي عام 2021، تم تسجيل هجمات سيبرانية استهدفت أنظمة عسكرية في الشرق الأوسط، بينما تعرضت أنظمة دفاع أميركية لاختبارات فاشلة عام 2020 بسبب اختراق إلكتروني أثناء المحاكاة القتالية، هذه الحوادث تكشف بوضوح أن الذكاء الاصطناعي العسكري ليس محصناً، بل إنه، في بعض الحالات، يشكل نقطة ضعف أكثر مما هو ميزة. كيف يتم تنفيذ هذه الهجمات؟ وكشف المتحدث، أن الهجمات السيبرانية على الأنظمة العسكرية الذكية تعتمد على مجموعة من الأساليب، منها الهجوم عبر الشبكات المفتوحة أو غير المؤمنة بالكامل وزرع برمجيات خبيثة داخل برمجيات أو معدات يتم توريدها للجيوش والهندسة الاجتماعية لاستدراج عناصر بشرية داخل المؤسسة العسكرية واستغلال سلاسل التوريد واختراق الموردين قبل وصول الأنظمة إلى الجيش. وحول الحلول لمواجهة نقاط الضعف، يقول مساعد أول وزير الداخلية الأسبق، اللواء أبوبكر عبدالكريم ، في تصريحات : يجب أن يتوافر أمن سيبراني يوازي الذكاء الاصطناعي في القوة لحماية هذه الأنظمة، لابد من دمج الأمن السيبراني في صميم التصميم العسكري، ومن أهم التدابير، الاعتماد على شبكات مغلقة غير متصلة بالإنترنت لتقليل خطر الاختراق الخارجي، وتطوير أنظمة ذكاء اصطناعي ذاتية الحماية قادرة على اكتشاف الهجمات والرد عليها لحظياً، وتدريب الضباط والجنود على أساليب الأمن السيبراني والهندسة الاجتماعية. "أمن الذكاء الإصطناعي العسكري ليس ترفا" وتابع: بالإضافة إلى إنشاء مراكز عمليات أمنية (SOC) مخصصة للمجال العسكري، قادرة على الرصد والتفاعل الفوري والتعاون الدولي لوضع معايير أخلاقية وتقنية لحماية الذكاء الاصطناعي العسكري ومنع استخدامه في الحروب السيبرانية العدائية، حيث إن أمن الذكاء الاصطناعي العسكري ليس ترفاً تقنياً، بل ضرورة وطنية لحماية السيادة والدفاع عن الأرض والإنسان، وفي معركة أصبحت تُخاض بالخوارزميات، فإن درع الدولة الحقيقي هو أمنها السيبراني.


برلمان
٠٥-٠٧-٢٠٢٥
- برلمان
خبراء أمنيون يحذرون من 'الذكاء الاصطناعي المظلم'
الخط : A- A+ إستمع للمقال في ظل التوسع السريع لتقنيات الذكاء الاصطناعي وسهولة استخدامها، لم تعد هذه الأدوات مقتصرة على المختبرات أو الأوساط الأكاديمية، بل باتت في متناول الجميع، بمن فيهم مجرمو الإنترنت، حيث يبرز في هذا السياق ما يُعرف بـ'الذكاء الاصطناعي المظلم'، وهو توظيف للذكاء الاصطناعي في ارتكاب جرائم رقمية متقدمة يصعب كشفها أو التصدي لها. وفي هذا السياق، يرى محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، أن الذكاء الاصطناعي المظلم لم يعد مجرد فكرة نظرية، بل أصبح واقعا ملموسا تتطور فيه الجرائم الرقمية بأشكال غير تقليدية. وأوضح في حديث لـ'العربية.نت' أن الهجمات الإلكترونية باتت تعتمد على أدوات متطورة قادرة على تنفيذ عمليات تصيّد احتيالي دقيقة يصعب تمييزها، كما يتم استنساخ مواقع إلكترونية رسمية لخداع المستخدمين، وتحليل سلوكهم لاكتشاف ثغراتهم النفسية والتقنية. مضيفا أن التكنولوجيا نفسها تُستغل لانتحال الشخصيات عبر التلاعب بالصوت والصورة، وكل ذلك يتم بسرعة ودقة دون الحاجة إلى مهارات تقنية متقدمة، مما يضاعف من مستوى الخطر. من جهة أخرى، أشار رمضان إلى أن منصات 'الإنترنت المظلم' باتت تزدهر بأنظمة ذكاء اصطناعي معدلة لأغراض إجرامية، من أبرزها أداة 'WormGPT' القادرة على إنتاج برامج فدية، و'FraudGPT' التي تُستخدم في تصميم رسائل تصيّد وهجمات احتيال متقدمة، إلى جانب 'AutoGPT' التي تتيح تدريب النماذج على تنفيذ مهام خبيثة بشكل ذاتي، وأداة 'FreedomGPT' التي تعمل خارج أي إطار رقابي وتُنتج محتوى خطيراً حتى دون الاتصال بالإنترنت. ولفت إلى أن هذه الأدوات تُباع على شكل اشتراكات شهرية على الدارك ويب، ما يجعلها متاحة بسهولة لشرائح أوسع من المستخدمين، بمن فيهم المبتدئون. وفي ظل هذا الانتشار، حذر الخبير المصري من أن هذه الأدوات لم تعد حكرا على القراصنة المحترفين، بل أصبحت في متناول الجميع، ما ينذر بتحول الجريمة السيبرانية إلى ظاهرة يومية. وأشار إلى أن تقارير لشركات أمن معلومات دولية تُنذر بالخطر، من بينها تقرير 'CrowdStrike' الذي رصد زيادة في الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، بينما وضعت مؤسسة 'Gartner' هذا النوع من الهجمات ضمن أخطر التهديدات على المؤسسات. كما كشفت شركة غوغل عن محاولات استغلال لنموذجها الذكي 'Gemini' من طرف جهات مدعومة حكوميا، فيما سجلت شركة 'Acronis' ارتفاعا بنسبة 200% في هجمات التصيّد والتزييف العميق. من جهته، اعتبر اللواء خالد حمدي، مساعد أول وزير الداخلية الأسبق والخبير الأمني، أن العالم يواجه طفرة غير مسبوقة في طبيعة التهديدات الرقمية، تقودها تقنيات ذكاء اصطناعي بلا رقابة أو ضوابط أخلاقية، تُستخدم في تنفيذ هجمات دقيقة يصعب التنبؤ بها أو مواجهتها بالأساليب التقليدية. وشدد على ضرورة بناء وعي سيبراني جماعي، وتبني أدوات دفاع رقمية استباقية، إلى جانب سنّ تشريعات وتنظيمات صارمة تضبط استخدام هذه التقنيات. وأكد حمدي أن الذكاء الاصطناعي قد يتحول من أداة حماية إلى سبب مباشر للاختراق، داعيا المستخدمين إلى الحذر والتيقظ قبل فتح أي بريد إلكتروني أو الضغط على روابط غير موثوقة. فيما ختم حديثه بالتشديد على أن التهديد لا يكمن في المستقبل، بل في الحاضر، فـ'الذكاء الاصطناعي المظلم واقع نعيشه اليوم، ولا يمكن التصدي له بالخوف، بل بالمعرفة واليقظة وبناء دفاع رقمي ذكي ومتكامل'.