
مصريون يحذرون من "الذكاء الاصطناعي المظلم" بسبب أدوات خبيثة تُنتج جرائم رقمية بسرعة ودقة مخيفة
وقال محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، إن الذكاء الاصطناعي المظلم يتمثل في استغلال تقنيات الذكاء الاصطناعي لأغراض إجرامية مثل التصيد الاحتيالي المتطور، والتزييف العميق، وإنشاء برمجيات خبيثة قادرة على التخفي والتطور الذاتي.
وأوضح أن "هذه الهجمات أصبحت أكثر تعقيدًا وذكاءً، حيث تُستخدم نماذج الذكاء الاصطناعي في صياغة رسائل تصيد إلكتروني بالغة الإقناع، واستنساخ مواقع إلكترونية رسمية لخداع المستخدمين، والتلاعب بالصوت والصورة لانتحال شخصيات معروفة. كل هذا يتم بسرعة ودقة عالية، دون الحاجة إلى خبرة تقنية متقدمة، ما يزيد من خطورة التهديد".
وأشار رمضان إلى أن منصات الإنترنت المظلم بدأت منذ أواخر 2022 – بالتزامن مع إطلاق ChatGPT – في استنساخ وتعديل نماذج الذكاء الاصطناعي واستخدامها في تطوير أدوات إجرامية، مثل:
WormGPT: منصة مفتوحة المصدر تُنتج برمجيات فدية وأكواد ضارة.
FraudGPT: تُستخدم لإنشاء رسائل تصيد احترافي وتطوير أدوات اختراق.
AutoGPT: لتدريب النماذج على تنفيذ أهداف خبيثة بشكل ذاتي دون تدخل بشري.
FreedomGPT: مولّد محتوى غير خاضع للرقابة يُستخدم في أنشطة خطيرة دون اتصال بالإنترنت.
وأكد أن هذه الأدوات تُسوّق على الدارك ويب كخدمات اشتراك شهري، ما يجعلها في متناول الجميع، وليس فقط القراصنة المحترفين. ولفت إلى أن الجريمة السيبرانية أصبحت تميل إلى التحول من عمليات مركّبة ونادرة إلى ظاهرة رقمية يومية قد تطال أي مستخدم بسيط.
وأضاف أن تقارير شركات عالمية مثل CrowdStrike وGartner تؤكد تصاعد استخدام الذكاء الاصطناعي في الهجمات السيبرانية المتقدمة، بينما سجلت Acronis تضاعف عدد هجمات التزييف العميق والتصيد بنسبة 200%، فيما حذّرت غوغل من استغلال نموذج "Gemini" من قبل جهات مدعومة حكوميًا.
من جانبه، صرّح اللواء خالد حمدي، مساعد أول وزير الداخلية الأسبق وخبير الأمن القومي، بأن "ما نواجهه اليوم هو طفرة في نوعية التهديدات الرقمية، حيث يتحرك ذكاء اصطناعي بلا ضمير في ظلام الإنترنت لتنفيذ هجمات يصعب رصدها أو التصدي لها بالوسائل التقليدية".
وشدد حمدي على ضرورة بناء وعي سيبراني شامل لدى الأفراد والمؤسسات، إلى جانب اعتماد أدوات دفاع رقمية ذكية واستباقية وتشديد الرقابة على تطوير واستخدام تطبيقات الذكاء الاصطناعي.
وختم تصريحه بالتحذير قائلاً: "قبل أن تضغط على رابط أو تفتح رسالة بريد إلكتروني، اسأل نفسك: هل أنا الهدف؟ الذكاء الاصطناعي قد يكون سبب اختراقك. الحل ليس في الخوف، بل في المعرفة والتأهب وبناء حصانة رقمية متكاملة".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المغرب اليوم
منذ يوم واحد
- المغرب اليوم
مصريون يحذرون من "الذكاء الاصطناعي المظلم" بسبب أدوات خبيثة تُنتج جرائم رقمية بسرعة ودقة مخيفة
حذر خبراء مصريون في مجال الأمن السيبراني من التهديدات المتزايدة لما يُعرف بـ" الذكاء الاصطناعي المظلم"، مؤكدين أن هذه التكنولوجيا لم تعد مجرد سيناريو مستقبلي، بل أصبحت واقعًا يُستغل بالفعل في تنفيذ جرائم إلكترونية معقدة ومتطورة. وقال محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، إن الذكاء الاصطناعي المظلم يتمثل في استغلال تقنيات الذكاء الاصطناعي لأغراض إجرامية مثل التصيد الاحتيالي المتطور، والتزييف العميق، وإنشاء برمجيات خبيثة قادرة على التخفي والتطور الذاتي. وأوضح أن "هذه الهجمات أصبحت أكثر تعقيدًا وذكاءً، حيث تُستخدم نماذج الذكاء الاصطناعي في صياغة رسائل تصيد إلكتروني بالغة الإقناع، واستنساخ مواقع إلكترونية رسمية لخداع المستخدمين، والتلاعب بالصوت والصورة لانتحال شخصيات معروفة. كل هذا يتم بسرعة ودقة عالية، دون الحاجة إلى خبرة تقنية متقدمة، ما يزيد من خطورة التهديد". وأشار رمضان إلى أن منصات الإنترنت المظلم بدأت منذ أواخر 2022 – بالتزامن مع إطلاق ChatGPT – في استنساخ وتعديل نماذج الذكاء الاصطناعي واستخدامها في تطوير أدوات إجرامية، مثل: WormGPT: منصة مفتوحة المصدر تُنتج برمجيات فدية وأكواد ضارة. FraudGPT: تُستخدم لإنشاء رسائل تصيد احترافي وتطوير أدوات اختراق. AutoGPT: لتدريب النماذج على تنفيذ أهداف خبيثة بشكل ذاتي دون تدخل بشري. FreedomGPT: مولّد محتوى غير خاضع للرقابة يُستخدم في أنشطة خطيرة دون اتصال بالإنترنت. وأكد أن هذه الأدوات تُسوّق على الدارك ويب كخدمات اشتراك شهري، ما يجعلها في متناول الجميع، وليس فقط القراصنة المحترفين. ولفت إلى أن الجريمة السيبرانية أصبحت تميل إلى التحول من عمليات مركّبة ونادرة إلى ظاهرة رقمية يومية قد تطال أي مستخدم بسيط. وأضاف أن تقارير شركات عالمية مثل CrowdStrike وGartner تؤكد تصاعد استخدام الذكاء الاصطناعي في الهجمات السيبرانية المتقدمة، بينما سجلت Acronis تضاعف عدد هجمات التزييف العميق والتصيد بنسبة 200%، فيما حذّرت غوغل من استغلال نموذج "Gemini" من قبل جهات مدعومة حكوميًا. من جانبه، صرّح اللواء خالد حمدي، مساعد أول وزير الداخلية الأسبق وخبير الأمن القومي، بأن "ما نواجهه اليوم هو طفرة في نوعية التهديدات الرقمية، حيث يتحرك ذكاء اصطناعي بلا ضمير في ظلام الإنترنت لتنفيذ هجمات يصعب رصدها أو التصدي لها بالوسائل التقليدية". وشدد حمدي على ضرورة بناء وعي سيبراني شامل لدى الأفراد والمؤسسات، إلى جانب اعتماد أدوات دفاع رقمية ذكية واستباقية وتشديد الرقابة على تطوير واستخدام تطبيقات الذكاء الاصطناعي. وختم تصريحه بالتحذير قائلاً: "قبل أن تضغط على رابط أو تفتح رسالة بريد إلكتروني، اسأل نفسك: هل أنا الهدف؟ الذكاء الاصطناعي قد يكون سبب اختراقك. الحل ليس في الخوف، بل في المعرفة والتأهب وبناء حصانة رقمية متكاملة".


المغرب اليوم
منذ يوم واحد
- المغرب اليوم
امن الذكاء الاصطناعي العسكري يتحول الى خط الدفاع الاول في الحروب الحديثة
لم تعد الحروب الحديثة تدار فقط بالصواريخ والدبابات، بل أصبحت تقاد من داخل غرف الخوادم وبواسطة خوارزميات الذكاء الاصطناعي. ففي زمن أصبحت فيه الجيوش تعتمد على الأنظمة الذكية في اتخاذ القرارات، بات أمن هذه الأنظمة مسألة "حياة أو دمار".. فهل أصبح الهاكرز هو جندي المعارك؟. يقول الدكتور محمد محسن رمضان، محاضر في الأمن السيبراني في الأكاديمية العسكرية المصرية، في تصريحات:"إن الجيوش الكبرى اليوم تستخدم الذكاء الاصطناعي في تحليل البيانات الاستخباراتية، وتوجيه الطائرات بدون طيار، وتشغيل أنظمة الدفاع الصاروخي، وإدارة الروبوتات القتالية، بل وحتى اتخاذ قرارات قتالية مستقلة دون تدخل بشري مباشر، هذا التحول الرقمي في الميدان العسكري منح الجيوش تفوقاً غير مسبوق في السرعة والدقة، لكن في المقابل، خلق ثغرة أمنية خطيرة: ماذا لو وقعت هذه الأنظمة في أيدي العدو؟. وتابع : الذكاء الاصطناعي في الجيوش قوة غير محصّنة بالكامل، رغم ما توفره هذه الأنظمة من قدرات خارقة، إلا أن اعتمادها على الخوارزميات والتقنيات الرقمية يجعلها عرضة للاختراق السيبراني، وشبكات الاتصال، ومراكز البيانات، والأقمار الصناعية، وحتى البرمجيات نفسها قد تُستهدف من قبل قراصنة محترفين أو جهات استخباراتية معادية، ففي حال نجاح أي اختراق، فإن النتائج تكون كارثية، حيث يتم السيطرة على الطائرات المسيرة وتحويلها إلى أدوات قتل موجهة نحو أهداف مدنية أو صديقة، وتعطيل أنظمة الدفاع الجوي في توقيت حرج، مما يفتح المجال أمام هجمات مدمرة، والتلاعب بقرارات أنظمة ذاتية التشغيل مثل الروبوتات القتالية، لتهاجم قواتها بدلاً من العدو، وتسريب بيانات استخباراتية حساسة أو استغلال الذكاء الاصطناعي نفسه في جمع المعلومات لصالح العدو. نقطة ضعف في بعض الحالات وأشار محمد محسن رمضان، إلى أن ما كان يُعتقد أنه سيناريو خيالي أصبح واقعاً، ففي عام 2011، أعلنت إيران إسقاط طائرة أمريكية بدون طيار من طراز RQ-170 باستخدام هجوم إلكتروني، وفي عام 2021، تم تسجيل هجمات سيبرانية استهدفت أنظمة عسكرية في الشرق الأوسط، بينما تعرضت أنظمة دفاع أميركية لاختبارات فاشلة عام 2020 بسبب اختراق إلكتروني أثناء المحاكاة القتالية، هذه الحوادث تكشف بوضوح أن الذكاء الاصطناعي العسكري ليس محصناً، بل إنه، في بعض الحالات، يشكل نقطة ضعف أكثر مما هو ميزة. كيف يتم تنفيذ هذه الهجمات؟ وكشف المتحدث، أن الهجمات السيبرانية على الأنظمة العسكرية الذكية تعتمد على مجموعة من الأساليب، منها الهجوم عبر الشبكات المفتوحة أو غير المؤمنة بالكامل وزرع برمجيات خبيثة داخل برمجيات أو معدات يتم توريدها للجيوش والهندسة الاجتماعية لاستدراج عناصر بشرية داخل المؤسسة العسكرية واستغلال سلاسل التوريد واختراق الموردين قبل وصول الأنظمة إلى الجيش. وحول الحلول لمواجهة نقاط الضعف، يقول مساعد أول وزير الداخلية الأسبق، اللواء أبوبكر عبدالكريم ، في تصريحات : يجب أن يتوافر أمن سيبراني يوازي الذكاء الاصطناعي في القوة لحماية هذه الأنظمة، لابد من دمج الأمن السيبراني في صميم التصميم العسكري، ومن أهم التدابير، الاعتماد على شبكات مغلقة غير متصلة بالإنترنت لتقليل خطر الاختراق الخارجي، وتطوير أنظمة ذكاء اصطناعي ذاتية الحماية قادرة على اكتشاف الهجمات والرد عليها لحظياً، وتدريب الضباط والجنود على أساليب الأمن السيبراني والهندسة الاجتماعية. "أمن الذكاء الإصطناعي العسكري ليس ترفا" وتابع: بالإضافة إلى إنشاء مراكز عمليات أمنية (SOC) مخصصة للمجال العسكري، قادرة على الرصد والتفاعل الفوري والتعاون الدولي لوضع معايير أخلاقية وتقنية لحماية الذكاء الاصطناعي العسكري ومنع استخدامه في الحروب السيبرانية العدائية، حيث إن أمن الذكاء الاصطناعي العسكري ليس ترفاً تقنياً، بل ضرورة وطنية لحماية السيادة والدفاع عن الأرض والإنسان، وفي معركة أصبحت تُخاض بالخوارزميات، فإن درع الدولة الحقيقي هو أمنها السيبراني.


أخبارنا
منذ 2 أيام
- أخبارنا
دراسة: ChatGPT يُغيّر اللغة البشرية ويُهدد تنوعها الطبيعي
شهدت اللغة اليومية للبشر تغيرًا لافتًا في السنوات الأخيرة، نتيجة الانتشار السريع لاستخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، وعلى رأسها ChatGPT. فقد كشفت دراسة حديثة نشرت في موقع India Today أن البشر باتوا يميلون لاستخدام كلمات وتراكيب لغوية شبيهة بما تنتجه هذه الأدوات الذكية. وأشارت الدراسة إلى ظاهرة "حلقة التغذية الراجعة اللغوية"، حيث تعيد الآلات المدربة على اللغة البشرية إنتاجها بطريقة مُهذبة ومنظمة، فيبدأ البشر بدورهم في تقليد هذا الأسلوب خلال تواصلهم اليومي. ويعتبر المؤلف المشارك في الدراسة، هيرومو ياكورا، هذا التغير مقدمة لتحوّل أعمق في طريقة التواصل بين الناس. ولم يقتصر التأثير على الكلمات فقط، بل امتد ليشمل نبرة الحديث وبنيته، حيث لاحظ الباحثون أن الناس بدأوا يستخدمون جملًا أطول، أكثر رسمية وأقل عاطفية. هذا التحول يُفقد الحوار شيئًا من العفوية والحميمية، ويمنحه طابعًا "روبوتيًّا" أقرب إلى الصياغات التي تعتمدها أدوات الذكاء الاصطناعي. مع ذلك، يعترف الباحثون بأن هذا التحول لا يخلو من فوائد، مثل زيادة الكفاءة وتحسين جودة التفاعل، بفضل مزايا التصحيح التلقائي والردود الذكية. غير أن الاعتماد المتزايد على هذه الأدوات قد يؤدي إلى تراجع التنوّع اللغوي، وتآكل الطابع الإنساني الفريد للتواصل البشري.