logo
ثقافة : الإرهاب والذكاء الاصطناعى.. كتاب جديد يكشف الظاهرة ويوضح خطرها

ثقافة : الإرهاب والذكاء الاصطناعى.. كتاب جديد يكشف الظاهرة ويوضح خطرها

الجمعة 11 أبريل 2025 09:30 صباحاً
نافذة على العالم - يتناول مركز المسبار للدراسات والبحوث فى كتابه "الإرهاب والذكاء الاصطناعى.. الأدوات والمواجهات والمستقبل" الطرق التى توظّف فيها التنظيمات الإرهابية الذكاء الاصطناعى فى حملاتها الأيديولوجية والفكرية وتجنيد الأتباع، فيحدد آليات هذا التوظيف ومخاطره الراهنة والمستقبلية على أمن الدول واستقرار المجتمعات التى أصبحت التكنولوجيا الرقمية دعامة أساسية فى مواكبتها للعصر، ويطرح طرق مكافحة هذا التوظيف من الجهات الحكومية والرسمية والمجتمع المدنى.
فاتحة دراسات الكتاب قدمها الباحث المصرى محمود الطباخ، بحثت التوظيف المزدوج للذكاء الاصطناعى التوليدى، الذى أتاح للإرهابيين آليات جديدة لتعظيم تأثيرهم، مستفيدين من تقنياتهم التقليدية فى التشفير والتخفى، فقد أظهرت تحليلات مبادرة "التكنولوجيا ضد الإرهاب (Tech Against Terrorism)" أن التنظيمات المتطرفة استخدمت أدوات الذكاء الاصطناعى لإنتاج أكثر من (5000) مادة دعائية، تنوعت بين صور ورسوم متحركة وأناشيد تحريضية.
إلى جانب ذلك، استُخدم الذكاء الاصطناعى فى شن هجمات إلكترونية أكثر تعقيدًا، كان أبرزها حملة "مدفع الخلافة"، التى نفذ داعش عبرها هجمات حجب الخدمة الموزعة (DDoS) لاستهداف بنى تحتية حيوية.
ومع تطور التعلم الآلي، أصبح من الممكن أتمتة هذه الهجمات، مما يرفع مستوى التهديدات السيبرانية.
وبالتوازي، استغلت الجماعات الإرهابية المركبات ذاتية القيادة (Autonomous Vehicles) كأداة محتملة فى الهجمات، خصوصًا بعد النجاحات التى حققتها باستخدام السيارات المفخخة التقليدية، كما فى اعتداء برلين عام 2016 وبرشلونة عام 2017، ما يفتح الباب أمام سيناريوهات أكثر تطورًا مع انتشار المركبات الذكية.
أنشأ الإرهابيون منصات إخبارية زائفة، حيث أطلقت "ولاية خراسان" حملة تضليل إعلامى عبر التزييف العميق، وأنشأت داعش أناشيد جهادوية؛ عبر الذكاء الاصطناعى تستهدف تجنيد عناصر جديدة، وتظهر فى تطبيقات حاشدة بالمراهقين، فأصبح بالإمكان توليد صور ورسوم متحركة عالية الجودة بلمح البصر، دون الحاجة إلى مصممين محترفين أو وقت طويل للمعالجة.
استُهدف التجنيد بآلياتٍ متطورة، حيث نشرت مجموعات تابعة للقاعدة فى فبراير 2024 كتابًا إلكترونيًا بعنوان "طرق مذهلة لاستخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي"، كدليلٍ عملى لاستغلال هذه التقنية فى التأثير على المتعاطفين واستقطابهم. وتمكن متطرفون من اختراق نموذج «لاما" (LLaMa) الخاص بشركة ميتا، ما سمح لهم بتطوير روبوتات دردشة متخصصة فى نشر الأفكار المتطرفة، حيث ظهرت شخصيات ذكاء اصطناعى مثل "ترينيتي" (Trinity) ، التى روجت لخطابات الكراهية والتمييز العنصرى بأساليب متقنة.
لا يزال السباق بين الجماعات الإرهابية والجهات الأمنية فى مجال الذكاء الاصطناعى مفتوحًا، حيث تستفيد التنظيمات المتطرفة من كل تطور تقني، وتحاول باستمرار التكيف مع آليات المكافحة، يكمن التحدى الرئيس يكمن فى القدرة على استباق استراتيجيات الإرهاب الرقمي، ومنع التنظيمات من استغلال التقنيات الحديثة لصالحها، فى هذا السياق، لا يمكن الاكتفاء بالحلول التقليدية؛ إذ بات لزامًا على الجهات المعنية تعزيز قدراتها فى مجال الذكاء الاصطناعى، وتطوير أدوات أكثر تطورًا لكشف وردع النشاطات المتطرفة قبل أن تتحول إلى تهديدات فعلية.
حدّد الباحثون فى "المعهد الأميركى لمكافحة الإرهاب والقدرة على مواجهته" (American Counterterrorism Targeting and Resilience Institute) أرديان شايكوفسى (Ardian Shajkovci) ومايكل فانديلون (Michael Vandelune) وأليسون ماكدويل سميث (Allison McDowell-Smith) السُّبل والشبكات الخاصة الافتراضية التى اعتمد عليها داعش- وتنظيمات إرهابية أخرى- للتهرّب من المراقبة وإخفاء أنشطتها على الإنترنت، ولاحظوا تزايد استخدامهم الذكاء الاصطناعى والتقنيات الأكثر تقدّمًا فى الدعاية والتخطيط للعمليات والتجنيد، فقد تمكنت هذه التنظيمات من تطوير استراتيجيات استهداف متقدّمة، وتحليل كميات ضخمة من البيانات فى زمن وقوع الأحداث، وأتمتة (Automate) بعض المهام.
أما أستاذ القانون ومكافحة الإرهاب فى جامعة سوانسى (Swansea University) فى المملكة المتحدة، ستيوارت ماكدونالد (Stuart Macdonald)، فقد ركز على الذكاء الاصطناعى ومراقبة المحتوى الإرهابى على الإنترنت، فقدم فى دراسته لمحة عامّة عن مختلف أنواع أدوات مراقبة المحتوى الآلية المستخدمة فى رصد المحتوى الإرهابى فى العالم الافتراضي، خصوصًا المستخدم بتقنية الذكاء الاصطناعى.
اعتمد الباحث على نهجين: الأول قائم على المطابقة، والثانى على التصنيف، قبل الانتقال إلى الكشف القائم على السلوك. ملاحظًا أن هذه الأنواع من الأدوات لا يستبعد بعضها بعضًا، ويمكن استخدامها -غالبًا- معًا فى نهج متعدّد الطبقات. وخلص إلى محورية التدخّل البشري؛ إذ تقتضى النهُج القائمة على المطابقة جهدًا مستمرًا لتحديد بنود المحتوى الإرهابي، وإضافتها إلى قاعدة بيانات البصمات. أما النهُج القائمة على التصنيف، فإنها فى حاجة إلى جمع مجموعة كبيرة من البيانات وتنظيفها ووسمها؛ لتدريب خوارزميات التعلّم الآلي. كما أن معظم أدوات التصنيف تستخدم للإشارة إلى البنود ليراجعها البشر؛ لأن المراقبين البشر أقدر على إصدار أحكام سياقية وتقييم الاختلافات الدقيقة والنيّات، والنظر فى العوامل الاجتماعية والثقافية والتاريخية والسياسية. كما أن عمليات الاستئناف مطلوبة -كما عندما تحدّد الأدوات الآلية نتائج إيجابية كاذبة- وثمة حاجة إلى مراقبين بشر للنظر فى هذه الاستئنافات. وخلص إلى أن الذكاء الاصطناعى ضرورة، ولكنه غير كافٍ فى السعى لمكافحة المحتوى الإرهابى على الإنترنت.
وتطرقت الباحثة المصريَّة سلمى صقر إلى توظيف تقنيات الذكاء الاصطناعى التوليدى من قبل التنظيمات الإرهابية واليمين المتطرف، والسبل الأساسية فى مكافحتهما. ومع تأكيدها حجم التهديدات الأمنية غير التقليدية المرتبطة بالتطورات التكنولوجية المتسارعة، واستغلالها من قبل الإرهابيين الإسلامويين والمتطرفين اليمينيين، خصوصًا فى مجال التمويل؛ حيث تم رقمنة التبرعات؛ ورقمنة أنشطة جمع التبرعات؛ التى غدت تجمع أضعاف ما كانت تجمعه التبرعات التقليدية، إذ يستخدم المؤثرون المتطرفون منصات مختلفة عبر الإنترنت؛ لطلب المشتريات والتبرعات من متابعيهم. وتُعد العملات المشفرة نظام دفع مثاليًّا لهم، إضافة إلى منصات التجارة الإلكترونية.
واستكمالاً للدراسات المختصة فى مكافحة الإرهاب والتطرف الإلكترونى، حدد الباحث والأكاديمى حكيم غريب أهم التقنيات والأدوار التى يمكن للذكاء الاصطناعى القيام بها للحد من العمليات الإرهابية، من بينها: مكافحة الأفكار المتطرفة، وتوقع الهجمات الإرهابية المحتملة، والمساهمة فى التعرف على وجه الإرهابيّين، وبصمة المخ؛ أو تقنية مـسح الموجـات الدماغية، واستشعار تحليلى لمراقبة وتحليل الحشود.
كشف الكتاب استغلال التنظيمات الإسلاموية النصوص الدينية فى بناء الأيديولوجية الإرهابية من خلال تطبيقات ومنصات رقمية مختلفة، ولمواجهة هذا الإرهاب الرقمى وسبل صناعته، سعى الباحث مصطفى قطب إلى معرفة كيفية استثمار الخوارزميات فى خدمة العلوم الشرعية، بالتركيز على المحاور الآتية: معالجة اللغة الطبيعية فى النصوص الإسلامية؛ الفتوى وتعلم الآلة؛ استثمار الخوارزميات فى خدمة التفسير؛ الترجمة الآلية والنصوص الإسلامية؛ وضوابط تطبيق الخوارزميات على الدراسات الإسلامية.
أما الباحثة لياندرا روبير، والباحث عماد نعيم، فقد درسا دور الذكاء الاصطناعى فى الفن والأدب وسُبل الإفادة من تقنياته لمواجهة الإرهاب، وبناء سرديات مضادة للعنف.
مثلًا، أحدث برنامج «ديب دريم» (DeepDream)، الذى يحوّل الصور إلى أشكال سريالية، ثورةً، فى الرسم بينما استخدم ريفيك أنادول (Refik Anadol) البيانات الضخمة فى منحوتات رقمية، وطوّرت صوفيا كريسبو (Sofia Crespo) مشروع «نيرال زو» (Neural Zoo)، الذى يولّد كائنات هجينة من بيانات الطبيعة. عربيًا، ظهرت مشاريع مثل «Araby.ai»، التى تدمج الفن الرقمى بالثقافة العربية، وبرامج إعادة إحياء الخط العربي.
بدأ الذكاء الاصطناعى تأثيره على الأدب حينما طوّر فريق يابانى عام 2016 رواية "اليوم الذى يكتب فيه الكمبيوتر رواية"، التى بلغت التصفيات النهائية فى مسابقةٍ أدبية! فى المسار العربى ألف محمد أحمد فؤاد رواية "حيوات الكائن الأخير" بمساعدة الذكاء الاصطناعى فى أقل من (23) ساعة، مما أثار جدلًا واسعًا حول مستقبل الكتابة. وفى السينما، كُتِب سيناريو فيلم "صن سبرينج" (Sunspring) عام 2016 بالكامل بواسطة الذكاء الاصطناعي، لكن الذكاء الاصطناعى ظل أداة مساعدة لا بديلًا عن الإبداع البشرى فى توجيه الممثلين وصياغة الرؤية السينمائية.
أثار الذكاء الاصطناعى تحديات قانونية، حيث رفضت محكمة أميركية تسجيل حقوق الطبع والنشر لعمل فنى أنجزه نظام ذكاء اصطناعي، مؤكدة أن الإبداع البشرى شرط أساسى للحماية القانونية. يظل التساؤل مفتوحًا حول من يملك الحقوق الفكرية: مبرمج النظام أم المستخدم أم الشركة المطوّرة؟
وفى سبيل إثراء المحور درس الباحث المصرى علاء الحمد استخدام الأدب المصنوع بتقنيات الذكاء الاصطناعى فى مكافحة الإرهاب، ملاحظًا أن التنظيمات الإرهابية تستغل الرواية والأدب فى هذا الحقل الافتراضى لنقل أفكارها المتطرفة، وفى المقابل يمكن للروائيين فعل العكس، من خلال تضمين أعمالهم أفكارًا مناهضة للإرهاب.
أما الأكاديمى والباحث، أحمد عبدالمجيد فتناول مستقبل الصحافة فى ظل التحديات التى يفرضها الذكاء الاصطناعي، فأبرز أهم وجهات النظر من قبل الخبراء فى علوم الحاسوب والتقنيات الرقمية حول الاتجاهات التى سوف تتخذها الصحافة؛ لمواكبة هذا التطور بين اتجاه متفائل وآخر متشائم، وعرض السيناريوهات المستقبلية لــ«صحافة الذكاء الاصطناعي» (Artificial Intelligence Journalism) حيث حددها بثلاثة: سيناريو الإبداع؛ وسيناريو الثبات؛ والسيناريو التشاؤمي.
فى الختام، يتوجه مركز المسبار للدراسات والبحوث بالشكر للباحثين المشاركين فى الكتاب والعاملين على خروجه للنور، ونأمل أنْ يسد ثغرة فى المكتبة العربية.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

أخبار التكنولوجيا : نماذج جيما تحقق 150 مليون عملية تنزيل خلال عام
أخبار التكنولوجيا : نماذج جيما تحقق 150 مليون عملية تنزيل خلال عام

نافذة على العالم

timeمنذ 6 أيام

  • نافذة على العالم

أخبار التكنولوجيا : نماذج جيما تحقق 150 مليون عملية تنزيل خلال عام

الأربعاء 14 مايو 2025 10:00 صباحاً نافذة على العالم - تجاوزت نماذج الذكاء الاصطناعي "جيما" من جوجل 150 مليون عملية تنزيل، لتحقق مجموعة "جيما" من نماذج الذكاء الاصطناعى، نجاحًا ملحوظًا. ومن جانبه أعلن عمر سانسيفيرو، مهندس علاقات المطورين فى جوجل ديب مايند، عن هذا الرقم على منصة X، كاشفًا أيضًا أن المطورين قد ابتكروا أكثر من 70,000 نسخة مختلفة من "جيما" على منصة تطوير الذكاء الاصطناعى "هوجينج فيس". وأطلقت جوجل تطبيق جيما فى فبراير 2024، بهدف منافسة عائلات النماذج المفتوحة الأخرى مثل لاما من ميتا. و تتميز أحدث إصدارات جيما بتعدد الوسائط، ما يعنى أنها تعمل مع الصور والنصوص، وتدعم أكثر من 100 لغة، كما طورت جوجل إصدارات من جيما مُعدّلة خصيصًا لتطبيقات مُحددة، مثل اكتشاف الأدوية. فى حين أن 140 مليون عملية تنزيل فى عام تقريبًا تُعدّ مؤشرًا مُلفتًا، إلا أن جيما يتخلف كثيرًا عن لاما، الذى قد يكون منافسه الرئيسى، والذى تجاوز 1.2 مليار عملية تنزيل فى أواخر أبريل. ومن الجدير بالذكر أن Gemma، وكذلك Llama، تعرضتا لانتقادات بسبب شروط الترخيص غير القياسية والمخصصة، والتى يقول بعض المطورين إنها جعلت استخدام النماذج تجاريًا اقتراحًا محفوفًا بالمخاطر.

كاسبرسكي تحذر من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي
كاسبرسكي تحذر من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي

أموال الغد

time٠٢-٠٥-٢٠٢٥

  • أموال الغد

كاسبرسكي تحذر من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي

حذرت شركة كاسبرسكي من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي، حيث تشترط أغلب الخدمات والتطبيقات عبر الإنترنت أن يقوم المستخدم بإنشاء كلمة مرور. وفي ظل العدد الهائل لكلمات المرور، وندرة استخدام معظمها بشكل يومي، يزداد احتمال لجوء المستخدمين إلى إعادة استخدام نفس كلمات المرور. وتتعمق مشكلة سوء إدارة كلمات المرور بسبب الميل لاستخدام مزيج معتاد من الأسماء ومفردات المعاجم والأرقام. فإلى جانب سهولة فك شفرة كلمات المرور هذه، إن تمكن مجرم سيبراني من الحصول على إحداها في موقع ما، قد يفتح له الباب للوصول إلى كثير من المواقع الأخرى. ولمواجهة الثغرات الأمنية الناتجة عن تكرار كلمات المرور، يُنصح المستخدمين بابتكار كلمات مرور فريدة وغير متكررة. غير أن إنشاء كلمات المرور وإدارتها قد يشكل تحدياً صعباً. وللتغلب على مشقة إنشاء وإدارة كلمات المرور، قد يلجأ البعض إلى استخدام النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وLlama وDeepSeek لتوليد كلمات مرورهم. فعوضاً عن المعاناة في إيجاد كلمة مرور قوية، يستطيع المستخدمون توجيه طلب بسيط للذكاء الاصطناعي: «توليد كلمة مرور آمنة» والحصول على نتيجة فورية. فيولّد الذكاء الاصطناعي تركيبات تبدو كأنها عشوائية، ما يحد من ميل البشر لإنشاء كلمات مرور متوقعة مستمدة من الكلمات الموجودة في المعجم. غير أن المظهر قد يكون مضللاً، فقد لا تتمتع كلمات المرور التي يولّدها الذكاء الاصطناعي بالأمان الذي توحي به. أجرى أليكسي أنتونوف، قائد فريق علوم البيانات لدى كاسبرسكي، تجربة شملت إنشاء 1000 كلمة مرور عبر أبرز وأوثق النماذج اللغوية الكبيرة، تشمل OpenAI ChatGPT، و Meta Llama وDeepSeek الصيني الجديد. يوضّح أنتونوف: «تدرك كافة النماذج أن مواصفات كلمة المرور الجيدة تستلزم 12 حرفاً كحد أدنى، مع مزيج من الحروف الكبيرة والصغيرة والأرقام والرموز. وتُبين النماذج هذه المعايير عند إنشاء كلمات المرور». ويضيف: «غير أنه عند التطبيق الفعلي، غالباً ما تجاهلت الخوارزميات إضافة الرموز الخاصة أو الأرقام في كلمة المرور: 26% من كلمات المرور في ChatGPT، و32% في Llama، و29% في DeepSeek. بينما ولّدت نماذج DeepSeek وLlama في بعض الأحيان كلمات مرور يقل طولها عن 12 حرفاً». وفي 2024، طوّر أليكسي أنتونوف خوارزمية تعلم آلة لقياس قوة كلمات المرور، ليكتشف أن قرابة 60% منها عرضة للاختراق خلال ساعة واحدة عبر معالجات الرسوميات الحديثة أو أدوات الاختراق السحابية. وحين اختُبرت كلمات المرور التي ولّدها الذكاء الاصطناعي، ظهرت نتائج مثيرة للقلق، حيث تبين أنها أضعف بكثير مما توحي به: لم تصل 88% من كلمات مرور DeepSeek و87% من كلمات مرور Llama إلى مستوى القوة المطلوب لصد هجمات المجرمين السيبرانيين المتمرسين. أما ChatGPT فكان أداؤه أفضل نسبياً، إذ فشل 33% فقط من كلمات المرور في تحقيق معايير القوة المطلوبة في اختبار كاسبرسكي. يوضّح أنتونوف: «تكمن المشكلة في عجز النماذج اللغوية الكبيرة عن توليد عشوائية فعلية. عوضاً عن ذلك، تقوم بتقليد الأنماط من البيانات المتاحة، ما يجعل نتائجها متوقعة لدى المخترقين المُلمين بآلية عمل هذه النماذج». تبنى نظاماً أكثر أماناً لإدارة كلمات المرور عوضاً عن استخدام الذكاء الاصطناعي، يُنصح المستخدمون باللجوء إلى برمجيات مخصصة لإدارة كلمات المرور، مثل Kaspersky Password Manager. تقدم هذه الأدوات عدة مزايا رئيسية. أولاً، تعتمد هذه البرمجيات على مولّدات تشفير آمنة لإنتاج كلمات مرور تخلو من أي أنماط يمكن رصدها، ما يوفر عشوائية حقيقية. ثانياً، تُحفظ كافة بيانات الدخول في خزنة آمنة، يمكن الوصول إليها عبر كلمة مرور رئيسية فقط. يُغني ذلك عن حفظ مئات كلمات المرور مع ضمان حمايتها من الثغرات الأمنية. كما تقدم برامج إدارة كلمات المرور ميزة الملء التلقائي والمزامنة بين الأجهزة، مما يبسط عملية تسجيل الدخول مع الحفاظ على مستوى الأمان. كما يوفر الكثير منها خدمة رصد الاختراقات، وإخطار المستخدمين في حال ظهور بيانات اعتمادهم ضمن البيانات المسربة. رغم قدرة الذكاء الاصطناعي على المساعدة في مهام كثيرة، فإن إنشاء كلمات المرور لا يندرج ضمنها. فالأنماط المتكررة والقابلة للتوقع في كلمات المرور المولّدة بواسطة النماذج اللغوية الكبيرة تجعلها عرضة للاختراق. لذا، تجنب الطرق المختصرة، واستثمر في مدير كلمات مرور موثوق، ليكون درعك الأول في التصدي للتهديدات السيبرانية. ومع تزايد حوادث اختراق البيانات في عصرنا الحالي، أصبحت الحاجة إلى كلمة مرور قوية وفريدة لكل حساب أمراً لا جدال فيه.

كاسبرسكي تحذر من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي
كاسبرسكي تحذر من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي

time٠١-٠٥-٢٠٢٥

كاسبرسكي تحذر من مخاطر إنشاء كلمات المرور باستخدام الذكاء الاصطناعي

فاطمة سويري تشترط أغلب الخدمات والتطبيقات عبر الإنترنت أن يقوم المستخدم بإنشاء كلمة مرور، وفي ظل العدد الهائل لكلمات المرور، وندرة استخدام معظمها بشكل يومي، يزداد احتمال لجوء المستخدمين إلى إعادة استخدام نفس كلمات المرور، وتتعمق مشكلة سوء إدارة كلمات المرور بسبب الميل لاستخدام مزيج معتاد من الأسماء ومفردات المعاجم والأرقام، فإلى جانب سهولة فك شفرة كلمات المرور هذه، إن تمكن مجرم سيبراني من الحصول على إحداها في موقع ما، قد يفتح له الباب للوصول إلى كثير من المواقع الأخرى. موضوعات مقترحة لمواجهة الثغرات الأمنية الناتجة عن تكرار كلمات المرور، يُنصح المستخدمين بابتكار كلمات مرور فريدة وغير متكررة. غير أن إنشاء كلمات المرور وإدارتها قد يشكل تحدياً صعباً. وللتغلب على مشقة إنشاء وإدارة كلمات المرور، قد يلجأ البعض إلى استخدام النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وLlama وDeepSeek لتوليد كلمات مرورهم. فعوضاً عن المعاناة في إيجاد كلمة مرور قوية، يستطيع المستخدمون توجيه طلب بسيط للذكاء الاصطناعي: «توليد كلمة مرور آمنة» والحصول على نتيجة فورية. فيولّد الذكاء الاصطناعي تركيبات تبدو كأنها عشوائية، ما يحد من ميل البشر لإنشاء كلمات مرور متوقعة مستمدة من الكلمات الموجودة في المعجم. غير أن المظهر قد يكون مضللاً، فقد لا تتمتع كلمات المرور التي يولّدها الذكاء الاصطناعي بالأمان الذي توحي به. أجرى أليكسي أنتونوف، قائد فريق علوم البيانات لدى كاسبرسكي، تجربة شملت إنشاء 1000 كلمة مرور عبر أبرز وأوثق النماذج اللغوية الكبيرة، تشمل OpenAI ChatGPT، و Meta Llama وDeepSeek الصيني الجديد. يوضّح أنتونوف: «تدرك كافة النماذج أن مواصفات كلمة المرور الجيدة تستلزم 12 حرفاً كحد أدنى، مع مزيج من الحروف الكبيرة والصغيرة والأرقام والرموز. وتُبين النماذج هذه المعايير عند إنشاء كلمات المرور». ويضيف: «غير أنه عند التطبيق الفعلي، غالباً ما تجاهلت الخوارزميات إضافة الرموز الخاصة أو الأرقام في كلمة المرور: 26% من كلمات المرور في ChatGPT، و32% في Llama، و29% في DeepSeek. بينما ولّدت نماذج DeepSeek وLlama في بعض الأحيان كلمات مرور يقل طولها عن 12 حرفاً». وفي 2024، طوّر أليكسي أنتونوف خوارزمية تعلم آلة لقياس قوة كلمات المرور، ليكتشف أن قرابة 60% منها عرضة للاختراق خلال ساعة واحدة عبر معالجات الرسوميات الحديثة أو أدوات الاختراق السحابية. وحين اختُبرت كلمات المرور التي ولّدها الذكاء الاصطناعي، ظهرت نتائج مثيرة للقلق، حيث تبين أنها أضعف بكثير مما توحي به: لم تصل 88% من كلمات مرور DeepSeek و87% من كلمات مرور Llama إلى مستوى القوة المطلوب لصد هجمات المجرمين السيبرانيين المتمرسين. أما ChatGPT فكان أداؤه أفضل نسبياً، إذ فشل 33% فقط من كلمات المرور في تحقيق معايير القوة المطلوبة في اختبار كاسبرسكي. يوضّح أنتونوف: «تكمن المشكلة في عجز النماذج اللغوية الكبيرة عن توليد عشوائية فعلية. عوضاً عن ذلك، تقوم بتقليد الأنماط من البيانات المتاحة، ما يجعل نتائجها متوقعة لدى المخترقين المُلمين بآلية عمل هذه النماذج». تبنى نظاماً أكثر أماناً لإدارة كلمات المرور عوضاً عن استخدام الذكاء الاصطناعي، يُنصح المستخدمون باللجوء إلى برمجيات مخصصة لإدارة كلمات المرور أولاً، تعتمد هذه البرمجيات على مولّدات تشفير آمنة لإنتاج كلمات مرور تخلو من أي أنماط يمكن رصدها، ما يوفر عشوائية حقيقية. ثانياً، تُحفظ كافة بيانات الدخول في خزنة آمنة، يمكن الوصول إليها عبر كلمة مرور رئيسية فقط. يُغني ذلك عن حفظ مئات كلمات المرور مع ضمان حمايتها من الثغرات الأمنية. كما تقدم برامج إدارة كلمات المرور ميزة الملء التلقائي والمزامنة بين الأجهزة، مما يبسط عملية تسجيل الدخول مع الحفاظ على مستوى الأمان. كما يوفر الكثير منها خدمة رصد الاختراقات، وإخطار المستخدمين في حال ظهور بيانات اعتمادهم ضمن البيانات المسربة. رغم قدرة الذكاء الاصطناعي على المساعدة في مهام كثيرة، فإن إنشاء كلمات المرور لا يندرج ضمنها. فالأنماط المتكررة والقابلة للتوقع في كلمات المرور المولّدة بواسطة النماذج اللغوية الكبيرة تجعلها عرضة للاختراق. لذا، تجنب الطرق المختصرة، واستثمر في مدير كلمات مرور موثوق، ليكون درعك الأول في التصدي للتهديدات السيبرانية. ومع تزايد حوادث اختراق البيانات في عصرنا الحالي، أصبحت الحاجة إلى كلمة مرور قوية وفريدة لكل حساب أمراً لا جدال فيه.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store