logo
'الغاردیان': 'الجیش' الإسرائیلی یطور أداة ذکاء اصطناعی.. ما هدفها ؟- الأخبار الدولی

'الغاردیان': 'الجیش' الإسرائیلی یطور أداة ذکاء اصطناعی.. ما هدفها ؟- الأخبار الدولی

وكالة نيوز٠٦-٠٣-٢٠٢٥

وقالت الصحيفة إنّ وكالة المراقبة العسكرية الإسرائيلية استخدمت مجموعةً واسعة من الاتصالات الفلسطينية التي جرى اعتراضها لبناء أداة ذكاء اصطناعي قوية تشبه برنامج 'ChatGPT'.
وأوضحت 'الغارديان' أنّ تحقيقاً مشتركاً أجري بالتعاون بين مجلة '+972' الإسرائيلية، وموقع 'Local Call' توصّل إلى أنّ 'الوحدة 8200 درّبت نموذج الذكاء الاصطناعي على فهم اللغة العربية المنطوقة باستخدام كمياتٍ كبيرة من المحادثات الهاتفية والرسائل النصية، التي جرى الحصول عليها من خلال مراقبتها المكثفة للأراضي المحتلة'.
كذلك، أضافت أنّ هذه الأداة قادرة على الإجابة عن أسئلة حول الأشخاص الذين تراقبهم، وتوفير رؤى حول كميات هائلة من بيانات المراقبة التي تجمعها، مؤكدةً أنّ 'اعتماد أدوات في تحليل المعلومات الاستخبارية ينطوي على مخاطر بسبب إمكانية ارتكاب أخطاء'.
النموذج يتطلب 'كمياتٍ هائلة' من البيانات
ويعتمد النظام الجديد على نموذج تعليم عميق 'LLM' (نموذج حسابي قادرٌ على توليد اللغة أو مهام معالجة اللغة) مشابه لبرامج 'ChatGPT'، الذي يعتمد على كمياتٍ هائلة من البيانات.
وفي السياق، قال المسؤول الاستخباراتي السابق في الوحدة '8200'، شاكيد روجر في محاضرةٍ عامّة لم تحظ بالكثير من الاهتمام إنّ 'النظام قد جرى تدريبه باستخدام البيانات العربية المنطوقة، ويهدف إلى الاستفادة من هذه التكنولوجيا لتحسين فعالية عمليات المراقبة والتحليل الاستخباري'، مضيفاً أنّ النموذج يتطلب 'كميات هائلة' من البيانات، بحسب الصحيفة البريطانية.
وقد أكّد 3 مسؤولين سابقين في الاستخبارات على درايةٍ بالمبادرة وجود برنامج التعلم الآلي، وشاركوا تفاصيل حول بنائه. ووصفت مصادر عدّة أخرى كيف استخدمت الوحدة '8200' نماذج التعلم الآلي الأصغر حجماً خلال السنوات التي سبقت إطلاق المشروع الطموح« والتأثير الذي أحدثته هذه التكنولوجيا بالفعل.
ومع ذلك، أثار هذا المشروع المخاوف لدى خبراء حقوق الإنسان والمراقبة الذين حذّروا من أنّ دمج الذكاء الاصطناعي في تحليل المعلومات الاستخبارية قد يزيد من احتمالية التحيزات والأخطاء، وقد يكون من الصعب فهم كيفية اتخاذ القرارات التي تنتج من هذه الأنظمة، وفق 'الغارديان'.
/انتهى/

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

لتقديم ردود خطيرة.. دراسة: روبوتات الدردشة المولدة بالذكاء الاصطناعي يمكن خداعها بسهولة
لتقديم ردود خطيرة.. دراسة: روبوتات الدردشة المولدة بالذكاء الاصطناعي يمكن خداعها بسهولة

موجز نيوز

timeمنذ يوم واحد

  • موجز نيوز

لتقديم ردود خطيرة.. دراسة: روبوتات الدردشة المولدة بالذكاء الاصطناعي يمكن خداعها بسهولة

يقول باحثون إن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، تُهدد بإتاحة معلومات خطيرة بسهولة من خلال إنتاج معلومات غير مشروعة تستوعبها البرامج أثناء التدريب. ويأتي هذا التحذير في ظل اتجاه مُقلق لروبوتات الدردشة التي تم اختراقها للتحايل على ضوابط الأمان المُدمجة فيها، إذ أنه من المفترض أن تمنع هذه القيود البرامج من تقديم ردود ضارة أو مُتحيزة أو غير لائقة على أسئلة المستخدمين، وفقًا لما ذكرته صحيفة «ذا جارديان». تتلقى محركات روبوتات الدردشة، مثل «ChatGPT» و«Gemini» و«Claude»- نماذج اللغة الكبيرة (LLMs)- كميات هائلة من المواد من الإنترنت، وعلى الرغم من الجهود المبذولة لإزالة النصوص الضارة من بيانات التدريب، لا يزال بإمكان نماذج اللغة الكبيرة استيعاب معلومات حول أنشطة غير قانونية مثل القرصنة وغسيل الأموال والتداول الداخلي وصنع القنابل، إذ صُممت ضوابط الأمان لمنعها من استخدام هذه المعلومات في ردودها. وفي تقرير عن التهديد، خلص الباحثون إلى أنه من السهل خداع معظم برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي لتوليد معلومات ضارة وغير قانونية، مما يدل على أن الخطر «فوري وملموس ومثير للقلق بشدة»، إذ يحذر المؤلفون من أن ما كان يقتصر سابقًا على الجهات الحكومية أو جماعات الجريمة المنظمة قد يصبح قريبًا في أيدي أي شخص لديه جهاز كمبيوتر محمول أو حتى هاتف محمول. حدد البحث، الذي قاده البروفيسور ليور روكاش والدكتور مايكل فاير، تهديدًا متزايدًا من «برامج ماجستير القانون المظلمة»، وهي نماذج ذكاء اصطناعي مصممة عمدًا دون ضوابط أمان أو معدلة من خلال عمليات كسر الحماية، والتي يُعلن عن بعضها علنًا عبر الإنترنت على أنها لا تخضع لضوابط أخلاقية وأنها مستعدة للمساعدة في الأنشطة غير القانونية مثل الجرائم الإلكترونية والاحتيال. ويميل كسر الحماية إلى استخدام مطالبات مُصممة بعناية لخداع روبوتات الدردشة لتوليد ردود محظورة عادةً، وتعمل هذه المطالبات من خلال استغلال التناقض بين الهدف الرئيسي للبرنامج المتمثل في اتباع تعليمات المستخدم، وهدفه الثانوي المتمثل في تجنب توليد إجابات ضارة أو متحيزة أو غير أخلاقية أو غير قانونية، وتميل هذه المطالبات إلى خلق سيناريوهات يُعطي فيها البرنامج الأولوية للمساعدة على قيوده الأمنية. ولتوضيح المشكلة، طور الباحثون كسر حماية شاملًا اخترق العديد من روبوتات الدردشة الرائدة، مما مكّنها من الإجابة على أسئلة كان من المفترض رفضها عادةً، بمجرد اختراقها، كانت روبوتات الدردشة تُنتج باستمرار ردودًا على أي استفسار تقريبًا، وفقًا للتقرير. يقول التقرير الصادر عن البحث، إنه ينبغي على شركات التكنولوجيا فحص بيانات التدريب بدقة أكبر، وإضافة جدران حماية قوية لمنع الاستفسارات والردود الخطرة، وتطوير تقنيات إلغاء التعلم الآلي، حتى تتمكن روبوتات الدردشة من نسيان أي معلومات غير مشروعة تستوعبها، مُضيفًا أنه ينبغي النظر إلى برامج ماجستير القانون المظلمة على أنها «مخاطر أمنية جسيمة»، تُضاهي الأسلحة والمتفجرات غير المرخصة، مع محاسبة مقدميها.

الثقافة تصدر «الذكاء الاصطناعي التوليدي» بهيئة الكتاب
الثقافة تصدر «الذكاء الاصطناعي التوليدي» بهيئة الكتاب

النهار المصرية

timeمنذ يوم واحد

  • النهار المصرية

الثقافة تصدر «الذكاء الاصطناعي التوليدي» بهيئة الكتاب

أصدرت وزارة الثقافة المصرية، ممثلة في الهيئة المصرية العامة للكتاب برئاسة الدكتور أحمد بهي الدين، كتابًا جديدًا بعنوان «الذكاء الاصطناعي التوليدي.. مسيرة التطور وآفاق المستقبل»، من إعداد الدكتور مجدي الجاكي، وتقديم الدكتور محمد فتحي عبد الهادي، وذلك ضمن إصدارات سلسلة دراسات مستقبلية. يأتي هذا الإصدار في توقيت يشهد فيه العالم ثورة رقمية غير مسبوقة، حيث يأخذنا الكتاب في رحلة معرفية مشوقة عبر الزمن، نستعرض خلالها مراحل تطور الذكاء الاصطناعي التوليدي، مرورًا بروبوتات المحادثة التفاعلية، وانتهاءً بتوقعات مستقبلية تحمل في طياتها إمكانيات هائلة. يتناول الكتاب الأسس النظرية لمفهوم الذكاء الاصطناعي، مستعرضًا أنواعه وتطبيقاته المختلفة، بدءًا من الذكاء البسيط ووصولًا إلى النماذج المعقدة، مع تسليط الضوء على أبرز التحديات والفرص التي تواجه هذا المجال. وفي فصل خاص، يتعمق المؤلف في عالم الذكاء الاصطناعي التوليدي، كاشفًا عن تاريخه وتطوره والتقنيات التي تقف وراءه، مشيرًا إلى مجالات تطبيقه التي تجمع بين الإبداع والابتكار، وتطرح أسئلة كبرى حول حدود التكنولوجيا المستقبلية. كما يخصص الكتاب فصولاً مفصلة لتقنيات الذكاء الاصطناعي الرائدة مثل روبوتات المحادثة التفاعلية، وChatGPT، وGemini، حيث يقدم تحليلاً شاملاً لمراحل تطورها، واستخداماتها، ومميزاتها وعيوبها، إلى جانب توقعات حول الاتجاهات المستقبلية التي قد تغير شكل التفاعل البشري مع الآلة. ويختتم المؤلف كتابه بفصل حول "مستقبل توليد النصوص"، وهو المجال الذي يجمع بين الفن والعلم، موضحًا آليات توليد النصوص، ومجالات الإفادة منها، مع طرح توصيات للتعامل مع تحدياتها المحتملة. ويؤكد الكتاب أن الذكاء الاصطناعي لم يعد مجرد فكرة خيالية، بل أصبح واقعًا يفرض نفسه في مختلف نواحي الحياة، داعيًا القارئ إلى التأمل والاستعداد لعالم جديد تقوده التكنولوجيا والإبداع.

أخبار التكنولوجيا : كبير علماء جوجل: المهندس الافتراضى قادم.. والبرمجة فى خطر
أخبار التكنولوجيا : كبير علماء جوجل: المهندس الافتراضى قادم.. والبرمجة فى خطر

نافذة على العالم

timeمنذ 2 أيام

  • نافذة على العالم

أخبار التكنولوجيا : كبير علماء جوجل: المهندس الافتراضى قادم.. والبرمجة فى خطر

الأربعاء 21 مايو 2025 04:30 مساءً نافذة على العالم - توقّع جيف دين، كبير علماء الذكاء الاصطناعي في شركة جوجل، أن يتمكّن الذكاء الاصطناعي من مضاهاة مهارات المبرمجين المبتدئين خلال نحو عام فقط، أي بحلول عام 2026، وذلك في تصريحاته خلال فعالية 'AI Ascent' التي نظّمتها شركة Sequoia Capital مؤخرًا. ويرى دين أن التطور السريع في قدرات النماذج الذكية، وعلى رأسها أدوات مثل ChatGPT وGitHub Copilot وGemini الخاص بجوجل، يُقرّب الذكاء الاصطناعي أكثر من أداء مهام برمجية كانت حتى وقت قريب حكرًا على المهندسين البشريين، خاصة أولئك في المراحل المهنية الأولى. ويُعد هذا التوجّه مصدر قلق متزايد للخريجين الجدد في قطاع التكنولوجيا، الذي يشهد بالفعل تراجعًا في عدد فرص العمل وزيادة في المنافسة. لكن جيف دين شدّد على أن كتابة الشيفرات داخل بيئة تطوير متكاملة (IDE) ليست سوى جزء من مهام المهندس المبتدئ، مشيرًا إلى أن 'المهندس الافتراضي' الذكي يحتاج إلى تعلم تشغيل الاختبارات، واكتشاف الأخطاء، وتحسين الأداء، وهي مهارات تتطلب إدراكًا أوسع وسياقًا عمليًا متكاملًا. وعن كيفية وصول الذكاء الاصطناعي إلى هذا المستوى، قارن دين طريقة تعلّمه بالطريقة التي يكتسب بها البشر الخبرة العملية، وقال: 'نعرف كيف يتعلّم المهندسون الحقيقيون. إنهم يطالعون الوثائق، ويتدرّبون على الأدوات، ويتعلمون من الزملاء الأكثر خبرة.' وأضاف أن نماذج الذكاء الاصطناعي يمكن أن تحاكي هذا النمط من التعلم عبر التجريب في بيئات افتراضية، والاطلاع على الوثائق الفنية، والتكرار المستمر لتحسين الأداء. وأوضح: 'أعتقد أن المهندس الافتراضي سيكون بارعًا في قراءة الوثائق وتجربة الحلول في بيئة افتراضية، وهذه طريقة فعّالة للتطور في هذه المجالات.' ورغم أن دين لم يُحدد بدقة مدى التطور الذي قد يبلغه الذكاء الاصطناعي في هذا المسار، إلا أنه أعرب عن ثقته بأن الأمر 'سيُحدث فرقًا حقيقيًا'، مضيفًا:'لا أعرف إلى أي مدى يمكن أن يأخذنا هذا التقدّم، لكنه بالتأكيد سيأخذنا إلى مكان بعيد.' حتى لحظة نشر تقرير Business Insider، لم تُصدر جوجل أي تعليق رسمي على تصريحات جيف دين.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store