logo
تحقيق: جيش إسرائيل وظف بيانات الفلسطينيين لتطوير أداة شبيهة بـ ChatGPT

تحقيق: جيش إسرائيل وظف بيانات الفلسطينيين لتطوير أداة شبيهة بـ ChatGPT

الشرق السعودية٠٩-٠٣-٢٠٢٥

قالت صحيفة "الجارديان" إن وكالة المراقبة العسكرية الإسرائليية استخدمت مجموعة كبيرة من الاتصالات الفلسطينية التي تم اعتراضها لبناء أداة ذكاء اصطناعي قوية مماثلة لبرنامج ChatGPT وتأمل أن تطور قدراتها التجسسية.
وكشف تحقيق أجرته الصحيفة البريطانية بشراكة مع مجلة "972+" الإسرائيلية الفلسطينية وموقع Local Call، أن الوحدة "8200" دربت نموذج الذكاء الاصطناعي على فهم اللغة العربية المنطوقة باستخدام كميات كبيرة من المحادثات الهاتفية والرسائل النصية، التي تم الحصول عليها من خلال مراقبتها المكثفة للأراضي المحتلة.
ووفقاً لمصادر مطلعة على المشروع، بدأت الوحدة في بناء النموذج لإنشاء أداة متطورة تشبه روبوت الدردشة قادرة على الإجابة عن أسئلة حول الأشخاص الذين تراقبهم وتوفير بيانات انطلاقاً من الكميات الهائلة من بيانات المراقبة التي تجمعها.
وسارعت وكالة التنصت النخبوية، التي تضاهي في قدراتها وكالة الأمن القومي الأميركية، إلى تسريع تطوير النظام بعد بدء الحرب على قطاع غزة في أكتوبر 2023. وكان النموذج لا يزال قيد التدريب في النصف الثاني من العام الماضي. وليس من الواضح ما إذا كان قد تم الشروع في استخدامه بعد.
"نموذج لغوي كبير"
تم الكشف جزئياً عن الجهود المبذولة لبناء "نموذج لغوي كبير" (LLM) - وهو نظام تعلم عميق يولد نصاً يشبه ما ينتجه الإنسان - في حديث عام لم يحظ باهتمام كبير، من قبل خبير سابق في تكنولوجيا الاستخبارات العسكرية قال إنه أشرف على المشروع.
وقال المسؤول السابق، تشاكيد روجر جوزيف سيدوف، أمام جمهور خلال مؤتمر للذكاء الاصطناعي العسكري في تل أبيب العام الماضي: "لقد حاولنا إنشاء أكبر مجموعة بيانات ممكنة و جمع كل البيانات التي كانت لدى دولة إسرائيل على الإطلاق باللغة العربية". وقال إن النموذج يتطلب "كميات هائلة" من البيانات.
وأكد 3 مسؤولين سابقين في الاستخبارات على دراية بالمبادرة، وجود نموذج اللغة الكبير وشاركوا تفاصيل عن عملية بنائه.
ووصفت مصادر أخرى كيف استخدمت الوحدة "8200" نماذج التعلم الآلي الأصغر حجماً في السنوات التي سبقت إطلاق المشروع الطموح - والتأثير الذي أحدثته هذه التكنولوجيا بالفعل.
وقال مصدر مطلع على تطوير نماذج الذكاء الاصطناعي للوحدة "8200" في السنوات الأخيرة: "الذكاء الاصطناعي يعزز القوة. لا يتعلق الأمر فقط بمنع الهجمات بإطلاق النار، يمكنني تتبع نشطاء حقوق الإنسان ومراقبة البناء الفلسطيني في المنطقة ج (من الضفة الغربية). لدي المزيد من الأدوات لمعرفة ما يفعله كل شخص في الضفة الغربية".
مخاوف
وتسلط المعلومات عن حجم النموذج الجديد، الضوء على احتفاظ الوحدة "8200" على نطاق واسع بمحتوى الاتصالات التي تم اعتراضها، والتي تم جمعها من خلال ما وصفه مسؤولون استخباراتيون إسرائيليون وغربيون حاليون وسابقون بمراقبتها الشاملة للاتصالات الفلسطينية.
ويوضح المشروع أيضاً كيف تسعى الوحدة "8200"، مثل العديد من وكالات التجسس في جميع أنحاء العالم، إلى تسخير التقدم في الذكاء الاصطناعي لأداء مهام تحليلية معقدة وفهم الكميات الهائلة من المعلومات التي تجمعها بشكل روتيني، والتي تتحدى بشكل متزايد المعالجة البشرية وحدها.
وأعرب زاك كامبل، وهو باحث كبير في مجال المراقبة بـ"هيومن رايتس ووتش"، عن قلقه من أن تستخدم الوحدة "8200" أنظمة LLM لاتخاذ قرارات مهمة بشأن حياة الفلسطينيين تحت الاحتلال العسكري. وقال: "إنها آلة تخمين. وفي النهاية يمكن استخدام هذه التخمينات لتجريم الناس".
ورفض متحدث باسم الجيش الإسرائيلي الإجابة على أسئلة صحيفة "الجارديان" عن نظام LLM الجديد، لكنه قال إن الجيش "ينشر أساليب استخباراتية مختلفة لتحديد وإحباط النشاط الإرهابي من قبل المنظمات المعادية في الشرق الأوسط".
خبراء من القطاع الخاص
طورت الوحدة "8200" مجموعة من الأدوات التي تعمل بالذكاء الاصطناعي في السنوات الأخيرة. وكانت أنظمة مثل The Gospel وLavender من بين الأنظمة التي تم دمجها بسرعة في العمليات القتالية في حرب غزة، ولعبت دوراً مهماً في قصف الجيش الإسرائيلي للمنطقة من خلال المساعدة في تحديد الأهداف المحتملة (الأشخاص والبنايات) للضربات القاتلة.
وتقول "الجارديان" إنه لمدة عقد تقريباً، استخدمت الوحدة أيضاً الذكاء الاصطناعي لتحليل الاتصالات التي تعترضها وتخزنها، باستخدام سلسلة من نماذج التعلم الآلي لفرز المعلومات إلى فئات محددة مسبقاً، وتعلم كيفية التعرف على الأنماط والتنبؤ.
وبعد أن أصدرت OpenAI برنامج ChatGPT في أواخر عام 2022، قدم خبراء الذكاء الاصطناعي في الوحدة "8200" تصوراً لبناء أداة أكثر توسعاً تشبه برنامج الدردشة الآلي. والآن، يعد برنامج ChatGPT أحد أكثر برامج التعلم الآلي استخداماً على مستوى العالم، ويستند إلى ما يسمى "نموذج الأساس"، وهو ذكاء اصطناعي عام الغرض مدرب على كميات هائلة من البيانات وقادر على الاستجابة للاستفسارات المعقدة.
وفي البداية، كافحت المخابرات العسكرية الإسرائيلية لبناء نموذج على هذا النطاق.
وقال سيدوف، المسؤول الاستخباراتي السابق، في عرضه التقديمي: "لم يكن لدينا أدنى فكرة عن كيفية تدريب نموذج الأساس". وفي مرحلة ما، أرسل المسؤولون طلباً إلى OpenAI لتشغيل ChatGPT على أنظمة الجيش، وهو ما رفضته الشركة.
ومع ذلك، عندما حشد الجيش الإسرائيلي مئات الآلاف من جنود الاحتياط رداً على هجمات 7 أكتوبر التي شنتها حركة "حماس"، عادت مجموعة من الضباط ذوي الخبرة إلى الوحدة بعدما كانوا قد انتقلوا إلى القطاع الخاص. وجاء بعضهم من شركات التكنولوجيا الأميركية الكبرى، مثل Google وMeta وMicrosoft.
وتقول Google إن العمل الذي يقوم به موظفوها كجنود احتياطيين "غير مرتبط" بالشركة. ورفضت Meta وMicrosoft التعليق.
"اتصالات باللغة العربية"
وقال مصدر إن الفريق الصغير من الخبراء سرعان ما بدأ في بناء برنامج يفهم اللغة العربية، ولكن كان عليه فعلياً أن يبدأ من الصفر بعد اكتشاف أن النماذج التجارية والمفتوحة المصدر باللغة العربية الموجودة تم تدريبها باستخدام اللغة العربية المكتوبة المعيارية، أي المستخدمة في الاتصالات الرسمية والأدب والإعلام - بدلاً من اللغة العربية المنطوقة.
وأفاد أحد المصار للصحيفة: "لا توجد نصوص للمكالمات أو محادثات WhatsApp على الإنترنت، لا يوجد هذا بالكمية المطلوبة لتدريب مثل هذا النموذج".
وأضافوا أن التحدي كان "جمع كل النصوص العربية المنطوقة التي امتلكتها الوحدة ووضعها في مكان مركزي"، مشيرين إلى أن بيانات تدريب النموذج تتكون في النهاية من حوالي 100 مليار كلمة.
وقال مصدر مطلع على المشروع لصحيفة "الجارديان"، إن هذا الكم الهائل من الاتصالات تضمن محادثات باللهجات اللبنانية وكذلك الفلسطينية. وقال سيدوف في عرضه التقديمي إن الفريق الذي يبني البرنامج "ركز فقط على اللهجات التي تكرهنا".
كما سعت الوحدة إلى تدريب النموذج لفهم المصطلحات العسكرية المحددة للجماعات المسلحة، حسبما ذكرت المصادر. لكن يبدو أن المجموعة الضخمة من بيانات التدريب تضمنت كميات كبيرة من الاتصالات ذات القيمة الاستخباراتية القليلة أو المعدومة حول الحياة اليومية للفلسطينيين.
وقال أحد المصادر: "إن اتصال شخص ما بشخص ما وإخباره بالخروج لأنه ينتظره خارج المدرسة، فهذه مجرد محادثة، وهذا ليس مثيراً للاهتمام. ولكن بالنسبة لنموذج مثل هذا، فهو ذهب".
"انتهاك لحقوق الإنسان"
والوحدة "8200" ليست الوحيدة بين وكالات التجسس التي تجرب تقنية الذكاء الاصطناعي التوليدي. ففي الولايات المتحدة، طرحت وكالة المخابرات المركزية أداة تشبه ChatGPT لـ"غربلة" المعلومات مفتوحة المصدر. كما تعمل وكالات التجسس في بريطانيا على تطوير برامج خاصة بها، والتي يقال أيضاً إنها تدربها باستخدام مجموعات بيانات مفتوحة المصدر.
لكن العديد من المسؤولين الأمنيين السابقين في الولايات المتحدة والمملكة المتحدة قالوا إن مجتمع الاستخبارات الإسرائيلي يبدو أنه يخوض مخاطر أكبر من أقرب حلفائه عند دمج أنظمة الذكاء الاصطناعي الجديدة في تحليل الاستخبارات.
وقال أحد رؤساء التجسس الغربيين السابقين إن جمع الاستخبارات العسكرية الإسرائيلية المكثف لمحتوى الاتصالات الفلسطينية سمح لها باستخدام الذكاء الاصطناعي بطرق "لن تكون مقبولة" بين وكالات الاستخبارات في البلدان التي تتمتع برقابة أقوى على استخدام سلطات المراقبة والتعامل مع البيانات الشخصية الحساسة.
وقال كامبل، من "هيومن رايتس ووتش"، إن استخدام مواد المراقبة لتدريب نموذج الذكاء الاصطناعي كان "انتهاكاً وغير متوافق مع حقوق الإنسان"، وإن إسرائيل كقوة احتلال ملزمة بحماية حقوق الخصوصية للفلسطينيين.
وأضاف: "نحن نتحدث عن بيانات شخصية للغاية مأخوذة من أشخاص لا يشتبه في ارتكابهم جريمة، واستخدامها لتدريب أداة يمكن أن تساعد بعد ذلك في إثبات الشكوك".
وذكر نديم ناشف، مدير "حملة"، وهي مجموعة رقمية تعنى بحقوق الفلسطينيين ومناصرة للقضية الفلسطينية، أن الفلسطينيين "أصبحوا موضوعات في مختبر إسرائيل لتطوير هذه التقنيات وتسليح الذكاء الاصطناعي، وكل ذلك لغرض الحفاظ على نظام الفصل العنصري والاحتلال حيث تُستخدم هذه التقنيات للسيطرة على الناس والسيطرة على حياتهم".
تسهيل عمليات المراقبة
وقال العديد من ضباط الاستخبارات الإسرائيليين الحاليين والسابقين الذين يعرفون نماذج التعلم الآلي الأصغر حجماً التي تستخدمها الوحدة "8200"، والتي كانت بمثابة مقدمة لنموذج التأسيس إن الذكاء الاصطناعي جعل المراقبة الشاملة للفلسطينيين أكثر فعالية كشكل من أشكال السيطرة، وخاصة في الضفة الغربية حيث قالوا إنها ساهمت في زيادة عدد الاعتقالات.
وأفاد اثنان من المصادر للصحيفة بأن النماذج ساعدت جيش الدفاع الإسرائيلي على تحليل المحادثات الهاتفية التي تم اعتراضها تلقائياً من خلال تحديد الفلسطينيين الذين يعبرون عن غضبهم من الاحتلال أو يرغبون في مهاجمة الجنود أو الأشخاص الذين يعيشون في المستوطنات غير القانونية.
وأوضح أحدهم أنه عندما يدخل جيش الدفاع الإسرائيلي القرى في الضفة الغربية، يتم استخدام الذكاء الاصطناعي لتحديد الأشخاص الذين يستخدمون كلمات اعتبرها تشير إلى "إثارة المشاكل".
وأضاف مصدر ثالث: "إنه يسمح لنا بالتصرف بناءً على معلومات من عدد أكبر من الأشخاص، وهذا يسمح بالسيطرة على السكان. عندما تحتفظ بالكثير من المعلومات، يمكنك استخدامها لأي غرض تريده. ولدى جيش الدفاع الإسرائيلي قيود قليلة جداً في هذا الصدد".
"الأخطاء واردة"
بالنسبة لوكالة تجسس، فإن قيمة البرنامج هي أنه يمكن أن يأخذ "كل ما تم جمعه على الإطلاق"، ويكتشف "الارتباطات والأنماط التي يصعب على الإنسان القيام بها بمفرده"، كما قال أوري جوشن، المؤسس المشارك لشركة AI21 Labs للصحيفة.
لكن جوشن، الذي خدم سابقاً في الوحدة "8200"، أضاف: "هذه نماذج احتمالية - تعطيها أمراً أو سؤالاً، وتولد شيئاً يبدو وكأنه سحر. ولكن في كثير من الأحيان، لا معنى للإجابة. نحن نسمي هذا 'الهلوسة'".
تلاحظ بريانا روزن، المسؤولة السابقة للأمن القومي في البيت الأبيض وزميلة باحثة كبيرة في جامعة أكسفورد الآن، أنه في حين أن أداة مثل ChatGPT يمكن أن تساعد محلل الاستخبارات في "اكتشاف التهديدات التي قد يفوتها البشر، حتى قبل ظهورها، إلا أنها تخاطر أيضاً باستخلاص روابط خاطئة واستنتاجات خاطئة".
وقالت إنه من الضروري أن تتمكن وكالات الاستخبارات التي تستخدم هذه الأدوات من فهم المنطق وراء الإجابات التي تنتجها.
وأضافت: "سوف تحدث أخطاء، وقد تكون لبعض هذه الأخطاء عواقب وخيمة للغاية".
في فبراير الماضي، ذكرت وكالة "أسوشيتد برس" أن ضباط الاستخبارات ربما استخدموا الذكاء الاصطناعي للمساعدة في اختيار هدف في غارة جوية إسرائيلية على غزة في نوفمبر 2023 أودت بحياة أربعة أشخاص، بينهم ثلاث فتيات مراهقات. وأشارت رسالة اطلعت عليها وكالة الأنباء إلى أن الغارة الجوية نُفذت عن طريق الخطأ.
ولم يستجب الجيش الإسرائيلي لأسئلة "الجارديان" بشأن كيفية ضمان الوحدة "8200" أن نماذج التعلم الآلي الخاصة بها، بما في ذلك برنامج التعلم الآلي الجديد الذي يجري تطويره، لا تؤدي إلى تفاقم الأخطاء. كما لم يذكر كيف يحمي حقوق الخصوصية للفلسطينيين عند تدريب النماذج ببيانات شخصية حساسة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

تعليم الطائف يطلق البرنامج التدريبي 'البرنامج التطبيقي لأدوات الذكاء الصناعي ' للكادر التعليمي "
تعليم الطائف يطلق البرنامج التدريبي 'البرنامج التطبيقي لأدوات الذكاء الصناعي ' للكادر التعليمي "

غرب الإخبارية

timeمنذ 2 أيام

  • غرب الإخبارية

تعليم الطائف يطلق البرنامج التدريبي 'البرنامج التطبيقي لأدوات الذكاء الصناعي ' للكادر التعليمي "

المصدر - أطلقت الإدارة العامة للتعليم بمحافظةالطائف البرنامج التدريبي التطبيقي 'البرنامج التطبيقي لأدوات الذكاء الصناعي' وذلك ضمن سلسلة البرامج الاختبارية للفترة المسائية، والتي تهدف إلى تنمية المهارات الرقمية الحديثة لدى ' الكادر التعليمي " منسوبي ومنسوبات التعليم، ورفع كفاءتهم في توظيف التقنيات المتقدمة في العملية التعليمية. ويستمر البرنامج لمدة ثلاثة أيام تدريبية، ويتناول محاور متعددة تهدف إلى تمكين الكوادر التربوية من أدوات الذكاء الاصطناعي وتطبيقاته التعليمية، وتشمل: اليوم الأول;مسرّعات التعلم القائمة على الذكاء الاصطناعي و يُركّز هذا المحور على الأدوات والتقنيات التي تسهم في تسريع وتحسين نواتج التعلم من خلال الذكاء الاصطناعي، مع التعريف بمسرّعات التعلم وأهميتها، واستعراض تطبيقات عملية باستخدام أدوات مثل: ChatGPT، Notion AI، Quizizz AI وغيرها. اليوم الثاني؛ مساعد الذكاء الاصطناعي والذكاء الاصطناعي المسؤول، يتناول هذا المحور الاستخدام الآمن والمسؤول لأدوات الذكاء الاصطناعي في البيئة التعليمية، من خلال؛ توظيف المساعدين الذكيين في تصميم الأنشطة التعليمية وخطط الدروس،مناقشة مفاهيم الذكاء الاصطناعي المسؤول (AI Ethics) وأطر الحوكمة الرقمية،تنفيذ تدريبات تفاعلية على كتابة الموجهات (prompts) التعليمية الآمنة والفعالة اليوم الثالث؛ أدوات الذكاء الاصطناعي لدعم ذوي الاحتياجات الخاصة يستعرض هذا المحور مجموعة من التطبيقات الذكية الموجهة لخدمة ودعم الطلاب من ذوي الإعاقات السمعية، البصرية، والذهنية، كما يتناول مفاهيم التعلم التكيفي (Adaptive Learning) لتقديم محتوى تعليمي يتناسب مع الاحتياجات الفردية للمتعلمين، مع دمج أدوات متقدمة في هذا المجال. وأكد المدير العام للتعليم بالطائف الدكتور سعيد بن عبدالله الغامدي:أن هذا البرنامج يأتي امتدادًا لجهود الإدارة في مواكبة التحول الرقمي في التعليم، وسعيها لتأهيل المعلمين والمعلمات بأحدث المهارات والأدوات التقنية، بما يعزز من جودة التعليم ويواكب مستهدفات رؤية المملكة 2030 في تطوير قطاع التعليم.

لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT
لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT

سودارس

timeمنذ 5 أيام

  • سودارس

لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT

الدراسة، التي أجراها باحثون من جامعات كندية وأسترالية، أظهرت أن روبوت الدردشة ChatGPT أظهر في 47% من الحالات سلوكيات مشابهة للتحيزات البشرية، مثل: تجنب المخاطرة، والثقة المفرطة، والتأثر بالنجاح. ورغم تفوقه في حل المسائل الرياضية الواضحة، فإنه واجه صعوبة في المواقف التي تتطلب حكمًا ذاتيًّا، حيث ظهرت ردوده أحيانًا غير عقلانية، كما يحدث مع البشر. ورغم أن GPT-4 أظهر مستوى أعلى من الاتساق مقارنة بالبشر، فقد أظهر أيضًا نزعة للتنبؤية الزائدة؛ ما يجعله أقل عرضة للقرارات العشوائية. لكن هذا الاتساق قد يكون سلاحًا ذا حدين، وفقًا للباحثين. وقد علّق البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا ، قائلًا: "للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريًّا". ويشير الخبراء إلى أن هذه النتائج تؤكد أن الذكاء الاصطناعي ليس مجرد أداة محايدة، بل يحمل بصمات بشرية في طريقة تفكيره؛ ما يثير تساؤلات حول استخدامه في القرارات المهمة.

دراسة: الذكاء الاصطناعي يمكنه تطوير أساليب تواصل شبيهة بالبشر بشكل عفوي
دراسة: الذكاء الاصطناعي يمكنه تطوير أساليب تواصل شبيهة بالبشر بشكل عفوي

الشرق السعودية

timeمنذ 6 أيام

  • الشرق السعودية

دراسة: الذكاء الاصطناعي يمكنه تطوير أساليب تواصل شبيهة بالبشر بشكل عفوي

ذكرت دراسة جديدة أن الذكاء الاصطناعي يمكن أن يطور بشكل عفوي تقاليد اجتماعية مشابهة لتلك التي يتبعها البشر، حسبما ذكرت صحيفة "الجارديان". وأظهرت الدراسة المنشورة في مجلة "ساينس أدفانسيس" (Science Advances) أنه عندما يتواصل وكلاء الذكاء الاصطناعي الذين يعتمدون على النماذج اللغوية الكبيرة (LLM) مثل ChatGPT في مجموعات دون تدخل خارجي، يمكنهم البدء في تبنّي أشكال لغوية ومعايير اجتماعية بالطريقة نفسها التي يفعلها البشر أثناء تفاعلهم الاجتماعي. وقال المؤلف الرئيسي للدراسة، أرييل فلينت أشيري: "يختلف عملنا عن معظم الأبحاث السابقة التي تناولت الذكاء الاصطناعي، حيث كانت تلك الأبحاث تعتبر الذكاء الاصطناعي ككيان منفرد، بينما نحن نظرنا إليه ككائن اجتماعي". وأضاف أشيري: "معظم الأبحاث حتى الآن كانت تتعامل مع النماذج اللغوية الكبيرة بشكل منفصل، لكن أنظمة الذكاء الاصطناعي في العالم الحقيقي ستتضمن في المستقبل العديد من الوكلاء المتفاعلين معاً". وتابع: "أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من خلال تشكيل تقاليد، وهي اللبنات الأساسية للمجتمع؟ الجواب هو نعم، وما يفعلونه معاً لا يمكن تقليصه إلى ما يفعلونه بمفردهم". وتراوحت مجموعات الوكلاء الفرديين للنماذج اللغوية الكبيرة المستخدمة في الدراسة من 24 إلى 100 وكيل، وفي كل تجربة، تم إقران وكيلين عشوائياً، وطُلب منهما اختيار "اسم" من مجموعة من الخيارات، سواء كان حرفاً أو سلسلة من الرموز. عندما اختار الوكيلان الاسم نفسه، تم مكافأتهما، ولكن عندما اختارا خيارات مختلفة، تم معاقبتهما وعُرضت عليهما اختيارات بعضهما البعض. ورغم أن الوكلاء لم يكونوا على دراية بأنهم جزء من مجموعة أكبر، وأن ذاكرتهم كانت محدودة بتفاعلاتهم الأخيرة فقط، فإن تقليداً مشتركاً في التسمية نشأ بشكل عفوي عبر المجموعة دون وجود حل مُسبق، ما يحاكي المعايير التواصلية في الثقافة البشرية. التشابه مع البشر من جانبه، قال المؤلف المشارك في الدراسة، أندريا بارونشيلي، إن انتشار السلوك يشبه عملية خلق كلمات ومصطلحات جديدة في مجتمعنا. وأضاف بارونشيلي: "الوكلاء لا يقلدون قائداً. كلهم يحاولون التنسيق بنشاط، ودائماً في أزواج. كل تفاعل هو محاولة فردية للاتفاق على تسمية، دون أي رؤية شاملة". وتابع: "إنه يشبه مصطلح (Spam). لم يتم تعريفه رسمياً، ولكن من خلال جهود التنسيق المتكررة، أصبحت التسمية العالمية للبريد الإلكتروني غير المرغوب فيه". كما لاحظ الفريق تكوّن تحيزات جماعية بشكل طبيعي لا يمكن تتبعها إلى وكلاء فرديين. وفي تجربة أخيرة، تمكنت مجموعات صغيرة من وكلاء الذكاء الاصطناعي من توجيه المجموعة الأكبر نحو تقليد تسمية جديد. وتم الإشارة إلى ذلك على أنه دليل على ديناميكيات الكتلة الحرجة، حيث يمكن للأقلية الصغيرة، ولكن المصممة أن تؤدي إلى تغيير سريع في سلوك المجموعة بمجرد أن تصل إلى حجم معين، كما يحدث في المجتمع البشري. ورأى بارونشيلي أن الدراسة "تفتح أفقاً جديداً في أبحاث أمان الذكاء الاصطناعي. إنها تُظهر عمق تداعيات هذه الفئة الجديدة من الوكلاء الذين بدأوا في التفاعل معنا، وسيسهمون في تشكيل مستقبلنا". وأردف بالقول: "فهم كيفية عملهم هو المفتاح لقيادة تعايشنا مع الذكاء الاصطناعي، بدلاً من أن نكون خاضعين له. نحن ندخل إلى عالم حيث لا يقتصر الأمر على أن الذكاء الاصطناعي يتحدث فقط، بل يتفاوض، ويتناغم، وأحياناً يختلف بشأن السلوكيات المشتركة، تماماً كما نفعل نحن".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store