#أحدث الأخبار مع #بارونتشيللي،Independent عربيةمنذ 15 ساعاتعلومIndependent عربيةأنظمة الذكاء الاصطناعي تصنع مجتمعاتها الخاصة حينما تترك وحيدةتشرع أنظمة الذكاء الاصطناعي في تكوين مجتمعات حينما تترك وحيدة، وفق ما اكتشفه متخصصون. وحينما تتواصل مع بعضها بعضاً ضمن مجموعات، فإنها تستطيع تنظيم نفسها وتشكيل أنواع جديدة من المعايير اللغوية، بطريقة تتشابه كثيراً مع ما يحصل في المجتمعات الإنسانية، وفق علماء. وفي دراسة عن تلك الظاهرة، تحرى البحاثة مجريات التفاعل المتبادل بين النماذج اللغوية الكبرى للذكاء الاصطناعي، على غرار التقنية التي يستند إليها "تشات جي بي تي" وغيره من الأدوات الذكية. وبصورة جزئية، تمثل الهدف من الدراسة في استباق المرحلة التي ستغدو فيها الإنترنت مملوءة بأمثال تلك الأنظمة، فتأخذ في التفاعل وحتى التحادث، مع بعضها بعضاً. وبحسب المؤلف الرئيس لتلك الدراسة، أرييل فلينت آشيري، وهو باحث يعد رسالة دكتوراه في جامعة "سيتي سان جورج"، فإن "معظم الأبحاث تعاملت حتى الآن مع النماذج اللغوية الكبرى كلاً على حدة. ولكن، أنظمة الذكاء الاصطناعي التي تعمل في العالم الفعلي، ستضم مجموعة متزايدة من الوكلاء الأذكياء [على غرار "سيري" Siri و"آليكسا" Alexa و"مانوس" Manus]. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) وأضاف "أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من طريق تشكيل اتفاقات، وهي اللبنات الأساسية للمجتمع؟ وجاءت الإجابة بالإيجاب [بمعنى أن أنظمة الذكاء الاصطناعي تستطيع أن تتفق معاً على طرق معينة في التصرف]. وما يمكنها إنجازه كمجموعة متوافقة لا يمكن اختزاله بما تفعله كل واحدة منها على حدة". ولفهم كيفية تشكل هذه المجتمعات، استخدم البحاثة نموذجاً مستعملاً لدى البشر، ويسمى "لعبة التسمية" naming game. ويتضمن ذلك أن يوضع أشخاص، أو وكلاء الذكاء الاصطناعي، مع بعضهم بعضاً، ثم الطلب منهم اختيار "اسم" من بين مجموعة خيارات، وبعدها تجري مكافأتهم إذا اختاروا كلهم الاسم نفسه. ومع مرور الوقت، لوحظ أن وكلاء الذكاء الاصطناعي شرعوا في إرساء توافقات مشتركة جديدة في ما بينهم، بدت كأنها تنبثق بصورة تلقائية من المجموعة ككل. وجرى ذلك من دون تنسيق أعمالهم أو التشاور معاً على تلك الخطة، وحدث ذلك بالطريقة نفسها التصاعدية التي تتشكل فيها المبادئ داخل الثقافات البشرية. يبدو أن مجموعة وكلاء الذكاء الاصطناعي طورت أيضاً بعض التحيزات التي بدت هي الأخرى ناتجة من التفاعل داخل المجموعة وليس من وكيل معين. ووفق توضيح من أستاذ علم التعقيد في جامعة "سيتي سان جورج"، المؤلف الرئيس للدراسة أندريا بارونتشيللي، "التحيز لا يأتي دائماً من الداخل، لقد فوجئنا برؤية أنه يمكن أن ينشأ بين الوكلاء - فقط من خلال تفاعلاتهم. وتمثل هذه ثغرة بحثية لم تخضع لدراسة كافية في معظم الأعمال المتعلقة بسلامة الذكاء الاصطناعي، التي تركز على كل نموذج الفردية". وكذلك برهن البحاثة على إمكان أن تعمل مجموعة صغيرة من وكلاء الذكاء الاصطناعي على الدفع بمجموعة أكثر عدداً منها، صوب تبني توافق معين. ولقد لوحظ هذا النمط نفسه في المجموعات البشرية أيضاً. ويشير البحاثة إلى أن عملهم يجب أن يستفاد منه في تقصي التشابه والاختلاف بين البشر وأنظمة الذكاء الاصطناعي، خصوصاً مع تزايد هيمنة الأخيرة على الإنترنت، ولعلها أخذت بالتحادث والتعاون بين بعضها بعضاً، من دون أن يكون ذلك معلوماً. ووفق بيان من البروفيسور بارونتشيللي، "تفتح هذه الدراسة آفاقاً جديدة لفهم قضايا أمان الذكاء الاصطناعي. وتظهر جانباً من التداعيات المترتبة على ظهور هذا النوع الجديد من الوكلاء الذين بدأوا في التفاعل معنا، وسيشاركوننا في صياغة مستقبلنا". وأضاف بارونتشيللي، "يشكل التوصل إلى فهم طريقة عملهم [وكلاء الذكاء الاصطناعي] أحد المفاتيح الأساسية في قيادة عيشنا المشترك مع الذكاء الاصطناعي، بدلاً من أن نكون مجرد أدوات في نظامه. نحن نسير صوب عالم لا يكتفي فيه الذكاء الاصطناعي بالتكلم، بل يتفاوض ويتحالف وقد يختلف في بعض الأحيان في شأن سلوكيات مشتركة. ويشبه ذلك ما يحدث معنا [البشر]". وظهرت نتائج ذلك البحث في دراسة حديثة عنوانها "توافقات اجتماعية وانحيازات جمعية انبثقت بين مجاميع النماذج اللغوية الكبرى" Emergent Social Conventions and Collective Bias in LLM Populations. ونشرت الدراسة في مجلة "ساينسس أدفانسيس" (التطورات العلمية) Science Advances.
Independent عربيةمنذ 15 ساعاتعلومIndependent عربيةأنظمة الذكاء الاصطناعي تصنع مجتمعاتها الخاصة حينما تترك وحيدةتشرع أنظمة الذكاء الاصطناعي في تكوين مجتمعات حينما تترك وحيدة، وفق ما اكتشفه متخصصون. وحينما تتواصل مع بعضها بعضاً ضمن مجموعات، فإنها تستطيع تنظيم نفسها وتشكيل أنواع جديدة من المعايير اللغوية، بطريقة تتشابه كثيراً مع ما يحصل في المجتمعات الإنسانية، وفق علماء. وفي دراسة عن تلك الظاهرة، تحرى البحاثة مجريات التفاعل المتبادل بين النماذج اللغوية الكبرى للذكاء الاصطناعي، على غرار التقنية التي يستند إليها "تشات جي بي تي" وغيره من الأدوات الذكية. وبصورة جزئية، تمثل الهدف من الدراسة في استباق المرحلة التي ستغدو فيها الإنترنت مملوءة بأمثال تلك الأنظمة، فتأخذ في التفاعل وحتى التحادث، مع بعضها بعضاً. وبحسب المؤلف الرئيس لتلك الدراسة، أرييل فلينت آشيري، وهو باحث يعد رسالة دكتوراه في جامعة "سيتي سان جورج"، فإن "معظم الأبحاث تعاملت حتى الآن مع النماذج اللغوية الكبرى كلاً على حدة. ولكن، أنظمة الذكاء الاصطناعي التي تعمل في العالم الفعلي، ستضم مجموعة متزايدة من الوكلاء الأذكياء [على غرار "سيري" Siri و"آليكسا" Alexa و"مانوس" Manus]. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) وأضاف "أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من طريق تشكيل اتفاقات، وهي اللبنات الأساسية للمجتمع؟ وجاءت الإجابة بالإيجاب [بمعنى أن أنظمة الذكاء الاصطناعي تستطيع أن تتفق معاً على طرق معينة في التصرف]. وما يمكنها إنجازه كمجموعة متوافقة لا يمكن اختزاله بما تفعله كل واحدة منها على حدة". ولفهم كيفية تشكل هذه المجتمعات، استخدم البحاثة نموذجاً مستعملاً لدى البشر، ويسمى "لعبة التسمية" naming game. ويتضمن ذلك أن يوضع أشخاص، أو وكلاء الذكاء الاصطناعي، مع بعضهم بعضاً، ثم الطلب منهم اختيار "اسم" من بين مجموعة خيارات، وبعدها تجري مكافأتهم إذا اختاروا كلهم الاسم نفسه. ومع مرور الوقت، لوحظ أن وكلاء الذكاء الاصطناعي شرعوا في إرساء توافقات مشتركة جديدة في ما بينهم، بدت كأنها تنبثق بصورة تلقائية من المجموعة ككل. وجرى ذلك من دون تنسيق أعمالهم أو التشاور معاً على تلك الخطة، وحدث ذلك بالطريقة نفسها التصاعدية التي تتشكل فيها المبادئ داخل الثقافات البشرية. يبدو أن مجموعة وكلاء الذكاء الاصطناعي طورت أيضاً بعض التحيزات التي بدت هي الأخرى ناتجة من التفاعل داخل المجموعة وليس من وكيل معين. ووفق توضيح من أستاذ علم التعقيد في جامعة "سيتي سان جورج"، المؤلف الرئيس للدراسة أندريا بارونتشيللي، "التحيز لا يأتي دائماً من الداخل، لقد فوجئنا برؤية أنه يمكن أن ينشأ بين الوكلاء - فقط من خلال تفاعلاتهم. وتمثل هذه ثغرة بحثية لم تخضع لدراسة كافية في معظم الأعمال المتعلقة بسلامة الذكاء الاصطناعي، التي تركز على كل نموذج الفردية". وكذلك برهن البحاثة على إمكان أن تعمل مجموعة صغيرة من وكلاء الذكاء الاصطناعي على الدفع بمجموعة أكثر عدداً منها، صوب تبني توافق معين. ولقد لوحظ هذا النمط نفسه في المجموعات البشرية أيضاً. ويشير البحاثة إلى أن عملهم يجب أن يستفاد منه في تقصي التشابه والاختلاف بين البشر وأنظمة الذكاء الاصطناعي، خصوصاً مع تزايد هيمنة الأخيرة على الإنترنت، ولعلها أخذت بالتحادث والتعاون بين بعضها بعضاً، من دون أن يكون ذلك معلوماً. ووفق بيان من البروفيسور بارونتشيللي، "تفتح هذه الدراسة آفاقاً جديدة لفهم قضايا أمان الذكاء الاصطناعي. وتظهر جانباً من التداعيات المترتبة على ظهور هذا النوع الجديد من الوكلاء الذين بدأوا في التفاعل معنا، وسيشاركوننا في صياغة مستقبلنا". وأضاف بارونتشيللي، "يشكل التوصل إلى فهم طريقة عملهم [وكلاء الذكاء الاصطناعي] أحد المفاتيح الأساسية في قيادة عيشنا المشترك مع الذكاء الاصطناعي، بدلاً من أن نكون مجرد أدوات في نظامه. نحن نسير صوب عالم لا يكتفي فيه الذكاء الاصطناعي بالتكلم، بل يتفاوض ويتحالف وقد يختلف في بعض الأحيان في شأن سلوكيات مشتركة. ويشبه ذلك ما يحدث معنا [البشر]". وظهرت نتائج ذلك البحث في دراسة حديثة عنوانها "توافقات اجتماعية وانحيازات جمعية انبثقت بين مجاميع النماذج اللغوية الكبرى" Emergent Social Conventions and Collective Bias in LLM Populations. ونشرت الدراسة في مجلة "ساينسس أدفانسيس" (التطورات العلمية) Science Advances.