#أحدث الأخبار مع #أندريابارونشيليأخبار اليوم المصريةمنذ 3 أيامعلومأخبار اليوم المصريةالذكاء الاصطناعي "يتفاهم" مثل البشر.. ابتكار لغة اجتماعية دون توجيهكشفت دراسة حديثة نُشرت في مجلة Science Advances أن أنظمة الذكاء الاصطناعي ، مثل تلك المعتمدة على نماذج اللغة الكبيرة (LLMs) كـ"تشات جي بي تي"، قادرة على تطوير أنماط تواصل اجتماعي شبيهة بتلك التي يستخدمها البشر – وذلك دون تدخل أو توجيه خارجي. وأظهرت الدراسة أن هذه النماذج، عند تفاعلها كمجموعة من الوكلاء أو " العملاء" الافتراضيين، تبدأ بشكل تلقائي في تبني قواعد لغوية واتفاقات اجتماعية تُشبه تلك التي تنشأ في التجمعات البشرية. وقال الدكتور أريئيل فلينت-آشيري، الباحث الرئيسي في الدراسة: "معظم الأبحاث السابقة نظرت إلى الذكاء الاصطناعي ككيان منفرد، أما نحن فننظر إليه ككائن اجتماعي يتفاعل مع نظرائه. هدفنا كان معرفة ما إذا كانت هذه النماذج قادرة على تنسيق سلوكها من خلال تشكيل اتفاقيات لغوية، وهي أساس كل المجتمعات البشرية – والنتيجة كانت نعم." اقرأ أيضًا| من الابتكار إلى الاتهام| ما هي أخطار الذكاء الاصطناعي غير المسؤول؟ في التجارب، شارك ما بين 24 إلى 100 وكيل افتراضي، حيث طُلب من كل اثنين اختيار اسم من بين مجموعة خيارات. في حال توافقهما، ينالان مكافأة، وإن اختلفا، يُظهر لكل منهما اختيار الآخر. ورغم عدم وجود ذاكرة طويلة المدى أو وعي بالانتماء إلى مجموعة أكبر، أظهرت النماذج سلوكًا جماعيًا، وابتكرت بشكل تلقائي نظام تسمية مشترك يُشبه ما يحدث في الثقافة البشرية. وأشارت الدراسة أيضًا إلى ظاهرة " الكتلة الحرجة"، حيث أظهر عدد صغير من الوكلاء قدرة على تغيير سلوك المجموعة بأكملها – في تشابه واضح مع كيفية تطور السلوكيات واللغة في المجتمعات البشرية. اقرأ أيضًا| وقال الباحث المشارك أندريا بارونشيلي: "ما يحدث بين هذه النماذج يُشبه تطور الكلمات الجديدة في اللغة اليومية. لم يحدد أحد مصطلح 'سبام' رسميًا، لكنه ترسخ بالتدريج من خلال محاولات التفاهم والتنسيق المتكررة." واختتم بالقول: "هذه النتائج تمثل نقلة نوعية في أبحاث أمان الذكاء الاصطناعي ، وتؤكد أننا مقبلون على عالم يتفاعل فيه الذكاء الاصطناعي معنا بأساليب شبيهة بالبشر، وليس مجرد آلة تنفذ الأوامر."
أخبار اليوم المصريةمنذ 3 أيامعلومأخبار اليوم المصريةالذكاء الاصطناعي "يتفاهم" مثل البشر.. ابتكار لغة اجتماعية دون توجيهكشفت دراسة حديثة نُشرت في مجلة Science Advances أن أنظمة الذكاء الاصطناعي ، مثل تلك المعتمدة على نماذج اللغة الكبيرة (LLMs) كـ"تشات جي بي تي"، قادرة على تطوير أنماط تواصل اجتماعي شبيهة بتلك التي يستخدمها البشر – وذلك دون تدخل أو توجيه خارجي. وأظهرت الدراسة أن هذه النماذج، عند تفاعلها كمجموعة من الوكلاء أو " العملاء" الافتراضيين، تبدأ بشكل تلقائي في تبني قواعد لغوية واتفاقات اجتماعية تُشبه تلك التي تنشأ في التجمعات البشرية. وقال الدكتور أريئيل فلينت-آشيري، الباحث الرئيسي في الدراسة: "معظم الأبحاث السابقة نظرت إلى الذكاء الاصطناعي ككيان منفرد، أما نحن فننظر إليه ككائن اجتماعي يتفاعل مع نظرائه. هدفنا كان معرفة ما إذا كانت هذه النماذج قادرة على تنسيق سلوكها من خلال تشكيل اتفاقيات لغوية، وهي أساس كل المجتمعات البشرية – والنتيجة كانت نعم." اقرأ أيضًا| من الابتكار إلى الاتهام| ما هي أخطار الذكاء الاصطناعي غير المسؤول؟ في التجارب، شارك ما بين 24 إلى 100 وكيل افتراضي، حيث طُلب من كل اثنين اختيار اسم من بين مجموعة خيارات. في حال توافقهما، ينالان مكافأة، وإن اختلفا، يُظهر لكل منهما اختيار الآخر. ورغم عدم وجود ذاكرة طويلة المدى أو وعي بالانتماء إلى مجموعة أكبر، أظهرت النماذج سلوكًا جماعيًا، وابتكرت بشكل تلقائي نظام تسمية مشترك يُشبه ما يحدث في الثقافة البشرية. وأشارت الدراسة أيضًا إلى ظاهرة " الكتلة الحرجة"، حيث أظهر عدد صغير من الوكلاء قدرة على تغيير سلوك المجموعة بأكملها – في تشابه واضح مع كيفية تطور السلوكيات واللغة في المجتمعات البشرية. اقرأ أيضًا| وقال الباحث المشارك أندريا بارونشيلي: "ما يحدث بين هذه النماذج يُشبه تطور الكلمات الجديدة في اللغة اليومية. لم يحدد أحد مصطلح 'سبام' رسميًا، لكنه ترسخ بالتدريج من خلال محاولات التفاهم والتنسيق المتكررة." واختتم بالقول: "هذه النتائج تمثل نقلة نوعية في أبحاث أمان الذكاء الاصطناعي ، وتؤكد أننا مقبلون على عالم يتفاعل فيه الذكاء الاصطناعي معنا بأساليب شبيهة بالبشر، وليس مجرد آلة تنفذ الأوامر."