logo
#

أحدث الأخبار مع #كاليفورنياساندييجو

تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر
تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

ليبانون 24

time٠٥-٠٤-٢٠٢٥

  • علوم
  • ليبانون 24

تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

صُممت روبوتات الدردشة الذكية، مثل ChatGPT، لمحاكاة الكلام البشري بأكبر قدر ممكن لتحسين تجربة المستخدم، ولكن مع تزايد تطور الذكاء الاصطناعي، أصبح من الصعب التمييز بين هذه النماذج المحوسبة والأشخاص الحقيقيين، حيث كشف علماء في جامعة كاليفورنيا سان دييجو (UCSD) أن اثنين من روبوتات الدردشة الرائدة قد حققا إنجازًا كبيرًا، من خلال اجتياز اختبار تورينج الشهير. وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن هذه الروبوتات تشمل GPT، الذي يُشغل ChatGPT من OpenAI، وLLaMa، الذي يقف وراء Meta AI على WhatsApp وFacebook. ابتكر آلان تورينج، عالم فك الشفرات البريطاني خلال الحرب العالمية الثانية، اختبار تورينج أو "لعبة المحاكاة" عام 1950، وهو مقياس قياسي لاختبار ذكاء الآلة. يجتاز الذكاء الاصطناعي الاختبار عندما لا يستطيع الإنسان التمييز بشكل صحيح بين استجابة إنسان آخر واستجابة الذكاء الاصطناعي. يقول علماء جامعة كاليفورنيا سان دييجو: "تُشكل هذه النتائج أول دليل تجريبي على أن أي نظام اصطناعي يمكنه يجتاز اختبار تورينج القياسي ثلاثي الأطراف". إذا لم يتمكن المحققون من التمييز بشكل موثوق بين الإنسان والآلة، فيُقال إن الآلة قد نجحت. واستخدم الباحثون أربعة نماذج ذكاء اصطناعي، GPT-4.5، وإصدار سابق يُسمى GPT-4o، ونموذج Meta الرائد LLaMa، وبرنامج دردشة من حقبة الستينيات يُسمى ELIZA. النماذج الثلاثة الأولى هي "نماذج لغوية كبيرة" (LLMs)، وهي خوارزميات تعلم عميق يمكنها التعرف على النصوص وتوليدها بناءً على المعرفة المكتسبة من مجموعات بيانات ضخمة. اختار الخبراء 126 طالبًا جامعيًا من جامعة كاليفورنيا في سان دييجو و158 شخصًا من مجموعة البيانات عبر الإنترنت Prolific. أجرى المشاركون محادثات عبر الإنترنت لمدة خمس دقائق في وقت واحد مع مشارك بشري آخر وأحد أنظمة الذكاء الاصطناعي، لكنهم لم يعرفوا أيهما كان، وكان عليهم الحكم على أيهما اعتقدوا أنه بشري. عندما طلب منه تبني شخصية بشرية، اعتُبر GPT-4.5 هو الإنسان بنسبة 73%، أكثر من اختيار المشارك البشري الحقيقي، في الوقت نفسه، عندما طُلب من ميتا أيضًا تبني شخصية بشرية، اعتُبر LLaMa-3.1 هو الإنسان بنسبة 56%. فيما حققت النماذج الأساسية (ELIZA وGPT-4o) معدلات فوز أقل بكثير من الصدفة - 23% و21% على التوالي. (اليوم السابع)

أخبار التكنولوجيا : تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر
أخبار التكنولوجيا : تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

نافذة على العالم

time٠٥-٠٤-٢٠٢٥

  • علوم
  • نافذة على العالم

أخبار التكنولوجيا : تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

السبت 5 أبريل 2025 03:00 مساءً نافذة على العالم - صُممت روبوتات الدردشة الذكية، مثل ChatGPT، لمحاكاة الكلام البشري بأكبر قدر ممكن لتحسين تجربة المستخدم، ولكن مع تزايد تطور الذكاء الاصطناعي، أصبح من الصعب التمييز بين هذه النماذج المحوسبة والأشخاص الحقيقيين، حيث كشف علماء في جامعة كاليفورنيا سان دييجو (UCSD) أن اثنين من روبوتات الدردشة الرائدة قد حققا إنجازًا كبيرًا، من خلال اجتياز اختبار تورينج الشهير. وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن هذه الروبوتات تشمل GPT، الذي يُشغل ChatGPT من OpenAI، وLLaMa، الذي يقف وراء Meta AI على WhatsApp وFacebook. ابتكر آلان تورينج، عالم فك الشفرات البريطاني خلال الحرب العالمية الثانية، اختبار تورينج أو "لعبة المحاكاة" عام 1950، وهو مقياس قياسي لاختبار ذكاء الآلة. يجتاز الذكاء الاصطناعي الاختبار عندما لا يستطيع الإنسان التمييز بشكل صحيح بين استجابة إنسان آخر واستجابة الذكاء الاصطناعي. يقول علماء جامعة كاليفورنيا سان دييجو: "تُشكل هذه النتائج أول دليل تجريبي على أن أي نظام اصطناعي يمكنه يجتاز اختبار تورينج القياسي ثلاثي الأطراف". إذا لم يتمكن المحققون من التمييز بشكل موثوق بين الإنسان والآلة، فيُقال إن الآلة قد نجحت. واستخدم الباحثون أربعة نماذج ذكاء اصطناعي، GPT-4.5، وإصدار سابق يُسمى GPT-4o، ونموذج Meta الرائد LLaMa، وبرنامج دردشة من حقبة الستينيات يُسمى ELIZA. النماذج الثلاثة الأولى هي "نماذج لغوية كبيرة" (LLMs)، وهي خوارزميات تعلم عميق يمكنها التعرف على النصوص وتوليدها بناءً على المعرفة المكتسبة من مجموعات بيانات ضخمة. اختار الخبراء 126 طالبًا جامعيًا من جامعة كاليفورنيا في سان دييجو و158 شخصًا من مجموعة البيانات عبر الإنترنت Prolific. أجرى المشاركون محادثات عبر الإنترنت لمدة خمس دقائق في وقت واحد مع مشارك بشري آخر وأحد أنظمة الذكاء الاصطناعي، لكنهم لم يعرفوا أيهما كان، وكان عليهم الحكم على أيهما اعتقدوا أنه بشري. عندما طلب منه تبني شخصية بشرية، اعتُبر GPT-4.5 هو الإنسان بنسبة 73%، أكثر من اختيار المشارك البشري الحقيقي، في الوقت نفسه، عندما طُلب من ميتا أيضًا تبني شخصية بشرية، اعتُبر LLaMa-3.1 هو الإنسان بنسبة 56%. فيما حققت النماذج الأساسية (ELIZA وGPT-4o) معدلات فوز أقل بكثير من الصدفة - 23% و21% على التوالي.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store