logo
#

أحدث الأخبار مع #يانغتشين،

لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT
لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT

سودارس

timeمنذ 6 أيام

  • علوم
  • سودارس

لا تعتمد عليه.. دراسة تكشف معلومات صادمة عن ChatGPT

الدراسة، التي أجراها باحثون من جامعات كندية وأسترالية، أظهرت أن روبوت الدردشة ChatGPT أظهر في 47% من الحالات سلوكيات مشابهة للتحيزات البشرية، مثل: تجنب المخاطرة، والثقة المفرطة، والتأثر بالنجاح. ورغم تفوقه في حل المسائل الرياضية الواضحة، فإنه واجه صعوبة في المواقف التي تتطلب حكمًا ذاتيًّا، حيث ظهرت ردوده أحيانًا غير عقلانية، كما يحدث مع البشر. ورغم أن GPT-4 أظهر مستوى أعلى من الاتساق مقارنة بالبشر، فقد أظهر أيضًا نزعة للتنبؤية الزائدة؛ ما يجعله أقل عرضة للقرارات العشوائية. لكن هذا الاتساق قد يكون سلاحًا ذا حدين، وفقًا للباحثين. وقد علّق البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا ، قائلًا: "للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريًّا". ويشير الخبراء إلى أن هذه النتائج تؤكد أن الذكاء الاصطناعي ليس مجرد أداة محايدة، بل يحمل بصمات بشرية في طريقة تفكيره؛ ما يثير تساؤلات حول استخدامه في القرارات المهمة.

اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!
اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!

أخبار ليبيا

time٠٩-٠٥-٢٠٢٥

  • علوم
  • أخبار ليبيا

اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!

في دراسة علمية حديثة، كشف باحثون من جامعات كندية وأسترالية عن سمة مدهشة يشترك فيها الذكاء الاصطناعي مع الإنسان، حيث أظهرت نماذج متقدمة من الذكاء الاصطناعي، مثل ChatGPT، ميلاً لتكرار نفس الأخطاء والتحيزات المعرفية التي يقع فيها البشر. ووفقًا لما نقلته منصة فإن الدراسة وجدت أن روبوت الدردشة ChatGPT، وبالأخص نسختي GPT-3.5 وGPT-4 المطورتين من قبل شركة OpenAI، وقع في 47% من الحالات في أفخاخ معرفية ونفسية شائعة، تشمل سلوكيات مثل تجنب المخاطرة، والثقة الزائدة، وتأثير الإنجاز الشخصي. ورغم تميز GPT-4 في المهام المنطقية والمعادلات الرياضية، حيث كانت نسبة الخطأ فيها أقل، فإن سلوك النموذج في القرارات ذات الطابع الذاتي أو التقديري كشف عن عقلانية غير منطقية مشابهة للسلوك البشري، خاصة عند تقييم الخيارات ذات المخاطر والمكاسب المحتملة. وأوضحت الدراسة أن هذه التحيزات لا تنبع من نقص في قدرات الحساب أو المعالجة، بل من أنماط تعلم النموذج من البيانات البشرية التي تتضمن بطبيعتها هذه الانحيازات. ومع ذلك، أظهر GPT-4 ميلاً أكبر للتنبؤ الدقيق والسلوك الحذر مقارنة بالبشر، مما قد يجعله أداة مفيدة في بعض السيناريوهات شريطة استخدامها بحذر وتحت إشراف بشري. وفي تعليقه على نتائج الدراسة، قال البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية 'آيفي' للأعمال في كندا: 'للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، يُفضّل استخدام الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتعلق الأمر بقرارات استراتيجية أو ذاتية، فإن الإشراف البشري ضروري'. وأضاف تشين محذرًا: 'لا ينبغي اعتبار الذكاء الاصطناعي موظفًا يتخذ قرارات مصيرية من تلقاء نفسه، بل يحتاج إلى رقابة وإرشادات أخلاقية، وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلًا من تحسينه'. وتأتي هذه النتائج في وقت تتزايد فيه الدعوات إلى تنظيم استخدام الذكاء الاصطناعي، وضمان خضوعه لمعايير أخلاقية دقيقة، خصوصًا مع التوسع المتسارع في استخدامه في مجالات حيوية كالصحة، والأعمال، وصناعة القرار السياسي. The post اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر! appeared first on عين ليبيا | آخر أخبار ليبيا. يمكنك ايضا قراءة الخبر في المصدر من موقع عين ليبيا

اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!
اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!

عين ليبيا

time٠٩-٠٥-٢٠٢٥

  • علوم
  • عين ليبيا

اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!

في دراسة علمية حديثة، كشف باحثون من جامعات كندية وأسترالية عن سمة مدهشة يشترك فيها الذكاء الاصطناعي مع الإنسان، حيث أظهرت نماذج متقدمة من الذكاء الاصطناعي، مثل ChatGPT، ميلاً لتكرار نفس الأخطاء والتحيزات المعرفية التي يقع فيها البشر. ووفقًا لما نقلته منصة فإن الدراسة وجدت أن روبوت الدردشة ChatGPT، وبالأخص نسختي GPT-3.5 وGPT-4 المطورتين من قبل شركة OpenAI، وقع في 47% من الحالات في أفخاخ معرفية ونفسية شائعة، تشمل سلوكيات مثل تجنب المخاطرة، والثقة الزائدة، وتأثير الإنجاز الشخصي. ورغم تميز GPT-4 في المهام المنطقية والمعادلات الرياضية، حيث كانت نسبة الخطأ فيها أقل، فإن سلوك النموذج في القرارات ذات الطابع الذاتي أو التقديري كشف عن عقلانية غير منطقية مشابهة للسلوك البشري، خاصة عند تقييم الخيارات ذات المخاطر والمكاسب المحتملة. وأوضحت الدراسة أن هذه التحيزات لا تنبع من نقص في قدرات الحساب أو المعالجة، بل من أنماط تعلم النموذج من البيانات البشرية التي تتضمن بطبيعتها هذه الانحيازات. ومع ذلك، أظهر GPT-4 ميلاً أكبر للتنبؤ الدقيق والسلوك الحذر مقارنة بالبشر، مما قد يجعله أداة مفيدة في بعض السيناريوهات شريطة استخدامها بحذر وتحت إشراف بشري. وفي تعليقه على نتائج الدراسة، قال البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية 'آيفي' للأعمال في كندا: 'للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، يُفضّل استخدام الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتعلق الأمر بقرارات استراتيجية أو ذاتية، فإن الإشراف البشري ضروري'. وأضاف تشين محذرًا: 'لا ينبغي اعتبار الذكاء الاصطناعي موظفًا يتخذ قرارات مصيرية من تلقاء نفسه، بل يحتاج إلى رقابة وإرشادات أخلاقية، وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلًا من تحسينه'. وتأتي هذه النتائج في وقت تتزايد فيه الدعوات إلى تنظيم استخدام الذكاء الاصطناعي، وضمان خضوعه لمعايير أخلاقية دقيقة، خصوصًا مع التوسع المتسارع في استخدامه في مجالات حيوية كالصحة، والأعمال، وصناعة القرار السياسي.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store