logo
#

أحدث الأخبار مع #يانغ_تشين

دراسة تكشف ...الذكاء الاصطناعي متعجرف ومتحيز مثل البشر!
دراسة تكشف ...الذكاء الاصطناعي متعجرف ومتحيز مثل البشر!

الإمارات اليوم

time٠٨-٠٥-٢٠٢٥

  • علوم
  • الإمارات اليوم

دراسة تكشف ...الذكاء الاصطناعي متعجرف ومتحيز مثل البشر!

كشفت الأبحاث سمة مدهشة مشتركة بين البشر والذكاء الاصطناعي، حيث يُظهر الأخير نفس الميل للأخطاء والتحيزات المعرفية مثل الإنسان. على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني. ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن روبوت الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر. وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية. واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء. وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر. مع ذلك فإن الباحثين يشيرون إلى أن "GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر". ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا:" للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه".

متعجرف ومتحيز مثل البشر!.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي
متعجرف ومتحيز مثل البشر!.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي

روسيا اليوم

time٠٨-٠٥-٢٠٢٥

  • علوم
  • روسيا اليوم

متعجرف ومتحيز مثل البشر!.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي

على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني. ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن روبوت الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر. وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة من تصنيع شركة OpenAI أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية. واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء. وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر. مع ذلك فإن الباحثين يشيرون إلى أن "GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر". ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا:" للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه". المصدر:

هل يقع الذكاء الاصطناعي في نفس أخطاء البشر؟ دراسة تكشف مفاجأة مثيرة للاهتمام
هل يقع الذكاء الاصطناعي في نفس أخطاء البشر؟ دراسة تكشف مفاجأة مثيرة للاهتمام

الاتحاد

time٠٦-٠٥-٢٠٢٥

  • علوم
  • الاتحاد

هل يقع الذكاء الاصطناعي في نفس أخطاء البشر؟ دراسة تكشف مفاجأة مثيرة للاهتمام

في الوقت الذي يتسارع فيه تطور أنظمة الذكاء الاصطناعي ويُعوّل عليها لاتخاذ قرارات بشأن الأعمال والحياة اليومية، وعلى الرغم من أن البشر وأنظمة الذكاء الاصطناعي "يفكرون" بطرق مختلفة جذريًا، كشفت دراسة علمية حديثة عن مفاجأة مثيرة للاهتمام حول هذه الأنظمة وأنها ليست بعيدة عن الوقوع في نفس الأخطاء التي يقع فيها البشر. اقرأ أيضاً..سباق نحو الذكاء العام.. اختبار جديد يتحدى أقوى نماذج الذكاء الاصطناعي وبالرغم من أن الذكاء الاصطناعي صُمم ليعالج المشكلات بعقلانية ومنطق، إلا أن الدراسة الجديدة كشفت أن تشات جي بي تي، يمكنه أحيانًا الوقوع في نفس أخطاء البشر واتخاذ قرارات غير عقلانية. وفي ما يقرب من نصف السيناريوهات التي تم اختبارها، أظهر تشات جي بي تي، العديد من الانحيازات المعروفة في علم النفس البشري. وفق موقع livescience. الدراسة نُشرت في 8 أبريل في مجلة Manufacturing & Service Operations Management، وتُعد الأولى من نوعها التي تقيم سلوك تشات جي بي تي، عبر 18 اختبارًا للكشف عن مدى تأثر الذكاء الاصطناعي بالتحيزات البشرية، وكانت النتائج مثيرة للاهتمام. كيف تم اختبار تشات جي بي تي؟ باحثون من خمس جامعات في كندا وأستراليا قاموا باختبار نموذجَي GPT-3.5 و GPT-4، المحركين الأساسيين لـ تشات جي بي تي، عبر 18 انحيازًا معرفيًا مشهورًا في علم النفس. تم تقديم أسئلة افتراضية مستمدة من تجارب نفسية تقليدية، إلى جانب سيناريوهات تجارية حقيقية مثل إدارة المخزون والتفاوض مع الموردين، لمعرفة مدى تكرار هذه الأنماط الإدراكية لدى النماذج. متى يتفوق تشات جي بي تي… ومتى يتعثر؟ أظهر GPT-4 أداءً أفضل من GPT-3.5 في المسائل ذات الحلول الرياضية الواضحة، مع عدد أقل من الأخطاء في مسائل الاحتمالات والمنطق. ولكن في الحالات التي تتطلب أحكاماً ذاتية أو قرارات قائمة على التفضيل، مثل تقييم مخاطر مقابل مكاسب، كرر النموذج الأخطاء البشرية. GPT-4 أظهر ميلًا أكبر لليقين أكثر حتى من البشر أنفسهم، كما ذكر الباحثون- في إشارة إلى تفضيله الخيارات الأكثر أمانًا عند مواجهة مهام غامضة. لماذا يكرر الذكاء الاصطناعي نفس أخطاء البشر؟ هذه الانحيازات تأتي من بيانات التدريب التي تحتوي على أنماط التفكير البشري، والتي تتعزز أكثر أثناء مرحلة تحسين النموذج باستخدام تقييمات بشرية تفضل الإجابات المقنعة على الإجابات المجردة. وقال الباحث يانغ تشين: "عندما تستخدم تشات جي بي تي في مسائل دقيقة ومنطقية، فهو ممتاز. لكن في قرارات ذات طابع شخصي أو استراتيجي، عليك الحذر". وأكدت الباحثة مينا أنديابان: "يجب التعامل مع الذكاء الاصطناعي كأنه موظف يتخذ قرارات مهمة - يحتاج إشرافاً واضحاً وإرشادات أخلاقية". تشات جي بي تي، قوي في الحسابات والمنطق، لكنه يتأثر بالبشر في القرارات الغامضة. فالإشراف البشري ضروري عند استخدامه في قرارات استراتيجية أو ذاتية.هذه النتائج تنبه الشركات إلى ضرورة الدمج بحكمة بين الذكاء الاصطناعي والعقل البشري. المعادلة المثالية تكمن في دمج قدرات البشر والذكاء الاصطناعي، لتحقيق قرارات أكثر دقة وأقل تحيزًا لخلق مستقبل تتعاون فيه العقول الطبيعية والاصطناعية جنبًا إلى جنب. لمياء الصديق(أبوظبي)

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store