أحدث الأخبار مع #آيفيللأعمال


سواليف احمد الزعبي
١٠-٠٥-٢٠٢٥
- علوم
- سواليف احمد الزعبي
متعجرف ومتحيز مثل البشر!.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي
#سواليف كشفت الأبحاث سمة مدهشة مشتركة بين #البشر و #الذكاء_الاصطناعي، حيث يُظهر الأخير نفس الميل للأخطاء والتحيزات المعرفية مثل #الإنسان. على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني. ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن #روبوت_الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر. وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة من تصنيع شركة OpenAI أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية. واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء. وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر. مع ذلك فإن الباحثين يشيرون إلى أن 'GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر'. ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية 'آيفي' للأعمال في كندا:' للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه'.


أخبار ليبيا
٠٩-٠٥-٢٠٢٥
- علوم
- أخبار ليبيا
اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!
في دراسة علمية حديثة، كشف باحثون من جامعات كندية وأسترالية عن سمة مدهشة يشترك فيها الذكاء الاصطناعي مع الإنسان، حيث أظهرت نماذج متقدمة من الذكاء الاصطناعي، مثل ChatGPT، ميلاً لتكرار نفس الأخطاء والتحيزات المعرفية التي يقع فيها البشر. ووفقًا لما نقلته منصة فإن الدراسة وجدت أن روبوت الدردشة ChatGPT، وبالأخص نسختي GPT-3.5 وGPT-4 المطورتين من قبل شركة OpenAI، وقع في 47% من الحالات في أفخاخ معرفية ونفسية شائعة، تشمل سلوكيات مثل تجنب المخاطرة، والثقة الزائدة، وتأثير الإنجاز الشخصي. ورغم تميز GPT-4 في المهام المنطقية والمعادلات الرياضية، حيث كانت نسبة الخطأ فيها أقل، فإن سلوك النموذج في القرارات ذات الطابع الذاتي أو التقديري كشف عن عقلانية غير منطقية مشابهة للسلوك البشري، خاصة عند تقييم الخيارات ذات المخاطر والمكاسب المحتملة. وأوضحت الدراسة أن هذه التحيزات لا تنبع من نقص في قدرات الحساب أو المعالجة، بل من أنماط تعلم النموذج من البيانات البشرية التي تتضمن بطبيعتها هذه الانحيازات. ومع ذلك، أظهر GPT-4 ميلاً أكبر للتنبؤ الدقيق والسلوك الحذر مقارنة بالبشر، مما قد يجعله أداة مفيدة في بعض السيناريوهات شريطة استخدامها بحذر وتحت إشراف بشري. وفي تعليقه على نتائج الدراسة، قال البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية 'آيفي' للأعمال في كندا: 'للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، يُفضّل استخدام الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتعلق الأمر بقرارات استراتيجية أو ذاتية، فإن الإشراف البشري ضروري'. وأضاف تشين محذرًا: 'لا ينبغي اعتبار الذكاء الاصطناعي موظفًا يتخذ قرارات مصيرية من تلقاء نفسه، بل يحتاج إلى رقابة وإرشادات أخلاقية، وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلًا من تحسينه'. وتأتي هذه النتائج في وقت تتزايد فيه الدعوات إلى تنظيم استخدام الذكاء الاصطناعي، وضمان خضوعه لمعايير أخلاقية دقيقة، خصوصًا مع التوسع المتسارع في استخدامه في مجالات حيوية كالصحة، والأعمال، وصناعة القرار السياسي. The post اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر! appeared first on عين ليبيا | آخر أخبار ليبيا. يمكنك ايضا قراءة الخبر في المصدر من موقع عين ليبيا


عين ليبيا
٠٩-٠٥-٢٠٢٥
- علوم
- عين ليبيا
اكتشاف مثير.. الذكاء الاصطناعي متحيز ومتعجرف مثل البشر!
في دراسة علمية حديثة، كشف باحثون من جامعات كندية وأسترالية عن سمة مدهشة يشترك فيها الذكاء الاصطناعي مع الإنسان، حيث أظهرت نماذج متقدمة من الذكاء الاصطناعي، مثل ChatGPT، ميلاً لتكرار نفس الأخطاء والتحيزات المعرفية التي يقع فيها البشر. ووفقًا لما نقلته منصة فإن الدراسة وجدت أن روبوت الدردشة ChatGPT، وبالأخص نسختي GPT-3.5 وGPT-4 المطورتين من قبل شركة OpenAI، وقع في 47% من الحالات في أفخاخ معرفية ونفسية شائعة، تشمل سلوكيات مثل تجنب المخاطرة، والثقة الزائدة، وتأثير الإنجاز الشخصي. ورغم تميز GPT-4 في المهام المنطقية والمعادلات الرياضية، حيث كانت نسبة الخطأ فيها أقل، فإن سلوك النموذج في القرارات ذات الطابع الذاتي أو التقديري كشف عن عقلانية غير منطقية مشابهة للسلوك البشري، خاصة عند تقييم الخيارات ذات المخاطر والمكاسب المحتملة. وأوضحت الدراسة أن هذه التحيزات لا تنبع من نقص في قدرات الحساب أو المعالجة، بل من أنماط تعلم النموذج من البيانات البشرية التي تتضمن بطبيعتها هذه الانحيازات. ومع ذلك، أظهر GPT-4 ميلاً أكبر للتنبؤ الدقيق والسلوك الحذر مقارنة بالبشر، مما قد يجعله أداة مفيدة في بعض السيناريوهات شريطة استخدامها بحذر وتحت إشراف بشري. وفي تعليقه على نتائج الدراسة، قال البروفيسور يانغ تشين، الأستاذ المساعد في قسم الإدارة التشغيلية بكلية 'آيفي' للأعمال في كندا: 'للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، يُفضّل استخدام الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتعلق الأمر بقرارات استراتيجية أو ذاتية، فإن الإشراف البشري ضروري'. وأضاف تشين محذرًا: 'لا ينبغي اعتبار الذكاء الاصطناعي موظفًا يتخذ قرارات مصيرية من تلقاء نفسه، بل يحتاج إلى رقابة وإرشادات أخلاقية، وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلًا من تحسينه'. وتأتي هذه النتائج في وقت تتزايد فيه الدعوات إلى تنظيم استخدام الذكاء الاصطناعي، وضمان خضوعه لمعايير أخلاقية دقيقة، خصوصًا مع التوسع المتسارع في استخدامه في مجالات حيوية كالصحة، والأعمال، وصناعة القرار السياسي.