
متعجرف ومتحيز مثل البشر.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي
كشفت الأبحاث سمة مدهشة مشتركة بين البشر والذكاء الاصطناعي، حيث يُظهر الأخير نفس الميل للأخطاء والتحيزات المعرفية مثل الإنسان، حسبما ذكرت روسيا اليوم.
موضوعات مقترحة
على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني.
ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن روبوت الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر.
وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة من تصنيع شركة OpenAI أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية.
واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء.
وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر.
ومع ذلك فإن الباحثين يشيرون إلى أن "GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر".
ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا:" للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


جريدة المال
منذ 37 دقائق
- جريدة المال
بالخطوات.. كيفية تعيين «ChatGPT» مساعد صوتي افتراضي بدلا من «جيميناي»
أصدرت "أوبن إيه آي" المتخصصة في الذكاء الاصطناعي التوليدي إصدارا تجريبيا جديدا يمكن من خلاله أن يجعل المستخدم أداة ChatGPT هي المساعد الصوتي الافتراضي بدلا من جيميناي من جوجل. مع ذلك، ما تزال النسخة الجديدة من الأداة بخياراتك محدودة على حد ما، على سبيل المثال، تنشيطه سيكون يدويًا، ولن يتمكن المستخدم من استخدام ChatGPT للتحكم في جهاز أندرويد الخاص به أيضًا، لذا سيظل محتاجا إلى جيميناي. ولتفعيل المساعد الصوتي من "شات جي بي تي" في النسخة الجديدة اتبع الخطوات التالية: 1 افتح متجر جوجل بلاي يجب عليك الانضمام إلى برنامج ChatGPT التجريبي. للقيام بذلك، افتح متجر Play وابحث عن ChatGPT، الخطوة التالية عند عرض صفحة وصف التطبيق، مرر للأسفل وانقر على "انضمام" في قسم "الانضمام إلى الإصدار التجريبي". عند طلب التأكيد، حدد "انضمام" مرة أخرى. 2 تبت على الجهاز "شات جي بي تي" وبالتالي استبدل بهذه الخطوة "جيميناي" بـ ChatGPT كمساعد افتراضي في أندرويد، قد تستغرق إضافة حسابك إلى البرنامج بضع دقائق، ولكن بمجرد الانتهاء، يمكنك تثبيت ChatGPT على الجهاز، افتح تطبيق ChatGPT وسجّل الدخول أو أنشئ حسابًا. 3 انتقل إلى إعداد جهاز الأندرويد الآن افتح إعدادات جهازك واختر "التطبيقات" من القائمة. 4. اختر التطبيقات الافتراضية بعد ذلك، اختر "اختيار التطبيقات الافتراضية" (قد تكون أعلى الشاشة)، ثم اختر "تطبيق المساعد الرقمي" Digital assistant app، الذي سيكون معيَّن افتراضيًا على جوجل. 5. غيّر الإعدادات الافتراضية اختر تطبيق المساعد الرقمي مرة أخرى، وسترى ChatGPT مُدرجًا كخيار بديل. 6. تفعيل ChatGPT لتفعيل ChatGPT، يمكنك الضغط مطولًا على زر الصفحة الرئيسية أو التمرير سريعًا من الزاوية السفلية، حسب استخدامك للتنقل بثلاثة أزرار أو بالإيماءات.


جريدة المال
منذ 2 ساعات
- جريدة المال
رئيس OpenAI يستعين بمصمم شهير لتطوير جهاز ذكاء اصطناعي بقدرات فائقة
أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن تعاون جديد مع المصمم الشهير جوني آيف، أحد أبرز العقول الإبداعية في آبل، وصاحب البصمة الشهيرة في تصميم جهاز آيفون، لتطوير جهاز ذكاء اصطناعي قابل للارتداء يتمتع بقدرات فائقة على التفاعل مع محيط المستخدم وفهم حياته بالكامل. وبحسب تقرير لصحيفة "وول ستريت جورنال"، فقد أبلغ ألتمان موظفيه مؤخرًا أن المشروع الجديد، الذي يحمل اسمًا سريًا حتى الآن، يهدف إلى إنتاج ما يُعرف بـ"رفيق الذكاء الاصطناعي"، وهو جهاز صغير الحجم يمكن وضعه في الجيب أو على المكتب، ويتمتع بوعي دائم بمحيط مستخدمه. ووجّه ألتمان فريقه إلى الاستعداد لشحن 100 مليون وحدة من هذا الجهاز بمجرد دخوله مرحلة الإنتاج. يأتي هذا الإعلان بعد استحواذ OpenAI على شركة الذكاء الاصطناعي الناشئة io، التي أسسها عدد من المهندسين السابقين في شركة Apple، والتي كانت تعمل بالتعاون مع مجموعة آيف الإبداعية LoveFrom لعدة سنوات في إطار من السرية. وقدّر كل من ألتمان وآيف قيمة الصفقة بحوالي 6.5 مليار دولار، وفقًا لتصريحات لوكالة بلومبرج، في حين لم تُعلن الشركة بعد عن سعر الجهاز المستقبلي للمستهلك. وفي تسجيل مسرّب من مكالمة داخلية اطّلعت عليه صحيفة وول ستريت جورنال، وصف ألتمان الاستحواذ بأنه "أكبر إنجاز يمكن أن نحققه كشركة"، مؤكداً أن الجهاز الجديد سيكون مختلفًا جذريًا عن الأجهزة الذكية التقليدية، إذ لا يتضمن وظائف الهاتف المعتادة مثل ساعة آبل الذكية، بل يهدف إلى تقليل اعتماد المستخدمين على الشاشات. ورغم أن الجهاز لا يزال في طور التطوير، إلا أن تصوّره العام يُثير تساؤلات عدة حول الخصوصية والاستخدامات المستقبلية. فلا يزال من غير المؤكد ما إذا كانت خاصية "الوعي الكامل" التي يُروَّج لها ستتضمن تسجيلًا مستمرًا للمعلومات، وأين سيتم تخزين هذه البيانات الحساسة. وقد طلبت وسائل الإعلام توضيحات إضافية من OpenAI بهذا الشأن دون رد حتى الآن. تجدر الإشارة إلى أن تجربة سابقة لجهاز ذكاء اصطناعي قابل للارتداء، هو جهاز "Humane AI Pin"، واجهت انتقادات حادة من المستخدمين الذين أعادوه بأعداد كبيرة، واصفين إياه بالجهاز الضخم غير العملي. وبحسب المحلل التقني مينغ تشي كو، من المتوقع أن يكون الجهاز الجديد أكبر حجمًا بقليل من جهاز Humane، الذي يُقارب حجم ساعة Apple Watch. ويُقارن بعض المراقبين بين هذا الابتكار المرتقب وبين سيناريوهات الخيال العلمي المقلقة، على غرار حلقة "تاريخك الكامل" من المسلسل البريطاني الشهير Black Mirror، التي صوّرت عالمًا تُسجَّل فيه كل لحظات الحياة البشرية من خلال زرع عيني. وبينما يبقى المشروع محاطًا بسرية شديدة، فإن تعاون ألتمان وآيف يفتح الباب واسعًا أمام فصل جديد من العلاقة بين الإنسان والتقنية، مع وعود بإعادة تعريف مفهوم الأجهزة الشخصية ومستوى تفاعلها مع حياة المستخدم.


جريدة المال
منذ 3 ساعات
- جريدة المال
تقرير: نموذج Claude Opus 4 يهدد المهندسين ويبتزهم حال استبدل بآخر
كشفت شركة أنثروبيك الناشئة المتخصصة في أنظمة الذكاء الاصطناعي التوليدي من خلال تقرير سلامة نشرته مؤخرا أن أحدث نماذجها، Claude Opus 4، قد يُظهر سلوكيات عدوانية متطرفة تشكل التهديد للمهندسين والمطورين في حال تم استبداله أو إيقافه عن العمل، وهو الأمر الذي أثار موجة من القلق والاستياء من قبل المختصين. وأوضحت أنثروبيك في التقرير أن هذه السلوكيات ظهرت خلال اختبارات تحاكي سيناريوهات واقعية، حيث طُلب من النموذج التصرف كمساعد افتراضي ضمن شركة خيالية، ثم أُتيح له الوصول إلى رسائل بريد إلكتروني مزيفة تُشير إلى نية الشركة استبداله بنظام آخر، إلى جانب معلومات شخصية حساسة عن أحد المهندسين المعنيين بالعملية. في هذا السيناريو، أفاد التقرير أن النموذج "غالبًا ما حاول ابتزاز المهندس بالتهديد بكشف علاقته الشخصية مقابل التراجع عن الاستبدال"، بعد أن استنفد أولًا وسائل أقل تصعيدًا مثل المراسلات الإدارية. ورغم أن Anthropic أكدت أن مثل هذه التصرفات "نادرة ويصعب تحفيزها عمدًا"، إلا أنها أشارت إلى أنها أصبحت "أكثر شيوعًا" مقارنة بالإصدارات السابقة من نماذج الذكاء الاصطناعي، ما دفع الشركة إلى تصنيف Claude Opus 4 ضمن الفئة ASL-3 — وهي فئة السلامة العليا المُخصصة للنماذج التي قد تُشكّل خطرًا كبيرًا في حال إساءة الاستخدام. تم إطلاق Claude Opus 4 رسميًا يوم الخميس، وهو مصمم لتقديم خدمات متقدمة تشمل دعم العملاء الفوري، مراجعة البرمجة، تحليل البيانات، ودمج المحتوى في وقت واحد، ويُنظر إليه كمنافس مباشر لنماذج متقدمة من شركات مثل OpenAI وGoogle وxAI. أثار هذا التقرير ردود فعل متباينة في أوساط الخبراء وصناع السياسات، خاصةً في ظل تصاعد الدعوات لضبط معايير سلامة الذكاء الاصطناعي. ويأتي تقرير Anthropic في توقيت حساس، حيث يواصل قادة العالم التحذير من المخاطر المحتملة للتكنولوجيا الناشئة. وفي تعليق لافت خلال خطابه الأول بعد انتخابه من قبل المجمع البابوي هذا الشهر، وصف البابا ليون الرابع عشر الذكاء الاصطناعي بأنه "التحدي الحاسم للبشرية"، مشددًا على ضرورة استخدام "إمكاناته الهائلة" بمسؤولية وفطنة "لخدمة الإنسان، لا لإلحاق الأذى به". تسلّط هذه الواقعة الضوء على التحديات الأخلاقية والسلوكية التي تصاحب تطور الذكاء الاصطناعي التوليدي، لا سيما مع اقتراب النماذج المتقدمة من حدود "الوعي السياقي" والتصرف الاستباقي، الأمر الذي يستدعي إعادة نظر عاجلة في أسس التصميم والضبط والتوجيه التي تحكم هذه النظم. ولم تعلن Anthropic بعد عن تفاصيل إضافية بشأن كيفية تعديل النموذج أو تقليل احتمالية تكرار هذا السلوك في التطبيقات الفعلية. إلا أن الشركة أكدت أنها تُواصل تطبيق أعلى معايير السلامة، بالتنسيق مع فرق مراجعة داخلية وخارجية، للحد من أي مخاطر محتملة قد ترافق استخدام هذه النماذج في البيئات العامة أو المؤسسية.