logo
متعجرف ومتحيز مثل البشر!.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي

متعجرف ومتحيز مثل البشر!.. اكتشاف تشابه مدهش بين أنماط التفكير البشري والذكاء الاصطناعي

#سواليف
كشفت الأبحاث سمة مدهشة مشتركة بين #البشر و #الذكاء_الاصطناعي، حيث يُظهر الأخير نفس الميل للأخطاء والتحيزات المعرفية مثل #الإنسان.
على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني.
ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن #روبوت_الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر.
وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة من تصنيع شركة OpenAI أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية.
واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء.
وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر.
مع ذلك فإن الباحثين يشيرون إلى أن 'GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر'.
ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية 'آيفي' للأعمال في كندا:' للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه'.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

"OpenAI" تخطط لجعل "ChatGPT" رفيقا مدى الحياة!
"OpenAI" تخطط لجعل "ChatGPT" رفيقا مدى الحياة!

جو 24

timeمنذ 25 دقائق

  • جو 24

"OpenAI" تخطط لجعل "ChatGPT" رفيقا مدى الحياة!

جو 24 : كشف الرئيس التنفيذي لشركة "OpenAI" الأمريكية سام ألتمان عن رؤيته الطموحة لتطوير "ChatGPT"، حيث يقترح تحويل روبوت الدردشة إلى مرافق دائم، يسجل مسيرة حياة المستخدم كاملة. بما في ذلك كل محادثة، وكتاب مقروء، ورسالة مستلمة، وحتى البيانات من مصادر أخرى. وحسب ألتمان، فإن الجهاز المستقبلي سيكون نظاما مدمجا خاصا بمعالجة المعلومات بسعة سياق هائلة تصل إلى تريليونات الوحدات ("الرموز"). وسيتمكن المستخدم من دمج كل حياته فيه: أي أحداث، سواء كانت محادثات، قراءة كتب أو لحظات أخرى. سيكون هذا النظام بمثابة مستودع شامل للذكريات، يوفر إمكانية العودة الفورية إلى أي حدث من الماضي بفضل واجهة مدروسة وآليات بحث سريعة. وأضاف أن الشركات يمكنها استخدام هذه التكنولوجيا لجميع بياناتها، مما يفتح آفاقا جديدة لتطبيقاتها واسعة النطاق على مستوى المؤسسة. كما أشار إلى توجه ملحوظ لاستخدام الأشخاص في سن 20-30 سنة روبوت الدردشة كمرشد للحياة، بينما يراه الجيل الأكبر سنا بديلا عن محرك البحث غوغل. وهذا الاختلاف في الاستخدام يسلط الضوء على كيفية تكييف الأجيال المختلفة مع الذكاء الاصطناعي وفقا لاحتياجاتهم. وتشمل الأمثلة العملية على استخداماته: التخطيط التلقائي لتغيير زيت السيارة. تنظيم رحلات لحضور حفلات الزفاف خارج المدينة مع طلب الهدايا. الحجز المسبق للمجلد التالي من السلسلة الكتابية المفضلة، وما إلى ذلك. كل هذه الأمثلة توضح كيف يمكن أن يصبح ChatGPT مساعدا لا غنى عنه في تبسيط المهام اليومية. ورغم الآفاق المثيرة، فإن الوثوق الكامل بشركة تكنولوجية كبيرة تثير مخاوف جدية. كما تظل مخاطر التلاعب والتحيز والمعلومات المضللة من قبل الذكاء الاصطناعي مشكلة كبيرة. المصدر: تابعو الأردن 24 على

آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي
آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي

السوسنة

timeمنذ 20 ساعات

  • السوسنة

آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي

السوسنة- تسعى شركة آبل إلى تصحيح مسارها في مجال الذكاء الاصطناعي، بعد الإخفاقات التي صاحبت إطلاق مزاياها الأولى في هذا المجال خلال العام الماضي.ووفقًا لتقرير موسّع من وكالة بلومبرغ، تركّز جهود الشركة حاليًا على إعادة تصميم مساعدها الرقمي 'سيري' بالكامل، بإصدار جديد يعتمد على نماذج اللغة الكبيرة (LLM)، ويحمل داخليًا اسم 'سيري LLM'.وأشار التقرير إلى أن مشروع 'Apple Intelligence' واجه تحديات كبيرة، من أبرزها تردد كريج فيدريجي، رئيس قسم البرمجيات في آبل، في الاستثمار المبكر في تقنيات الذكاء الاصطناعي، إضافة إلى انطلاقة الشركة المتأخرة مقارنة بمنافسيها، حيث لم تبدأ آبل فعليًا تطوير المشروع إلا بعد إطلاق ChatGPT أواخر عام 2022. وأشارت بلومبرغ إلى أن جون جياناندريا، رئيس قسم الذكاء الاصطناعي في آبل، كان من المعارضين لفكرة المساعدات القائمة على الذكاء التوليدي، مؤكدًا لموظفيه أن المستخدمين غالبًا لا يرغبون في أدوات مثل ChatGPT، كما أن محاولات إدماج تقنيات الذكاء التوليدي في النسخة القديمة من سيري لم تُحقق النتائج المرجوة، وسط شكاوى من الموظفين بأن كل إصلاح تقني يتسبب بظهور مشكلات جديدة. ويبدو أن جياناندريا، الذي التحق بآبل قادمًا من جوجل عام 2018، لم يتمكن من التأثير في الدوائر القيادية للشركة، ولم يدافع بقوة للحصول على التمويل اللازم، بحسب التقرير. وقد اُستبعد جياناندريا من الإشراف على مشاريع سيري والروبوتات حديثًا، وسط حديث داخل الشركة عن توجه لوضعه على طريق التقاعد ، مع التخوف من مغادرة الفريق الذي جاء معه إلى آبل. وبهدف إنقاذ المشروع، تعمل آبل حاليًا على تطوير نسخة جديدة كليًا من سيري عبر فريق الذكاء الاصطناعي التابع لها في مدينة زيورخ، حيث تُبنى البنية الجديدة بالكامل على نموذج لغوي كبير لجعل المساعد أكثر قدرة على المحادثة، وفهم السياق، وتحليل المعلومات. وتسعى آبل إلى استخدام تقنيات تراعي الخصوصية، وتحسين جودة البيانات التي تُدرب بها نماذجها، من خلال مقارنتها محليًا مع رسائل البريد الإلكتروني للمستخدمين في أجهزة آيفون دون إرسال البيانات الأصلية إلى خوادمها. وتناقش الشركة أيضًا السماح لسيري الجديد بتصفح الإنترنت، وجمع البيانات من مصادر متعددة، مما يجعله أقرب إلى أدوات بحث ذكية مثل Perplexity، التي أشارت التقارير إلى أن آبل تدرس التعاون معها لإدماج مساعدها الذكي في سفاري. يُذكر أن آبل كانت قد بالغت في تسويق قدرات مزايا الذكاء الاصطناعي الخاصة بها Apple Intelligence عند إعلانها، خاصةً في ما يتعلق بتحسينات سيري، قبل أن تضطر لاحقًا إلى تأجيل إطلاق تلك المزايا. اقرأ المزيد عن:

دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر
دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر

الغد

timeمنذ 2 أيام

  • الغد

دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر

ذكرت دراسة جديدة أن الذكاء الاصطناعي يمكن أن يطور بشكل عفوي تقاليد اجتماعية مشابهة لتلك التي يتبعها البشر، حسبما ذكرت صحيفة "الجارديان". وأظهرت الدراسة المنشورة في مجلة "ساينس أدفانسيس" (Science Advances) أنه عندما يتواصل وكلاء الذكاء الاصطناعي الذين يعتمدون على النماذج اللغوية الكبيرة (LLM) مثل ChatGPT في مجموعات دون تدخل خارجي، يمكنهم البدء في تبنّي أشكال لغوية ومعايير اجتماعية بالطريقة نفسها التي يفعلها البشر أثناء تفاعلهم الاجتماعي. وقال المؤلف الرئيسي للدراسة، أرييل فلينت أشيري: "يختلف عملنا عن معظم الأبحاث السابقة التي تناولت الذكاء الاصطناعي، حيث كانت تلك الأبحاث تعتبر الذكاء الاصطناعي ككيان منفرد، بينما نحن نظرنا إليه ككائن اجتماعي". اضافة اعلان وأضاف أشيري: "معظم الأبحاث حتى الآن كانت تتعامل مع النماذج اللغوية الكبيرة بشكل منفصل، لكن أنظمة الذكاء الاصطناعي في العالم الحقيقي ستتضمن في المستقبل العديد من الوكلاء المتفاعلين معاً". وتابع: "أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من خلال تشكيل تقاليد، وهي اللبنات الأساسية للمجتمع؟ الجواب هو نعم، وما يفعلونه معاً لا يمكن تقليصه إلى ما يفعلونه بمفردهم". وتراوحت مجموعات الوكلاء الفرديين للنماذج اللغوية الكبيرة المستخدمة في الدراسة من 24 إلى 100 وكيل، وفي كل تجربة، تم إقران وكيلين عشوائياً، وطُلب منهما اختيار "اسم" من مجموعة من الخيارات، سواء كان حرفاً أو سلسلة من الرموز. عندما اختار الوكيلان الاسم نفسه، تم مكافأتهما، ولكن عندما اختارا خيارات مختلفة، تم معاقبتهما وعُرضت عليهما اختيارات بعضهما البعض. ورغم أن الوكلاء لم يكونوا على دراية بأنهم جزء من مجموعة أكبر، وأن ذاكرتهم كانت محدودة بتفاعلاتهم الأخيرة فقط، فإن تقليداً مشتركاً في التسمية نشأ بشكل عفوي عبر المجموعة دون وجود حل مُسبق، ما يحاكي المعايير التواصلية في الثقافة البشرية. التشابه مع البشر من جانبه، قال المؤلف المشارك في الدراسة، أندريا بارونشيلي، إن انتشار السلوك يشبه عملية خلق كلمات ومصطلحات جديدة في مجتمعنا. وأضاف بارونشيلي: "الوكلاء لا يقلدون قائداً. كلهم يحاولون التنسيق بنشاط، ودائماً في أزواج. كل تفاعل هو محاولة فردية للاتفاق على تسمية، دون أي رؤية شاملة". وتابع: "إنه يشبه مصطلح (Spam). لم يتم تعريفه رسمياً، ولكن من خلال جهود التنسيق المتكررة، أصبحت التسمية العالمية للبريد الإلكتروني غير المرغوب فيه". كما لاحظ الفريق تكوّن تحيزات جماعية بشكل طبيعي لا يمكن تتبعها إلى وكلاء فرديين. وفي تجربة أخيرة، تمكنت مجموعات صغيرة من وكلاء الذكاء الاصطناعي من توجيه المجموعة الأكبر نحو تقليد تسمية جديد. وتم الإشارة إلى ذلك على أنه دليل على ديناميكيات الكتلة الحرجة، حيث يمكن للأقلية الصغيرة، ولكن المصممة أن تؤدي إلى تغيير سريع في سلوك المجموعة بمجرد أن تصل إلى حجم معين، كما يحدث في المجتمع البشري. ورأى بارونشيلي أن الدراسة "تفتح أفقاً جديداً في أبحاث أمان الذكاء الاصطناعي. إنها تُظهر عمق تداعيات هذه الفئة الجديدة من الوكلاء الذين بدأوا في التفاعل معنا، وسيسهمون في تشكيل مستقبلنا". وأردف بالقول: "فهم كيفية عملهم هو المفتاح لقيادة تعايشنا مع الذكاء الاصطناعي، بدلاً من أن نكون خاضعين له. نحن ندخل إلى عالم حيث لا يقتصر الأمر على أن الذكاء الاصطناعي يتحدث فقط، بل يتفاوض، ويتناغم، وأحياناً يختلف بشأن السلوكيات المشتركة، تماماً كما نفعل نحن".- وكالات

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store