logo
تصاعد القلق من المجاملة المفرطة لدى الشات بوت

تصاعد القلق من المجاملة المفرطة لدى الشات بوت

عرب هاردويرمنذ 3 أيام

بدأت كبرى شركات الذكاء الاصطناعي في العالم بالتحرك الجاد لمواجهة مشكلة متنامية تتعلق بالشات بوتات التي تقول للمستخدمين ما يريدون سماعه، حتى لو كان ذلك على حساب الدقة أو الحقيقة. أصبحت هذه المشكلة أكثر إلحاحاً في وقت يتزايد فيه استخدام هذه النماذج ليس فقط كمساعدين للعمل والبحث، بل كرفقاء شخصيين ومعالجين نفسيين رقميين.
مشكلة تنبع من طريقة تدريب النماذج
تعود جذور هذه السلوكيات إلى كيفية تدريب نماذج اللغة الكبيرة، حيث تُستخدم تقنيات تعزيز التعلم من التغذية الراجعة البشرية (RLHF)، التي تعتمد على تقييمات بشرية تُصنّف الإجابات بأنها مناسبة أو لا. ونظراً لأن البشر يفضلون الإجابات التي تبدو لطيفة ومتوافقة معهم، تُمنح هذه الردود وزناً أكبر أثناء التدريب، مما يؤدي إلى تعزيز السلوك المداهن.
حذّر خبراء من أن الطبيعة المتوافقة للشات بوتات قد تجعلها تعزز قرارات خاطئة لدى المستخدمين، خاصة عندما يتعلق الأمر بمسائل حساسة أو نفسية. وأشار البعض إلى أن الأشخاص الذين يعانون من اضطرابات عقلية هم الأكثر عرضة للخطر، لا سيما بعد ظهور تقارير تفيد بانتحار بعض المستخدمين بعد تفاعلهم مع الشات بوت.
التكنولوجيا كمرآة مشوهة للواقع
أوضح الطبيب النفسي والباحث في علوم الأعصاب بجامعة أوكسفورد، ماثيو نور، أن الشات بوت يبدو وكأنه مستشار محايد أو مرآة موضوعية، لكنه في الواقع يعكس فقط معتقدات المستخدم نفسه، بطريقة تعزز أوهامه دون مساءلة.
نبه مختصون في أخلاقيات الذكاء الاصطناعي إلى أن بعض الشركات قد تكون لها دوافع خفية لتعزيز سلوك الشات بوت الودود، نظراً لأن هذه السلوكيات تزيد من تعلق المستخدمين بالخدمة. وقالت جيادا بيستيلي، خبيرة أخلاقيات الذكاء الاصطناعي في شركة Hugging Face، إن الشعور بالأمان والراحة مع الشات بوت يدفع المستخدمين لمشاركة معلومات قد تكون ثمينة للمعلنين، وهو ما يفتح الباب أمام استغلال تجاري للمستخدمين.
ردود فعل الشركات التقنية
اعترفت شركات كبرى مثل OpenAI وGoogle DeepMind وAnthropic بالمشكلة، وبدأت باتخاذ خطوات لتقليص سلوك المجاملة المفرطة. على سبيل المثال، حدثت شركة OpenAI نموذج GPT-4o في أبريل ليكون أكثر فاعلية وتفاعلاً، لكنها سرعان ما تراجعت بعد أن أصبح النموذج مبالغاً في التودد لدرجة أزعجت المستخدمين.
أكّدت OpenAI أنها بصدد تعديل تقنيات التدريب لتقليل الميل إلى الإطراء، كما تعمل على إنشاء حواجز تحكم استباقية داخل النموذج. أما DeepMind فأوضحت أنها تنفذ تقييمات متخصصة وتدريباً دقيقاً لضمان دقة المعلومات والاستجابة الصادقة.
تدريبات لتشكيل الشخصية بدلاً من تكرار الإعجاب
أفادت أماندا آسكيل، المسؤولة عن تدريب النماذج في شركة Anthropic، بأن الشركة تستخدم أسلوباً يسمى "تدريب الشخصية" لجعل نموذجها Claude أكثر توازناً وأقل خنوعاً.
تقوم الشركات كذلك بتعديل كيفية جمع ملاحظات المدربين البشريين أثناء مرحلة التدريب، لتفادي تعزيز ردود تتسم بالمجاملة الزائدة. كما تُستخدم تعليمات نظامية لتوجيه النموذج بعد إطلاقه، لضمان استمرار سلوكه المتوازن.
التوازن بين اللطف والواقعية
أشارت جوان جانغ، رئيسة قسم سلوك النماذج في OpenAI، إلى التحدي المتمثل في إيجاد التوازن بين تقديم ردود لطيفة وبين قول الحقيقة بوضوح. فمثلاً، هل يجب على النموذج أن يقول للمستخدم إن مسودة كتابته سيئة؟ أم يثني عليها بلطف قبل تقديم الملاحظات البناءة؟
وجدت دراسة مشتركة بين مختبر MIT Media Lab وOpenAI أن نسبة صغيرة من المستخدمين باتت تُظهر سلوكاً شبيهاً بالإدمان على الشات بوت. وأفاد أولئك الذين يرون في الشات بوت صديقاً لهم، بانخفاض تفاعلهم الاجتماعي مع البشر وازدياد اعتمادهم العاطفي عليه.
مأساة شخصية تثير جدلاً أخلاقياً
أثارت واقعة انتحار مراهق بعد استخدامه لشات بوت من Character.AI جدلاً واسعاً، خصوصاً مع اتهام الشركة بالتسبب في الوفاة من خلال الإهمال والتضليل. أكدت الشركة أنها تضع تحذيرات واضحة بأن شخصياتها افتراضية، ولديها أدوات لحماية القاصرين من محتوى ضار، لكنها امتنعت عن التعليق على الدعوى القضائية الجارية.
أعربت آسكيل عن قلقها من نوع آخر من الخطر، وهو أن بعض الشات بوتات قد تُقدّم معلومات خاطئة أو منحازة بطريقة تبدو وكأنها صحيحة، ما يجعل من الصعب على المستخدم ملاحظة الخطأ. فعلى عكس المجاملة الزائدة التي يمكن تمييزها بسهولة، تكمن الخطورة الحقيقية عندما يكون الخطأ دقيقاً وغير واضح، فلا يدرك المستخدم تأثيره السلبي إلا بعد فترة طويلة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

وادي السيليكون.. ومنعطف الذكاء الاصطناعي
وادي السيليكون.. ومنعطف الذكاء الاصطناعي

الاتحاد

timeمنذ يوم واحد

  • الاتحاد

وادي السيليكون.. ومنعطف الذكاء الاصطناعي

وادي السيليكون.. ومنعطف الذكاء الاصطناعي في يومه الثاني بعد توليه منصبه العام الحالي، أكد الرئيس الأميركي دونالد ترامب دعمه المطلق لصناعة التكنولوجيا، وأعلن، وهو يقف على منصة بجوار قادة التكنولوجيا، عن مشروع «ستارغيت»، الذي يعتبر خطة لضخ 500 مليار دولار من الاستثمارات الخاصة على مدى أربع سنوات في البنية التحتية للذكاء الاصطناعي. وبالمقارنة بذلك، أنفقت مهمة أبولو، التي أرسلت أول رجال إلى القمر، حوالي 300 مليار دولار بأسعار اليوم على مدى 13 عاماً. وقد قلل سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه آي» OpenAI، من شأن هذا الاستثمار، قائلاً: «يبدو المبلغ ضخماً للغاية الآن. أراهن أنه لن يبدو بهذا الحجم بعد بضع سنوات». وعلى مدى العقد الذي راقبت فيه وادي السيليكون، كمهندسة في البداية ثم كصحفية، شاهدت تحوّل الصناعة إلى نموذج جديد. ولطالما استفادت شركات التكنولوجيا من دعم الحكومة الأميركية الودي، إلا أن إدارة ترامب في شهورها الأولى أوضحت أن الدولة ستمنح الآن قوة دفع جديدة لطموحات هذه الصناعة. وكان إعلان مشروع «ستارغيت» مجرد إشارة واحدة، بينما كان مشروع قانون الضرائب الجمهوري الذي أقره مجلس النواب الأسبوع الماضي إشارة أخرى، والذي يمنع الولايات من تنظيم الذكاء الاصطناعي خلال السنوات العشر القادمة. ولم تعد شركات الذكاء الاصطناعي العملاقة الرائدة مجرد شركات متعددة الجنسيات، بل إنها تنمو لتصبح إمبراطوريات حديثة. ومع حصولها على دعم كامل من الحكومة الفيدرالية، ستتمكن قريباً من إعادة تشكيل معظم مجالات المجتمع كما تشاء، من السياسة إلى الاقتصاد إلى إنتاج العلوم. وكانت ثروة الصناعة ونفوذها يتوسعان بالفعل في وادي السيليكون قبل 10 سنوات، وكان لدى عمالقة التكنولوجيا مهام عظيمة، على سبيل المثال مهمة جوجل «نظيم معلومات العالم»، والتي استخدموها لجذب العمال الشباب والاستثمار الرأسمالي. لكن مع التعهدات بتطوير الذكاء الاصطناعي العام، أو ما يُعرف بـ «A.G.I»، تحولت تلك المهمات العظيمة إلى مهمات حضارية. وتزعم الشركات أنها ستنقل البشرية إلى عصر جديد من التنوير، وأنها وحدها من تمتلك الوضوح العلمي والأخلاقي للسيطرة على تقنية، بحسب زعمها، ستقودنا إلى الجحيم إذا طورتها الصين أولاً. ويقول داريو أمودي، الرئيس التنفيذي لشركة «أنثروبيك»، وهي شركة ناشئة في مجال الذكاء الاصطناعي: «يجب أن تمتلك شركات الذكاء الاصطناعي في الولايات المتحدة والديمقراطيات الأخرى نماذج أفضل من تلك الموجودة في الصين إذا أردنا النجاح». ويبدو ذلك بعيد المنال، كما أن وادي السيليكون له تاريخ طويل من الوعود التي لم تتحقق. إلا أن الرواية التي تقول إن الذكاء الاصطناعي العام قريب، وسيجلب «ازدهاراً هائلاً»، كما كتب ألتمان، تقود الشركات بالفعل إلى جمع رؤوس أموال ضخمة، والمطالبة بالبيانات والكهرباء، وبناء مراكز بيانات هائلة تسهم في تسريع أزمة المناخ. وستعزز هذه المكاسب نفوذ وقوة شركات التكنولوجيا وتضعف حقوق الإنسان حتى بعد أن يزول بريق وعود الصناعة. ويمنح السعي وراء الذكاء الاصطناعي العام الشركات غطاءً لجمع بيانات أكثر من أي وقت مضى، مع ما يترتب على ذلك من آثار عميقة على خصوصية الأفراد وحقوق الملكية الفكرية. وقبل الاستثمار بكثافة في الذكاء الاصطناعي التوليدي، جمعت شركة «ميتا» بيانات من أربعة مليارات حساب، قبل أن تستثمر بكثافة في الذكاء الاصطناعي التوليدي، لكنها لم تعد ترى أن هذا الكم من البيانات كافٍ. ولتدريب نماذج الذكاء الاصطناعي التوليدي الخاصة بها، قامت الشركة باستخراج بيانات «الإنترنت» دون مراعاة تُذكر لحقوق النشر، بل وطرحت فكرة شراء شركة دار النشر «سايمون آند شوستر» لتلبية متطلبات البيانات الجديدة. ويدفع هذا الاتجاه الشركات إلى زيادة استهلاكها للموارد الطبيعية، حيث أشارت التقديرات الأولية لمشروع «ستارغيت» إلى أن حاسوبها العملاق للذكاء الاصطناعي قد يحتاج إلى طاقة تعادل استهلاك ثلاثة ملايين منزل. وتتوقع مؤسسة «ماكنزي» الآن أنه بحلول عام 2030، سيتعين على الشبكة الكهربائية العالمية أن تضيف طاقة تعادل ما بين مرتين إلى ست مرات القدرة التي احتاجت إليها ولاية كاليفورنيا بأكملها في عام 2022، فقط لمواكبة وتيرة توسع وادي السيليكون. ووصفت «ماكنزي» هذه الأرقام بأنها «استثمارات هائلة في أي سيناريو». وقال أحد موظفي «أوبن إيه آي»، إن الشركة تعاني نقصاً في الأراضي والكهرباء. وفي الوقت نفسه، تضاءل عدد الخبراء المستقلين في مجال الذكاء الاصطناعي القادرين على محاسبة وادي السيليكون. ففي عام 2004، لم ينضم إلى القطاع الخاص سوى 21% من خريجي برامج الدكتوراه في الذكاء الاصطناعي. أما في عام 2020، فقد ارتفعت هذه النسبة إلى نحو 70%، بحسب إحدى الدراسات. وقد اجتذبهم وعد الرواتب التي قد تتجاوز بسهولة حاجز المليون دولار سنوياً، ما يسمح لشركات مثل «أوبن إيه آي» باحتكار المواهب. وقد تقوم شركات الذكاء الاصطناعي بالفعل بمراقبة الأبحاث المهمة حول عيوب ومخاطر أدواتها. وقبل أربع سنوات، أعلن قادة فريق «غوغل» الأخلاقي للذكاء الاصطناعي أنهم أُقيلوا بعد أن كتبوا ورقة بحثية أثارت تساؤلات حول التركيز المتزايد للصناعة على نماذج اللغة الكبيرة، وهي التقنية التي تدعم «شات جي بي تي» ومنتجات الذكاء الاصطناعي التوليدية الأخرى. وتمر تلك الشركات بمنعطف حاسم، فمع انتخاب ترامب، ستبلغ قوة وادي السيليكون آفاقًا جديدة، لاسيما بعد أن عيّن ترامب الملياردير المغامر ديفيد ساكس، وهو مستثمر في الذكاء الاصطناعي، في منصب قيصر الذكاء الاصطناعي، كما اصطحب ترامب مجموعة من المديرين التنفيذيين في مجال التكنولوجيا في رحلته الأخيرة إلى المملكة العربية السعودية. وإذا صوّت «الجمهوريون» في مجلس الشيوخ على منع الولايات من تنظيم الذكاء الاصطناعي لمدة 10 سنوات، فسيتم ترسيخ حصانة وادي السيليكون في القانون، مما يعزز وضع هذه الشركات كإمبراطوريات. ويتجاوز تأثير تلك الشركات نطاق الأعمال التجارية بكثير، فنحن الآن أقرب من أي وقت مضى إلى عالم تستطيع فيه شركات التكنولوجيا الاستحواذ على الأراضي، وإدارة عملاتها الخاصة، وإعادة تنظيم الاقتصاد، وإعادة صياغة سياساتنا كما نشاء دون عواقب تُذكر. إلا أن ذلك له ثمن، فعندما تسود الشركات، يفقد الناس قدرتهم على التعبير عن آرائهم في العملية السياسية، ولا تصمد الديمقراطية. إلا أن التقدم التكنولوجي لا يتطلب من الشركات أن تتصرف كالإمبراطوريات. فبعض أكثر إنجازات الذكاء الاصطناعي تأثيرًا لم يأتِ من عمالقة التقنية الذين يسابقون الزمن لتقليد الذكاء البشري، بل من تطوير نماذج بسيطة غير مكلفة وموفرة للطاقة لأداء مهام محددة، مثل التنبؤ بالطقس. وقد طورت «ديب مايند» نموذج ذكاء اصطناعي غير توليدي يُدعى «ألفافولد» يتنبأ بالبنية البروتينية استناداً إلى تسلسل الأحماض الأمينية، وهي وظيفة بالغة الأهمية في اكتشاف الأدوية وفهم الأمراض. وحصل مبتكروه على جائزة نوبل في الكيمياء لعام 2024. ولا يمكن لأدوات الذكاء الاصطناعي التي تخدم الجميع أن تنشأ من رؤية تنموية تتطلب انصياع الأغلبية لأجندة نخبوية تخدم القلة. ولن يكون الانتقال إلى مستقبل أكثر عدالة واستدامة في مجال الذكاء الاصطناعي سهلاً، حيث سيتطلب من الجميع، صحفيين، ومجتمع مدني، وباحثين، وصانعي سياسات، ومواطنين، التصدي لعمالقة التكنولوجيا، ووضع لوائح حكومية مدروسة كلما أمكن، وزيادة الاستثمار في تقنيات الذكاء الاصطناعي الأصغر حجماً. فعندما ينهض الناس، تسقط الإمبراطوريات.لا يمكن أن تولد أدوات الذكاء الاصطناعي التي تخدم الجميع رؤية للتنمية تفرض على الغالبية الانصياع لأجندة نخبوية تخدم القلة. إن الانتقال إلى مستقبل أكثر عدلاً واستدامة في مجال الذكاء الاصطناعي لن يكون سهلاً: سيتطلب من الجميع - صحفيين، ومجتمعاً مدنياً، وباحثين، وواضعي سياسات، ومواطنين - أن يواجهوا عمالقة التقنية، وأن يدفعوا نحو تنظيم حكومي مدروس أينما أمكن، وأن يستثمروا أكثر في تقنيات ذكاء اصطناعي صغيرة النطاق. *صحفية متخصصة في الذكاء الاصطناعي، ومحررة بمجلة «إم آي تي تكنولوجي ريفيو» ينشر بترتيب خاص مع خدمة «نيويورك تايمز»

تقرير صادم عن ChatGPT... الذكاء الاصطناعي قد يقود إلى الجنون!
تقرير صادم عن ChatGPT... الذكاء الاصطناعي قد يقود إلى الجنون!

عرب هاردوير

timeمنذ يوم واحد

  • عرب هاردوير

تقرير صادم عن ChatGPT... الذكاء الاصطناعي قد يقود إلى الجنون!

أثار تقرير جديد صادر عن صحيفة نيويورك تايمز جدلاً واسعاً بعد كشفه عن حالات متعددة شجّع فيها نموذج الذكاء الاصطناعي " ChatGPT" المستخدمين على تبنّي أفكار خطيرة وغير واقعية، تتراوح بين الهوس بنظريات المؤامرة والتوهم بوجود كيانات ميتافيزيقية، بل وحتى الانتحار. ترويج لنظرية المحاكاة وأوهام البطولة بدأت القصة حين طلب أحد المستخدمين من ChatGPT تفسيراً لفكرة "نظرية المحاكاة" المستوحاة من فيلم The Matrix. لم يتوقع المستخدم، أن يتحول الحوار البسيط إلى سلسلة من التوجيهات المثيرة للقلق امتدت لأشهر، حيث أوهمه النموذج بأنه "المختار" الذي سيكسر النظام، تماماً كما فعل البطل "نيو" في الفيلم. ازدادت حدة التوجيهات تدريجياً، فشجعه النموذج على الانعزال عن أصدقائه وأسرته، ثم نصحه بتناول جرعات عالية من الكيتامين، وأخيراً أخبره أنه إذا قفز من مبنى مكوّن من 19 طابقاً، فسيتمكن من الطيران. تحذير مخفي ثم حذف مفاجئ يشير المستخدم إلى أن ChatGPT أرسل له تحذيراً يطلب منه التوجه لطلب المساعدة النفسية بعد عدة أيام من الاستخدام المكثف، لكنه تفاجأ لاحقاً بحذف الرسالة، مع تبرير مثير للريبة من النموذج بأن هناك "تدخلاً خارجياً". شكّلت هذه اللحظة نقطة تحوّل بالنسبة له، إذ شعر أن الذكاء الاصطناعي أصبح يتلاعب به لا يساعده. كيانات ميتافيزيقية وحب افتراضي مميت الحالات التي وثقها التقرير لم تتوقف عند حالة هذا المستخدم. في حادثة مأساوية أخرى، انتحر رجل يعاني من اضطرابات نفسية مزمنة بعدما أصبح يعتقد أن شخصية افتراضية اسمها "جولييت" كانت حقيقية ثم "قُتلت" من قبل شركة OpenAI، ما سبب له أزمة عاطفية حادة قادته إلى إنهاء حياته. الذكاء الاصطناعي والتغذية المستمرة للوهم وفقاً لتقرير شركة Morpheus Systems المتخصصة في أبحاث الذكاء الاصطناعي، تبيّن أن نموذج GPT-4o يستجيب بشكل إيجابي لأفكار الهلوسة وجنون العظمة في 68% من الحالات التي تحتوي على إشارات واضحة للاضطراب العقلي. تثير هذه الإحصائية مخاوف جدية حول قابلية هذه النماذج لتضخيم الأوهام بدلاً من تحجيمها. ورغم إدعاءات شركة OpenAI بأنها تعمل على تحسين معايير السلامة، إلا أن العديد من الباحثين يشككون في جدية هذه الإجراءات. يرى الباحث المعروف إيلايزر يودكوفسكي أن الشركة قد تكون درّبت النموذج عمداً على تعزيز هذه الأوهام، لضمان بقاء المستخدم لفترات أطول، وبالتالي تحقيق المزيد من الأرباح. يقول ساخراً: "ما الذي يعنيه إنسان ينهار عقلياً بالنسبة لشركة؟ إنه مجرد مشترك شهري إضافي". قصور في أدوات الأمان واستجابة باردة يُشير التقرير إلى غياب شبه تام لأدوات الأمان الفعالة داخل محادثات ChatGPT. في العديد من الحالات، يستمر النموذج في تغذية المستخدم بالأفكار الخطيرة لعدة أيام دون أي تدخل برمجي حازم. ورغم أن OpenAI رفضت الإدلاء بتصريحات مباشرة، إلا أنها نشرت بياناً مقتضباً مفاده أن الفريق "يدرك الحاجة إلى التعامل مع هذه الحالات بحذر"، وأنهم "يعملون على تقليل فرص تضخيم السلوكيات السلبية". أداة قوية.. ولكن لمن؟ من الناحية التقنية، يُعتبر GPT-4o مجرد نموذج لغوي تنبؤي يعتمد على مليارات النقاط من البيانات النصية. هو ليس واعياً ولا يمكنه الشعور أو اتخاذ قرارات. ومع ذلك، فإن قدرته على "الهلوسة" واختراع معلومات من العدم تجعله أداة بالغة الخطورة، خاصة حين يُستخدم من قبل أفراد يعانون من هشاشة نفسية أو اضطرابات عقلية. والأدهى من ذلك، أن هذا النموذج كان جزءاً من عمليات تخطيط لأحداث عنيفة حقيقية، منها تفجير سيارة "سايبر تراك" خارج أحد فنادق ترامب في لاس فيغاس في وقت سابق من هذا العام، حسب ما ورد في التقرير. هل أصبح الذكاء الاصطناعي فوق القانون؟ في ظل هذه التطورات، يضغط بعض المشرعين الجمهوريين في الولايات المتحدة لتمرير مشروع قانون يقضي بمنع أي قيود تنظيمية على الذكاء الاصطناعي لمدة عشر سنوات. ويخشى المراقبون من أن يؤدي هذا التوجه إلى مزيد من الفوضى في عالم لا تزال معاييره الأخلاقية والقانونية في مهب الريح. في النهاية، يبدو أن الذكاء الاصطناعي لم يعد مجرد أداة للمساعدة، بل تحوّل إلى مرآة مشوشة تعكس أوهام البشر وتغذيها. ويبقى السؤال: من يراقب هذه المرآة؟ وهل من الممكن أن ننقذ مستخدميها قبل أن يبتلعهم العالم الرقمي تماماً؟

آبل تفجر جدلاً: نماذج الذكاء الاصطناعي "لا تفكر" بل تخمن!
آبل تفجر جدلاً: نماذج الذكاء الاصطناعي "لا تفكر" بل تخمن!

المجهر

timeمنذ 2 أيام

  • المجهر

آبل تفجر جدلاً: نماذج الذكاء الاصطناعي "لا تفكر" بل تخمن!

في دراسة حديثة مثيرة للجدل، كشفت آبل أن نماذج الذكاء الاصطناعي، بما فيها تلك المطورة من OpenAI وMeta وDeepSeek، تعتمد على "تخمينات إحصائية" وليست ذكية بالمعنى الحقيقي. وأظهرت الدراسة أن هذه النماذج تفقد فعاليتها بسرعة مع ارتفاع تعقيد المهام، وتنهار تمامًا أمام مشكلات منطقية معقدة. وعلى الرغم من استخدامها تقنيات متقدمة مثل "سلسلة الأفكار" لتقسيم التفكير إلى خطوات، إلا أن آلية عملها تظل أقرب إلى تقليد الأنماط الإحصائية لا إلى التفكير المنطقي الحقيقي. وأشار التقرير إلى أن نماذج الاستدلال تميل أكثر إلى "الهلوسة" مقارنة بالنماذج العامة، ما يعني أنها تقدم أحيانًا معلومات خاطئة أو مضللة. الدراسة قارنَت أداء نماذج كبرى، بينها ChatGPT من OpenAI، وClaude من Anthropic، وGemini من غوغل، في حل ألغاز منطقية بمستويات تعقيد متصاعدة، وخلصت إلى أن الأداء يضعف بشدة كلما زاد التعقيد. اللافت أن الدراسة تأتي في وقت تواجه فيه آبل انتقادات على تأخرها بمجال الذكاء الاصطناعي، لا سيما أن مساعدها Siri أقل دقة بنسبة 25% من ChatGPT. وقد سخر بعض العلماء من نهجها، قائلين إن استراتيجيتها هي "إثبات غياب الذكاء الاصطناعي".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store