logo
هل يشيخ الذكاء الاصطناعي كالبشر؟ خفايا التقادم الرقمي

هل يشيخ الذكاء الاصطناعي كالبشر؟ خفايا التقادم الرقمي

الاتحاد٢٢-٠٢-٢٠٢٥

مع تقدم البشر في العمر، قد يواجهون تراجعًا في قدراتهم المعرفية، لكن هل يمكن أن ينطبق الأمر ذاته على الذكاء الاصطناعي؟ أظهرت أبحاث حديثة، أجراها علماء أعصاب وعلماء بيانات، أن بعض نماذج الذكاء الاصطناعي تعاني من انخفاض في أدائها البصري، المكاني، والتنفيذي مع مرور الوقت. هذه النتائج تكشف عن تحدٍ غير متوقع في عالم يعتمد بشكل متزايد على الذكاء الاصطناعي: فبينما تُعد هذه النماذج مكملًا للعقل البشري، إلا أن "عقولها" لن تكون دائمًا في أفضل حالاتها.
اقرأ أيضاً.. الذكاء الاصطناعي يتفوق على البشر في تحليل بيانات مراقبة القلب بدقة مذهلة
اختبار MoCA
وفقاً لموقع "EXTREME TECH" نشرت دراسة في ديسمبر 2024 من المجلة الطبية The BMJ، حيث قامت بتقييم خمس نماذج لغوية كبيرة (LLMs): ChatGPT 4، GPT-4o، Claude 3.5 "Sonnet"، و Gemini 1 و Gemini 1.5.
وتم استخدام اختبار التقييم المعرفي في مونتريال (MoCA) لاختبار هذه النماذج، وهو اختبار يستخدمه أطباء الأعصاب لتقييم الانتباه، مهارات اللغة، الذاكرة، المهارات المكانية، والوظائف التنفيذية، خاصة عند الشك في وجود مرض الزهايمر أو الخرف. يتضمن اختبار MoCA مجموعة من التحديات الملونة مثل حفظ سلسلة من الكلمات القصيرة، رسم ساعة معينة، توليد كلمات تبدأ بحروف معينة، وغير ذلك.
التحديات التي واجهت نماذج الذكاء الاصطناعي في الاختبار
تبدو هذه المهام بسيطة إذا كنت معتادًا على قدرة نماذج الذكاء الاصطناعي على تجاوز محاولات اختراق الأنظمة ومساعدة الأشخاص في التحضير للمقابلات الوظيفية. لكن وفقًا لهذه الدراسة، كانت بعض النماذج تجد صعوبة في أداء اختبار MoCA. كانت Gemini 1 الأكثر صعوبة، حيث فشلت في 8 من أصل 12 تحديًا. بينما واجه كل من ChatGPT 4 و Claude صعوبة في نفس المهام الأربعة. فقط GPT-4o و Gemini 1.5 نجحا في 9 تحديات لكل منهما، رغم أن جميع النماذج فشلت في اختبار "صنع المسار" في MoCA، الذي يطلب من المشاركين رسم أسهم بين الحروف والأرقام بالتسلسل.
نتائج الدراسة
في الدراسة، كتب الباحثون: "النماذج القديمة من النماذج اللغوية الكبيرة سجلت نتائج أقل من النماذج الأصغر، كما يحدث عادة مع المشاركين البشريين، مما يظهر تدهورًا معرفيًا مشابهًا للعمليات العصبية التنكسية في الدماغ البشري".
وقد اعترض بعض العلماء الذين لم يشاركوا في الدراسة على استخدام MoCA كأداة لتقييم الذكاء الاصطناعي، معتبرين أن "الحكم على النماذج اللغوية الكبيرة بناءً على عدم قدرتها على أداء اختبار معرفي بشري يشبه الحكم على غواصة بناءً على قدرتها الجوية".
ولكن العلماء الذين قاموا بالدراسة كانوا مهتمين بشكل خاص بكيفية تأثير التدهور المعرفي للأدوات الذكية على قدرتها في تعزيز العمل البشري في المجال الطبي، وهو ما يقوم به الذكاء الاصطناعي بالفعل في العديد من التخصصات. إذا كانت نماذج الذكاء الاصطناعي مثل Gemini و ChatGPT تهدف إلى تعزيز العمل البشري، فإن قدرتها أو عدم قدرتها على "التفكير" مثل البشر قد تكون ذات صلة، حتى لو كانت بنية هذه النماذج لا تشبه بنيتنا.
اقرأ أيضاً.. ثورة في الذكاء الاصطناعي.. "Gemini" يتذكر كل شيء
التحديات في استبدال الأطباء البشر
وأضافت الدراسة: "الفشل العام لجميع النماذج اللغوية الكبيرة في المهام التي تتطلب التجريد البصري والوظائف التنفيذية يبرز نقطة ضعف كبيرة قد تعيق استخدامها في الإعدادات السريرية. إن عدم قدرة النماذج اللغوية الكبيرة على إظهار التعاطف أو تفسير المشاهد البصرية المعقدة بدقة يعزز من محدودياتها في استبدال الأطباء البشر".
وأكد الباحثون أن جميع المصطلحات المُستخدمة في الدراسة لوصف التدهور الإدراكي لدى نماذج الذكاء الاصطناعي قد استُخدمت مجازيًا فقط، لأن البرامج الحاسوبية لا يمكن أن تُصاب بأمراض تنكسية عصبية مثل التي تصيب البشر.
إسلام العبادي(أبوظبي)

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

هدية OpenAI للمبرمجين: إتاحة نماذج GPT-4.1 بـ ChatGPT
هدية OpenAI للمبرمجين: إتاحة نماذج GPT-4.1 بـ ChatGPT

عرب هاردوير

time١٥-٠٥-٢٠٢٥

  • عرب هاردوير

هدية OpenAI للمبرمجين: إتاحة نماذج GPT-4.1 بـ ChatGPT

على حسابها الرسمي بمنصة X ، أعلنت OpenAI عن إتاحة نموذجيّ GPT-4.1 وGPT-4.1 mini داخل تطبيق ChatGPT. نموذج المبرمجين النموذج الجديد GPT-4.1 موجَّه بشكل خاص للمبرمجين، حيث يُفترض أن يُحدث فارقًا واضحًا في كتابة الكود وتصحيحه، بحسب ما أوضحه المتحدث باسم الشركة شاوكيي أمدو في تصريح لموقع TechCrunch. ووفقًا لـ OpenAI، يتميز GPT-4.1 بقدرات أفضل على مستوى البرمجة واتباع التعليمات مقارنةً بـ GPT-4o، مع سرعة أعلى من نماذج السلسلة "o" الخاصة بالاستدلال. نموذج مدفوع وآخر مجاني حالياً، بدأت OpenAI في طرح النموذج لمشتركي الخطط المدفوعة، بينما سيكون الإصدار المُصغر GPT-4.1 mini متاحًا مجانًا لجميع الخطط بما في ذلك المجانية. ومن نتائج هذا التحديث، قررت الشركة إزالة نموذج GPT-4.o mini من التطبيق لجميع المستخدمين، كما ورد في بيان الإصدار الرسمي. اللافت أن النموذجين قد تم طرحهما منذ أبريل الماضي عبر واجهة برمجة التطبيقات الخاصة بالمطورين API، لكن دون توفرهما في التطبيق المباشر حينها. جرت تلك الخطوة وسط انتقادات من بعض الباحثين في مجال الذكاء الاصطناعي، الذين اعتبروا أن OpenAI بدأت تتهاون في معايير الشفافية الخاصة بالأمان. لكن OpenAI كان لها رأي آخر. إذ شدّدت على أن GPT-4.1، رغم تفوقه في الأداء والسرعة مقارنة بـ GPT-4o ، لا يُعتبر من النماذج القوية جدًا (نماذج الصف الأول Frontier Models على حد وصفها)، وبالتالي لا يخضع لنفس المتطلبات الصارمة. رئيس أنظمة الأمان في OpenAI، يوهانس هايديكي، أوضح عبر منشور على X أن النموذج لا يُقدم طرق تفاعل جديدة أو قدرات تفوق نموذج o3 من حيث الذكاء، ما يجعل اعتبارات الأمان المرتبطة به أقل حدة. وفي محاولة لامتصاص موجة القلق، أعلنت OpenAI كذلك عن تدشين "مركز تقييمات الأمان Safety Evaluations Hub" الجديد، وهو منصة ستعرض من خلالها نتائج اختبارات الأمان الداخلية لجميع نماذجها، كجزء من التزامها المتزايد بالشفافية. الجدير بالذكر أن سوق أدوات البرمجة المعتمدة على الذكاء الاصطناعي يشهد اشتدادًا في المنافسة، خاصة وأن OpenAI باتت قريبة من الاستحواذ على Windsurf -أحد أبرز أدوات البرمجة بالذكاء الاصطناعي- مقابل 3 مليارات دولار، وذلك في نفس الوقت الذي قامت فيه Google بجعل Gemini أكثر تكاملًا مع مشاريع GitHub. برأيك؛ هل تؤثر مثل هذه الخطوات على وظائف المبرمجين أم العكس؟ شاركنا رأيك.

كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي
كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي

الاتحاد

time١٣-٠٥-٢٠٢٥

  • الاتحاد

كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي

كشفت دراسة حديثة أجرتها شركة Giskard الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب الإيجاز من روبوتات المحادثة مثل ChatGPT قد يزيد من ميلها إلى "الهلوسة" أي اختلاق معلومات غير دقيقة أو غير حقيقية. تفاصيل الدراسة ووفقاً لموقع "تك كرانش" نشر الباحثون نتائجهم في تدوينة تفصيلية، أشاروا فيها إلى أن التوجيهات التي تطلب إجابات قصيرة، خاصة على أسئلة غامضة أو مبنية على معلومات خاطئة، تؤدي إلى انخفاض ملحوظ في دقة المحتوى الذي تقدمه النماذج. وقال الباحثون: "تُظهر بياناتنا أن تغييرات بسيطة في التوجيهات تؤثر بشكل كبير على ميل النموذج إلى الهلوسة". وهو ما يثير القلق، خاصة أن كثيرًا من التطبيقات تعتمد على الإجابات الموجزة بهدف تقليل استخدام البيانات، وتسريع الاستجابة، وتقليص التكاليف. اقرأ ايضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب الهلوسة ليست مشكلة جديدة في الذكاء الاصطناعي، حتى النماذج الأحدث مثل GPT-4o وClaude 3.7 Sonnet تعاني منها بدرجات متفاوتة. لكن المفاجئ في الدراسة كان اكتشاف أن مجرد طلب إيجاز في الإجابة يمكن أن يزيد من احتمالية وقوع هذه الأخطاء. ويرجّح الباحثون أن السبب يكمن في أن الإجابات القصيرة لا تتيح للنموذج "المجال" الكافي لتفنيد المغالطات أو شرح التعقيدات. فيكون أمام خيارين: الإيجاز أو الدقة، وغالبًا ما يختار الأول على حساب الثاني. اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع! عبارات بريئة.. لكنها تخدع النموذج أظهرت الدراسة أن النماذج الشهيرة مثل GPT-4o وMistral Large وClaude Sonnet تصبح أقل دقة عندما تُطلب منها إجابات مقتضبة على أسئلة مشوشة . فبدلًا من الإشارة إلى أن السؤال يحتوي على فرضية خاطئة، تميل النماذج إلى تقديم إجابة مختصرة تكميلية للخطأ، مما يعزز التضليل بدلاً من تصحيحه. وحذرت الدراسة أيضًا من أن بعض النماذج تميل إلى تفادي التصحيح عندما تُطرح المعلومات المغلوطة بطريقة واثقة، في محاولة لمجاراة توقّعات المستخدم، حتى وإن كانت خاطئة. تُبرز الدراسة مفارقة مؤسفة تتمثل في أن تحسين تجربة المستخدم من خلال الإجابات المختصرة قد يأتي على حساب دقة الحقيقة. لذلك، يوصي الباحثون بضرورة توخي الحذر عند تصميم الأوامر والتعليمات الموجهة للذكاء الاصطناعي، مع التأكيد على أهمية تحقيق توازن بين سرعة الإجابة وموثوقيتها. إسلام العبادي(أبوظبي)

حل متاهة نماذج «تشات جي بي تي».. «OpenAI» تكشف الخيار الأمثل لكل مهمة
حل متاهة نماذج «تشات جي بي تي».. «OpenAI» تكشف الخيار الأمثل لكل مهمة

العين الإخبارية

time٠٧-٠٥-٢٠٢٥

  • العين الإخبارية

حل متاهة نماذج «تشات جي بي تي».. «OpenAI» تكشف الخيار الأمثل لكل مهمة

كشفت شركة OpenAI عن وثيقة دعم جديدة تقدم إرشادات واضحة حول أفضل استخدام لكل نموذج من نماذج الذكاء الاصطناعي التابعة لها، خاصة فيما يتعلق بإصدارات "تشات جي بي تي". وتهدف هذه الخطوة إلى مساعدة المستخدمين، سواء من مشتركي خدمة ChatGPT Enterprise أو من مستخدمي النسخة المجانية، على اختيار النموذج الأنسب لاحتياجاتهم اليومية. ورغم أن المنصة تتيح منذ فترة إمكانية التنقل بين النماذج المختلفة، فإن غياب دليل واضح كان يربك المستخدمين بشأن الفروق الدقيقة بين هذه النماذج، وهو ما تسعى الوثيقة الجديدة إلى حله. GPT-4o.. النموذج المثالي للمهام اليومية وفقًا لـ OpenAI، فإن نموذج GPT-4o يعد الخيار الأكثر توازنًا وكفاءة للاستخدامات العامة واليومية، مثل تلخيص الاجتماعات، وكتابة رسائل البريد الإلكتروني، وتوليد الأفكار الإبداعية. كما يتميز بسرعة الاستجابة وسلاسة المحادثة، بالإضافة إلى قدرته على تحليل الملفات والصور فورياً. GPT-4.5.. للتواصل العاطفي والنبرة الإنسانية للمهام التي تتطلب تعاطفًا إنسانيًا أو نبرة عاطفية راقية، مثل كتابة منشور جذاب على LinkedIn أو صياغة رسالة اعتذار. حيث توصي OpenAI باستخدام نموذج GPT-4.5، المتاح فقط للمستخدمين المدفوعين. ويتميز هذا النموذج بتفوقه في صياغة نصوص ذات طابع إنساني وتسويقي، رغم تقاطعه أحيانًا مع GPT-4o في المهام الإبداعية. o3.. النموذج التحليلي لأصحاب القرارات إذا كانت المهام تتعلق بتحليل الأسواق، أو وضع خطط استراتيجية، أو حل مسائل رياضية متقدمة، فإن نموذج o3 هو الأنسب، بفضل قدرته على الاستدلال المنطقي المتسلسل ومعالجة الخطوات واحدة تلو الأخرى لإنتاج نتائج دقيقة. o4-mini.. للمهام التقنية والعلمية o4-mini: مخصص لتحليل البيانات، إصلاح الشيفرات البرمجية، وتلخيص الأبحاث العلمية. o4-mini-high: يمتاز بقدرته على تبسيط المفاهيم المعقدة وتقديم شروحات دقيقة في مجالات البرمجة والعلوم. وبحسب OpenAI، فإن هذا التصنيف يساعد المستخدمين على اختيار النموذج الأنسب لتوفير الوقت والموارد، وتحقيق نتائج أكثر دقة وفعالية، سواء كانوا مطورين أو صانعي محتوى أو محللي بيانات. aXA6IDgyLjI1LjI1NS4xNzAg جزيرة ام اند امز FR

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store