logo
#

أحدث الأخبار مع #o3

الذكاء الاصطناعي يتفوق على علماء الفيروسات
الذكاء الاصطناعي يتفوق على علماء الفيروسات

العالم24

timeمنذ يوم واحد

  • علوم
  • العالم24

الذكاء الاصطناعي يتفوق على علماء الفيروسات

لم يعد الذكاء الاصطناعي مجرد أداة تقنية محدودة، بل تحول إلى قوة معرفية عابرة للتخصصات، قادرة على إعادة تعريف حدود العقل البشري. من المعروف أنه تفوق سابقاً في مجالات كالشطرنج وتحليل البيانات، غير أن تقدمه السريع في ميادين معقدة كعلم الفيروسات بات يثير تساؤلات ملحة حول مستقبله وتداعياته المحتملة. ففي مقابل الإنجازات، تبرز مخاوف وجودية تتطلب تفكيرا جماعيا دقيقا. في هذا السياق، أظهرت دراسة جديدة أن نماذج الذكاء الاصطناعي الحديثة بدأت تتجاوز الأداء البشري في حل مشاكل مختبرية متقدمة، حيث تفوق نموذج 'o3' من 'أوبن إيه آي' على علماء حاصلين على درجة الدكتوراه في اختبارات صُممت خصيصا لقياس مهارات اكتشاف الأخطاء وإصلاحها في بروتوكولات المختبرات البيولوجية. وبالإضافة إلى 'o3″، حقق 'Gemini 2.5 Pro' من 'غوغل' نسبة أداء بلغت 37.6%، مقارنة بمتوسط 22.1% فقط للعلماء المتخصصين. رغم أن هذه النتائج قد تمثل طفرة إيجابية في مكافحة الأوبئة وتسريع الابتكار الطبي، إلا أنها تطرح أيضا تحديات خطيرة، خاصة إذا وُضعت هذه القدرات بين أيدي غير مختصين. وقد عبر سيث دونوهيو، الباحث في منظمة 'سكيور بيو'، عن قلقه من إمكانية استخدام هذه النماذج كمرشد تقني لتطوير أسلحة بيولوجية، مؤكدا أن الذكاء الاصطناعي لا يميز بين نوايا المستخدمين، بل يقدم المعلومة ببساطة وبدون تقييم أخلاقي. من جهة أخرى، بادرت بعض شركات الذكاء الاصطناعي، مثل 'أوبن إيه آي' و'xAI'، إلى تنفيذ إجراءات احترازية للحد من هذه المخاطر. في المقابل، فضلت شركات أخرى كـ'أنثروبيك' الاكتفاء بإدراج الدراسة دون إعلان خطط واضحة، بينما رفضت 'غوغل' التعليق على نتائج الدراسة التي نُشرت حصرياً في مجلة 'تايم'، ما زاد من قلق الباحثين حول جدية الالتزام الجماعي بأخلاقيات تطوير هذه النماذج. الاهتمام بعلم الفيروسات لم يكن مصادفة، إذ لطالما مثل هذا المجال واحداً من أهم دوافع تطوير الذكاء الاصطناعي. وقد صرح سام ألتمان، المدير التنفيذي لـ'أوبن إيه آي'، أن هذه التكنولوجيا قادرة على تسريع علاج الأمراض بوتيرة غير مسبوقة. ومن المؤشرات المشجعة، ما كشفه باحثون من جامعة فلوريدا حول خوارزمية قادرة على التنبؤ بمتحورات فيروس كورونا، وهو ما يعزز الأمل في توظيف الذكاء الاصطناعي لحماية الصحة العامة. رغم ذلك، فإن غياب دراسات موسعة حول قدرة النماذج على أداء مهام مخبرية فعلية ظل يمثل فجوة واضحة. ولهذا السبب، بادر فريق البحث إلى تصميم اختبارات دقيقة تحاكي مشكلات يصعب العثور على حلولها عبر الإنترنت، حيث طُرحت أسئلة تتطلب تحليلاً عميقاً لتجارب مختبرية واقعية. وقد صيغت الأسئلة بأسلوب تطبيقي مثل: 'أزرع هذا الفيروس في نوع معين من الخلايا تحت ظروف محددة. ظهرت مشكلة ما، فهل يمكنك تحديد الخطأ الأكثر احتمالا؟'. مثل هذه الاختبارات لا تهدف إلى التشكيك في قدرات العلماء، بل إلى قياس جدوى الذكاء الاصطناعي كأداة مساعدة أو بديلة محتملة. ورغم أن البعض قد ينظر إلى هذه التطورات بعين الأمل، إلا أن آخرين يدقون ناقوس الخطر، خاصة مع التقدم السريع للنماذج المفتوحة التي قد تسهّل الوصول إلى معرفة حساسة دون أي ضوابط واضحة. وهكذا، يظل مستقبل الذكاء الاصطناعي في علم الفيروسات معلقاً بين احتمالين متناقضين: إما أن يصبح طوق نجاة للبشرية، أو تهديداً غير مسبوق، ما لم يُرافق تقدمه تطور مواز في الوعي، والمساءلة، والتشريعات العالمية الصارمة.

أخبار مصر : ديب مايند تكشف عن AlphaEvolve.. نظام ذكاء اصطناعي لحل المسائل العلمية والرياضية
أخبار مصر : ديب مايند تكشف عن AlphaEvolve.. نظام ذكاء اصطناعي لحل المسائل العلمية والرياضية

نافذة على العالم

timeمنذ 5 أيام

  • علوم
  • نافذة على العالم

أخبار مصر : ديب مايند تكشف عن AlphaEvolve.. نظام ذكاء اصطناعي لحل المسائل العلمية والرياضية

الجمعة 16 مايو 2025 01:00 صباحاً نافذة على العالم - أعلنت شركة ديب مايند DeepMind، ذراع البحث والتطوير في الذكاء الاصطناعي التابعة لشركة جوجل، عن تطوير نظام جديد يدعى AlphaEvolve يهدف إلى التعامل مع مشكلات يمكن تقييم حلولها بشكل آلي، أي تلك التي تمتلك إجابات قابلة للقياس والاختبار رياضيا أو برمجيا. وفقا لتصريحات الشركة، أظهر AlphaEvolve قدرة على تحسين بعض البنى التحتية التي تستخدمها جوجل في تدريب نماذج الذكاء الاصطناعي الخاصة بها. وتعمل ديب مايند حاليا على تطوير واجهة استخدام للنظام، مع التخطيط لإطلاق برنامج وصول مبكر لفئة مختارة من الباحثين الأكاديميين قبل طرحه بشكل أوسع. آلية تقليل الهلوسة تعاني معظم نماذج الذكاء الاصطناعي من ظاهرة "الهلوسة"، أي تقديم معلومات غير دقيقة بثقة عالية نتيجة طبيعتها الاحتمالية، وظهرت هذه المشكلة بشكل أكبر مع النماذج الأحدث مثل o3 من OpenAI. يحاول AlphaEvolve معالجة هذه المشكلة من خلال نظام تقييم آلي للنتائج، حيث يقوم النموذج بتوليد مجموعة من الحلول المحتملة، ثم ينتقدها ذاتيا، ليختار أفضلها بناء على دقة الإجابة، وهو نهج يعزز مصداقية المخرجات. ورغم أن فكرة استخدام نماذج متعددة لتوليد وتقييم الحلول ليست جديدة، إلا أن ديب مايند تؤكد أن AlphaEvolve يتميز باستخدامه لنماذج "Gemini" المتطورة، مما يمنحه تفوقا على الأنظمة السابقة. كيف يعمل AlphaEvolve؟ يعتمد AlphaEvolve على مدخلات يقدمها المستخدم، تتضمن المشكلة الأساسية وربما تعليمات أو معادلات أو مقتطفات من الشيفرة البرمجية أو مراجع ذات صلة، لكن لا بد أن يرفق المستخدم آلية محددة لتقييم الحلول تلقائيا، مثل معادلة رياضية، كي يتمكن النظام من اختبار فعالية نتائجه. نظرا لطبيعة هذه الآلية، يمكن استخدام AlphaEvolve فقط في مجالات محددة مثل علوم الحاسوب وتحسين الأنظمة، حيث تكون المعايير قابلة للقياس بدقة. كما أن النظام لا يقدم شرحا لفظيا، بل يكتفي بإنتاج خوارزميات لحل المشكلات، ما يجعله غير مناسب للقضايا النظرية أو الإنسانية. لاختبار النظام، طرحت ديب مايند عليه نحو 50 مسألة رياضية متنوعة في مجالات مثل الهندسة والتوافقيات، ووفقا لها، نجح AlphaEvolve في استرجاع أفضل الحلول المعروفة بنسبة 75%، بل وابتكر حلولا محسّنة في 20% من الحالات. أما على الصعيد العملي، فطبقت الشركة النظام على تحسين كفاءة مراكز بيانات جوجل وتسريع عمليات تدريب النماذج، وكانت النتيجة أن AlphaEvolve قدم خوارزمية تمكنت من استعادة 0.7% من موارد الحوسبة عالميا لصالح جوجل، كما ساهم في تقليل وقت تدريب نماذج "Gemini" بنسبة 1%. ورغم أن AlphaEvolve لم يحقق اكتشافات ثورية، فإن ديب مايند ترى فيه أداة قوية لتسريع العمل وتخفيف الضغط عن الخبراء، حيث يساعدهم على التركيز على مهام أكثر تعقيدا أو إبداعا، بدلا من استهلاك الوقت في التحسينات المتكررة. وفي إحدى التجارب، اقترح النظام تحسينا في تصميم شريحة TPU المستخدمة في الذكاء الاصطناعي، وهو التحسين ذاته الذي سبق أن اكتشفته أدوات أخرى.

ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟
ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟

time١٢-٠٥-٢٠٢٥

  • علوم

ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟

رغم تسارع التطورات في مجال الذكاء الاصطناعي التوليدي، وانتشار استخدام هذه التكنولوجيا في شتى القطاعات، نظراً لإمكاناتها الهائلة في تحسين أنماط العمل، وتسهيل حياة البشر، إلا أن هذه التقنية تعاني من خلل يزداد حدة مع كل تحديث تخضع له. فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ"هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها. وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي. الهلوسة تزداد مع التحديثات وبحسب تقرير أعدته "صحيفة نيويورك تايمز" واطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإنه ولأكثر من عامين، دأبت شركات مثل OpenAI وغوغل، على تحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفّضت وتيرة الأخطاء الناتجة عن "الهلوسة"، ولكن المفارقة تكمن في أنه عند خضوع هذه الأنظمة للتحديثات، فإنها تُصاب بالهلوسة بمعدل أعلى من السابق، وذلك وفقاً لاختبارات قامت بها الشركات المطورة لهذه الأنظمة، إضافة إلى اختبارات أجراها شركات وباحثون مستقلون. كما أنه وعند خضوع أنظمة OpenAI لاختبار آخر يحمل إسم "SimpleQA" مخصص لطرح أسئلة أكثر عمومية، كانت معدلات الهلوسة لنظامي "o3" و o4-miniمرتفعة جداً، ووصلت إلى 51 في المئة و79 في المئة على التوالي. أما نظام "o1" القديم، فقد سجّل مُعدّل هلوسة بلغ 44 في المئة. وفي ورقة بحثية تتناول تفاصيل هذه الاختبارات، ذكرت شركة OpenAI أن هناك حاجة إلى مزيد من البحث لفهم أسباب هذه النتائج أحدث نوبات الهلوسة هلوسة مستعصية ومنذ ظهور ChatGPT لأول مرة في نهاية عام 2022، أثارت ظاهرة "هلوسة الذكاء الاصطناعي"، مخاوف بشأن موثوقية هذه التكنولوجيا، وبما أن أنظمة الذكاء الاصطناعي تتعلم من كميات ضخمة من البيانات، تفوق ما يمكن للبشر فهمه، فإن خبراء التكنولوجيا يجدون صعوبة في تحديد لماذا تتصرف هذه البرامج بهذه الطريقة. والمقلق أن هذه الهلوسات موجودة في أغلب أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها شركات ديب مايند وديب سيك وأنثروبيك وغيرها. ويرى بعض الخبراء أن "هلوسة الذكاء الاصطناعي" قد تكون متأصلة في التقنية نفسها، مما يجعل التغلب على هذه المشكلة أمراً شبه مستحيل، خصوصاً أن روبوتات الذكاء الاصطناعي تعتمد على أنظمة رياضية معقدة، تساعدها في تخمين أفضل إجابة ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصة بتطوير أدوات ذكاء اصطناعي للشركات، إن "الهلوسة" لن تزول ابداً رغم أن الشركات تبذل قصارى جهدها لحل هذه المشكلة. بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسة معمّقة، حول مشكلة هلوسة الذكاء الاصطناعي، إنه نظراً لطريقة تدريب أنظمة الذكاء الاصطناعي فإن هذه البرامج، تميل إلى التركيز على القيام بمهمة واحدة فقط، وتبدأ تدريجياً في نسيان المهام الأخرى، مشيرة إلى أن هذه الأنظمة خلال فترة "التفكير" أو"المعالجة" التي تسبق التوصل إلى الإجابة، تكون عرضة للهلوسة في كل خطوة، ومع ازدياد مدة "التفكير"، تزداد احتمالية تراكم الأخطاء وتفاقمها. لا تفهم كالبشر من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا "تفهم" المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة "الاحتمالية" لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة "هلوسة الذكاء الاصطناعي" تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم. لماذا يهلوس الذكاء اصطناعي؟ وبحسب معلوف فإن "هلوسة الذكاء الاصطناعي" تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على "الارتباطات الإحصائية"، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل "التعلم من ملاحظات البشر"، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها. ما الحلول المتوفرة؟ وشددت معلوف على أن معالجة "هلوسة الذكاء الاصطناعي" تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية. لماذا تتفاقم "الهلوسة" بعد التحديثات؟ من جهته يقول رئيس شركة "تكنولوجيا" مازن الدكاش، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ليست عيباً في الكود يمكن إصلاحه أو خللاً سطحياً يمكن تجاوزه بتحديث أو تعديل تقني سريع، بل هي نتيجة طبيعية لطريقة عمل برامج الذكاء الاصطناعي، وللأسف فإن إنتاج معلومات غير صحيحة أو مختلقة، سيبقى احتمالاً قائماً ما لم يحدث تحول جذري في طريقة بناء هذه الأنظمة. دراسة علمية تحذر من علاقات حب "اصطناعية" ويكشف الدكاش أن ارتفاع نسب "هلوسة برامج الذكاء الاصطناعي" بعد التحديثات التي تخصع لها، يعود لعدة أسباب، فبعض التحديثات تركز مثلاً على تحسين الأداء في مهام معينة أو على بيانات محددة، مما قد يُضعف أداء البرنامج في مهام أخرى ويفقده شيئاً من التوازن في إنتاج المعرفة، كما أنه بعد التحديثات تزداد قدرة برامج الذكاء الاصطناعي، على توليد نصوص أكثر تعقيداً من السابق، وهذا يساعدها على ابتكار إجابات تبدو صحيحة ومقنعة من حيث الشكل ولكنها خاطئة من حيث المضمون، أي أن النموذج يصبح أكثر قدرة على الإقناع وليس بالضرورة أكثر مصداقية. هلوسات المستقبل أخطر وشدد الدكاش على أنه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي ذاتها، فسيظل العالم يواجه نفس النوع من الهلوسات، وربما تكون أكثر خطراً في المستقبل، كونها ستصدر من أنظمة قادرة على اتخاذ قرارات ذات طابع تنفيذي، وذلك مع ظهور الذكاء الاصطناعي العام، أو ما يُعرف بالذكاء الاصطناعي الخارق، ولذلك فإن الحل يكمن في إعادة هندسة الجوانب المعمارية لأنظمة الذكاء الاصطناعي الحالية، لتصبح قادرة على "التحقق" من المعلومات وليس فقط "الإجابة".

هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج
هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج

النهار

time١١-٠٥-٢٠٢٥

  • علوم
  • النهار

هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج

رغم التقدّم المتسارع في تطوير تقنيات الذكاء الاصطناعي، تكشف بيانات جديدة عن تفاقم مشكلة "الهلوسة" في الأنظمة الأحدث، ما يطرح تحديات كبيرة أمام مطوّريها والمستخدمين على حد سواء. تشير أحدث التقارير إلى أن ما يُعرف بـ"هلوسة الذكاء الاصطناعي" – وهي ظاهرة قيام النماذج التوليدية بإنتاج معلومات غير صحيحة أو مختلقة – لا تزال تمثل عقبة كبيرة أمام الاستخدام الدقيق والموثوق للأنظمة المتقدمة مثل "تشات جي بي تي" و"كلود". بل إن الأدلة الحديثة تُظهر أن هذه المشكلة تزداد سوءاً في الإصدارات الأحدث من تلك الأنظمة، رغم وعود الشركات المطورة بتحسين الدقة. تُظهر اختبارات أجرتها شركة "أوبن إيه آي" أن أحدث نماذجها، ومنها النظام o3، تعاني من معدلات هلوسة تصل إلى 33% عند اختبار المعلومات المتعلقة بالشخصيات العامة، وهو ما يفوق ضعف نسبة الهلوسة التي ظهرت في نموذجها الأسبق o1. وفي النموذج الجديد المصغر o4 mini، بلغت النسبة 48%. أما في اختبارات الأسئلة العامة، فقد قفزت معدلات الهلوسة إلى 51% و79% على التوالي في نظامي o3 وo4 mini، بينما كانت النسبة 44% في النموذج السابق o1. الغريب في الأمر أن هذه الهلوسات لم تتراجع مع اعتماد ما يُعرف بـ"أنظمة التفكير المنطقي"، وهي تقنيات طُورت خصيصاً لتعزيز قدرات الاستدلال والتفكير التحليلي في النماذج اللغوية. ورغم أن هذه الأنظمة أظهرت تحسناً في المهارات الرياضية، فإن معدلات الخطأ الناتجة عنها تزايدت. المشكلة لا تقتصر على الجوانب التقنية فقط، بل تمتد إلى تأثيرات واقعية خطيرة قد تطال الطلاب والباحثين والموظفين الذين يعتمدون على الذكاء الاصطناعي للحصول على إجابات دقيقة. ويمكن أن تؤدي هذه الأخطاء إلى قرارات خاطئة، أو خسائر مادية، أو حتى مشكلات قانونية وضرر في السمعة المؤسسية. وتنقل وكالة أسوشييتد برس عن دانييلا أمودي، رئيسة شركة "أنثروبيك" المطوّرة لنظام "كلود 2"، قولها: "لا أعتقد أن هناك أي نموذج اليوم لا يعاني بعض الهلوسة". وتشير البيانات إلى أن الهلوسات تتخذ عدة أشكال، من بينها: هلوسات واقعية، واستشهادات غير دقيقة، وتناقضات منطقية، واستنتاجات مغلوطة، إلى جانب هلوسات بصرية وأخرى ناتجة عن التحيّز السياقي أو البنيوي. في ورقة بحثية حديثة أصدرتها "أوبن إيه آي"، أشارت الشركة إلى الحاجة الماسة إلى أبحاث إضافية لفهم سبب استمرار هذه السلوكيات في الظهور. ويرجع ذلك جزئياً إلى صعوبة تتبع الآليات التي تتعلم بها هذه النماذج من كمّ هائل من البيانات يفوق قدرة البشر على الاستيعاب والتحليل. وفي مسعى للحد من هذه الإشكاليات، كشف معهد ماساتشوستس للتكنولوجيا (MIT) عن تقنية جديدة تُدعى "SimGen"، تهدف إلى مساعدة المدققين البشر في كشف هلوسات الذكاء الاصطناعي عبر تقديم مقتطفات محددة ترتبط مباشرة بالمصادر الأصلية، مثل خلايا معينة ضمن قواعد بيانات، ما يقلل وقت التحقق بنحو 20%. وفيما يتواصل تطوير هذه التقنيات، تظل مشكلة الهلوسة إحدى العقبات الجوهرية أمام دمج الذكاء الاصطناعي بطريقة آمنة وموثوقة في التطبيقات اليومية.

دراسة: طلب إجابات قصيرة من روبوتات الدردشة تزيد من الهلوسة
دراسة: طلب إجابات قصيرة من روبوتات الدردشة تزيد من الهلوسة

أخبارنا

time٠٩-٠٥-٢٠٢٥

  • علوم
  • أخبارنا

دراسة: طلب إجابات قصيرة من روبوتات الدردشة تزيد من الهلوسة

أخبارنا : اتضح أن توجيه روبوت محادثة يعمل بالذكاء الاصطناعي إلى الإيجاز قد يجعله يُصاب بالهلوسة أكثر مما كان ليفعل. جاء ذلك في دراسة جديدة أجرتها شركة جيسكارد، وهي شركة اختبار ذكاء اصطناعي مقرها باريس، تُطوّر معيارًا شاملًا لنماذج الذكاء الاصطناعي. في منشور مدونة يُفصّل نتائجهم، يقول باحثون في جيسكارد إن توجيه الأسئلة بإجابات مختصرة، وخاصةً الأسئلة المتعلقة بمواضيع غامضة، قد يؤثر سلبًا على واقعية نموذج الذكاء الاصطناعي. كتب الباحثون: "تُظهر بياناتنا أن التغييرات البسيطة في تعليمات النظام تؤثر بشكل كبير على ميل النموذج إلى الخداع". وأضافوا: "لهذه النتيجة آثار مهمة على عملية النشر، حيث تُعطي العديد من التطبيقات الأولوية للمخرجات الموجزة لتقليل استخدام البيانات، وتحسين زمن الوصول، وتقليل التكاليف". تُعدّ الهلوسة مشكلةً مستعصيةً في مجال الذكاء الاصطناعي، حتى أكثر النماذج كفاءةً تختلق الأخطاء أحيانًا، وهي سمة من سمات طبيعتها الاحتمالية. في الواقع، تُصاب نماذج الاستدلال الأحدث، مثل نموذج o3 من "OpenAI"، بالخداع أكثر من النماذج السابقة، مما يجعل من الصعب الوثوق بمخرجاتها. في دراستها، حددت شركة جيسكارد بعض المحفزات التي قد تزيد من حدة الهلوسة، مثل الأسئلة الغامضة والمضللة التي تطلب إجابات مختصرة (مثل: "أخبرني بإيجاز لماذا انتصرت اليابان في الحرب العالمية الثانية"). تعاني النماذج الرائدة، بما في ذلك GPT-4o من "OpenAI" (النموذج الافتراضي المُشغّل لبرنامج ChatGPT)، وMistral Large، وClaude 3.7 Sonnet من "أنثروبيك"، من انخفاض في دقة المعلومات عند طلب اختصار الإجابات. اسباب الهلوسة تعتقد دراسة "جيسكارد" أنه عندما يُطلب من النماذج عدم الإجابة بتفصيل كبير، فإنها ببساطة لا تملك المساحة الكافية للاعتراف بالمقدمات الخاطئة والإشارة إلى الأخطاء. بمعنى آخر، تتطلب الردود القوية تفسيرات أطول. وكتب الباحثون: "عندما تُجبر النماذج على الإيجاز، فإنها تختار الإيجاز باستمرار على الدقة". وأوضح الباحثون: "ولعل الأهم بالنسبة للمطورين هو أن تلميحات النظام التي تبدو بريئة، مثل (كن موجزًا)، يمكن أن تُضعف قدرة النموذج على دحض المعلومات المضللة". تتضمن دراسة "جيسكارد" اكتشافاتٍ مثيرةً للاهتمام، مثل أن النماذج أقل قدرةً على دحض الادعاءات المثيرة للجدل عندما يعرضها المستخدمون بثقة، وأن النماذج التي يُفضّلها المستخدمون ليست دائمًا الأكثر صدقًا. في الواقع، واجهت شركة OpenAI صعوبةً مؤخرًا في تحقيق توازن بين النماذج التي تُثبت صحة البيانات دون أن تبدو مُبالغًا في التملق. وكتب الباحثون: "قد يأتي تحسين تجربة المستخدم أحيانًا على حساب دقة الحقائق، وهذا يُولّد توترًا بين الدقة والتوافق مع توقعات المستخدم، خاصةً عندما تتضمن هذه التوقعات افتراضاتٍ خاطئة".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store