logo
ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟

ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟

فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ" هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها.
وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي.
وبحسب تقرير أعدته "صحيفة نيويورك تايمز" واطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإنه ولأكثر من عامين، دأبت شركات مثل OpenAI وغوغل ، على تحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفّضت وتيرة الأخطاء الناتجة عن "الهلوسة"، ولكن المفارقة تكمن في أنه عند خضوع هذه الأنظمة للتحديثات، فإنها تُصاب بالهلوسة بمعدل أعلى من السابق، وذلك وفقاً لاختبارات قامت بها الشركات المطورة لهذه الأنظمة، إضافة إلى اختبارات أجراها شركات وباحثون مستقلون.
فمثلاً وجدت شركة OpenAI أن "o3" وهو أقوى نظام لدى الشركة يُصاب بالهلوسة بنسبة 33 في المئة عند خضوعه لاختبار "PersonQA" المعياري، والذي يتضمن الإجابة عن أسئلة حول شخصيات عامة، وهذه النسبة هي ضعفيْ معدل الهلوسة، الذي كانت تسجّله النسخة القديمة من النظام والتي تحمل إسم " o1". أما نظام o4-mini الجديد من OpenAI، فقد سجّل مُعدّل هلوسة بلغت نسبته 48 في المئة أي أكثر من 3 أضعاف المعدل، عند خضوعه لاختبار "PersonQA" وهي نسبة مرتفعة جداً.
كما أنه وعند خضوع أنظمة OpenAI لاختبار آخر يحمل إسم "SimpleQA" مخصص لطرح أسئلة أكثر عمومية، كانت معدلات الهلوسة لنظامي "o3" و o4-miniمرتفعة جداً، ووصلت إلى 51 في المئة و79 في المئة على التوالي. أما نظام "o1" القديم، فقد سجّل مُعدّل هلوسة بلغ 44 في المئة. وفي ورقة بحثية تتناول تفاصيل هذه الاختبارات، ذكرت شركة OpenAI أن هناك حاجة إلى مزيد من البحث لفهم أسباب هذه النتائج.
وفي مشهد حديث لظاهرة "هلوسة الذكاء الاصطناعي"، تسبب روبوت دعم فني، تابع لأداة البرمجة الناشئة Cursor في أزمة غير متوقعة الشهر الماضي، عندما نَبّه المستخدمين إلى تغيير مزعوم في سياسة الشركة، زاعماً أنه لم يعد يُسمح لهم باستخدام Cursor على أكثر من جهاز واحد، حيث أشعل هذا القرار غضب الكثير من المستخدمين الذي عمدوا إلى التهديد بإلغاء اشتراكاتهم مع الشركة.
ولكن المفاجأة الكبرى كانت في اكتشاف أن هذا التغيير لم يكن حقيقياً على الإطلاق، فقد تبيّن أن روبوت الذكاء الاصطناعي اخترع هذه السياسة من تلقاء نفسه، وذلك بحسب مايكل ترول، المؤسس والرئيس التنفيذي لـCursor.
هلوسة مستعصية
ومنذ ظهور ChatGPT لأول مرة في نهاية عام 2022، أثارت ظاهرة "هلوسة الذكاء الاصطناعي"، مخاوف بشأن موثوقية هذه التكنولوجيا، وبما أن أنظمة الذكاء الاصطناعي تتعلم من كميات ضخمة من البيانات، تفوق ما يمكن للبشر فهمه، فإن خبراء التكنولوجيا يجدون صعوبة في تحديد لماذا تتصرف هذه البرامج بهذه الطريقة. والمقلق أن هذه الهلوسات موجودة في أغلب أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها شركات ديب مايند وديب سيك وأنثروبيك وغيرها.
ويرى بعض الخبراء أن "هلوسة الذكاء الاصطناعي" قد تكون متأصلة في التقنية نفسها، مما يجعل التغلب على هذه المشكلة أمراً شبه مستحيل، خصوصاً أن روبوتات الذكاء الاصطناعي تعتمد على أنظمة رياضية معقدة، تساعدها في تخمين أفضل إجابة ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصة بتطوير أدوات ذكاء اصطناعي للشركات، إن "الهلوسة" لن تزول ابداً رغم أن الشركات تبذل قصارى جهدها لحل هذه المشكلة.
بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسة معمّقة، حول مشكلة هلوسة الذكاء الاصطناعي، إنه نظراً لطريقة تدريب أنظمة الذكاء الاصطناعي فإن هذه البرامج، تميل إلى التركيز على القيام بمهمة واحدة فقط، وتبدأ تدريجياً في نسيان المهام الأخرى، مشيرة إلى أن هذه الأنظمة خلال فترة "التفكير" أو"المعالجة" التي تسبق التوصل إلى الإجابة، تكون عرضة للهلوسة في كل خطوة، ومع ازدياد مدة "التفكير"، تزداد احتمالية تراكم الأخطاء وتفاقمها.
من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا "تفهم" المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة "الاحتمالية" لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة "هلوسة الذكاء الاصطناعي" تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم.
لماذا يهلوس الذكاء اصطناعي؟
وبحسب معلوف فإن "هلوسة الذكاء الاصطناعي" تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على "الارتباطات الإحصائية"، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل "التعلم من ملاحظات البشر"، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها.
وشددت معلوف على أن معالجة "هلوسة الذكاء الاصطناعي" تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية.
لماذا تتفاقم "الهلوسة" بعد التحديثات؟
من جهته يقول رئيس شركة "تكنولوجيا" مازن الدكاش، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ليست عيباً في الكود يمكن إصلاحه أو خللاً سطحياً يمكن تجاوزه بتحديث أو تعديل تقني سريع، بل هي نتيجة طبيعية لطريقة عمل برامج الذكاء الاصطناعي، وللأسف فإن إنتاج معلومات غير صحيحة أو مختلقة، سيبقى احتمالاً قائماً ما لم يحدث تحول جذري في طريقة بناء هذه الأنظمة.
ويكشف الدكاش أن ارتفاع نسب "هلوسة برامج الذكاء الاصطناعي" بعد التحديثات التي تخصع لها، يعود لعدة أسباب، فبعض التحديثات تركز مثلاً على تحسين الأداء في مهام معينة أو على بيانات محددة، مما قد يُضعف أداء البرنامج في مهام أخرى ويفقده شيئاً من التوازن في إنتاج المعرفة، كما أنه بعد التحديثات تزداد قدرة برامج الذكاء الاصطناعي، على توليد نصوص أكثر تعقيداً من السابق، وهذا يساعدها على ابتكار إجابات تبدو صحيحة ومقنعة من حيث الشكل ولكنها خاطئة من حيث المضمون، أي أن النموذج يصبح أكثر قدرة على الإقناع وليس بالضرورة أكثر مصداقية.
هلوسات المستقبل أخطر
وشدد الدكاش على أنه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي ذاتها، فسيظل العالم يواجه نفس النوع من الهلوسات، وربما تكون أكثر خطراً في المستقبل، كونها ستصدر من أنظمة قادرة على اتخاذ قرارات ذات طابع تنفيذي، وذلك مع ظهور الذكاء الاصطناعي العام، أو ما يُعرف بالذكاء الاصطناعي الخارق، ولذلك فإن الحل يكمن في إعادة هندسة الجوانب المعمارية لأنظمة الذكاء الاصطناعي الحالية، لتصبح قادرة على "التحقق" من المعلومات وليس فقط "الإجابة".

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

جوجل تضيف ميزة الدبلجة الصوتية الفورية إلى Meet
جوجل تضيف ميزة الدبلجة الصوتية الفورية إلى Meet

البوابة العربية للأخبار التقنية

timeمنذ ساعة واحدة

  • البوابة العربية للأخبار التقنية

جوجل تضيف ميزة الدبلجة الصوتية الفورية إلى Meet

أعلنت جوجل خلال مؤتمرها السنوي I/O 2025 ميزة جديدة مدعومة بالذكاء الاصطناعي تتيح لمستخدمي خدمة الاجتماعات والمكالمات عبر الإنترنت Google Meet الحصول على ترجمة صوتية فورية، مما يسهل التواصل بين المستخدمين ذوي اللغات المختلفة في الاجتماعات والمكالمات. وتعتمد الميزة الجديدة على نموذج Gemini لتقديم ترجمة صوتية تحاكي صوت المتحدث الأصلي ونبرته وتعبيراته، لتبدو كأنها صادرة عنه مباشرة. وفي العرض التوضيحي الذي قدمته جوجل، ظهر مستخدم يتحدث الإنجليزية في أثناء مكالمة مع مستخدم آخر يتحدث الإسبانية، وبمجرد تفعيل ميزة الترجمة، بدأت خدمة Meet دبلجة الحديث تلقائيًا إلى الإنجليزية مع الحفاظ على تفاصيل الصوت الأصلية. وتُعد هذه الخطوة منافسة مباشرة لميزة مماثلة أعلنتها مايكروسوفت في وقت سابق من هذا العام لمنصة Teams، مما يعكس السباق المتزايد بين الشركتين في مجال تحسين أدوات العمل التعاوني. وفي المرحلة الحالية، تدعم الميزة الترجمة بين الإنجليزية والإسبانية فقط، لكن جوجل تخطط لإضافة دعم كلٍ من الإيطالية والألمانية والبرتغالية خلال الأسابيع المقبلة، وفقًا لما أعلنته خلال المؤتمر. وبدأ طرح الميزة تدريجيًا لمشتركي الخدمة، ومن المنتظر وصولها إلى المؤسسات والشركات في وقت لاحق من العام الجاري. ومن المتوقع أن تُحدث هذه الميزة الجديدة تأثيرًا كبيرًا في طريقة عمل الفرق المتعددة الجنسيات والشركات ذات الانتشار العالمي، إذ ستسهم في إزالة أحد أكبر العوائق أمام التواصل الفعّال، وهو اختلاف اللغة، كما ستسمح للجميع من مختلف الخلفيات اللغوية بالمشاركة بثقة أكبر في النقاشات واتخاذ القرارات.

النماذج اللغوية والبحث الأكاديمي
النماذج اللغوية والبحث الأكاديمي

صحيفة الخليج

timeمنذ 2 ساعات

  • صحيفة الخليج

النماذج اللغوية والبحث الأكاديمي

سلطت دراسة جديدة أجرتها جامعة ماساتشوستس الأمريكية الضوء على التأثير العميق لنماذج اللغات الكبيرة في مشهد البحث الأكاديمي. تتمتع هذه النماذج اللغوية المتطورة بالقدرة على معالجة كميات هائلة من البيانات النصية، وتوليد استجابات متماسكة، بل المساعدة على صياغة فرضيات البحث. ونتيجةً لذلك، تتوسع آفاق البحث الأكاديمي، وتُكشف آفاق جديدة للاستكشاف. أصبحت نماذج اللغات الكبيرة، التي تتميز بحجمها الهائل وتعقيدها، أدواتٍ لا غنى عنها في مجال البحث الأكاديمي. فباستخدام خوارزميات التعلم الآلي المتقدمة، تستطيع هذه النماذج تحليل النصوص وتفسيرها وتوليدها بمستوى كفاءة لم يكن من الممكن بلوغه سابقاً. وأحدثت هذه القدرة ثورةً في عملية البحث، ما مكن الباحثين من التعمق بمواضيع معقدة واستخلاص رؤى قيمة من مستودعات معلومات هائلة. ومن أهم فوائد دمج برامج الماجستير في القانون بالبحث الأكاديمي تعزيز كفاءة البحث بشكل ملحوظ. إذ تستطيع هذه النماذج تقليص مجموعات البيانات الضخمة بسرعة، وتحديد الأنماط، واستخلاص المعلومات ذات الصلة، ما يُبسط عملية البحث ويُسرع وتيرة الاكتشاف. ومن خلال أتمتة جوانب معينة من تحليل البيانات وتفسيرها، يمكن للباحثين تركيز جهودهم على مهام أكثر تعقيداً تتطلب براعة بشرية وتفكيراً نقدياً. وتُعزز برامج الماجستير في القانون أيضاً تعاوناً أكبر بين مختلف التخصصات الأكاديمية. فمن خلال توفير إطار عمل لغوي مشترك وتسهيل التواصل بين الباحثين من مختلف المجالات، تُكسر هذه النماذج الحواجز التقليدية وتُشجع التعاون بين التخصصات. ويؤدي هذا التعاون المتبادل للأفكار والخبرات إلى مشاريع بحثية مبتكرة تتجاوز حدود التخصصات وتُحقق إنجازات متعددة التخصصات. مع أن دمج برامج الماجستير في القانون بالبحث الأكاديمي يوفر مزايا عديدة، إلا أنه يطرح أيضاً تحديات ويثير اعتبارات أخلاقية مهمة. ويجب معالجة القضايا المتعلقة بخصوصية البيانات، والتحيز في اتخاذ القرارات الخوارزمية، والاستخدام المسؤول لتقنيات الذكاء الاصطناعي بعناية لضمان قوة نتائج البحث وشفافيتها وسلامتها الأخلاقية.

قفاز يترجم إيماءات اليد إلى نص
قفاز يترجم إيماءات اليد إلى نص

صحيفة الخليج

timeمنذ 4 ساعات

  • صحيفة الخليج

قفاز يترجم إيماءات اليد إلى نص

إعداد: محمد عزالدين طور باحثون من المعهد التقني الفيدرالي السويسري للتكنولوجيا في زيورخ نسيجاً ذكياً يمكنه قياس سرعة التنفس ويترجم إيماءات اليد إلى نص أو كلام عبر قفاز، وذلك باستخدام ألياف زجاجية مدمجة في القماش، تنقل الموجات الصوتية وتحلل تغيراتها الناتجة عن الحركة أو الضغط. وقال د. دانيال أحمد، من المعهد، والباحث الرئيسي في الدراسة: «تحتوي كل من الألياف الزجاجية، على جهاز إرسال صغير في أحد طرفيه، يصدر موجات بتردد فريد، يتجاوز 100 كيلوهرتز، وهو نطاق لا تدركه الأذن البشرية، ويتصل الطرف المقابل من الألياف بجهاز استقبال يكتشف أي تغيرات في هذه الموجات ويحللها، ويرسل البيانات مباشرة إلى جهاز حاسوب أو هاتف ذكي بشكل مباشر». وأوضح: «عندما تتحرك الألياف يتغير مسار الموجات الصوتية وتفقد جزءاً من طاقتها في القميص، ويمكن أن يحدث هذا التأثير بسبب حركات الجسم أو عملية التنفس». وتابع: «تتميز هذه التقنية بانخفاض استهلاك الطاقة وعدم الحاجة إلى قدرات حوسبة كبيرة، على عكس الأنظمة السابقة التي كانت تعاني تعقيدات في معالجة الإشارات». ومن الاستخدامات المحتملة للنسيج، الرعاية الصحية، لمراقبة تنفس مرضى الربو، وإطلاق تنبيهات في حالات الطوارئ، ومجال الرياضة لتحسين الأداء البدني وتقليل الإصابات، ولمساعدة ذوي الاحتياجات الخاصة، من خلال تحسين وضعية الجلوس، والتنبيه لتغيير الوضع لتفادي التقرحات، أو دمجها في تقنيات الواقع الافتراضي والواقع المعزز.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store