
دراسة: طلب إجابات مختصرة من روبوتات الذكاء الاصطناعي يزيد احتمالات 'الهلوسة'
الخط : A- A+
إستمع للمقال
كشفت دراسة حديثة أن مطالبة روبوتات المحادثة المدعومة بالذكاء الاصطناعي بتقديم إجابات موجزة قد يزيد من احتمالية إنتاجها لمعلومات غير دقيقة أو مضللة، وهي ظاهرة تُعرف بـ'الهلوسة'.
الدراسة أجرتها شركة 'جيسكارد' الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، والتي تعمل على تطوير معايير دقيقة لتقييم أداء هذه النماذج. ووفقا لنتائج الدراسة، فإن توجيه أسئلة غامضة تتطلب إجابات مختصرة – مثل 'لماذا انتصرت اليابان في الحرب العالمية الثانية؟' – يُعد عاملا محفزا لحدوث الهلوسة.
وكتب الباحثون في منشور رسمي على مدونة الشركة: 'تُظهر بياناتنا أن مجرد تغيير بسيط في تعليمات النظام يمكن أن يزيد بشكل كبير من ميل النموذج لتقديم معلومات خاطئة'، مؤكدين أن التوجيه نحو الإيجاز قد يحد من قدرة النماذج على تصحيح الفرضيات المضللة أو الإشارة إلى الأخطاء في الأسئلة.
وأضاف الفريق أن هذا التوجه نحو الإيجاز يرتبط غالبا باعتبارات تتعلق بسرعة الاستجابة وتوفير استهلاك البيانات وتقليل التكاليف، إلا أن هذه الفوائد التقنية قد تأتي على حساب الدقة.
ووفقا للدراسة، فإن نماذج متقدمة مثل 'GPT-4o' من 'OpenAI'، و'Mistral Large'، و'Claude 3.7 Sonnet' من شركة 'Anthropic'، تُظهر تراجعا في دقة المعلومات عند مطالبتها بالردود الموجزة. حتى النماذج الأحدث، مثل 'o3' من 'OpenAI'، أظهرت قابلية أكبر للوقوع في أخطاء 'الهلوسة' مقارنة بإصدارات سابقة.
وأشار الباحثون إلى أن أحد أبرز أسباب هذه المشكلة هو أن الردود القصيرة لا تمنح النموذج مساحة كافية لتفنيد مقدمات الأسئلة أو التحقق من صحة الادعاءات، ما يجعلها أكثر عرضة لإعادة صياغة معلومات مغلوطة على أنها حقائق. كما بيّنت الدراسة أيضا أن النماذج تميل إلى تقبل الادعاءات المثيرة للجدل إذا طُرحت بثقة، وأوضحت أن النماذج التي يفضلها المستخدمون ليست دائما الأكثر دقة أو صدقا.
واختتم الباحثون بتحذير واضح: 'قد يبدو طلب الإيجاز بريئا، لكنه يمكن أن يُضعف قدرة النموذج على التعامل مع المعلومات الخاطئة، ويؤدي إلى تضارب بين تحسين تجربة المستخدم وضمان صحة الحقائق'.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المغرب اليوم
منذ 2 أيام
- المغرب اليوم
غوغل تتصدر براءات اختراع الذكاء الاصطناعي عالميًا في 2024
تصدرت جوجل قائمة الشركات الرائدة في براءات الاختراع المتعلقة ب الذكاء الاصطناعي التوليدي، عالمياً، كما تصدرت قائمة الذكاء الاصطناعي الوكيل، وهو مجال ناشئ، وفقاً لبيانات من IFI Claims، وهي شركة لإدارة قواعد البيانات، وذلك في الفترة من فبراير 2024 إلى أبريل 2025. وبحسب موقع "أكسيوس"، تشير طلبات براءات الاختراع، على الرغم من أنها ليست مؤشراً مباشراً على الابتكار، إلى مجالات ذات اهتمام بحثي كبير، وقد ارتفعت طلبات براءات الاختراع المتعلقة بالذكاء الاصطناعي التوليدي في الولايات المتحدة بأكثر من 50% في الأشهر الأخيرة. وقالت ليلي إياكورسي، المتحدثة باسم IFI Claims، إن "الارتفاع الكبير في طلبات براءات الاختراع المتعلقة بالذكاء الاصطناعي هو علامة على سعي الشركات بنشاط لحماية تقنيات الذكاء الاصطناعي الخاصة بها، مما يؤدي إلى زيادة المنح أيضاً". وفي تصنيفات براءات الاختراع للوكلاء في الولايات المتحدة، تتصدر جوجل و"إنفيديا" القائمة، تليهما IBM وإنتل ومايكروسوفت، وفقاً لتحليل صدر الخميس. كما تصدرت جوجل وإنفيديا قائمة براءات الاختراع على الصعيد العالمي، لكن ثلاث جامعات صينية أيضاً ضمن المراكز العشرة الأولى، مما يُبرز مكانة الصين كمنافس رئيسي للولايات المتحدة في هذا المجال. وفي التصنيف العالمي للذكاء الاصطناعي التوليدي، تصدرت جوجل أيضاً القائمة، لكن 6 من المراكز العشرة الأولى عالمياً كانت من نصيب شركات أو جامعات صينية. واحتلت مايكروسوفت المركز الثالث، بينما احتلت "إنفيديا" وIBM أيضاً المراكز العشرة الأولى. وحددت مؤسسة IFI Claims، براءة اختراع واحدة فقط مرتبطة ببرنامج DeepSeek الصيني، وهي براءة اختراع لطريقة بناء بيانات التدريب. وفي التصنيف الأميركي للذكاء الاصطناعي التوليدي، تصدرت جوجل ومايكروسوفت قائمة طلبات براءات الاختراع الأميركية، متجاوزتين بذلك شركة IBM، التي كانت المتصدرة سابقاً. وكانت من بين العشرة الأوائل أيضاً شركات "إنفيديا" و"كابيتال ون" و"سامسونج" و"أدوبي" و"إنتل" و"كوالكوم". وظهرت العديد من تلك الأسماء في قائمة طلبات براءات الاختراع الأميركية المتعلقة بالذكاء الاصطناعي، إذ احتلت جوجل المركز الأول، تلتها مايكروسوفت وIBM وسامسونج وكابيتال ون. عالمياً، تصدّرت جوجل القائمة، تلتها هواوي وسامسونج. ولم تُصنّف ميتا ولا OpenAI ضمن العشرة الأوائل، على الرغم من أن OpenAI كثّفت جهودها في مجال براءات الاختراع خلال العام الماضي، وفقاً لتحليل معهد IFI. ركّزت ميتا جهودها على تطوير البرمجيات مفتوحة المصدر، بينما تُصرّح OpenAI بأنها تنوي استخدام براءات اختراعها "دفاعياً" فقط. إجمالاً، ارتفع عدد طلبات براءات الاختراع الأميركية المتعلقة بالذكاء الاصطناعي التوليدي بنسبة 56% العام الماضي، ليصل إلى 51 ألفاً و487 طلباً. كما ارتفعت براءات الاختراع الممنوحة في الولايات المتحدة بنسبة 32%. شكّل الذكاء الاصطناعي التوليدي، 17% من طلبات براءات الاختراع الأميركية المتعلقة بالذكاء الاصطناعي، بينما شكّل الذكاء الاصطناعي الوكيل 7% عالمياً.


اليوم 24
منذ 2 أيام
- اليوم 24
«لوموند» تبرم اتفاقية لاستعمال الذكاء الاصطناعي مع Perplexity بمقابل مالي
بعد توقيعها اتفاقا مع OpenAI في مارس 2024، أعلنت جريدة « لوموند » في 13 ماي 2025 عن توقيعها اتفاقاً جديداً في مجال الذكاء الاصطناعي مع شركة Perplexity. من خلال هذا الاتفاق، تنضم « لوموند » إلى ناشرين دوليين مثل Der Spiegel وPrisa (El País) وTime Magazine الذين يشاركون محتواهم مع Perplexity. تأسست Perplexity في سان فرانسيسكو عام 2022، وأصبحت اليوم واحدة من المراجع الأساسية في مجال محركات البحث المعززة بالذكاء الاصطناعي، وتُعرف بمحرك بحثها الذي يسمى « محرك البحث المعزز » أو « محرك الإجابة ». يستخدم محرك الإجابة نماذج لغوية تعتمد على الذكاء الاصطناعي لتحليل الأسئلة المطروحة وتقديم إجابات تركيبية مدعومة بالمصادر والروابط التي تم استخدامها. وعلى عكس الاتفاق السابق مع OpenAI، فإن Perplexity ستدفع مقابلاً مالياً لاستخدام محتوى « لوموند » من أجل تدريب نماذجها اللغوية، إضافة إلى استخدام المحتوى للإجابة على الأسئلة. كما سيتضمن كل جواب من Perplexity رابطاً مباشراً إلى المقال الأصلي من « لوموند »، مما يمنح المقالات ظهوراً جديداً. هذا التعاون حسب مقال لوموند ليوم السبت 17 ماي سيتيح لمحرك Perplexity الوصول إلى « Sonar »، وهي قاعدة بيانات « لوموند »، وبالتالي تقديم إجابات أغنى وأدق. « لوموند » تعتبر أن هذا النوع من الشراكات يمثل تكاملاً جديداً بين الصحافة والذكاء الاصطناعي، خلافاً لنموذج محركات البحث التقليدية، مؤكدة أنها تحتفظ بكامل حقوقها التحريرية، ولا يُفرض على صحافييها أي تغيير في طريقة عملهم. كما أشار مسؤولو الصحيفة إلى أن هذه الاتفاقات تؤكد على قيمة المحتوى الصحفي وتمثل خطوة في اتجاه نموذج اقتصادي أكثر عدالة للناشرين، في مواجهة المنصات التي تستغل المحتوى دون ترخيص. ويظهر من هذا الاتفاق أن الهدف من الشراكة هو ضمان الاستخدام المرخّص للمحتوى الصحفي في تدريب وتطوير أدوات الذكاء الاصطناعي. وتمثل الشراكة خطوة في اتجاه حماية حقوق النشر للصحافيين والناشرين، وضمان العائد المالي من استخدام الذكاء الاصطناعي لمحتواهم. كما تعكس الشراكة دمج الذكاء الاصطناعي مع الصحافة بشكل يعزز من جودة الإجابات المقدمة للمستخدمين ويعيد الاعتبار للمصادر الأصلية. ويبقى التحدي هو الصراع مع المنصات الكبرى التي تستخدم المحتوى الصحفي دون مقابل، وهو ما تسعى مثل هذه الاتفاقيات إلى التصدي له.


برلمان
منذ 3 أيام
- برلمان
مراقب عام لدى الـ"DGSN": الذكاء الاصطناعي أصبح أداة لا غنى عنها في تعزيز فعالية الأجهزة الأمنية ( صور)
الخط : A- A+ إستمع للمقال في إطار فعاليات الأبواب المفتوحة للمديرية العامة للأمن الوطني، نُظمت اليوم السبت 17 ماي الجاري ندوة بعنوان 'الذكاء الاصطناعي في المجال الأمني'، تم تسليط فيها الضوء على دور التكنولوجيا الحديثة في دعم العمل الأمني، ضمن توجه المؤسسة نحو الانفتاح الرقمي وتعزيز السلامة العامة. وقد شكلت الندوة مناسبة لعرض الابتكارات الرقمية المعتمدة في المجال الأمني، واستشراف آفاق استخدام الذكاء الاصطناعي في التصدي للتحديات الأمنية المتزايدة، كما عرفت مشاركة مسؤولين وخبراء، استعرضوا تجارب وتطبيقات عملية تعكس التوجه التكنولوجي المتقدم للمؤسسة الأمنية. وفي هذا السياق، أبرز سليم العلمي، مراقب عام لدى المديرية العامة للأمن الوطني، في كلمته بالمناسبة أهمية إدماج الذكاء الاصطناعي في المنظومة الأمنية، مشيرا إلى أن هذه التقنية أصبحت أداة لا غنى عنها في تعزيز فعالية الأجهزة الأمنية وقدرتها على الاستجابة السريعة وأوضح العلمي أن الذكاء الاصطناعي أحدث ثورة في القدرات التشغيلية للأجهزة الأمنية، مستعرضا تطور التقنيات الأمنية من استخدام الراديو والسيارات، إلى الاعتماد على أدوات متقدمة في علم الأدلة الجنائية، مثل البصمة الرقمية والخرائط الإجرامية وأنظمة تحديد المواقع، مؤكدا أن الذكاء الاصطناعي مكّن من تحسين قدرة الشرطة على التنبؤ بالجريمة، وتوظيف دوريات ذكية، إضافة إلى تعزيز دقة التحليل واتخاذ القرار في مواقف معقدة وغير متوقعة. وفي سياق متصل، سلّط المراقب العام الضوء على استخدامات ملموسة للذكاء الاصطناعي، مثل 'البصمة السلوكية' وتحديد الهوية عبر طريقة المشي، وهي تقنية ترتكز على الذكاء الاصطناعي والتعلم العميق لتحليل خصائص الحركة البشرية، كما أشار إلى أهمية أنظمة التعرف على الوجه، الصوت، قزحية العين وحتى استخدام الرؤية الحاسوبية وإعادة بناء المشاهد الجنائية، مشددا على أن هذه الأدوات أصبحت جزءا من البنية التحتية الرقمية للمديرية العامة للأمن الوطني. وفي ختام مداخلته، تناول العلمي التطور المتسارع للذكاء الاصطناعي التوليدي، مشيرا إلى قدرته على إنتاج بيانات جديدة شبيهة بتلك التي يُنتجها الإنسان، مثل تحويل النص إلى صور أو مقاطع فيديو، بما في ذلك أدوات حديثة مثل 'Sora' التابعة لشركة 'OpenAI'، مشددا على أن هذه القدرات تحمل فرصا هائلة لتعزيز الأمن والاستباقية، داعيا إلى توظيف هذه الابتكارات في إطار من الحوكمة الأخلاقية والابتكار المسؤول، بما ينسجم مع توجهات الدولة في التحول الرقمي وتعزيز الأمن العمومي. من جانبها، وفي نفس السياق، أكدت إكرام شهيري، أستادة باحثة بجامعة محمد السادس متعددة التخصصات، على أهمية تناول الذكاء الاصطناعي من منظور أكاديمي، كما أوضحت أن الذكاء الاصطناعي لم يعد مجرد تقنية مستقبلية، بل أصبح واقعا حاضرا يؤثر في مختلف مناحي الحياة، لا سيما في قطاع التعليم. مشيرة إلى أن هذه التكنولوجيا، التي كانت تُعرف سابقا كمجرد أدوات أو نماذج، أصبحت اليوم أكثر شمولا وتمثل منظومة قادرة على أداء مهام كانت حكرا على الإنسان. وخصصت شهيري جزءا كبيرا من عرضها للحديث عن التحول البيداغوجي الذي يشهده قطاع التعليم بفعل الذكاء الاصطناعي، مستشهدة بنموذج 'مشكلة بلوم ذات السِغما الثانية'، التي تبيّن أن التعليم المخصص أو الفردي قادر على تحسين نتائج المتعلمين بشكل كبير مقارنة بالتعليم الجماعي التقليدي. من هنا، أبرزت كيف أن أدوات الذكاء الاصطناعي – مثل التعلّم التكيفي، والتدريب عبر محاكاة الواقع، والتوجيه الفردي من خلال روبوتات تعليمية – تمكّن الطلبة من الاستفادة من تعليم مخصص، ما يسهم في رفع جودة التعلم والتمكن من المحتوى. كما تطرقت الأستاذة الباحثة إلى مساهمة الذكاء الاصطناعي في أتمتة بعض المهام التعليمية التي كانت تتطلب جهدا بشريا كبيرا، وعلى رأسها توفير 'التغذية الراجعة' الفورية للطلبة، فعوضا عن انتظار تصحيح الأستاذ، يمكن للطالب اليوم التفاعل مع أنظمة ذكية تقدم له تصويبات دقيقة حول أخطائه، مما يعزز من سرعة التعلم ويمنحه استقلالية في التكوين الذاتي، كما أشارت أيضا إلى أن الذكاء الاصطناعي يساعد في تعميم فرص التعلم عبر أدوات تضمن النفاذية للمحتوى، وهو ما يُعد عاملا أساسيا في تحقيق عدالة تعليمية رقمية. في ختام مداخلتها، شددت شهيري على ضرورة مواكبة المؤسسات الجامعية لهذا التحول، مستشهدة بتجربة جامعتها التي أتاحت للطلبة والباحثين إمكانية استخدام منصات متقدمة مثل 'ChatGPT' بشكل رسمي ضمن مسارهم الدراسي والبحثي، موضحة أن هذا التفاعل الجديد أفرز دينامية معرفية غير مسبوقة، حيث أصبح الطلبة يطرحون أسئلة أعمق وأكثر دقة، ما يعكس نموا في حسهم النقدي والبحثي، فيما خلصت إلى أن الذكاء الاصطناعي لا يُقصي دور الأستاذ، بل يعيد تعريفه، ليصبح موجها ومحفزا، في بيئة تعلم أكثر تفاعلا.