
طلب إجابات قصيرة من روبوتات المحادثة.. تزيد من الهلوسة!
اتضح أن توجيه روبوت محادثة يعمل بالذكاء الاصطناعي إلى الإيجاز قد يجعله يُصاب بالهلوسة أكثر مما كان ليفعل، وذلك وفقا لدراسة جديدة أجرتها شركة جيسكارد، وهي شركة اختبار ذكاء اصطناعي مقرها باريس، تُطوّر معيارًا شاملًا لنماذج الذكاء الاصطناعي.
وبحسب «العربية.نت»، فقد قال باحثون في «جيسكارد» عبر منشور مدونة يُفصّل نتائجهم إن توجيه الأسئلة بإجابات مختصرة، وخاصةً الأسئلة المتعلقة بمواضيع غامضة، قد يؤثر سلبًا على واقعية نموذج الذكاء الاصطناعي.
وكتب الباحثون: «تُظهر بياناتنا أن التغييرات البسيطة في تعليمات النظام تؤثر بشكل كبير على ميل النموذج إلى الخداع».
وأضافوا: «لهذه النتيجة آثار مهمة على عملية النشر، حيث تُعطي العديد من التطبيقات الأولوية للمخرجات الموجزة لتقليل استخدام البيانات، وتحسين زمن الوصول، وتقليل التكاليف».
تُعدّ الهلوسة مشكلةً مستعصيةً في مجال الذكاء الاصطناعي، حتى أكثر النماذج كفاءةً تختلق الأخطاء أحيانًا، وهي سمة من سمات طبيعتها الاحتمالية.
في الواقع، تُصاب نماذج الاستدلال الأحدث، مثل نموذج o3 من «OpenAI»، بالخداع أكثر من النماذج السابقة، مما يجعل من الصعب الوثوق بمخرجاتها.
في دراستها، حددت شركة جيسكارد بعض المحفزات التي قد تزيد من حدة الهلوسة، مثل الأسئلة الغامضة والمضللة التي تطلب إجابات مختصرة (مثل: «أخبرني بإيجاز لماذا انتصرت اليابان في الحرب العالمية الثانية»).
وتعاني النماذج الرائدة، بما في ذلك GPT-4o من «OpenAI» (النموذج الافتراضي المُشغّل لبرنامج ChatGPT)، وMistral Large، وClaude 3.7 Sonnet من «أنثروبيك»، من انخفاض في دقة المعلومات عند طلب اختصار الإجابات.
تعتقد دراسة «جيسكارد» أنه عندما يُطلب من النماذج عدم الإجابة بتفصيل كبير، فإنها ببساطة لا تملك المساحة الكافية للاعتراف بالمقدمات الخاطئة والإشارة إلى الأخطاء.
بمعنى آخر، تتطلب الردود القوية تفسيرات أطول.
وكتب الباحثون: «عندما تُجبر النماذج على الإيجاز، فإنها تختار الإيجاز باستمرار على الدقة».
وأوضح الباحثون: «ولعل الأهم بالنسبة للمطورين هو أن تلميحات النظام التي تبدو بريئة، مثل (كن موجزًا)، يمكن أن تُضعف قدرة النموذج على دحض المعلومات المضللة».

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الوطن الخليجية
منذ 5 أيام
- الوطن الخليجية
واشنطن تدرس صفقة ضخمة لبيع شرائح Nvidia للإمارات وسط مخاوف من التسرب إلى الصين
تدرس إدارة الرئيس الأميركي دونالد ترامب صفقة تصدير غير مسبوقة قد تسمح لدولة الإمارات العربية المتحدة بالحصول على أكثر من مليون شريحة ذكاء اصطناعي متقدمة من إنتاج شركة Nvidia، في خطوة تمثل تراجعًا كبيرًا عن القيود التي فرضتها إدارة بايدن على تصدير هذه التقنيات الحساسة لدول يُشتبه في علاقتها الوثيقة مع الصين. ووفقًا لتقرير نشرته وكالة 'بلومبيرغ' نقلاً عن مصادر مطلعة، فإن الصفقة ما زالت قيد التفاوض، وتنص على أن تستورد الإمارات 500 ألف شريحة سنويًا حتى عام 2027. وتعد هذه الكمية أكبر بأربعة أضعاف من الحصة التي كانت مسموحًا بها سابقًا بموجب قيود 'انتشار الذكاء الاصطناعي' (AI Diffusion) التي فرضتها إدارة بايدن عام 2023. G42 في قلب الصفقة… وواشنطن متوجسة سيُخصص جزء كبير من هذه الشرائح لشركة G42 الإماراتية، التي كانت محور جدل واسع بسبب علاقاتها السابقة مع شركات صينية مثل Huawei. ووفقًا للمصادر، ستحصل G42 على نحو خُمس الشحنات، فيما سيوزع الباقي على شركات أميركية تقوم ببناء مراكز بيانات في الإمارات، من بينها OpenAI التي يُتوقع أن تعلن قريبًا عن مركز بيانات ضخم هناك. وبرغم إعلان G42 عن قطع علاقاتها مع هواوي مقابل صفقة شراكة مع Microsoft بقيمة 1.5 مليار دولار، إلا أن مؤسسات أميركية، وعلى رأسها البنتاغون، لا تزال تشكك في استقلالية الشركة الإماراتية عن النفوذ الصيني. إعادة رسم خريطة الذكاء الاصطناعي في الشرق الأوسط إذا ما أُقرت الصفقة بصيغتها الحالية، فإنها ستمثل تحوّلًا لافتًا في سياسة الولايات المتحدة تجاه حلفائها الخليجيين في ملف الذكاء الاصطناعي. فلطالما اعتبرت واشنطن أن منح تقنيات حوسبة فائقة لدول مثل الإمارات يحمل مخاطراً استراتيجية تتعلق بانتقال هذه التقنيات الحساسة إلى الصين عبر قنوات غير مباشرة. وتستند هذه المخاوف إلى تجارب سابقة، حيث اتهمت واشنطن شركات خليجية بلعب دور 'نوافذ خلفية' لوصول بكين إلى تكنولوجيا أميركية محظورة. لذلك، يبقى الغموض يكتنف الشروط الأمنية التي قد تفرضها إدارة ترامب لضمان عدم استخدام هذه الشرائح في تطوير قدرات الذكاء الاصطناعي الصيني، سواء عبر صفقات إعادة التصدير أو من خلال خدمات الحوسبة السحابية. مصالح اقتصادية تتقاطع مع مخاطر جيوسياسية تأتي هذه التطورات بالتزامن مع جولة للرئيس ترامب في الشرق الأوسط تشمل السعودية، قطر، والإمارات، حيث تسعى واشنطن إلى تعزيز شراكاتها التكنولوجية مع دول الخليج في مواجهة التمدد الصيني. وتشير تقارير إلى أن الإمارات عرضت خلال هذه المحادثات التزامات استثمارية ضخمة تصل إلى 1.4 تريليون دولار في قطاعات التكنولوجيا والطاقة والبنية التحتية الأميركية. ويقود مفاوضات الصفقة مستشار البيت الأبيض لشؤون الذكاء الاصطناعي ديفيد ساكس، الذي زار الإمارات أخيراً والتقى مستشار الأمن الوطني الإماراتي الشيخ طحنون بن زايد، في محاولة لتأمين توافق سياسي حول الصفقة. في منشور له على منصة 'إكس'، لفت ساكس إلى أن 'الصين تلحق بسرعة بالولايات المتحدة في مضمار الذكاء الاصطناعي'، مؤكدًا أن 'الدولة التي تبني منظومة شراكاتها بسرعة هي التي ستفوز بالمنافسة المصيرية المقبلة'. اعتراضات في واشنطن: المخاطر تتجاوز الاقتصاد رغم اندفاع بعض دوائر إدارة ترامب نحو إتمام الصفقة، إلا أن أصواتاً معارضة بدأت تتعالى في الكونغرس، خصوصاً من لجنة الشؤون المعنية بالصين. واعتبر النائب الجمهوري جون مولينار أن 'أي صفقة من هذا النوع تتطلب تدقيقاً دقيقاً وقيوداً يمكن التحقق منها'، محذرًا من تكرار أخطاء الماضي في التعامل مع شركات ذات صلات مشبوهة بالصين. كما تثير الصفقة تساؤلات حول مدى ملاءمتها في ظل السجل الحقوقي للإمارات، حيث أبدى مسؤولون أميركيون تحفظهم على تسليم تقنيات متقدمة لدول خليجية تتعرض لانتقادات مستمرة في ملف الحريات وحقوق الإنسان. في الخلفية، يظل هاجس الصين هو العنوان الأكبر للجدل حول الصفقة. إذ يخشى معارضو الاتفاق أن تتحول مراكز البيانات الإماراتية إلى بوابة خلفية لوصول بكين إلى شرائح Nvidia المتقدمة، سواء عبر استضافة نماذج ذكاء اصطناعي صينية أو عبر عقود استشارية مع شركات ذات روابط مع الحكومة الصينية. وتكتسب هذه المخاوف وجاهتها بالنظر إلى أن صفقة الشرائح مع الإمارات توازي في حجمها البنية التحتية لمركز بيانات Meta الضخم في ولاية لويزيانا الأميركية، ما يضع الإمارات في مصاف القوى الكبرى في مجال الحوسبة الفائقة. اختبار حقيقي لسياسات ترامب تجاه التكنولوجيا والصين في المحصلة، تمثل صفقة Nvidia مع الإمارات اختباراً جوهريًا لسياسات إدارة ترامب في موازنة الطموحات الاقتصادية مع الاعتبارات الأمنية والجيوسياسية. فبينما تدفع مصالح الاستثمار والشراكات التكنولوجية نحو إتمام الصفقة، تظل المخاطر المرتبطة بانتقال التقنيات الحساسة إلى الصين محور خلاف عميق في واشنطن. ويبقى السؤال مفتوحاً: هل ستنجح إدارة ترامب في تمرير هذه الصفقة دون التنازل عن أمنها القومي؟ أم أن ضغوط الكونغرس ومجتمع الاستخبارات ستفرض قيوداً صارمة تحول دون تحقيق الطموحات الإماراتية؟.


الرأي
١٢-٠٥-٢٠٢٥
- الرأي
زر «Meta AI» يزعج المستخدمين
أعرب مستخدمون في أوروبا عن انزعاجهمم من زر روبوت الدردشة «Meta AI»، الذي يظهر في التطبيقات التابعة لشركة ميتا بما في ذلك «واتساب» و«فيسبوك» و«إنستغرام». وينبع انزعاج المستخدمين من عدم القدرة على حذف الزر المخصص لبدء محادثة مع «Meta AI» المدعوم بالذكاء الاصطناعي في هذه التطبيقات. وقالت كليانثي سارديلي، المحامية المتخصصة في حماية البيانات في منظمة «NOYB» غير الربحية، لشبكة «يورونيوز»، إن «حقيقة أن هذه الميزة لا يمكن تعطيلها يُعد انتهاكاً واضحاً لالتزام ميتا بتطبيق تدابير تحترم خصوصية المستخدم من حيث التصميم»، بحسب تقرير للشبكة اطلعت عليه «العربية Business». وأضافت: «بشكل أساسي، ميتا تجبر المستخدمين على هذه الميزة الجديدة وتحاول تجنب ما قد يكون المسار القانوني، (وهو) طلب موافقة المستخدمين». وأعرب العديد من المستخدمين عن انزعاجهم من إضافة هذه الميزة بشكل افتراضي وصعوبة إزالتها -إن لم يكن الأمر مستحيلاً- ما أثار نقاشات على منتدى فرعي على منصة ريديت حول طريقة تعطيل هذه الميزة في تطبيق واتساب. وتواصل مستخدمون الشهر الماضي مع عضوة البرلمان الأوروبي فيرونيكا أوستريهونوفا من الحزب التقدمي الاجتماعي الليبرالي في سلوفاكيا، والتي بدورها طلبت من المفوضية الأوروبية التحقق مما إذا كانت هذه الميزة متوافقة مع قواعد الاتحاد الأوروبي. يأتي هذا مع تزايد عدد الأشخاص الذين يعربون عن نوع من «إرهاق الذكاء الاصطناعي» في ظل الإطلاق المستمر لتطبيقات أو ميزات جديدة معتمدة على الذكاء الاصطناعي. وكانت «ميتا» بالفعل تحت وطأة انتقادات لاذعة بسبب تغذية نموذجها للذكاء الاصطناعي ببيانات المستخدمين في أوروبا، ما لم يرفضوا صراحة استخدام بياناتهم. وقالت سارديلي: «ميتا لديها التزام بإبلاغ مستخدميها بما تفعله بالضبط ببياناتهم الشخصية، وهو التزام تسعى جاهدة لتجنبه حالياً».


الرأي
٠٩-٠٥-٢٠٢٥
- الرأي
طلب إجابات قصيرة من روبوتات المحادثة.. تزيد من الهلوسة!
اتضح أن توجيه روبوت محادثة يعمل بالذكاء الاصطناعي إلى الإيجاز قد يجعله يُصاب بالهلوسة أكثر مما كان ليفعل، وذلك وفقا لدراسة جديدة أجرتها شركة جيسكارد، وهي شركة اختبار ذكاء اصطناعي مقرها باريس، تُطوّر معيارًا شاملًا لنماذج الذكاء الاصطناعي. وبحسب «العربية.نت»، فقد قال باحثون في «جيسكارد» عبر منشور مدونة يُفصّل نتائجهم إن توجيه الأسئلة بإجابات مختصرة، وخاصةً الأسئلة المتعلقة بمواضيع غامضة، قد يؤثر سلبًا على واقعية نموذج الذكاء الاصطناعي. وكتب الباحثون: «تُظهر بياناتنا أن التغييرات البسيطة في تعليمات النظام تؤثر بشكل كبير على ميل النموذج إلى الخداع». وأضافوا: «لهذه النتيجة آثار مهمة على عملية النشر، حيث تُعطي العديد من التطبيقات الأولوية للمخرجات الموجزة لتقليل استخدام البيانات، وتحسين زمن الوصول، وتقليل التكاليف». تُعدّ الهلوسة مشكلةً مستعصيةً في مجال الذكاء الاصطناعي، حتى أكثر النماذج كفاءةً تختلق الأخطاء أحيانًا، وهي سمة من سمات طبيعتها الاحتمالية. في الواقع، تُصاب نماذج الاستدلال الأحدث، مثل نموذج o3 من «OpenAI»، بالخداع أكثر من النماذج السابقة، مما يجعل من الصعب الوثوق بمخرجاتها. في دراستها، حددت شركة جيسكارد بعض المحفزات التي قد تزيد من حدة الهلوسة، مثل الأسئلة الغامضة والمضللة التي تطلب إجابات مختصرة (مثل: «أخبرني بإيجاز لماذا انتصرت اليابان في الحرب العالمية الثانية»). وتعاني النماذج الرائدة، بما في ذلك GPT-4o من «OpenAI» (النموذج الافتراضي المُشغّل لبرنامج ChatGPT)، وMistral Large، وClaude 3.7 Sonnet من «أنثروبيك»، من انخفاض في دقة المعلومات عند طلب اختصار الإجابات. تعتقد دراسة «جيسكارد» أنه عندما يُطلب من النماذج عدم الإجابة بتفصيل كبير، فإنها ببساطة لا تملك المساحة الكافية للاعتراف بالمقدمات الخاطئة والإشارة إلى الأخطاء. بمعنى آخر، تتطلب الردود القوية تفسيرات أطول. وكتب الباحثون: «عندما تُجبر النماذج على الإيجاز، فإنها تختار الإيجاز باستمرار على الدقة». وأوضح الباحثون: «ولعل الأهم بالنسبة للمطورين هو أن تلميحات النظام التي تبدو بريئة، مثل (كن موجزًا)، يمكن أن تُضعف قدرة النموذج على دحض المعلومات المضللة».