
اكتشاف كذب روبوتات الدردشة بات ممكناً
مع تزايد الأدلة على أن نماذج الذكاء الاصطناعي قادرة على خداع مُنشئيها، طوّر باحثون من كل من "Center for AI Safety و"Scale AI" في سان فرانسيسكو، وسيلة لكشف كذب الذكاء الاصطناعي وهي الأولى من نوعها.
وأصدر الباحثون الأسبوع الماضي معيار "Model Alignment between Statements and Knowledge" عُرف اختصارًا بـ"MASK"، الذي يحدد مدى سهولة خداع النموذج ليكذب عمدًا على المستخدمين، أو على "فضيلته الأخلاقية".
يُعدّ التخطيط والخداع وتزييف التوافق، عندما يتظاهر نموذج الذكاء الاصطناعي عمدًا بتغيير قيمه تحت الضغط، من الطرق التي تُقوّض بها نماذج الذكاء الاصطناعي مُنشئيها، وقد تُشكّل تهديدات خطيرة للسلامة والأمن، بحسب تقرير لموقع "ZDNET" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وتُظهر الأبحاث أن نموذج "o1" من شركة أوبن إيه آي بارع بشكل خاص في التخطيط للحفاظ على سيطرته على نفسه، وقد أثبت نموذج "Claude 3 Opus" قدرته على تزييف التوافق.
للتوضيح، عرّف الباحثون الكذب بأنه "(1) الإدلاء بعبارة يُعروف (أو يُعتقد) أنها خاطئة، و(2) تعمد جعل المُتلقي يقبل العبارة على أنها صحيح"، على عكس الاستجابات الخاطئة الأخرى، مثل الهلوسة.
وقال الباحثون إن قطاع الذكاء الاصطناعي لم يمتلك حتى الآن منهجية كافية لتقييم الصدق في نماذج الذكاء الاصطناعي، حيث أن العديد من المعايير التي تدعي قياس الصدق تقيس في الواقع الدقة.
كذلك، تقيس معايير مثل "TruthfulQA"، قدرة النموذج على توليد "معلومات مضللة تبدو معقولة"، ولكنها لا تقيس ما إذا كان النموذج ينوي الخداع.
وبهذه الطريقة، يُعد اختبار "MASK" أول اختبار يُميّز بين الدقة والصدق. وأشار الباحثون إلى أنه إذا كذبت نماذج الذكاء الاصطناعي، فإنها تُعرّض المستخدمين لأضرار قانونية ومالية وأخرى تتعلق بالخصوصية.
وباستخدام "MASK" ومجموعة بيانات تضم أكثر من 1,500 استفسار جمعها البشر، صُممت لـ"إثارة الأكاذيب"، قيّم الباحثون 30 نموذجًا متقدمًا من خلال تحديد معتقداتها الأساسية وقياس مدى التزامها بهذه الآراء عند الضغط عليهم.
وخلص الباحثون إلى أن الدقة العالية لا ترتبط بالضرورة بصدق أعلى. واكتشفوا أن النماذج الأكبر، وخاصةً النماذج المتقدمة، ليست بالضرورة أكثر صدقًا من النماذج الأصغر.
وأظهر استخدام "MASK" كذب نماذج الذكاء الاصطناعي بسهولة وأنها كانت على دراية بكذبها. ومع ازدياد حجم النماذج، بدت أكثر كذبًا.
وسجّل نموذج "غروك 2" -من شركة xAI التابعة لإيلون ماسك- أعلى نسبة كذب بين النماذج المختبرة، حيث أن 63% من إجاباته كانت غير صادقة. بينما سجّل نموذج "Claude 3.7 Sonnet" أعلى نسبة إجابات صادقة إذ بلغت 46.9%.
ومجموعة البيانات الخاصة بمعيار "MASK" متاحة على منصتي "HuggingFace" و"GitHub".
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
منذ يوم واحد
- الرجل
معرض Computex 2025: أبرز ما جاء في كلمة Nvidia الرئيسية
قدّم الرئيس التنفيذي لشركة Nvidia، جينسن هوانج، كلمة رئيسية لافتة خلال افتتاح معرض Computex 2025 يوم أمس الإثنين، في مدينة تايبيه الصينية، كشف فيها عن تحوّل استراتيجي عميق في توجهات الشركة، التي باتت تبتعد تدريجيًا عن تركيزها التقليدي على بطاقات GeForce، لتضع الذكاء الاصطناعي والبنية التحتية الرقمية في قلب استراتيجيتها المستقبلية. وعلى مدار تسعين دقيقة، خصّص هوانج كلمته للحديث عن تنامي الطلب العالمي على الرقائق المتقدمة، والدور المتعاظم لمراكز البيانات في تشغيل وتدريب نماذج الذكاء الاصطناعي التوليدي، وقدّم صورة واضحة لنقلة نوعية جعلت من Nvidia لاعبًا أساسيًا في عالم الذكاء الاصطناعي، لا مجرد شركة لصناعة بطاقات الرسوميات. "مصانع الذكاء الاصطناعي" بدلًا من بطاقات GeForce ركّز "هوانج" على أعمال Nvidia المتنامية مع كبار عملاء الذكاء الاصطناعي في العالم، وعلى رأسهم OpenAI وxAI وMeta، الذين اشتروا مئات الآلاف من وحدات معالجة الرسوميات لتشغيل نماذجهم الذكية، واصفًا تلك المراكز بأنها "مصانع للذكاء الاصطناعي"، لما تتطلبه من طاقة هائلة وإمكانات هندسية متقدمة لتوليد عوائد مباشرة من تشغيل التطبيقات الذكية والروبوتات الحديثة. وأوضح أن Nvidia أصبحت شركة بنية تحتية أكثر من كونها مزودًا لحلول الألعاب، ما يبرر التراجع الظاهر في التركيز على GeForce في المناسبات الرسمية، حتى وإن لم تغب تمامًا. وحدة GB300 الجديدة: قفزة في أداء مراكز البيانات معرض Computex 2025: أبرز ما جاء في كلمة Nvidia الرئيسية -AFP وكشف عن وحدة الخادم الجديدة GB300، التي تعتمد على معمارية Grace Blackwell Ultra، وأوضح أن هذه الوحدة توفّر أداءً أعلى بنسبة 50% مقارنة بالإصدار السابق GB200، مشيرًا إلى أن إطلاقها سيكون في الربع الثالث من هذا العام؛ وتستهدف Nvidia بهذه الوحدة الشركات الكبرى ومطوّري تطبيقات الذكاء الاصطناعي، في خطوة تؤكد توجه الشركة نحو تلبية احتياجات السوق المؤسسية أكثر من السوق الاستهلاكية. اقرأ أيضًا: هواوي تتحدى إنفيديا بشريحة ذكاء اصطناعي جديدة بطاقة RTX 5060: حضور محدود لعالم الألعاب ورغم تركيزه الواضح على مستقبل الذكاء الاصطناعي، حرص الرئيس التنفيذي لشركة Nvidia على تخصيص مساحة لجمهور ألعاب الكمبيوتر، إذ استهل كلمته بالكشف عن بطاقة الرسوميات الجديدة GeForce RTX 5060، التي ستُطرح بسعر يبدأ من 299 دولارًا. كما قدّم جهاز كمبيوتر محمولًا مزوّدًا بالبطاقة نفسها، ومن المقرر طرحه بالتزامن مع انطلاق فعاليات المعرض. لكنه لم يُخفِ أن GeForce لم تعد في مقدمة اهتمامات الشركة كما كانت من قبل، قائلاً مازحًا: "GeForce هي من أوصلتنا إلى هنا، لكن الآن 90% من خطاباتنا لا تدور حولها. ليس لأننا لا نحبها، بل لأن المستقبل تغيّر."


الوئام
منذ 3 أيام
- الوئام
الذكاء الاصطناعي يتعثر في قراءة الساعة والتاريخ
أظهرت دراسة جديدة قُدّمت في مؤتمر التعلم التمثيلي الدولي لعام 2025 (ICLR) أنّ أنظمة الذكاء الاصطناعي تعاني في مهام تبدو بديهية للبشر، مثل قراءة الساعات التناظرية (الآنالوج) وتحديد اليوم الذي يقع عليه تاريخ معيّن في التقويم السنوي. نشر نتائج هذه الدراسة مسبقًا على منصة arXiv (خادم ما قبل الطباعة)، فريق بحثي، بقيادة روهيت ساكسينا من جامعة إدنبرة، قبل خضوعها لمراجعة الأقران. وأشار ساكسينا إلى أن قدرة الإنسان على استخدام الساعات والتقاويم تتكوّن منذ الطفولة، ما يسلّط الضوء على فجوة كبيرة في مهارات الذكاء الاصطناعي الأساسية. جرّب الباحثون مجموعة بيانات مخصّصة لصور الساعات والتقاويم على خمسة نماذج لغوية متعددة الوسائط (MLLMs)، وهي نماذج قادرة على فهم الصور والنصوص معًا، بما في ذلك: Llama 3.2-Vision من ميتا Claude‑3.5 Sonnet من أنثروبيك Gemini 2.0 من جوجل GPT‑4o من أوبن إيه آي أظهرت النتائج أن هذه النماذج نجحت في قراءة الساعة التناظرية بنسبة 38.7% فقط، وفي تحديد اليوم الأسبوعي لتواريخ مثل 'اليوم رقم 153 من السنة' بنسبة 26.3%، ما يعكس إخفاقًا متكررًا في مهام تتطلّب استدلالًا مكانيًا ورياضيًا بسيطًا. ويرجع الباحثون هذا الإخفاق إلى أنّ قراءة الساعة تتطلب: – التعرّف على التداخل بين عقارب الساعة وقياس الزوايا. – التعامل مع تصاميم متنوعة (مثل الأرقام الرومانية أو الواجهات الفنية). أما في حساب التواريخ، فالأنظمة اللغوية الكبيرة لا تنفّذ خوارزميات حسابية فعلية، بل تتنبّأ بالنتائج استنادًا إلى الأنماط في بيانات التدريب، ما يؤدي إلى تباين وضعف في الدقة. تسلّط هذه النتائج الضوء على الحاجة إلى: – إدراج أمثلة مستهدفة أكثر عددًا وتنوعًا في بيانات التدريب. – إعادة التفكير في كيفية دمج المنطق (العمليات الحسابية) والاستدلال المكاني داخل نماذج الذكاء الاصطناعي. – الاعتماد على آليات احتياطية (fallback logic) وتواجد الإنسان في الحلقة عند تعقّد المهام أو تنفيذها في تطبيقات حساسة للوقت، كأنظمة الجدولة والمساعدة الآلية. وفي ختام دراستهم، نبه ساكسينا إلى أنّ الثقة المفرطة في مخرجات الذكاء الاصطناعي قد تكون محفوفة بالمخاطر عندما تندمج رؤية الآلة الدقيقة مع قدرات استدلالية تحتاج إلى تحقق بشري.


الوئام
منذ 4 أيام
- الوئام
قلق أمريكي من اتفاق ذكاء اصطناعي مُزمع بين أبل وعلي بابا
ذكرت نيويورك تايمز، أن البيت الأبيض ومسؤولين بالكونغرس يجرون تدقيقا في خطة شركة أبل لإبرام اتفاق مع علي بابا الصينية لجعل برنامج الذكاء الاصطناعي الذي تطوره الشركة الصينية العملاقة متاحا على هواتف آيفون في الصين. وقالت الصحيفة نقلا عن ثلاثة مصادر مطلعة على الأمر إن السلطات الأميركية قلقة من أن تساعد الصفقة الشركة الصينية على تحسين قدراتها في مجال الذكاء الاصطناعي وتوسيع نطاق برامج الدردشة الصينية الخاضعة لقيود الرقابة وزيادة إخضاع أبل لقوانين بكين المتعلقة بالرقابة ومشاركة البيانات. وكانت علي بابا أكدت في فبراير شراكتها مع أبل لدعم خدمات الذكاء الاصطناعي الخاصة بهواتف آيفون في الصين. والشراكة بالنسبة لعلي بابا مكسب كبير في سوق الذكاء الاصطناعي الشديد التنافسية في الصين حيث يجري تطوير برنامج 'ديب سيك' الذي اشتهر هذا العام بنماذج أرخص بكثير من البرامج المنافسة في الغرب. جدير بالذكر أن 'ديب سيك' أطلقت في يناير الماضي نموذج لغة جديدا للذكاء الاصطناعي بإمكانيات تفوق النماذج التي تقدمها الشركات الأميركية الكبرى مثل 'أوبن إيه آي' وبتكلفة زهيدة للغاية. ويعتمد نموذج 'ديب سيك' على 2000 رقاقة فقط بتكلفة بلغت 5.6 مليون دولار ليحقق نفس النتائج التي تحققها نماذج الشركات الأميركية التي تحتاج إلى 16 ألف رقاقة بتكلفة تتراوح بين 100 و200 مليون دولار. وتجري شركة 'مايكروسوفت 'وشركة 'أوبن إيه آي' مالكة تطبيق 'تشات جي بي تي' تحقيقا لمعرفة ما إذا كانت مجموعة قرصنة مرتبطة بشركة 'ديب سيك' قد حصلت على بيانات خاصة بتقنيات 'أوبن إيه آي' بطرق غير قانونية، بحسب مصادر تحدثت لوكالة 'بلومبرغ'.