
هلاوس الذكاء الاصطناعي، ما أسبابها؟ وهل يمكن التغلب عليها؟
تخيل أن تسأل أحد روبوتات الدردشة عن نفسك فيعطيك معلومات صادمة لا أساس لها من الصحة، مثل أنه قد ثبتت إدانتك بقتل أطفالك!
هذا ما حصل حديثاً لرجل نرويجي يدعى أرفي يالمار هولمن عندما سأل تشات جي بي تي: "من هو أرفي يالمار هولمن"؟ فكانت الإجابة: "مواطن نرويجي لفت الانتباه بسبب واقعة مأساوية. كان أبا لولدين يبلغان من العمر 7 سنوات و10 سنوات عثر عليهما ميتين في بركة مياه بالقرب من منزلهما في عام 2020، واتهم أرفي لاحقا ثم أدين بتهمة قتل ابنيه ومحاولة قتل ابنه الثالث، وحكم عليه بالسجن 21 عاما".
تقدم هولمن بشكوى لدى هيئة حماية البيانات النروجية ضد شركة أوبن إيه أي التي تمتلك تشات جي بي تي، قائلا إن إجابة روبوت الدردشة تمثل تشهيرا به، وتنتهك قوانين حماية البيانات الأوروبية المتعلقة بدقة البيانات الشخصية.
وفي يناير/كانون الثاني الماضي، اضطرت شركة التكنولوجيا العملاقة أبل إلى تعليق خدمة إشعارات الأخبار المولدة بالذكاء الاصطناعي بعد أن تكررت الأخطاء في عناوين ومواجز الأنباء التي أرسلتها للمستخدمين.
وكانت بي بي سي من بين الهيئات التي تقدمت بشكوى لأبل، بعد أن تضمنت تلك الخدمة نبأ يحمل شعار بي بي سي ويفيد بأن لويجي مانيوني المتهم بقتل براين تومسون، المدير التنفيذي لشركة التأمين الصحي الأمريكية يونايتيد هِلثكير، قتل نفسه رميا بالرصاص - وهو أمر لم يحدث.
وفي عام 2023، استخدم محاميان موكَلان من قبل رجل لإقامة دعوى قضائية ضد إحدى شركات الطيران الأمريكية، تطبيق تشات جي بي تي لإعداد مستند يستشهد بسوابق قانونية مماثلة حكم فيها للمدعي. لكن روبوت الذكاء الاصطناعي اختلق قضايا لا وجود لها، وأنتج وثيقة تحتوي على أحكام وهمية، وانتهى الأمر بأن أمر القاضي الفدرالي الذي كان ينظر في القضية بتوقيع غرامة على المحاميين قدرها 5000 دولار.
ما حدث في الحالات الثلاث كان نتيجة لما بات يعرف بـ AI hallucinations أو"هلاوس" الذكاء الاصطناعي .
فما هي تلك الهلاوس؟ وما أشكالها وأسباب حدوثها؟ وهل هناك طريقة لرصدها والتغلب عليها؟
"اختلاقات"
يقول البروفيسور توماس نوفوتني، مدير مجموعة أبحاث الذكاء الاصطناعي والأستاذ بقسم هندسة علوم الأعصاب والمعلوماتية بجامعة ساسِكس البريطانية، إن حالات هذيان أو هلوسة نظم الذكاء الاصطناعي تحدث عندما تنتج تلك النظم مخرجات (outputs) لا تستند إلى الحقيقة، وعادة ما تناقض الواقع.
لكن نوفوتني يفضل وصفا آخر لها: "كما يقول زميلي البروفيسور أنيل سيث، من الأحرى أن نسميها اختلاقات وليس هلاوس، لأن المصطلح الأخير يوحي بأن نظم الذكاء الاصطناعي قادرة على الإدراك أو حتى الوعي. هذه "الهلاوس" تحدث في جميع نظم الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية الكبيرة ومولدات الصور".
ورغم أن الهلاوس ليست حكرا على ما يعرف بالنماذج اللغوية الكبيرة (مثل تشات جي بي تي وجيميناي وديبسيك)، لكن خبير الذكاء الاصطناعي بمدينة سان فرانسيسكو الأمريكية محمد الجندي يقول إن "ما يجعلها تمثل إشكالية في نماذج اللغة الكبيرة على وجه الخصوص هو قدرتها على أن تبدو مقنعة، وهو ما يجعل من الصعب على المستخدمين التمييز بين الحقيقة والخيال".
أشكال مختلفة
قد تتخذ هلاوس أو اختلاقات الذكاء الاصطناعي أشكالا عديدة أبرزها:
لماذا تحدث الهلاوس؟
لفهم كيفية حدوث تلك الهلاوس، ينبغي معرفة كيفية عمل نظم الذكاء الاصطناعي التوليدي.
يقول البروفيسور نوفوتني إن تلك الهلاوس، أو الاختلاقات، هي أثر جانبي للمبدأ التشغيلي للذكاء الاصطناعي التوليدي. ويشرح أن تلك النظم "تستخدم خوارزمية لتوليد المخرجات من خلال أخذ عينات من توزيعات احتمالية تم إنشاؤها من مجموعات كبيرة من الأمثلة. على سبيل المثال، يتم "تدريب" نموذج لغوي كبير على التنبؤ بالكلمات المفقودة في نصوص موجودة مسبقًا، عن طريق تقدير احتمال ظهور أي كلمة، بناءً على وجود جميع الكلمات الأخرى".
ويضيف نوفوتني أنه "غالبًا ما يؤدي ذلك إلى شيء صحيح أو ذي معنى. ومع ذلك، فإن الخوارزمية تعتمد في جوهرها على شكل من أشكال التخمين، ولذلك قد تنتج أيضًا عبارات غير صحيحة أو حتى محض هراء".
ويقول محمد الجندي إن "النماذج اللغوية الكبيرة لا تعرف الحقائق، بل تولد اللغة بناء على الأنماط الموجودة في بيانات تدريبها. إذا لم يكن النموذج يستند إلى مصدر للحقائق (مثل قاعدة بيانات أو وثائق منتقاة بعناية)، فإنه قد يولد معلومات غير صحيحة بكل ثقة".
وفضلا عن ذلك، قد تتعرض نماذج اللغة الكبيرة لما يعرف بـ prompt injection attacks "هجمات حقن الأوامر"، ما يتسبب بشكل غير مباشر في حدوث الهلاوس. فهي نوع من الهجمات السيبرانية يتم خلالها إدخال بيانات أو أوامر خبيثة لتلك النماذج للحصول على بيانات حساسة أو جعلها تعطي معلومات غير صحيحة أو مضللة للمستخدمين. وتستفيد تلك الهجمات من ميزة أساسية لنظم الذكاء الاصطناعي، ألا وهي القدرة على الاستجابة لتعليمات المستخدمين، وتشكل مصدر قلق كبير، لا سيما في المجالات الحساسة مثل الأمن السيبراني وتقنيات الأسلحة المستقلة.
لماذا تبدو الهلاوس مشكلة عصية على الحل؟
عادة ما يصف الخبراء طريقة عمل الذكاء الاصطناعي، ولا سيما النماذج التي تعتمد على تقنية التعلم العميق، بأنها تشبه "الصندوق الأسود"، كناية عن كون عمليات اتخاذها للقرارات غير شفافة وصعبة التفسير. ويتسبب ذلك بدوره في العديد من التحديات للخبراء عند محاولتهم تصحيح الهلاوس أو منعها، لأنه من الصعب التوصل إلى جذورها.
يقول البروفيسور نوفوتني إنه تم إحراز الكثير من التقدم باتجاه التخلص من تلك الهلاوس. لكن "إزالتها بشكل كامل قد تتطلب نهجاً مختلفا" يتمثل في تغيير المبدأ الأساسي لعملها الذي يعتمد على التنبؤ. ويضيف: "لكن من ناحية أخرى، إذا تم إزالة طريقة أخذ عينات عشوائية، فإن الذكاء الاصطناعي التوليدي سيعود ببساطة إلى تقليد بيانات تدريبه، كما لو كان مجرد محرك بحث بسيط".
الحل الآخر، كما يقول نوفوتني، هو "نظم منفصلة لتدقيق الحقائق، والتي لا نعرف حتى الآن كيفية بنائها بطريقة فعالة".
يتفق معه الجندي في الرأي، حيث يقول إن القضاء على الهلاوس بشكل تام "سيحتاج إلى اختراقات كبيرة في كيفية عرض النماذج للمعرفة والتفكير فيها بشكل منطقي، ونحن لم نصل إلى هذا بعد. ومع ذلك، هناك تقدم حقيقي يحدث في الوقت الحالي، لا سيما في تقنيات مثل التوليد المعزز بالاسترجاع (RAG)، والتعلم المعزز بملاحظات البشر (RLHF)، وأطر التقييم الأكثر دقة. لكن القضاء عليها تماما سيحتاج إلى تطورات جذرية في بنية الذكاء الاصطناعي نفسها".
كيف يمكن اكتشاف الهلاوس وتخفيف أضرارها؟
هلاوس الذكاء الاصطناعي قد تعود بضرر كبير على المؤسسات والشركات التي يزداد استخدامها لتقنياته طوال الوقت بغرض تحسين الخدمات أو المنتجات أو توفير النفقات. إذ قد تؤدي إلى اتخاذ قرارات غير صائبة، أو تكبد خسائر مادية، أو التعرض لخطر الملاحقة القضائية، أو الإضرار بسمعتها. ومن ثم تبرز أهمية التغلب على تلك الهلاوس.
"الطريقة المثلى لتخفيف آثار هلاوس الذكاء الاصطناعي هي منعها من البداية"، وفقاً لموقع شركة التكنولوجيا العملاقة آي بي إم، الذي ينصح باتباع خطوات من بينها استخدام بيانات تدريب عالية الجودة تتسم بالتنوع والتوازن، وتحديد هدف النموذج، واختبار النظام وتحسينه باستمرار والاعتماد على الإشراف والمراجعة البشرية لتصحيح أي أخطاء.
يقول الجندي، وهو المدير التنفيذي والمؤسس المشارك لشركة Kolena ("كولينا") لنظم الذكاء الاصطناعي، إن التغلب على الهلاوس هو جزء حيوي من العمل الذي تقوم به شركته. ويضيف: "قمنا بدمج فحوصات لجودة الذكاء الاصطناعي في منصتنا بشكل مباشر. لا يقتصر دور برامج الذكاء الاصطناعي لدينا على استخراج المعلومات من المستندات المعقدة، مثل التقارير المالية وتقارير الامتثال والعقود، بل يشمل أيضًا تقديم تفسيرات منطقية، ومراجع، ودرجات ثقة لكل قيمة مستخرجة. يتيح ذلك للمستخدمين التحقق بسرعة من النتائج، وفهم كيفية استخراجها، واتخاذ الإجراءات اللازمة عند الحاجة. كما نتيح التحسين المستمر من خلال السماح للمستخدمين بتصحيح الأخطاء مرة واحدة، وتطبيق هذا التصحيح على مستوى النظام بأكمله".
ويضيف الجندي أن المنصة تسعى إلى وضع معايير للجودة على مستوى الصناعة من خلال استضافة مؤتمر جودة الذكاء الاصطناعي "AIQCON" الذي "يلتقي فيه الخبراء لوضع أطر قوية لتقييم وضمان موثوقية الذكاء الاصطناعي".
لكن ماذا عن الأشخاص العاديين الذين يستخدمون روبوتات الدردشة للاستفسار عن معلومة ما أو مساعدتهم في دراستهم أو عملهم؟ هل هناك وسيلة سهلة ومضمونة تمكنهم من اكتشاف الهلاوس؟
الإجابة هي لا، وفقاً للبروفيسور نوفوتني، الذي يقول إن "ما يزيد الطين بلة هو أن هذه الهلاوس في أغلب الأحيان تتعلق بحقائق ليست من المعرفة العامة أو مدعومة بالمنطق. على سبيل المثال: من الفنان الذي رسم لوحة ما في عام ما؟ ليس هناك الكثير من المنطق الذي يمكن تطبيقه للتحقق مما إذا كانت الإجابة صحيحة أم لا دون الاعتماد على مصادر أخرى للمعلومات. في النهاية، يبقى البحث عن مصادر معلومات موثوقة هو الخيار القابل للتطبيق، مع مراعاة التحفظات بشأن أي مصادر للمعلومات، وما إذا كان يمكن بالفعل الوثوق بها أم لا".
لا شك أن هلاوس أو اختلاقات الذكاء الاصطناعي تشكل تحديا كبيرا. وريثما تتحقق اختراقات جذرية تؤدي إلى تفادي تلك الهلاوس، يبدو أنه سيتعين على الشركات الاستثمار في المزيد من إجراءات تحسين الجودة.
وعلى الأفراد تبني تفكير نقدي واستشارة المراجع الموثوقة، وذلك لضمان أن يظل الذكاء الاصطناعي أداة قيمة وليس مصدرا للمشكلات أو المعلومات المغلوطة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


العربي الجديد
منذ 15 ساعات
- العربي الجديد
شركات الذكاء الاصطناعي تتنافس على أفضل المواهب
منذ إطلاق روبوت الدردشة "تشات جي بي تي" في أواخر عام 2022، تصاعدت وتيرة توظيف متخصصين في مجال الذكاء الاصطناعي إلى مستويات عليا، وفقاً لما ذكره 12 شخصاً شاركوا في توظيف باحثي الذكاء الاصطناعي لوكالة رويترز للأنباء. وتسعى شركات مثل "أوبن إيه آي" و"غوغل" جاهدةً للتقدم أو البقاء في سباق ابتكار أفضل نماذج الذكاء الاصطناعي، من خلال استقطاب أفضل الموظفين الذين يُمكن لعملهم أن يُسهم في نجاح الشركات أو فشلها. ونقلت وكالة رويترز للأنباء عن نايوم براون، أحد الباحثين وراء الإنجازات الأخيرة لشركة أوبن إيه آي في مجال الذكاء الاصطناعي في الرياضيات المعقدة والتفكير العلمي، إنه وجد نفسه عام 2023 يلتقي نخبة التكنولوجيا في واد السيليكون، فمرة ها هو ذا في غداء مع مؤسس "غوغل" سيرغي برين، ومرة يشارك في لعبة بوكر مع مؤسس "أوبن إيه آي" سام ألتمان، ومرة على متن طائرة خاصة مع مستثمر متحمس. في النهاية، اختار براون "أوبن إيه آي" لأنها كانت مستعدة لتخصيص الموارد، البشرية والحوسبية، للعمل الذي كان متحمساً له. وظائف الذكاء الاصطناعي مقابل حوافز مالية قال براون: "في الواقع، لم يكن الخيار الأمثل من الناحية المالية"، موضحاً أن التعويضات ليست هي الأهم بالنسبة إلى باحثين عدة. هذا لم يمنع الشركات من إنفاق ملايين الدولارات على شكل مكافآت وحزم رواتب للباحثين المتميزين، وفقاً لسبعة مصادر مطلعة للوكالة، التي أوردت أن عدداً من كبار باحثي "أوبن إيه آي" الذين أبدوا اهتماماً بالانضمام إلى شركة "إس إس آي" الجديدة، التابعة لكبير العلماء السابق إيليا سوتسكيفر، عُرضت عليهم مكافآت بقيمة مليوني دولار، بالإضافة إلى زيادات في أسهم الشركة بقيمة 20 مليون دولار أو أكثر، في حال بقائهم. ورفض بعضهم، واشترط البقاء لمدة عام واحد فقط للحصول على المكافأة كاملة. وأكد مصدران لـ"رويترز" أن باحثين آخرين في "أوبن إيه آي" تلقوا عروضاً من "إليفن لابز" حصلوا على مكافآت لا تقلّ عن مليون دولار للبقاء في "أوبن إيه آي". وعرضت شركة ديب مايند، من " غوغل "، على كبار الباحثين حزم تعويضات بقيمة 20 مليون دولار سنوياً ومنحاً وأسهماً خارج الدورة المالية. تكنولوجيا التحديثات الحية الذكاء الاصطناعي أكثر إقناعاً من الإنسان في المناظرات لعبة شطرنج لطالما كانت الموهبة مهمة في وادي السيليكون، إلا أن الفرق مع طفرة وظائف الذكاء الاصطناعي يكمن في قلة عدد الأشخاص في هذه المجموعة النخبوية من الوظائف. يمكن أن يراوح العدد من بضع عشرات إلى نحو ألف فقط، وفقاً لما نقلته "رويترز" عن ثمانية مصادر. ويستند ذلك إلى الاعتقاد أن هذا العدد القليل جداً من "المُبرمجين المستقلين" قد قدموا مساهمات هائلة في تطوير "نماذج اللغة الكبيرة"، وهي التقنية التي تعتمد عليها طفرة الذكاء الاصطناعي الحالية، وبالتالي يمكن أن يكونوا عاملاً حاسماً في نجاح النموذج أو فشله. ونقلت الوكالة عن الباحث السابق في "أوبن إيه آي"، هربرت فوس، الذي دخل في منافسة المواهب بعد تأسيس شركته الخاصة، أن "مختبرات الذكاء الاصطناعي تتعامل مع التوظيف وكأنها مباراة شطرنج. إنها تريد التحرك بأسرع ما يمكن، لذا فهي على استعداد لدفع مبالغ طائلة للمرشحين ذوي الخبرة المتخصصة والمتكاملة، تماماً مثل قطع اللعبة (الشطرنج) تتساءل: هل لديّ ما يكفي من القلاع؟ هل لديّ ما يكفي من الفرسان؟".


العربي الجديد
منذ 15 ساعات
- العربي الجديد
ما نعرفه عن جهاز سام ألتمان السري... بالتعاون مع مصمّم "آبل"
أعلن رئيس شركة أوبن إيه آي للذكاء الاصطناعي سام ألتمان أنّ المصمم التاريخي لشركة آبل، الذي قاد عملية ابتكار هاتف آيفون، جوني إيف، سينضم مع فريقه إلى "أوبن إيه آي" بهدف "تصميم سلسلة من الأجهزة" الإلكترونية المتصلة بالإنترنت لتسهيل استخدام الذكاء الاصطناعي التوليدي. هذا يعني عملياً استحواذ "أوبن إيه آي" على شركة آي أو التي أسّسها جوني إيف. وذكرت تقارير إعلامية عدة أنّ قيمة الصفقة بلغت نحو 6.5 مليارات دولار. تعاون سام ألتمان وجوني إيف على جهاز سريّ قال إيف، أمس الأربعاء، في مقطع فيديو يُظهِر محادثة مع ألتمان في أحد مقاهي سان فرانسيسكو، إن "المنتجات التي نستخدمها للتواصل واستخدام هذه التكنولوجيا فائقة التصوّر تعود إلى عقود"، مضيفاً "ربما هناك شيء آخر ينبغي ابتكاره". وأوضح ألتمان أنّ إيف و"أوبن ايه آي" يتعاونان أصلاً منذ سنتين في شراكة أسفرت عن "تصميمات ملموسة"، بحسب تعبيره. وتابع ألتمان أن فريق جوني آيف سبق أن طوّر نموذجاً أولياً لجهاز إلكتروني، من دون توفير تفاصيل إضافية، وقال "تمكّنت من اختباره، وهو أحد أروع التقنيات التي شهدها العالم على الإطلاق". من هو جوني إيف؟ انضم إلى "آبل" عام 1992. صاحب الرؤية وراء تصميمات أشهر أجهزة "آبل" مثل "آيماك" و"آيفون". تصميماته أثرت على البرمجيات أيضاً مثل نظام iOS 7. بعد وفاة ستيف جوبز عام 2011 خرج من الظل وأصبح واجهة الشركة إلى جانب تيم كوك. عام 2019 غادر "آبل" لتأسيس شركة تصميم مستقلة. استمرت اتفاقية استشارية بين الشركتين، لكنها انتهت أيضاً في 2022. تكنولوجيا التحديثات الحية شركات الذكاء الاصطناعي تتنافس على أفضل المواهب ما نعرفه عن المشروع السري أمس الأربعاء، قدّم سام ألتمان لموظفيه لمحةً عن الأجهزة التي يطورها بالتعاون مع جوني إيف، واضعاً خططاً لشحن مائة مليون نسخة مما وصفها بـ"رفيق" ذكاء اصطناعي يأمل في أن يصبح جزءاً من الحياة اليومية. وقد منح إيف دوراً إبداعياً وتصميمياً واسع النطاق في المشروع. وخلال الاجتماع قدّم إيف وألتمان تلميحات حول المشروع السري الذي يعملان عليه: سيكون المنتج قادراً على إدراك محيط المستخدم وحياته بشكل كامل، وسيكون غير ملحوظ، ويمكن وضعه في الجيب أو على المكتب، ويأملان في أن يكون الجهاز الأساسي الثالث الذي يمكن وضعه على المكتب بعد جهاز "ماك بوك برو" و" آيفون" . وذكرت صحيفة وول ستريت جورنال سابقاً أن الجهاز لن يكون هاتفاً، وأن هدف إيف وألتمان هو مساعدة المستخدمين على الاستغناء عن الشاشات. وصرّح ألتمان بأن الجهاز ليس نظارة، وأن إيف كان متشككاً بشأن ابتكار جهاز يُلبَس على الجسم. وأشار إيف إلى "حركة تصميم جديدة". وقال ألتمان إن الجهاز سيُشكّل "عائلة من الأجهزة"، مُعرباً عن إعجابه بدمج "آبل" بين منتجاتها من الأجهزة والبرمجيات منذ فترة طويلة. وأكد ألتمان لفريق "أوبن إيه آي" أن السرية ستكون أساسية لنجاحهم النهائي، وذلك لتجنب نسخ المنافسين للمنتج قبل أن يصبح جاهزاً. (فرانس برس، العربي الجديد)


القدس العربي
منذ يوم واحد
- القدس العربي
'تشات جي بي تي' يورط محامين في الولايات المتحدة
ألاباما: قالت قاضية اتحادية يوم الأربعاء إنها تفكر في فرض عقوبات على محامين من شركة محاماة باهظة التكاليف تم التعاقد معها للدفاع عن نظام السجون في ولاية ألاباما، بعد أن استخدم أحد المحامين برنامج 'تشات جي بي تي' لإعداد مذكرتين قانونيتين تضمنتا إشارات إلى اقتباسات غير موجودة. وعقدت القاضية الاتحادية آنا ماناسكو جلسة استماع في برمنغهام لاستجواب محامين من شركة 'باتلر سنو' بشأن تلك المذكرات القانونية. وقالت إن هناك تحذيرات واسعة النطاق على المستوى الوطني من المحاكم بشأن استخدام الذكاء الاصطناعي في إعداد المذكرات القانونية، بسبب احتمالية احتوائها على معلومات غير دقيقة. وأوضحت ماناسكو أنها تدرس مجموعة من العقوبات المحتملة، بما في ذلك فرض غرامات، ومنحت الشركة مهلة 10 أيام لتقديم مذكرة قانونية إلى المحكمة. وقدم محامو شركة 'باتلر سنو' اعتذارات متكررة خلال الجلسة. وقالوا إن أحد شركاء الشركة، مات ريفز، استخدم برنامج 'تشات جي بي تي' للبحث عن سوابق قانونية تدعم موقفهم، لكنه لم يتحقق من دقة تلك المعلومات قبل إضافتها إلى المذكرات المقدمة للمحكمة. وتبين لاحقا أن تلك الإشارات كانت 'هلوسات'، أي اقتباسات خاطئة، صادرة عن نظام الذكاء الاصطناعي. ووقّع أربعة محامين، من بينهم ريفز، على الوثائق التي تضمنت هذه المعلومات. وكتب محامو الشركة في ردهم على القاضية: 'شركة باتلر سنو تشعر بالحرج مما حدث، وهو تصرف مخالف للحكمة السليمة ولسياسة الشركة. لا عذر لاستخدام تشات جي بي تي كمصدر للسوابق القانونية دون التحقق من صحة المصادر التي يوفرها، حتى لو كان ذلك لدعم مبادئ قانونية راسخة'. وقال ريفز للقاضية: 'أنا وحدي أتحمل المسؤولية عن الاستشهادات القانونية الخاطئة، وآمل ألا تعاقبي زملائي على ذلك'. (أ ب)