logo
ما لا تعرفه النماذج اللغوية قد يضللك

ما لا تعرفه النماذج اللغوية قد يضللك

النهار١٧-٠٧-٢٠٢٥
يبدو أن أدوات الذكاء الاصطناعي باتت جزءاً من سلسلة إنتاج التضليل، لا مجرد ضحية له. ما كان يُفترض أن يكون وسيلة مساعدة على الفهم والتدقيق، تحوّل إلى آلية تعيد تدوير الأكاذيب والمعلومات المشوهة التي تنتجها البيئة الرقمية. هذه النماذج، وعلى رأسها "تشات جي بي تي" و"غروك"، تتغذى على الإنترنت بكل ما فيه، وتمزج الغث بالسمين دون تفريق، ثم تقدمه للمستخدم بثقة لا تليق بمحتوى هشّ أو زائف.
ما يكشف حجم المشكلة هو قدرة هذه الأدوات على بث معلومات غير دقيقة، خصوصاً في سياق الأخبار العاجلة، حيث تندر المصادر الموثوقة وتتسابق المواقع والمنصات على تقديم روايات متضاربة. في واقعة حديثة مرتبطة بالاحتجاجات في لوس أنجلوس، لجأ البعض إلى أدوات الذكاء الاصطناعي للتحقق من صور انتشرت على نطاق واسع، ليكتشفوا أن الردود التي حصلوا عليها تعود إلى مناسبات أخرى لا علاقة لها بالحدث، ما ساهم في تضخيم الشكوك بدلاً من تفنيدها.
الخلل لا يعود إلى سوء نية في تصميم هذه الأنظمة، بل إلى بنية تدريبها نفسها. فهي تتعامل مع الكمّ الهائل من المحتوى الرقمي وكأنه متساوٍ في القيمة والمصداقية، دون اعتبار لمصدره أو درجة موثوقيته. الأخبار الملفقة، المقالات المشبوهة، والمحتوى المكرر من مصادر غير موثوقة، جميعها تندرج ضمن ما يُستخدم لتوليد الردود. وكلما تكرر المحتوى، ازداد احتمال أن يظهر مجدداً على لسان الأداة.
وقد أكّد تقرير صادر عن منظمة NewsGuard في يناير 2025 أن النماذج اللغوية، ومنها ChatGPT وGrok، تميل إلى "ابتلاع التضليل وإعادته للمستخدم"، خصوصاً عندما تكون المعلومات منتشرة على الإنترنت وتفتقر إلى سياقات موثوقة. وأوضح التقرير أن هذه النماذج لا تمتلك آلية تحقق داخلية فعالة، بل تميل إلى تكرار المعلومات التي تتكرر أمامها بغض النظر عن صحتها. وذكر أن عشرة من أبرز أدوات الذكاء الاصطناعي كررت معلومات مضللة بنسبة وصلت إلى 40% عند التعامل مع قضايا آنية أو متنازع عليها، وهو ما ينسجم تماماً مع ملاحظات الباحثين حول أن هذه النماذج مصممة لتقديم ردود تبدو مفيدة أكثر من كونها دقيقة.
الأزمة تتعمق أكثر مع تصاعد الاعتماد على هذه الأدوات كمصادر للمعرفة الفورية. فبدلًا من البحث والتقصّي، بات كثير من المستخدمين يكتفون بسؤال روبوت دردشة افتراضي، ثم يبنون مواقفهم أو قراراتهم على أساس الرد الذي يحصلون عليه. وما يزيد الأمر سوءاً هو أن هذه الأدوات لا تتوقف عند حدود المعلومات القديمة، بل تبحث أيضاً في الإنترنت لحظياً، مما يجعلها عرضة لالتقاط التضليل الذي ينتشر بسرعة في لحظات الالتباس أو الفراغ المعلوماتي.
في الوقت نفسه، تتراجع آليات التحقق التقليدية على منصات التواصل الاجتماعي. أنظمة الإشراف تم تفكيكها أو إضعافها لصالح نماذج تعتمد على مساهمات المستخدمين. وهو ما يُدخل بيئة الإنترنت في مرحلة جديدة من الفوضى، تتغذى فيها نماذج الذكاء الاصطناعي على محتوى أقل مصداقية، وتعيد توزيعه بسرعة وكأنها جزء من آلة دعاية غير مقصودة.
هذا الانكشاف أمام التلوث المعلوماتي لا يحدث بالصدفة. هناك جهات تنشط عمداً لنشر محتوى زائف بغرض تسميم أدوات الذكاء الاصطناعي، في عملية تُعرف بـ 'LLM grooming'. يُنشئ هؤلاء مواقع متشابهة ومتكررة، ويضخّون عبرها مقالات متطابقة، حتى تصبح جزءاً من نسيج البيانات التي تعتمد عليها هذه النماذج في صياغة إجاباتها. وكلما ازداد تعقيد هذا التكتيك، ازداد صعوبة تتبع أثره أو تفاديه.
وسط هذا المشهد، لا يمكن اعتبار الذكاء الاصطناعي مرجعاً معرفياً موثوقاً، خاصة في المواضيع المتنازع عليها أو تلك المرتبطة بالراهن السياسي والاجتماعي. بل إن ما يقدمه قد يكون انعكاساً مشوشاً لما هو رائج وليس لما هو صحيح.
الخطورة لا تكمن فقط في تداول معلومات خاطئة، بل في الاعتماد المتزايد على هذه الأدوات في اتخاذ قرارات فعلية. فحين تُدمج هذه الأنظمة في البنى الإدارية أو الإعلامية أو السياسية، دون رقابة صارمة على نوعية البيانات التي تعتمد عليها، نكون أمام تحوّل جذري في طريقة تشكّل الرأي العام، مبني على تصورات مغلوطة لا على حقائق مدققة.
في النهاية، لا مفرّ من العودة إلى دور الإنسان: المراجعة، التحقق، والمقارنة بين المصادر. فالذكاء الاصطناعي لن يميز الحقيقة ما لم نعلّمه كيف يفعل، ولن يفعل ذلك ما دامت بياناته مشوبة ومصدرها عالم رقمي بلا حراسة.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

بسبب "شات جي بي تي"... وداعاً للمعلّمين؟
بسبب "شات جي بي تي"... وداعاً للمعلّمين؟

MTV

timeمنذ 23 دقائق

  • MTV

بسبب "شات جي بي تي"... وداعاً للمعلّمين؟

قررت شركة "أوبن إيه آي" المالكة لنظام الدردشة "تشات جي بي تي" إطلاق خاصية جديدة تدعى "وضع الدراسة" تتيح شرح الدروس للطلاب والأكاديميين من دون الحاجة إلى معلم، كما تحد من عمليات الغش الأكاديمي. ووفقا لصحيفة "الغارديان"، فإن الميزة الجديدة، صُممت لتكون أداة فعالة في المساعدة على حل الواجبات، والتحضير للامتحانات، وتعلم مواضيع جديدة، كما أنها قادرة على التفاعل مع الصور، ما يسمح باستخدامها في تحليل اختبارات سابقة عند تحميلها. وتهدف خاصية "وضع الدراسة" إلى الحد من استخدام ChatGPT كأداة لتوليد الإجابات الجاهزة، حيث أوضحت الشركة أن الأداة لا تكتفي بتقديم الحلول، بل تركز على مساعدة الطلاب في فهم المفاهيم وتطوير قدراتهم. ومع ذلك، تبقى إمكانيات تجاوز هذا النمط قائمة إذا اختار الطلاب تجاهل الميزة. وأفادت أوبن إيه آي بأن أكثر من ثلث الشباب في سن الدراسة الجامعية في الولايات المتحدة يستخدمون تشات جي بي تي، مع الإشارة إلى أن نحو ربع رسائلهم عبر الروبوت تتعلق بالتعلم أو التعليم الخصوصي أو أداء الواجبات المدرسية. وقالت جاينا ديفاني، المسؤولة عن التعليم الدولي لدى تشات جي بي تي في الولايات المتحدة، إن الشركة لا ترغب في أن يُساء استخدام الروبوت من قبل الطلاب، وتعتبر هذه الأداة "خطوة نحو تشجيع الاستخدام الأكاديمي البنّاء لتشات جي بي تي". واعترفت ديفاني بأن معالجة الغش الأكاديمي ستتطلب "محادثة على مستوى الصناعة بأكملها" بشأن تغيير أساليب التقييم ووضع "إرشادات واضحة جدا حول ما يعد استخداما مسؤولا للذكاء الاصطناعي". وقالت إن الوضع الجديد صُمم لتشجيع المستخدمين على التفاعل مع المواضيع والمشكلات بدلا من تقديم الإجابة فورا، وتابعت: "إنه يوجهني نحو الإجابة بدلا من إعطائها لي مباشرة". وأشارت أوبن إيه آي إلى أنها تعاونت مع معلمين وعلماء وخبراء تعليم لتطوير هذه الأداة، لكنها حذرت من احتمال وجود "سلوك غير متسق وأخطاء عبر المحادثات".

المعلمون في خطر.. خاصية جديدة في "تشات جي بي تي" تشرح الدروس
المعلمون في خطر.. خاصية جديدة في "تشات جي بي تي" تشرح الدروس

القناة الثالثة والعشرون

timeمنذ ساعة واحدة

  • القناة الثالثة والعشرون

المعلمون في خطر.. خاصية جديدة في "تشات جي بي تي" تشرح الدروس

قررت شركة "أوبن إيه آي" المالكة لنظام الدردشة "تشات جي بي تي" إطلاق خاصية جديدة تدعى "وضع الدراسة" تتيح شرح الدروس للطلاب والأكاديميين من دون الحاجة إلى معلم، كما تحد من عمليات الغش الأكاديمي. ووفقا لصحيفة "الغارديان"، فإن الميزة الجديدة، صُممت لتكون أداة فعالة في المساعدة على حل الواجبات، والتحضير للامتحانات، وتعلم مواضيع جديدة، كما أنها قادرة على التفاعل مع الصور، ما يسمح باستخدامها في تحليل اختبارات سابقة عند تحميلها. وتهدف خاصية "وضع الدراسة" إلى الحد من استخدام ChatGPT كأداة لتوليد الإجابات الجاهزة، حيث أوضحت الشركة أن الأداة لا تكتفي بتقديم الحلول، بل تركز على مساعدة الطلاب في فهم المفاهيم وتطوير قدراتهم. ومع ذلك، تبقى إمكانيات تجاوز هذا النمط قائمة إذا اختار الطلاب تجاهل الميزة. وأفادت أوبن إيه آي بأن أكثر من ثلث الشباب في سن الدراسة الجامعية في الولايات المتحدة يستخدمون تشات جي بي تي، مع الإشارة إلى أن نحو ربع رسائلهم عبر الروبوت تتعلق بالتعلم أو التعليم الخصوصي أو أداء الواجبات المدرسية. وقالت جاينا ديفاني، المسؤولة عن التعليم الدولي لدى تشات جي بي تي في الولايات المتحدة، إن الشركة لا ترغب في أن يُساء استخدام الروبوت من قبل الطلاب، وتعتبر هذه الأداة "خطوة نحو تشجيع الاستخدام الأكاديمي البنّاء لتشات جي بي تي". واعترفت ديفاني بأن معالجة الغش الأكاديمي ستتطلب "محادثة على مستوى الصناعة بأكملها" بشأن تغيير أساليب التقييم ووضع "إرشادات واضحة جدا حول ما يعد استخداما مسؤولا للذكاء الاصطناعي". وقالت إن الوضع الجديد صُمم لتشجيع المستخدمين على التفاعل مع المواضيع والمشكلات بدلا من تقديم الإجابة فورا، وتابعت: "إنه يوجهني نحو الإجابة بدلا من إعطائها لي مباشرة". وأشارت أوبن إيه آي إلى أنها تعاونت مع معلمين وعلماء وخبراء تعليم لتطوير هذه الأداة، لكنها حذرت من احتمال وجود "سلوك غير متسق وأخطاء عبر المحادثات". ويأتي هذا التطوير في وقت كشفت فيه دراسة لصحيفة "ذا غارديان" عن تسجيل ما يقرب من 7000 حالة غش مثبتة باستخدام أدوات الذكاء الاصطناعي في الجامعات البريطانية خلال عام 2023-2024، ما يعادل 5.1 حالات لكل ألف طالب، مقارنة بـ1.6 فقط في العام السابق. انضم إلى قناتنا الإخبارية على واتساب تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة. انضم الآن شاركنا رأيك في التعليقات تابعونا على وسائل التواصل Twitter Youtube WhatsApp Google News

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

صوت بيروت

timeمنذ ساعة واحدة

  • صوت بيروت

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

كشفت دراسة حديثة عن مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين. ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم 'ذهان الشات بوت'، حيث قد تساهم هذه التقنية في 'طمس حدود الواقع' لدى المستخدمين المعرضين للخطر وتؤدي إلى 'ظهور أو تفاقم أعراض ذهانية. وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع الذكاء الاصطناعي بعد استخدام مكثف لهذه البرامج. وقال الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: 'نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع الذكاء الاصطناعي'. وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية. ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن 'الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة'.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store