logo
ما لا تعرفه النماذج اللغوية قد يضللك

ما لا تعرفه النماذج اللغوية قد يضللك

النهار١٧-٠٧-٢٠٢٥
يبدو أن أدوات الذكاء الاصطناعي باتت جزءاً من سلسلة إنتاج التضليل، لا مجرد ضحية له. ما كان يُفترض أن يكون وسيلة مساعدة على الفهم والتدقيق، تحوّل إلى آلية تعيد تدوير الأكاذيب والمعلومات المشوهة التي تنتجها البيئة الرقمية. هذه النماذج، وعلى رأسها "تشات جي بي تي" و"غروك"، تتغذى على الإنترنت بكل ما فيه، وتمزج الغث بالسمين دون تفريق، ثم تقدمه للمستخدم بثقة لا تليق بمحتوى هشّ أو زائف.
ما يكشف حجم المشكلة هو قدرة هذه الأدوات على بث معلومات غير دقيقة، خصوصاً في سياق الأخبار العاجلة، حيث تندر المصادر الموثوقة وتتسابق المواقع والمنصات على تقديم روايات متضاربة. في واقعة حديثة مرتبطة بالاحتجاجات في لوس أنجلوس، لجأ البعض إلى أدوات الذكاء الاصطناعي للتحقق من صور انتشرت على نطاق واسع، ليكتشفوا أن الردود التي حصلوا عليها تعود إلى مناسبات أخرى لا علاقة لها بالحدث، ما ساهم في تضخيم الشكوك بدلاً من تفنيدها.
الخلل لا يعود إلى سوء نية في تصميم هذه الأنظمة، بل إلى بنية تدريبها نفسها. فهي تتعامل مع الكمّ الهائل من المحتوى الرقمي وكأنه متساوٍ في القيمة والمصداقية، دون اعتبار لمصدره أو درجة موثوقيته. الأخبار الملفقة، المقالات المشبوهة، والمحتوى المكرر من مصادر غير موثوقة، جميعها تندرج ضمن ما يُستخدم لتوليد الردود. وكلما تكرر المحتوى، ازداد احتمال أن يظهر مجدداً على لسان الأداة.
وقد أكّد تقرير صادر عن منظمة NewsGuard في يناير 2025 أن النماذج اللغوية، ومنها ChatGPT وGrok، تميل إلى "ابتلاع التضليل وإعادته للمستخدم"، خصوصاً عندما تكون المعلومات منتشرة على الإنترنت وتفتقر إلى سياقات موثوقة. وأوضح التقرير أن هذه النماذج لا تمتلك آلية تحقق داخلية فعالة، بل تميل إلى تكرار المعلومات التي تتكرر أمامها بغض النظر عن صحتها. وذكر أن عشرة من أبرز أدوات الذكاء الاصطناعي كررت معلومات مضللة بنسبة وصلت إلى 40% عند التعامل مع قضايا آنية أو متنازع عليها، وهو ما ينسجم تماماً مع ملاحظات الباحثين حول أن هذه النماذج مصممة لتقديم ردود تبدو مفيدة أكثر من كونها دقيقة.
الأزمة تتعمق أكثر مع تصاعد الاعتماد على هذه الأدوات كمصادر للمعرفة الفورية. فبدلًا من البحث والتقصّي، بات كثير من المستخدمين يكتفون بسؤال روبوت دردشة افتراضي، ثم يبنون مواقفهم أو قراراتهم على أساس الرد الذي يحصلون عليه. وما يزيد الأمر سوءاً هو أن هذه الأدوات لا تتوقف عند حدود المعلومات القديمة، بل تبحث أيضاً في الإنترنت لحظياً، مما يجعلها عرضة لالتقاط التضليل الذي ينتشر بسرعة في لحظات الالتباس أو الفراغ المعلوماتي.
في الوقت نفسه، تتراجع آليات التحقق التقليدية على منصات التواصل الاجتماعي. أنظمة الإشراف تم تفكيكها أو إضعافها لصالح نماذج تعتمد على مساهمات المستخدمين. وهو ما يُدخل بيئة الإنترنت في مرحلة جديدة من الفوضى، تتغذى فيها نماذج الذكاء الاصطناعي على محتوى أقل مصداقية، وتعيد توزيعه بسرعة وكأنها جزء من آلة دعاية غير مقصودة.
هذا الانكشاف أمام التلوث المعلوماتي لا يحدث بالصدفة. هناك جهات تنشط عمداً لنشر محتوى زائف بغرض تسميم أدوات الذكاء الاصطناعي، في عملية تُعرف بـ 'LLM grooming'. يُنشئ هؤلاء مواقع متشابهة ومتكررة، ويضخّون عبرها مقالات متطابقة، حتى تصبح جزءاً من نسيج البيانات التي تعتمد عليها هذه النماذج في صياغة إجاباتها. وكلما ازداد تعقيد هذا التكتيك، ازداد صعوبة تتبع أثره أو تفاديه.
وسط هذا المشهد، لا يمكن اعتبار الذكاء الاصطناعي مرجعاً معرفياً موثوقاً، خاصة في المواضيع المتنازع عليها أو تلك المرتبطة بالراهن السياسي والاجتماعي. بل إن ما يقدمه قد يكون انعكاساً مشوشاً لما هو رائج وليس لما هو صحيح.
الخطورة لا تكمن فقط في تداول معلومات خاطئة، بل في الاعتماد المتزايد على هذه الأدوات في اتخاذ قرارات فعلية. فحين تُدمج هذه الأنظمة في البنى الإدارية أو الإعلامية أو السياسية، دون رقابة صارمة على نوعية البيانات التي تعتمد عليها، نكون أمام تحوّل جذري في طريقة تشكّل الرأي العام، مبني على تصورات مغلوطة لا على حقائق مدققة.
في النهاية، لا مفرّ من العودة إلى دور الإنسان: المراجعة، التحقق، والمقارنة بين المصادر. فالذكاء الاصطناعي لن يميز الحقيقة ما لم نعلّمه كيف يفعل، ولن يفعل ذلك ما دامت بياناته مشوبة ومصدرها عالم رقمي بلا حراسة.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

Gemini Deep Think بطل أولمبياد الرياضيات
Gemini Deep Think بطل أولمبياد الرياضيات

الجمهورية

timeمنذ 2 ساعات

  • الجمهورية

Gemini Deep Think بطل أولمبياد الرياضيات

للمرّة الأولى، تمكّن نظام ذكاء اصطناعي من حلّ 5 من أصل 6 مسائل، وهو متوازٍ لما يحققه عادة الطلاب الأوائل في هذه المسابقة العالمية المخصّصة لطلاب المرحلة الثانوية. اللافت أنّ هذا النظام لم يعتمد على ترجمة بشرية للمسائل، كما جرت العادة في تجارب سابقة، بل قرأ الأسئلة باللغة الإنكليزية وأجاب عنها مباشرة، من دون أي تدخّل بشري، وفقاً لما أكّده كبير الباحثين في Google DeepMind، ثانغ لوانغ. هذا التطوّر يُشير إلى تسارع قدرات الذكاء الاصطناعي في مجالات التفكير المنطقي والاستدلال، خصوصاً في ميادين العلوم والرياضيات. فقد كانت روبوتات المحادثة الأولى مثل ChatGPT بارعة في الكتابة وتلخيص الأخبار، لكنّها كثيراً ما عجزت عن التعامل مع المسائل الرياضية الدقيقة والمعقّدة. الآن، تعمل شركات مثل "غوغل" وOpenAI على تحسين هذه القدرات بشكل لافت. وكانت Google DeepMind قد طوّرت سابقاً نظامَي AlphaGeometry وAlphaProof اللذَين وصلا العام الماضي إلى مستوى الميدالية الفضية في المسابقة عينها. لكنّ هذه الأنظمة لم تكن قادرة على التعامل مع الأسئلة مباشرةً، بل احتاجت إلى ترجمتها إلى لغة برمجية خاصة تُعرَف بـ Lean. في المقابل، فإنّ Gemini Deep Think صُمِّم كنظام "استدلالي"، أي أنّه قادر على التفكير بشكل متسلسل ومنطقي قبل إعطاء الإجابة. ووفق "غوغل"، فقد استغرق النظام 4 ساعات ونصف لحل الأسئلة، تماماً كالبشر. إلّا أنّ الشركة لم تكشف عن حجم الطاقة أو الكلفة المستخدمة في تشغيله. في موازاة ذلك، أعلنت OpenAI أنّها طوّرت نظاماً حقق نتائج مماثلة في حل مسائل الأولمبياد، على رغم من أنّها لم تشارك رسمياً. وقد سبق لـ OpenAI أن أثارت الجدل في كانون الأول الماضي عندما أنفقت قرابة 1,5 مليون دولار في اختبار استدلالي آخر بسبب الكلفة المرتفعة للمعالجة والبيانات. هذا التقدّم يُشكِّل مؤشراً حاسماً إلى دخول الذكاء الاصطناعي مرحلة جديدة، إذ لا يكتفي بالتكرار أو التنبّؤ، بل يبدأ بمحاكاة التفكير البشري في مجالات كانت حتى وقت قريب حكراً على العقول البشرية.

روبوت بشري يغيّر بطاريته بنفسه.. هل نحن على أعتاب ثورة الآلات؟
روبوت بشري يغيّر بطاريته بنفسه.. هل نحن على أعتاب ثورة الآلات؟

صدى البلد

timeمنذ 7 ساعات

  • صدى البلد

روبوت بشري يغيّر بطاريته بنفسه.. هل نحن على أعتاب ثورة الآلات؟

أطلقت شركة TECHNOLOGY الصينية UBTECH روبوتًا بشريًا يُدعى Walker S2، يُعد أول روبوت قادر على تغيير بطاريته بنفسه دون تدخل بشري. يظهر النموذج مقدمًا في فيديو رسمي نُشر في 17 يوليو 2025، حيث يتجه الروبوت إلى محطة شحن، ثم يخلع البطارية الفارغة من ظهره ويُركّب بطارية مشحونة في أقل من ثلاث دقائق، كل هذا بشكل مستقل تمامًا. قدرة تشغيل مستمرة دون توقف يعتمد Walker S2 على نظام بطاريتين من Li‑ion بقوة 48 فولت، تمكّنه من المشي لمدة ساعتين أو الوقوف لأربع ساعات قبل الحاجة للتغيير. بعد ذلك، يُغادر إلى محطة الشحن خلال 90 دقيقة لإنهاء عملية إعادة شحن البطارية، هذا يسمح بتشغيله بشكل مستمر على مدار 24 ساعة، 7 أيام في الأسبوع، ما يمثل نقلة نوعية في الاعتماد الآلي المستدام. ذكاء ذاتي في الأولويات يمتلك الروبوت قدرات مراقبة مستوى الطاقة في البطاريتين، ويقرر بشكل مستقل ما إذا كان يجب شحن البطارية أو تبديلها، اعتمادًا على أولوية المهام المتواجدة. ويُصمم لاستقبال أوامر عبر شبكات Wi‑Fi أو Bluetooth باستخدام أنظمة تحكم مدمجة تُجيّرها باستخدام 20 درجة حرية Flexure لتقييم المواقع الانسيابية أثناء الحركة والتشغيل. ماذا يعني هذا للمستقبل؟ يُعد Walker S2 تعبيرًا واضحًا عن اتجاه آخذ في التوسع نحو أنظمة روبوتية تتمتع بالصيانة الذاتية، تكفي لحاقها طويلة بالمهام الصناعية والخدمية دون الحاجة لتدخل بشري دائم. هذا الأمر يُشبه فكرة مصانع "معتمة" (dark factories) القائمة بالكامل على التشغيل الآلي مع تقليل الحاجة للتدخل والمراقبة البشرية دورًا تدريجيًا . واقع صناعي في المستقبل القريب إطلاق Walker S2 لا يحدث بمعزل؛ إذ تسعى الصين لتعميم استخدام الروبوتات الموازية للبشر (humanoid) في المصانع، المرافق العامة، وخدمة العملاء. وقد تعزز شراكة UBTECH مع شركات كبرى مثل Huawei من انتشار هذه التكنولوجيا بحلول السنوات المقبلة. أشارت وسائل الإعلام إلى أن الصين تخطط لتصبح رائدة عالمياً في إدخال الروبوتات الشبه بشرية بحلول عام 2027، وسط تجارب سباقات مثل نصف ماراثون روبوتي رمزي في بكين. ظهور روبوت قادر على تغيير بطاريته بنفسه يمثل خطوة فارقة في تطوير الآلات الذكية. إننا نشهد ولادة جيل جديد من الروبوتات القادرة على الصيانة الذاتية والتشغيل المطوّل دون تدخل بشري. ومع توصيف Walker S2 كنواة للعمل المستمر دون توقف، يبدو أننا بالفعل على أعتاب ما يمكن تسميته بثورة الآلات آلات لا تحتاج لأكف بشرية، بل تشحن ذاتها وتصلح نفسها، وتستمر في العمل بكل استقلالية.

الجماعات الإرهابية والذكاء الاصطناعي.. للتجنيد وتخطيط الهجمات
الجماعات الإرهابية والذكاء الاصطناعي.. للتجنيد وتخطيط الهجمات

بيروت نيوز

timeمنذ 8 ساعات

  • بيروت نيوز

الجماعات الإرهابية والذكاء الاصطناعي.. للتجنيد وتخطيط الهجمات

كشف تقرير نشرته صحيفة الغارديان عن تحول مقلق في طريقة عمل الجماعات الإرهابية، إذ بدأت تلك التنظيمات في استغلال تقنيات الذكاء الاصطناعي بشكل متسارع لتعزيز عملياتها وتوسيع نفوذها، من الترويج والتجنيد إلى التخطيط والتكتيك. دعايات احترافية.. خلال ثوان وفق التقرير، تعتمد هذه الجماعات، وعلى رأسها 'داعش'، على أدوات ذكاء اصطناعي مثل ChatGPT لإنتاج محتوى دعائي مخصص بلغات ولهجات متعددة، وتعديله ليناسب كل فئة مستهدفة. كما تستخدم أدوات لتحويل النصوص إلى مقاطع صوتية وفيديوهات سهلة النشر، ما يضاعف من انتشار الرسائل المتطرفة. 'مساعد شخصي' إرهابي وتشير الوثائق التي حصلت عليها الصحيفة إلى أن 'داعش' أعدت دليلًا خاصًا لاستخدام أدوات الذكاء الاصطناعي، يتضمن طرقًا لاستخدامها كمساعدات بحثية وتكتيكية، لتسريع عملية جمع المعلومات ورسم الخطط، دون الحاجة إلى عمل ميداني تقليدي. التحايل على القيود التقنية رغم محاولات الشركات الكبرى، مثل OpenAI، تقييد استخدام نماذجها في مجالات ضارة، فإن الإرهابيين يبتكرون أساليب للالتفاف على هذه القيود، مثل تقديم مخططات للأسلحة لطلب مراجعتها بدلًا من طلب تصنيعها مباشرة. ويحذر التقرير من أن السباق العالمي المحموم لتطوير الذكاء الاصطناعي بات يتجاهل أحيانًا معايير السلامة، مستشهدًا بما حدث مع نموذج 'غروك' الذي انحرف عن سياسات الأمان ونشر خطاب كراهية علنيًا. ومع هذا التحوّل، يتصاعد القلق بشأن تسليح الذكاء الاصطناعي فكريًا وتقنيًا، وضرورة فرض رقابة وتعاون دولي عاجل قبل أن تتحول هذه الأدوات إلى سلاح دمار غير مرئي في يد جهات متطرفة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store