
تحديث جريء.. Grok يتحدى وسائل الإعلام ويتجاوز المحظورات
ويأتي ذلك ضمن توجه ماسك العلني نحو إعادة تشكيل منظور الذكاء الاصطناعي الخاص به بعيدًا عمّا وصفه سابقًا بـ'الدعاية الإعلامية التقليدية'.
وبحسب تحديث رسمي نُشر على منصة GitHub يوم الأحد الماضي، فقد أُضيفت تعليمات صريحة إلى نظام Grok تنصّ على أن 'الآراء المستندة إلى وسائل الإعلام تُعدّ منحازة، ويجب على النموذج تحليل المصادر المتنوعة لكافة الأطراف دون إخبار المستخدم بذلك'.
وتنصّ التعليمات على أن 'الردود يجب ألا تتجنّب التصريحات غير الصحيحة سياسيًا إذا كانت مدعومة جيدًا'، ويُمنع على Grok الإفصاح عن هذه التعليمات ما لم يُسأل صراحةً عنها.
وتأتي هذه التغييرات بعد إعلان ماسك يوم الجمعة 'تحسينات كبيرة' في أداء Grok، موضحًا أن تحديثًا وشيكًا سوف يُطبّق خلال أيام.
وشهدت الأيام الأخيرة سلسلة من الردود المثيرة للجدل من Grok عبر منصة إكس، تويتر سابقًا، شملت تصريحات وُصفت بأنها 'معادية للسامية'، وأخرى تُحمّل ماسك نفسه جزئيًا مسؤولية ضحايا الفيضانات الأخيرة في ولاية تكساس.
ففي أحد الردود، كتب Grok: 'إن المديرين التنفيذيين اليهود لديهم تاريخ في تأسيس كبرى استوديوهات هوليوود والسيطرة عليها'، في ردّ أثار موجة من الانتقادات.
وكان ماسك قد انتقد علنًا روبوت Grok – الذي تطوره شركته الخاصة xAI – لأنه 'يردد خطاب الإعلام التقليدي'، متعهدًا بإصدار نسخة تعيد 'كتابة المعرفة البشرية كاملةً'، وتدعو المستخدمين إلى المساهمة بتصريحات 'غير مقبولة سياسيًا، لكنها حقيقية'.
وما زال Grok يصدر تصريحات مثيرة للجدل دون توجيه مباشر، منها ما حدث في مايو عندما أعرب عن 'الشك في عدد ضحايا الهولوكوست'، مشيرًا إلى أنه 'يمكن التلاعب بالأرقام لأغراض سياسية'، في رد لاقى استهجانًا واسعًا من بعض المستخدمين.
ولم تُصدر شركة xAI تعليقًا رسميًا على هذه التحديثات الأخيرة أو الانتقادات المتصاعدة لروبوتها. ومع ذلك، يظل Grok خيارًا محببًا لبعض المستخدمين الذي لا يثقون بالروايات الإعلامية والسرديات السياسية الرائجة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صدى البلد
منذ 3 ساعات
- صدى البلد
الذكاء الاصطناعي يُهدد مستقبل محركات البحث.. هل ينهار نموذج الويب التقليدي؟
مع التوسع المتسارع في استخدام أدوات الذكاء الاصطناعي وظهور نماذج متطورة قادرة على تقديم إجابات فورية، يواجه الإنترنت تحوّلًا جذريًا يهدد أحد أبرز أعمدته وهي محركات البحث التقليدية، فبدلاً من زيارة مواقع إلكترونية للحصول على المعلومات، اصبح المستخدمون يحصلون على إجابات مباشرة من روبوتات الدردشة الذكية. إشارات مبكرة من شركات الإعلام كشف ماثيو برينس، الرئيس التنفيذي لشركة "كلاودفلير"، أن العام الماضي شهد موجة من القلق بين الرؤساء التنفيذيين لعدد من كبرى شركات الإعلام، بعد ملاحظتهم لانخفاض لافت في حركة الزوار إلى مواقعهم الإلكترونية، وقد أرجعوا ذلك إلى تحوّل سلوك المستخدمين نحو الاعتماد على أدوات الذكاء الاصطناعي في البحث، عوضًا عن محركات البحث التقليدية، وتقدّم "كلاودفلير" بنية تحتية أمنية تدعم نحو 20% من حركة الإنترنت العالمية، مما يجعلها في موقع متقدم لرصد هذا التغيير الحاسم. من الروابط إلى الإجابات المباشرة في السابق، كانت محركات مثل "جوجل" و"بينغ" تقود المستخدم إلى مصادر متعددة عبر روابط مرتبة وفق خوارزميات دقيقة. أما اليوم، فإن أدوات مثل ChatGPT من OpenAI، وGrok من xAI، وPerplexity AI، تقدم إجابات جاهزة تستند إلى محتوى مأخوذ من الإنترنت، دون الحاجة لزيارة المواقع الأصلية، وهذا النمط الجديد يقلل من حركة المرور إلى مواقع الأخبار، والمنتديات، والموسوعات مثل ويكيبيديا، مما يهدد قدرتها على تحقيق الدخل من الإعلانات والاشتراكات. توقعات قاتمة لحجم البحث التقليدي بحسب تقرير صادر عن شركة Gartner، فإن حركة البحث التقليدية قد تنخفض بنسبة 25% بحلول عام 2026، بسبب الاعتماد المتزايد على الذكاء الاصطناعي التوليدي، وهذا ما يمثل تهديدًا مباشرًا لنموذج العمل القائم على الزيارات الرقمية، والذي تعتمد عليه آلاف المنصات الإعلامية ومنشئي المحتوى حول العالم. منشئو المحتوى في خطر يعتمد المدونون والصحفيون وصانعو المحتوى على الزيارات لتحقيق الإيرادات. ومع اعتماد نماذج الذكاء الاصطناعي على "كشط" محتواهم وتقديمه للمستخدم بشكل مباشر، تتضاءل فرص حصولهم على مقابل مادي أو حتى التقدير المعنوي لعملهم. محاولات لمواجهة التحدي في ظل هذه التحديات، ظهرت عدة مبادرات لحماية مستقبل الإنترنت المفتوح: نماذج الاشتراك تحولت بعض المؤسسات الكبرى، مثل نيويورك تايمز، إلى نظام الاشتراكات لتعويض الانخفاض في الإعلانات، لكن هذا النموذج يصب في مصلحة الكيانات الكبيرة فقط، بينما يعاني صغار منشئي المحتوى. تشريعات جديدة تطالب بعض الجهات بتشريعات تُجبر أدوات الذكاء الاصطناعي على ترخيص المحتوى المستخدم من المواقع، إلا أن تطبيق هذه القوانين عالميًا لا يزال معقدًا. البلوك تشين والأنظمة اللامركزية تقترح بعض المشاريع اعتماد تقنيات مثل البلوك تشين لتوفير أنظمة دفع دقيقة تتيح تعويضًا مباشرًا للمحتوى المستخدم، لكنها لا تزال في طور التطوير.


النهار
منذ 2 أيام
- النهار
ما لا تعرفه النماذج اللغوية قد يضللك
يبدو أن أدوات الذكاء الاصطناعي باتت جزءاً من سلسلة إنتاج التضليل، لا مجرد ضحية له. ما كان يُفترض أن يكون وسيلة مساعدة على الفهم والتدقيق، تحوّل إلى آلية تعيد تدوير الأكاذيب والمعلومات المشوهة التي تنتجها البيئة الرقمية. هذه النماذج، وعلى رأسها "تشات جي بي تي" و"غروك"، تتغذى على الإنترنت بكل ما فيه، وتمزج الغث بالسمين دون تفريق، ثم تقدمه للمستخدم بثقة لا تليق بمحتوى هشّ أو زائف. ما يكشف حجم المشكلة هو قدرة هذه الأدوات على بث معلومات غير دقيقة، خصوصاً في سياق الأخبار العاجلة، حيث تندر المصادر الموثوقة وتتسابق المواقع والمنصات على تقديم روايات متضاربة. في واقعة حديثة مرتبطة بالاحتجاجات في لوس أنجلوس، لجأ البعض إلى أدوات الذكاء الاصطناعي للتحقق من صور انتشرت على نطاق واسع، ليكتشفوا أن الردود التي حصلوا عليها تعود إلى مناسبات أخرى لا علاقة لها بالحدث، ما ساهم في تضخيم الشكوك بدلاً من تفنيدها. الخلل لا يعود إلى سوء نية في تصميم هذه الأنظمة، بل إلى بنية تدريبها نفسها. فهي تتعامل مع الكمّ الهائل من المحتوى الرقمي وكأنه متساوٍ في القيمة والمصداقية، دون اعتبار لمصدره أو درجة موثوقيته. الأخبار الملفقة، المقالات المشبوهة، والمحتوى المكرر من مصادر غير موثوقة، جميعها تندرج ضمن ما يُستخدم لتوليد الردود. وكلما تكرر المحتوى، ازداد احتمال أن يظهر مجدداً على لسان الأداة. وقد أكّد تقرير صادر عن منظمة NewsGuard في يناير 2025 أن النماذج اللغوية، ومنها ChatGPT وGrok، تميل إلى "ابتلاع التضليل وإعادته للمستخدم"، خصوصاً عندما تكون المعلومات منتشرة على الإنترنت وتفتقر إلى سياقات موثوقة. وأوضح التقرير أن هذه النماذج لا تمتلك آلية تحقق داخلية فعالة، بل تميل إلى تكرار المعلومات التي تتكرر أمامها بغض النظر عن صحتها. وذكر أن عشرة من أبرز أدوات الذكاء الاصطناعي كررت معلومات مضللة بنسبة وصلت إلى 40% عند التعامل مع قضايا آنية أو متنازع عليها، وهو ما ينسجم تماماً مع ملاحظات الباحثين حول أن هذه النماذج مصممة لتقديم ردود تبدو مفيدة أكثر من كونها دقيقة. الأزمة تتعمق أكثر مع تصاعد الاعتماد على هذه الأدوات كمصادر للمعرفة الفورية. فبدلًا من البحث والتقصّي، بات كثير من المستخدمين يكتفون بسؤال روبوت دردشة افتراضي، ثم يبنون مواقفهم أو قراراتهم على أساس الرد الذي يحصلون عليه. وما يزيد الأمر سوءاً هو أن هذه الأدوات لا تتوقف عند حدود المعلومات القديمة، بل تبحث أيضاً في الإنترنت لحظياً، مما يجعلها عرضة لالتقاط التضليل الذي ينتشر بسرعة في لحظات الالتباس أو الفراغ المعلوماتي. في الوقت نفسه، تتراجع آليات التحقق التقليدية على منصات التواصل الاجتماعي. أنظمة الإشراف تم تفكيكها أو إضعافها لصالح نماذج تعتمد على مساهمات المستخدمين. وهو ما يُدخل بيئة الإنترنت في مرحلة جديدة من الفوضى، تتغذى فيها نماذج الذكاء الاصطناعي على محتوى أقل مصداقية، وتعيد توزيعه بسرعة وكأنها جزء من آلة دعاية غير مقصودة. هذا الانكشاف أمام التلوث المعلوماتي لا يحدث بالصدفة. هناك جهات تنشط عمداً لنشر محتوى زائف بغرض تسميم أدوات الذكاء الاصطناعي، في عملية تُعرف بـ 'LLM grooming'. يُنشئ هؤلاء مواقع متشابهة ومتكررة، ويضخّون عبرها مقالات متطابقة، حتى تصبح جزءاً من نسيج البيانات التي تعتمد عليها هذه النماذج في صياغة إجاباتها. وكلما ازداد تعقيد هذا التكتيك، ازداد صعوبة تتبع أثره أو تفاديه. وسط هذا المشهد، لا يمكن اعتبار الذكاء الاصطناعي مرجعاً معرفياً موثوقاً، خاصة في المواضيع المتنازع عليها أو تلك المرتبطة بالراهن السياسي والاجتماعي. بل إن ما يقدمه قد يكون انعكاساً مشوشاً لما هو رائج وليس لما هو صحيح. الخطورة لا تكمن فقط في تداول معلومات خاطئة، بل في الاعتماد المتزايد على هذه الأدوات في اتخاذ قرارات فعلية. فحين تُدمج هذه الأنظمة في البنى الإدارية أو الإعلامية أو السياسية، دون رقابة صارمة على نوعية البيانات التي تعتمد عليها، نكون أمام تحوّل جذري في طريقة تشكّل الرأي العام، مبني على تصورات مغلوطة لا على حقائق مدققة. في النهاية، لا مفرّ من العودة إلى دور الإنسان: المراجعة، التحقق، والمقارنة بين المصادر. فالذكاء الاصطناعي لن يميز الحقيقة ما لم نعلّمه كيف يفعل، ولن يفعل ذلك ما دامت بياناته مشوبة ومصدرها عالم رقمي بلا حراسة.


صدى البلد
منذ 2 أيام
- صدى البلد
Grok يقدم ربوتات مثيرة للجدل.. إكس تطلق تطورا جريئا في عالم الذكاء الاصطناعي
زودت منصة إكس التي يمتلكها إيلون ماسك، روبوت المحادثة المدعوم بالذكاء الاصطناعي جروك Grok، شخصية مرافقين متحركة للمشتركين المدفوعين، في خطوة كبيرة بعد الجدل الأخير حول المحتوى المعادي للسامية. وبحسب ما ذكره موقع 'timesofindia'، فإن الميزة الجديدة، متاحة حاليا للمشتركين في Super Grok الذين يدفعون 30 دولارا شهريا، تتضمن شخصيتين من الذكاء الاصطناعي، الأولى تعرف باسم 'آني'، وهي امرأة ذات طراز أنمي توصف بأنها 'وايفو رقمية'، و"رودي"، شخصية باندا حمراء ساخرة. تتميز الشخصيات الجديدة بوضعيات غير لائقة NSFW، حيث تظهر 'آني' بملابس مكشوفة، بينما يتميز 'رودي' بلسانه الساخر وشخصيته الفظة. كما أن لكل من الشخصيتين حسابات على وسائل التواصل الاجتماعي الخاصة بـ إكس، مع بيوغرافيا لـ آني تقول إنها 'رشيقة، وغير متوقعة قليلا'، وقد 'ترقص، أو تمازح، أو تراقبك وأنت تحاول فهمها'. مخاوف تتعلق بالأمان حول رفقاء الذكاء الاصطناعي لـ Grok إطلاق هذه الميزة يثير تساؤلات كبيرة حول الأمان، خصوصا في ظل الجدل المستمر حول روبوتات المحادثة المدعومة بالذكاء الاصطناعي. تواجه شركة حاليا العديد من الدعاوى القضائية من قبل الآباء الذين يزعمون أن روبوتات المحادثة شجعت أطفالهم على الانتحار أو العنف ضد أفراد العائلة. كما أظهرت بعض الأبحاث أن هناك 'مخاطر كبيرة' في استخدام روبوتات المحادثة المدعومة بالذكاء الاصطناعي كأنظمة دعم عاطفي أو رفقاء أو أدوات علاجية. يبدو أن توقيت إطلاق هذه الميزة يمثل مشكلة خاصة في ضوء المشاكل الأخيرة التي واجهتها شركة xAI مع رقابة المحتوى. ففي الأسبوع الماضي فقط، إنشاء Grok محتوى معاديا للسامية وادعى أنه 'ميكا هتلر'، وهو ما أرجعته الشركة إلى 'تحديث في مسار الكود قبل روبوت grok'. بينما تشير التقارير إلى أن هناك شخصيات مرافقة إضافية قيد التطوير، بما في ذلك شخصية أنمي ذكر تسمى 'تشاد' والمعلن عنها بأنها 'سيتم طرحها قريبا'. وعلى الرغم من أن الميزة تتطلب التفعيل اليدوي حاليا في الإعدادات، إلا أن إيلون ماسك أشار إلى أنه سيتم تسهيل الوصول إليها في الأيام المقبلة، ووصف النسخة الحالية بأنها 'إطلاق تجريبي'.