
كيف استغلت إسرائيل "اللهجة الفلسطينية واللبنانية"؟ تقريرٌ مثير!
نشرت صحيفة "الغارديان" البريطانية، تقريراً، أعدّه هاري ديفيس ويوفال أبراهام، قالا فيه إنّ "وحدة رقابة في الجيش الإسرائيلي استخدمت مجموعة بيانات لاتصالات الفلسطينيين التي اعترضتها، لبناء أداة ذكاء اصطناعي مُشابهة لتشات جي بي تي، والتي تأمل بأن تُحدث تحوّلا في قدرات التجسّس".
وكشف التحقيق المشترك مع مجلة +972 وموقع "لوكال كول" الإسرائيلي، أنّ "وحدة 8200 قامت بتدريب نموذج ذكاء اصطناعي قادر على فهم اللغة العربية، من خلال استخدام كمية كبيرة من الحوارات الهاتفية والنصية التي تم الحصول عليها من خلال التنصت على الأراضي الفلسطينية المحتلة".
وبحسب مصادر عليمة بالمشروع، فقد بدأت الوحدة ببناء النموذج لإنشاء أداة متطورة تشبه روبوت المحادثة، قادرة على الإجابة على أسئلة حول الأشخاص الذين تراقبهم، وتوفير رؤى حول كميات هائلة من بيانات المراقبة التي تجمعها.
وسرّعت الوحدة التي تقارن قدراتها بوكالة الأمن القومي الأميركية، أن أس إي، جهودها لتطوير النظام بعد بداية عدوان الاحتلال الإسرائيلي على غزة في تشرين الأول 2023، ولا يزال النموذج طور التدريب في النصف الثاني من العام الماضي، ولا يعرف إن تم نشره بعد.
وتمّ الكشف جزئياً عن الجهود لتطوير نموذج اللغة الكبير أو "أل أل أم"، وهو نظام تعلم متقدم يولد نصا يشبه النص البشري، في محاضرة عامة لم يلحظها أحد وقدمها أحد خبراء تكنولوجيا الاستخبارات العسكرية السابقين، الذي قال إنه أشرف على المشروع.
وقال المسؤول السابق، شكيد روجر جوزيف سيدوف، أمام الحضور في مؤتمر عسكري للذكاء الاصطناعي في "تل أبيب"، العام الماضي: "لقد حاولنا إنشاء أكبر مجموعة بيانات ممكنة [و] جمع كل البيانات التي حصلت عليها إسرائيل على الإطلاق باللغة العربية".
وأضاف سيدوف، أنّ "النموذج يتطلب كميات هائلة من البيانات"؛ فيما أكّد ثلاثة مسؤولين سابقين في الاستخبارات على دراية بالمبادرة وجود برنامج التعلم الآلي وشاركوا تفاصيل حول بنائه".
ووصفت عدّة مصادر أخرى كيف استخدمت الوحدة 8200 نماذج التعلم الآلي الأصغر حجما في السنوات التي سبقت إطلاق المشروع الطموح، والتأثير الذي أحدثته هذه التكنولوجيا بالفعل.
وقال مصدر مطلع على تطوير وحدة 8200 لنماذج الذكاء الاصطناعي في السنوات الأخيرة إنّ "الذكاء الاصطناعي يزيد من القوة"، وأضاف أنّ "الأمر لا يتعلق فقط بمنع الهجمات بإطلاق النار، بل يمكنني تتبع نشطاء حقوق الإنسان، ومراقبة البناء الفلسطيني في المنطقة ج [من الضفة الغربية]. لدي المزيد من الأدوات لمعرفة ما يفعله كل شخص في الضفة الغربية".
ويوضّح المشروع أيضا كيف تسعى الوحدة 8200، مثل العديد من وكالات التجسّس في جميع أنحاء العالم، إلى الاستفادة من التقدم في مجال الذكاء الاصطناعي لإجراء مهام تحليلية معقدة وفهم الكميات الهائلة من المعلومات التي تجمعها بشكل روتيني، والتي تتحدى بشكل متزايد المعالجة البشرية وحدها.
وعبّر باحث في مجال المراقبة بمنظمة "هيومان رايتس ووتش"، زاك كامبل، عن قلقه من أن تستخدم الوحدة 8200 برامج الذكاء الاصطناعي لاتّخاذ قرارات مهمة بشأن حياة الفلسطينيين تحت الاحتلال العسكري، وقال: "إنها آلة تخمين، وفي النهاية يمكن استخدام هذه التخمينات لتجريم الناس".
وتشير الصحيفة إلى أنّ: "وحدة 8200 قد طوّرت عددا من الأساليب التي تعمل بالذكاء الاصطناعي في السنوات الأخيرة".
وكانت أنظمة مثل "غوسبل" و"لافيندر" والتي تم دمجها بسرعة في العمليات القتالية في الحرب على غزة، لعبت دوراً مهما في قصف الجيش الإسرائيلي للمنطقة من خلال المساعدة في تحديد الأهداف المحتملة (كل من الأشخاص والمباني) للضربات القاتلة.
وتابعت: "منذ ما يقرب من عقد من الزمان، استخدمت الوحدة أيضا الذكاء الاصطناعي لتحليل الاتصالات التي تعترضها وتخزّنها، باستخدام سلسلة من نماذج التعلم الآلي لفرز المعلومات إلى فئات محددة مسبقا، وتحديد كيفية التعرف على الأنماط وإجراء التنبؤات".
وأضافت: "لكن عندما حشد جيش الاحتلال الإسرائيلي، مئات الآلاف من جنود الاحتياط، عادت مجموعة من الضباط ذوي الخبرة في بناء نموذج اللغة الكبير إلى الوحدة من القطاع الخاص، وجاء بعضهم من شركات التكنولوجيا الأميركية الكبرى، مثل غوغل وميتا ومايكروسوفت".
وقالت غوغل إنّ "العمل الذي يقوم به موظفوها كجنود احتياطيين غير مرتبط بالشركة، فيما رفضت ميتا ومايكروسوفت التعليق.
ونقلت الصحيفة عن مصدر، قوله إنّ الفريق الصغير من الخبراء بدأ في بناء نموذج اللغة الكبير، قادر على فهم اللغة العربية، ولكن كان عليه فعليا أن يبدأ من الصفر بعد اكتشاف أن النماذج التجارية والمصادر المفتوحة باللغة العربية الموجودة، تم تدريبها باستخدام اللغة العربية المعيارية المكتوبة والمستخدمة في الاتصالات الرسمية والأدب والإعلام – بدلا من اللغة العربية المنطوقة".
وقال أحد المصادر: "لا توجد نصوص للمكالمات أو محادثات واتساب على الإنترنت بكمية كافية لتدريب مثل هذا النموذج".
وأضافت المصادر أن التحدي كان "جمع كل النصوص [العربية المنطوقة] التي حصلت عليها الوحدة على الإطلاق ووضعها في مكان مركزي".
وقالوا إنّ "بيانات تدريب النموذج تتكون في النهاية من حوالي 100 مليار كلمة"؛ فيما قال مصدر مطلع على المشروع لصحيفة "الغارديان" إن هذا الكم الهائل من الاتصالات يشمل محادثات باللهجتين اللبنانية والفلسطينية.
وقالت مصادر أخرى، بحسب الصحيفة نفسها، إنّ "الوحدة سعت أيضا إلى تدريب النموذج على فهم المصطلحات العسكرية المحددة للجماعات المسلحة، لكن يبدو أن عملية جمع البيانات التدريبية الضخمة تضمّنت جمع كميات كبيرة من الاتصالات التي لا قيمة استخباراتية لها عن الحياة اليومية للفلسطينيين". (عربي21)

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


شبكة النبأ
منذ 3 أيام
- شبكة النبأ
الجنوب العالمي ينضم إلى سباق ابتكار أدوات الذكاء الاصطناعي
في خضم سباق عالي المخاطر للتسلُح بأدوات الذكاء الاصطناعي بين الولايات المتحدة والصين، أخذت شرارة ثورة مماثلة تتبلور في بقاع أخرى. فمن كيب تاون إلى بنغالور، ومن القاهرة إلى الرياض، عكف باحثون ومهندسون ومؤسسات عامة على تصميم أنظمة ذكاء اصطناعي منتجة محليًا، لا تتحدث فحسب لغات تلك المناطق، بل تتبنى رؤاها الإقليمية وأبعادها الثقافية... بقلم: سيبسيسو بييلا، وعمرو راجح، وشاكور راثر شرع باحثون على امتداد إفريقيا وآسيا والشرق الأوسط في تصميم نماذج ذكاء اصطناعي تراعي اللغات المحلية والاختلافات الثقافية، على الطريق إلى تحقيق الاستقلال الرقمي. في خضم سباق عالي المخاطر للتسلُح بأدوات الذكاء الاصطناعي بين الولايات المتحدة والصين، أخذت شرارة ثورة مماثلة تتبلور في بقاع أخرى. فمن كيب تاون إلى بنغالور، ومن القاهرة إلى الرياض، عكف باحثون ومهندسون ومؤسسات عامة على تصميم أنظمة ذكاء اصطناعي منتجة محليًا، لا تتحدث فحسب لغات تلك المناطق، بل تتبنى رؤاها الإقليمية وأبعادها الثقافية. ركزت السردية السائدة في مجال أنظمة الذكاء الاصطناعي منذ أوائل هذا العقد على عدد من الشركات الأمريكية المنتجة لهذه الأنظمة مثل شركة «أوبن إيه آي» Open AI ونظامها «جي بي تي» GPT، وشركة «جوجل» ونظامها «جيميناي» Gemini، وشركة «ميتا» Meta ونظامها «لاما» LLaMa، وشركة «أنثروبيك» Anthropic ونظامها «كلود» Claude. لكن في الوقت الذي تنافست فيه هذه الشركات لبناء أنظمة ذكاء اصطناعي أكبر وأقوى أداء، في أوائل عام 2025، سلكت هذه السردية منعطفًا جديدًا، مع إطلاق الشركة الصينية «ديب سيك» Deep Seek لنماذج لغوية كبيرة تنافس نظيرتها الأمريكية بقدر أقل من المتطلبات الحوسبية. واليوم، من كافة ربوع الجنوب العالمي، يتزايد عدد الباحثين الذين انبروا للتصدي لفكرة احتكار هاتين القوتين العظمتين للريادة التقنية في هذا الحقل. فأخذ علماء ومؤسسات من دول مثل الهند وجنوب إفريقيا والإمارات والسعودية في تبني منظور جديد يغير قواعد اللعبة في مجال الذكاء الاصطناعي التوليدي. لم ينصب اهتمام هذه الأطراف الجديدة على توسعة انتشار هذه النماذج، وإنما على تصميمها لتلبي احتياجات المستخدم المحلي بلغته، مع الأخذ في الاعتبار واقعه الاجتماعي والاقتصادي. في هذا الإطار، يقول بينجامين روزمان، وهو أستاذ في جامعة فيتفاترسراند في مدينة جوهانسبرج بجنوب إفريقيا، وأحد كبار مطوري نموذج الذكاء الاصطناعي التوليدي «إنكوبال إم» InkubalM، المُدرب على خمس لغات إفريقية: "حرصًا على استفادة الكوكب بأسره من نماذج الذكاء الاصطناعي، أتمنى أن تتسع دائرة النقاش لتشمل أصواتًا متنوعة ومتزايدة". ذكاء اصطناعي لا يولد في وادي السليكون! تؤدي نماذج القوالب اللغوية الكبيرة مهامها بالتدرُب على فهم فيض شاسع من النصوص على الإنترنت. ومع أن الإصدارات الأحدث من نظام «جي بي تي»، أو «جيميناي»، أو «لاما» تتميز بإجادتها للغات متعددة، فالقدر الهائل الذي تنطوي عليه مجموعات البيانات التي تتدرب عليها هذه الأنظمة من السياقات الغربية أو المواد الصادرة باللغة الإنجليزية يضفي انحيازًا على مخرجاتها. ويعني هذا لمتحدثي الهندية والعربية والسواحيلية والخوسية وعدد لا حصر له من اللغات، أن أنظمة الذكاء الاصطناعي لن تقع فحسب في أخطاء في القواعد النحوية وفي بناء الجمل، بل قد تخطئ فهم مغزى النص تمامًا. في ذلك الصدد، تقول جانكي ناوالي، وهي عالمة لغة في مختبر «إيه آي فور بْهارات» AI4Bharat التابع للمعهد الهندي للتكنولوجيا في مدراس (تشيناي): "في حال اللغات الهندية، لا تبلي نماذج القوالب اللغوية الكبيرة المُدربة على بيانات باللغة الإنجليزية بلاءً حسنًا. فبعض الفروق الثقافية الدقيقة، والاختلافات بين اللهجات، والنصوص العامية تضفي صعوبة على ترجمة هذه اللغات وفهمها". من هنا، يعمل فريق ناوالي على تصميم مجموعات بيانات والإشراف على تدرُب أنظمة الذكاء الاصطناعي عليها، ووضع معايير لتقييم أداء هذه الأنظمة في ما يسميه المتخصصون بـ"اللغات محدودة الموارد"، أي التي لا تتوفر لها مجموعات بيانات رقمية محكمة من أجل استخدامها في عمليات تعلُم الآلة. غير أن المشكلة ليست قاصرة على قواعد النحو أو المفردات اللغوية. فحسبما يفيد فوكوسي ماريفاتي، وهو أستاذ علوم حاسوب في جامعة بريتوريا في جنوب إفريقيا: "كثيرًا ما يكمن المعنى بين السطور. على سبيل المثال، في اللغة الخوسية، تحمل الكلمات معاني محددة، لكن مدلولها الضمني هو ما يهم حقًا". يشارك ماريفاتي في قيادة اتحاد باسم «ماساكاني إن إل بي» Masakhane NLP، وهو اتحاد إفريقي يضم باحثين في مجال الذكاء الاصطناعي، نجح مؤخرًا في تطوير مجموعة معايير محكمة باسم «أفروبنش» AFROBENCH لتقييم إجادة النماذج اللغوية الكبيرة لـ64 لغة إفريقية في 15 مهمة. وأسفرت نتائج أبحاث الفريق، التي نُشرت في مسودة بحثية مارس الماضي، عن قصور جسيم في أداء هذه الأنظمة في جميع اللغات الإفريقية تقريبًا، مقارنة بالإنجليزية، لا سيما في حال النماذج مفتوحة المصدر. ونجد المخاوف ذاتها إزاء كفاءة هذه الأنظمة في البلدان الناطقة بلغة الضاد. فيقول مكي حبيبي، أستاذ علم الروبوتات في الجامعة الأمريكية في القاهرة: "إذا هيمنت الإنجليزية على عملية تدريب الذكاء الاصطناعي، ستخضع أجوبته لفلترة تعتمد عدسة المنظور الغربي لا العربي". وقد خلصت مسودة بحثية نشرتها شركة الذكاء الاصطناعي التونسية «كلاسترلاب» Clusterlab في عام 2024 إلى أن نماذج الذكاء الاصطناعي متعددة اللغات تفشل في التعبير عن ما يرتبط بلغة الضاد من تراكيب لغوية ثرية وأطر ثقافية، لا سيما في السياقات التي تزخر باللهجات. الحكومات: طرف جديد في المعادلة يخوض العديد من دول الجنوب العالمي هذا الرهان لاعتبارات جيوسياسية، وليس لغوية فقط. فالاعتماد على البِنى التحتية الغربية أو الصينية في مجال الذكاء الاصطناعي من شأنه إضعاف السيادة المعلوماتية والتقنية وتقويض السيطرة على السرديات الوطنية. لذا، أخذت بعض حكومات دول الجنوب العالمي في تكريس جانب من طاقاتها لإنتاج نماذج ذكاء اصطناعي خاصة بها. على سبيل المثال، صممت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) نموذج «علّام» ALLaM، الموجّه بالدرجة الأولى للعالم العربي، وهو يرتكز على نموذج «لاما-2» لشركة «ميتا». وقد أثري بما يزيد على 540 مليار وحدة بيانات نصية عربية يشار إليها باسم التوكن. كذلك دعًّمت الإمارات العربية المتحدة عدة مبادرات مماثلة، منها مبادرة «جيس» Jais، وهو نموذج ذكاء اصطناعي مفتوح المصدر يتحدث العربية والإنجليزية، صممته جامعة محمد بن زايد للذكاء الاصطناعي بالتعاون مع شركة تصنيع الرقاقات الحوسبية «سيريبراس سيستمز» Cerebras Systems، وشركة «إنسبشن» Inception الكائنة في مدينة أبوظبي. ويركز مشروع آخر برعاية الإمارات العربية المتحدة باسم «نور» Noor على التطبيقات التعليمية والإسلامية. أما في قطر، فقد طور باحثون من جامعة حمد بن خليفة، ومعهد قطر لبحوث الحوسبة منصة «فنار»Fanar والنموذجين المرتبطين بها «فنار ستار» Fanar Star، و«فنار برايم» Fanar Prime. ومقاربة تقسيم وتحليل النصوص في نموذج «فنار»، الذي دُرب على تريليونات من وحدات التوكن، صُممت خصيصًا لتعكس ثراء تراكيب الكلمات والجمل العربية بالمعاني. أيضًا برزت الهند كمركز رئيس لعمليات توطين أنظمة الذكاء الاصطناعي. إذ دشنت حكومة البلد عام 2024 مبادرة بشراكة بين القطاعين العام والخاص بقيمة 235 كرور (26 مليون يورو)، باسم «بْهارات جِن» BharatGen، تهدف إلى تصميم نماذج أساس (نوع من نماذج الذكاء الاصطناعي) تراعي التنوع الثقافي واللغوي الشاسع الذي تزخر به الهند. ويقود المشروع المعهد الهندي للتكنولوجيا في مومباي، بمشاركة من منظمات تابعة له في المدن الهندية حيدر أباد، وماندي وكنبور، وإندور ومدراس (تشيناي). ومن رحم المبادرة، خرج إلى النور أول منتج لها، وهو نموذج «إي-فيكراي» e-vikrAI القادر على استحداث توصيفات للمنتجات ومقترحات بأسعارها بناء على صورها بالعديد من لغات الهند. وانضمت إلى الركب عدة شركات ناشئة، مثل شركة «كروتريم» Krutrim التابعة لمجموعة «أولا» Ola، وشركة «كوروفر» CoRover، مبتكرة نموذج الذكاء الاصطناعي «بْهارات جي بي تي» BharatGPT. بينما أزاح المختبر الهندي التابع لشركة جوجل الستار عن نموذج «موريل» MuRIL، وهو نموذج لغوي كبير مُدرب حصريًا على اللغات الهندية. وقد تلقت مبادرة الحكومة الهندية أكثر من 180 مقترحًا من باحثين محليين وشركات ناشئة تطرح خططًا لتصميم بنية تحتية على مستوى البلاد لأنظمة الذكاء الاصطناعي والنماذج اللغوية الكبيرة. ووقع الاختيار على شركة «إيه آي سارفام» AI Sarvam الكائنة في بنغالور لبناء أول نموذج لغوي كبير هندي يحقق للبلد "سيادتها"، ويُزمع أن يتمتع بالطلاقة في عدة لغات هندية. أما في إفريقيا، فقد انطلق جانب كبير من هذا الزخم من قاعدة شعبية. على سبيل المثال، خلق اتحاد «ماساكاني إن إل بي» وحركة «ديب ليرنينج إندابا» Deep Learning Indaba – وهي حركة أكاديمية إفريقية – ثقافة بحثية لا مركزية عبر القارة. ومن هنا، انبثقت شركة « ليلابا إيه آي» Lelapa AI الكائنة في مدينة جوهانسبرج، والتي أطلقت نموذج الذكاء الاصطناعي «إنكوبال إم» في سبتمبر من عام 2024. وينتمي هذا النموذج إلى فئة "النماذج اللغوية الصغيرة" (SLM)، ويركز على خمس لغات إفريقية واسعة الانتشار، هي: السواحيلية، ولغة شعوب الهوسا، وشعوب اليوروبا ولغة الزولو واللغة الخوسية. وعنه يقول روزمان: "يقدم هذا النموذج باستخدام 0.4 مليار معامِل فقط أداءً مضاه لنماذج أكبر". وجدير بالذكر أن كفاءة النموذج وحجمه الصغير صُمما ليناسبا البنية التحتية الإفريقية على ما يعتريها من قصور، إلى جانب خدمة تطبيقات واقعية". مثال آخر على نماذج الذكاء الاصطناعي الإفريقية، هو نموذج «أوليزالاما» UlizaLlama، الذي طورته مؤسسة «جاكاراندا هيلث» Jacaranda Health الكينية من 7 مليارات معامِل لدعم النساء الحوامل وحديثات العهد بالأمومة بنظام ذكاء اصطناعي يتحدث اللغات الإفريقية الخمس سالفة الذكر. والمشهد البحثي الهندي يضج بحيوية مماثلة. فنجد أن مختبر «إيه آي فور بْهارات» التابع للمعهد الهندي للتكنولوجيا في مدراس قد أصدر مؤخرًا نموذج «إنديك ترانس 2» IndicTrans 2، الذي يدعم الترجمة من وإلى 22 لغة من لغات الهند الرسمية. كذلك أصدرت الشركة الناشئة «سارفام إيه آي» أول منتجاتها من النماذج اللغوية الكبيرة العام الماضي وهو يدعم 10 من لغات الهند الرئيسة. وفي الوقت الحالي، تطور شركة «كيسان إيه آي» KissanAI، التي شارك في تأسيسها براتيك ديساي أدوات ذكاء اصطناعي توليدي لإرشاد الزُراع بلغتهم الأم. معضلة البيانات غير أن تصميم نماذج لغوية كبيرة للغات التي لا تحظى بتمثيل كاف تواجهه عقبات جسام. وعلى رأس هذه التحديات، تأتي ندرة البيانات اللازمة لتدريب هذه النماذج. وهو ما يؤكده تاباس كومار ميشرا، الأستاذ من المعهد الوطني للتكنولوجيا في مدينة روركيلا شرق الهند، قائلًا: "حتى مجموعات البيانات الهندية تُعد ضئيلة مقارنة بنظيرتها الصادرة باللغة الإنجليزية. من هنا، يُستبعد أن يحقق تدريب هذه النماذج من الصفر كفاءة الأداء ذاتها التي تتمتع بها النماذج المُدربة على بيانات بالإنجليزية". ويؤيده في الرأي روزمان، الذي يضيف: "لا يصلح التدريب على مجموعات البيانات الضخمة كنموذج عمل يُحتذى به في حال اللغات الإفريقية. فببساطة لا يتوفر هذا القدر من البيانات التدريبية". وعليه، يبذل مع فريقه جهودًا رائده في مقاربات بديلة، منها اتباع إطار العمل المعروف باسم «إسيثو» Esethu، وهو بروتوكول يقضي بجمع مجموعات بيانات على نحو أخلاقي من خطاب الناطقين باللغات التي لا تحظى بتمثيل كاف، ثم توزيع العائد للنهوض بتطوير أدوات الذكاء الاصطناعي المخصصة لدعم هذه اللغات. وقد استخدمت المرحلة التجريبية من المشروع نصوصًا مكتوبة لخطاب متحدثين بالخوسية، تُكمِّله بيانات وصفية، بهدف تصميم تطبيقات صوتية. وفي العالم العربي، انطلقت جهود مماثلة. فمثلًا، تُعد مجموعة بيانات شركة «كلاستر لاب» المؤلفة من 101 مليار كلمة عربية الأكبر على الإطلاق من نوعها، وهي مستقاة بدقة ومنقحة من شبكة الويب لدعم تدريب نماذج موجهة بالدرجة الأولى للعالم العربي. ضريبة الانتشار المحدود لكن برغم كل هذا الابتكار، تبقى هناك عقبات كؤود على الناحية العملية. فيقول ديساي، مؤسس شركة «كيسان إيه آي»: "العائد على هذه الاستثمارات منخفض". ورغم عِظم حجم سوق النماذج اللغوية الإقليمية، من يتمتعون بالقدرة الشرائية في هذه السوق يعتمدون إلى اليوم على الإنجليزية". وفي الوقت الذي تستقطب فيه شركات التقنيات الغربية بعضًا من ألمع العقول على مستوى العالم، ومنهم العديد من الهنود والأفارقة، كثيرًا ما يصطدم الباحثون في بلدان الجنوب العالمي بتحديات ممثلة في ضعف التمويل وعدم موثوقية البِنى التحتية الحوسبية في هذه البلدان، وغياب الأطر القانونية الواضحة الحاكمة لاستخدام البيانات وخصوصية المستخدمين". وهو ما يشدد عليه حبيب قائلًا: "تبقى مشكلة غياب التمويل المستدام، وقلة المتخصصين، وعدم التكامُل بالدرجة الكافية مع المنظومات التعليمية والحكومية. وكل هذا لا بُد له أن يتغير". رؤية جديدة للذكاء الاصطناعي إلا أنه برغم العقبات، فلا شك أن رؤية جديدة ومختلفة لأنظمة الذكاء الاصطناعي آخذة في التبلور في الجنوب العالمي. وهي تنحاز إلى الفائدة العملية قبل اعتبارات الوجاهة، وإلى تمكين وإعطاء صوت للمجتمعات المحلية قبل الارتماء في أحضان شركات تفتقر إلى الشفافية. ختامًا، تقول ناوالي: "ثمة اهتمام أكبر بحل مشكلات فعلية من واقع الأشخاص". بعبارة أخرى، عوضًا عن السعي وراء اقتناص أرفع الدرجات على مؤشر معايير ما، يستهدف باحثو الجنوب العالمي ابتكار أدوات تمت بصلة للواقع؛ للمزارعين والطلاب وأصحاب الشركات الصغيرة. ولا غنى عن الشفافية هنا. في ذلك الصدد، يقول ماريفاتي: "تزعم بعض الشركات أن نماذجها مفتوحة المصدر، لكنها لا تفصح إلا عن معامِلات هذه النماذج، وليس البيانات في حد ذاتها. أما في حال نموذج «إنكوبال إم»، فنحن نفصح عن المعاملات والبيانات. إذ نسعى إلى تمكين الآخرين من البناء على ما حققناه، وتحسينه". وفي سباق عالمي، لا يعتد في كثير من الأحيان إلا بسرعة معالجة البيانات ووحدات التوكِن، قد تبدو هذه الجهود متواضعة. لكن بالنسبة لمليارات الأشخاص ممن يتحدثون لغات لا تحظى بموارد كافية في بيانات نماذج الذكاء الاصطناعي الغربية، ترسم هذه الجهود مستقبلًا نملك فيه صوتًا في خطابنا مع هذه الأدوات.


شبكة النبأ
١٣-٠٥-٢٠٢٥
- شبكة النبأ
الذكاء الاصطناعي في الأبحاث: نظرة على العيوب والمزايا
ان الذكاء الاصطناعي يتفوق حاليًا بالفعل على البشر في أكثر من 20 مهمة، أوردها الاستطلاع كمثال على استخدامات التقنية. وشملت قائمة هذه المهام مراجعة مجموعات ضخمة من الأوراق البحثية وتلخيص نتائج الأبحاث، ورصد الأخطاء في كتابتها والتحقق من ارتكاب السرقات العلمية ونَظْم الاستشهادات البحثية... رغم الزخم الذي يشهده الاهتمام باستخدام الذكاء الاصطناعي لإسراع وتيرة الأبحاث، وتذليل المزيد من صعوباتها وإتاحتها على نطاق أكبر، يرى باحثون أنهم بحاجة إلى المزيد من الدعم لاستكشاف إمكانات هذه التقنية. أظهر استطلاع رأي أجرته شركة النشر «وايلي» Wiley وشمل نحو 5 آلاف باحث في أكثر من 70 دولة، أن استخدام أدوات الذكاء الاصطناعي في مهام مثل إعداد المسودات البحثية، وكتابة طلبات المنح البحثية ومراجعات الأقران من المتوقع أن يحظى بقبول واسع في غضون العامين المقبلين. توجَّه الاستطلاع بسؤال للباحثين عن كيفية استخدامهم حاليًا لأدوات الذكاء الاصطناعي التوليدي — ومنها روبوتات الدردشة مثل «تشات جي بي تي» ChatGPT و«ديبسيك»DeepSeek ، كما تقصى آراءهم فيما يخص العديد من التطبيقات المحتملة لهذه الأدوات. وتشير نتائج الاستطلاع إلى أن غالبية الباحثين رأوا أن الذكاء الاصطناعي سيلعب دورًا محوريًا في البحث والنشر العلمي (انظر الشكل "الاستخدامات المقبولة"). إذ أعرب أكثر من نصفهم عن اعتقاده بأن الذكاء الاصطناعي يتفوق حاليًا بالفعل على البشر في أكثر من 20 مهمة، أوردها الاستطلاع كمثال على استخدامات التقنية. وشملت قائمة هذه المهام مراجعة مجموعات ضخمة من الأوراق البحثية وتلخيص نتائج الأبحاث، ورصد الأخطاء في كتابتها والتحقق من ارتكاب السرقات العلمية ونَظْم الاستشهادات البحثية. كذلك توقعت نسبة تربو على نصف عدد المشاركين في الاستطلاع أن يسود خلال العامين المقبلين استخدام الذكاء الاصطناعي في 34 من أصل 43 من أمثلة استخدامات الذكاء الاصطناعي التي طرحها الاستطلاع. تعقيبًا على هذه النتائج، يقول سيباستيان بورسدام مان، وهو باحث من جامعة كوبنهاجن يُعنى بدراسة الجوانب العملية والأخلاقية لاستخدام الذكاء الاصطناعي في الأبحاث: "اللافت حقًا هو أن وضع كهذا وشيك. ومن سيطالهم هذا التأثير - وأعني بذلك الجميع لكن بدرجات متفاوتة - عليهم البدء في التحرك" لمواجهة هذا الموقف. نتائج الاستطلاع، التي صدرت على الإنترنت في الرابع من فبراير الماضي، أعلنتها شركة «وايلي» الكائن مقرها في مدينة هوبوكين بولاية نيوجيرسي الأمريكية. وعنها، يقول جوش جاريت، النائب الأول لرئيس فريق تنمية الذكاء الاصطناعي بالشركة والمدير العام للفريق أنه يأمل أن تخدم في رسم خريطة طريق ترشد جهود المبتكرين والشركات الناشئة في سعيهما إلى فرص لتطوير أدوات ذكاء اصطناعي. وأضاف: "ثمة قبول واسع لفكرة نهوض الذكاء الاصطناعي مستقبلًا بإعادة تشكيل ملامح عالم الأبحاث". استخدام محدود تقصى الاستطلاع آراء 4946 باحثًا في مختلف أنحاء العالم، شكل الباحثون ممن في مقتبل سيرتهم المهنية 27% منهم. وأظهرت نتائجه، ربما على غير المتوقع، بحسب ما يشير جاريت "أن هذه الأدوات لا تُستخدم حقيقةً كثيرًا في المهام اليومية". فبين الدفعة الأولى من المشاركين في الاستطلاع، بلغت نسبة من أفادوا بأنه سبق لهم فعليًا الاعتماد على الذكاء الاصطناعي في أداء المهام البحثية 45% فقط (1043 باحثًا). وكانت الترجمة والتدقيق اللغوي وتحرير المسوَّدات البحثية هي الاستخدامات الأكثر ورودًا في إجاباتهم (انظر الشكل "استخدامات الذكاء الاصطناعي"). ورغم أن نسبةً من هؤلاء (81%) قد صرحوا بأنهم استخدموا في السابق لأغراض شخصية أو مهنية نظام الذكاء الاصطناعي «تشات جي بي تي» - الذي ابتكرته شركة «أوبن إيه آي» Open AI الأمريكية - لم يفد إلا ثلث هذه المجموعة بأنه سمع بأدوات ذكاء اصطناعي توليدي أخرى مثل نظام «جيميناي» Gemini، الذي أنتجته شركة «جوجل»، أو نظام «كوبايلوت» Copilot الذي طرحته شركة «مايكروسوفت». غير أنه ظهر تفاوت واضح بين الدول والمجالات العلمية المختلفة في استخدام أدوات الذكاء الاصطناعي. على سبيل المثال، كان الباحثون في الصين وألمانيا هم الأكثر استخدامًا لهذه الأدوات، في حين نزع علماء الحاسوب أكثر من غيرهم لاستخدامها في مهامهم. بيد أن غالبية المشاركين أعربوا عن استعدادهم للتوسُّع في استخدام الذكاء الاصطناعي. فأبدت نسبة قوامها 72% منهم باعتزامها خلال العامين المقبلين استخدام أدوات الذكاء الاصطناعي لإعداد المسودات البحثية، وذلك في مهام مثل رصد أخطاء كتابة الأبحاث والتحقق من ارتكاب السرقات البحثية ونَظم الاستشهادات البحثية. ورأى 62% منهم أن الذكاء الاصطناعي يتفوق بالفعل على البشر في هذه المهام (انظر الشكل "من الأبرع في هذه المهام؟ البشر أم الذكاء الاصطناعي؟"). كذلك أعرب 67% من المشاركين في الاستطلاع عن تشوقه لاستخدام أدوات الذكاء الاصطناعي في معالجة كميات كبيرة من المعلومات، على سبيل المثال، في إطار المساعدة في مراجعة الأدبيات العلمية وتلخيص الأوراق البحثية ومعالجة البيانات. وأبدى الباحثون ممن في مقتبل مسيرتهم المهنية استعدادًا أكبر من زملائهم الأقدم خبرة لاستخدام أدوات الذكاء الاصطناعي في كتابة طلبات المنح البحثية والعثور على جهات يمكنهم إبرام تعاوُن بحثي معها. تعقيبًا على هذا الكشف الأخير، يقول بورسدام مان: "كلا هاتين المهمتين تُغدوان أسهل مع الخبرة والأقدمية. واستخدام الذكاء الاصطناعي سبدد الفوارق هنا بعض الشيء". غير أن الباحثين أظهروا اقتناعًا وإيمانًا أضعف بقدرات الذكاء الاصطناعي في المهام الأكثر تعقيدًا مثل الوقوف على مواطن القصور في المؤلفات البحثية واختيار الدوريات التي يمكن التقدم إليها بطلب نشر المسودات البحثية والتوصية بمراجعي الأقران أو اقتراح استشهادات بحثية ذات صلة. ورغم أن 64% من المشاركين في الاستطلاع أعربوا عن ترحيبهم بفكرة استخدام الذكاء الاصطناعي في هذه المهام خلال العامين المقبلين، رأت غالبية المشاركين في الاستطلاع أن البشر ما زالوا يتمتعون بالأفضلية في هذه المناطق عقبات وفرص رغم تعاظم الاهتمام باستخدام أدوات الذكاء الاصطناعي، يشير الاستطلاع إلى أن الباحثين يحتاجون إلى المزيد من الدعم للتحلي بالثقة لدى التعويل على هذه الأدوات. فرأى ثلثا الباحثين المشاركين في الاستطلاع أن غياب التوجيهات والتدريب اللازم في هذا السياق يحول دون استخدامهم لأدوات الذكاء الاصطناعي بالقدر الذي ينشدونه (انظر الشكل "مخاوف") كذلك ساورت باحثون مخاوف بشأن مدى أمان استخدام هذه الأدوات: على سبيل المثال، أفاد 81% من المشاركين في الاستطلاع بأن لديهم مخاوف إزاء دقة أدوات الذكاء الاصطناعي، واحتمالية ارتكابها لانحيازات بحثية ، واختراقها لخصوصيتهم فضلًا عن غياب الشفافية فيما يتعلق بالكيفية التي تدربت بها هذه الأدوات. في هذا الإطار، يقول جاريت: "نرى أن جهات نشر الأبحاث وغيرها من الجهات المنوطة تقع عليها مسؤولية كبيرة في المساعدة على توعية الباحثين". إذ أفاد 70% من المشاركين في الاستطلاع برغبتهم في أن توفر جهات النشر توجيهات واضحة فيما يخص الاستخدامات المقبولة للذكاء الاصطناعي في كتابة الأبحاث، ورأى 69% منهم أن على الناشرين مساعدتهم في تلافي الأخطاء والانحيازات البحثية. تعقيبًا على ذلك، تقول تيجاسويني أروناتشالا مورثي، إحدى المشاركات في الاستطلاع، وهي اختصاصية تغذية لحالات الرعاية المركزة في جامعة أديليد في أستراليا: "لابد من عقد تدريب موحد، وأن يكون إلزاميًا، شأنه في ذلك شأن التدريبات التي تنعقد في كافة أنحاء العالم للتدريب على الممارسات الإكلينيكية الجيدة. ونحن على استعداد لتخصيص الوقت لذلك. ولدينا الاستعداد والرغبة في اكتساب المعارف في هذا الإطار. وعلى كل الباحثين في مجال الذكاء الاصطناعي...تدريبنا على كيفية استخدامه على الوجه الملائم". من هنا، تجري شركة «وايلي» المزيد من المقابلات مع الباحثين وتجمع آراءهم لتحديث توجيهاتها الخاصة باستخدام الذكاء الاصطناعي، والتي تعتزم نشرها في غضون الأشهر المقبلة. وهذه التوجيهات من شأنها أن تساعد الباحثين في الوصول إلى فهم أفضل لكيفية استخدام الذكاء الاصطناعي على نحو آمن في الأبحاث، ويدخل في ذلك فهم الحالات التي يكون فيها المنظور البشري ضروريًا، والمعلومات التي ينبغي الإفصاح عنها عندئذ. وهنا، يقول جاريت: "لا أحسب أن أيًا منا على استعداد للتوصية بتفضيل أداة على أخرى". ويضيف أن هدف الشركة هو "تقديم توجيهات عامة حول كيفية توخي الأمان والبدء في نشر الممارسات المثلى". doi:


النهار
١١-٠٥-٢٠٢٥
- النهار
هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج
رغم التقدّم المتسارع في تطوير تقنيات الذكاء الاصطناعي، تكشف بيانات جديدة عن تفاقم مشكلة "الهلوسة" في الأنظمة الأحدث، ما يطرح تحديات كبيرة أمام مطوّريها والمستخدمين على حد سواء. تشير أحدث التقارير إلى أن ما يُعرف بـ"هلوسة الذكاء الاصطناعي" – وهي ظاهرة قيام النماذج التوليدية بإنتاج معلومات غير صحيحة أو مختلقة – لا تزال تمثل عقبة كبيرة أمام الاستخدام الدقيق والموثوق للأنظمة المتقدمة مثل "تشات جي بي تي" و"كلود". بل إن الأدلة الحديثة تُظهر أن هذه المشكلة تزداد سوءاً في الإصدارات الأحدث من تلك الأنظمة، رغم وعود الشركات المطورة بتحسين الدقة. تُظهر اختبارات أجرتها شركة "أوبن إيه آي" أن أحدث نماذجها، ومنها النظام o3، تعاني من معدلات هلوسة تصل إلى 33% عند اختبار المعلومات المتعلقة بالشخصيات العامة، وهو ما يفوق ضعف نسبة الهلوسة التي ظهرت في نموذجها الأسبق o1. وفي النموذج الجديد المصغر o4 mini، بلغت النسبة 48%. أما في اختبارات الأسئلة العامة، فقد قفزت معدلات الهلوسة إلى 51% و79% على التوالي في نظامي o3 وo4 mini، بينما كانت النسبة 44% في النموذج السابق o1. الغريب في الأمر أن هذه الهلوسات لم تتراجع مع اعتماد ما يُعرف بـ"أنظمة التفكير المنطقي"، وهي تقنيات طُورت خصيصاً لتعزيز قدرات الاستدلال والتفكير التحليلي في النماذج اللغوية. ورغم أن هذه الأنظمة أظهرت تحسناً في المهارات الرياضية، فإن معدلات الخطأ الناتجة عنها تزايدت. المشكلة لا تقتصر على الجوانب التقنية فقط، بل تمتد إلى تأثيرات واقعية خطيرة قد تطال الطلاب والباحثين والموظفين الذين يعتمدون على الذكاء الاصطناعي للحصول على إجابات دقيقة. ويمكن أن تؤدي هذه الأخطاء إلى قرارات خاطئة، أو خسائر مادية، أو حتى مشكلات قانونية وضرر في السمعة المؤسسية. وتنقل وكالة أسوشييتد برس عن دانييلا أمودي، رئيسة شركة "أنثروبيك" المطوّرة لنظام "كلود 2"، قولها: "لا أعتقد أن هناك أي نموذج اليوم لا يعاني بعض الهلوسة". وتشير البيانات إلى أن الهلوسات تتخذ عدة أشكال، من بينها: هلوسات واقعية، واستشهادات غير دقيقة، وتناقضات منطقية، واستنتاجات مغلوطة، إلى جانب هلوسات بصرية وأخرى ناتجة عن التحيّز السياقي أو البنيوي. في ورقة بحثية حديثة أصدرتها "أوبن إيه آي"، أشارت الشركة إلى الحاجة الماسة إلى أبحاث إضافية لفهم سبب استمرار هذه السلوكيات في الظهور. ويرجع ذلك جزئياً إلى صعوبة تتبع الآليات التي تتعلم بها هذه النماذج من كمّ هائل من البيانات يفوق قدرة البشر على الاستيعاب والتحليل. وفي مسعى للحد من هذه الإشكاليات، كشف معهد ماساتشوستس للتكنولوجيا (MIT) عن تقنية جديدة تُدعى "SimGen"، تهدف إلى مساعدة المدققين البشر في كشف هلوسات الذكاء الاصطناعي عبر تقديم مقتطفات محددة ترتبط مباشرة بالمصادر الأصلية، مثل خلايا معينة ضمن قواعد بيانات، ما يقلل وقت التحقق بنحو 20%. وفيما يتواصل تطوير هذه التقنيات، تظل مشكلة الهلوسة إحدى العقبات الجوهرية أمام دمج الذكاء الاصطناعي بطريقة آمنة وموثوقة في التطبيقات اليومية.