
DeepSeek تكشف عن تقنية "ثورية" لتشغيل نموذجها القادم R3 للاستدلال
أعلنت شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي عن اعتماد نهج مبتكر يهدف إلى تحسين قدرات الاستدلال لدى النماذج اللغوية الكبيرة (LLMs)، وذلك في وقت يتزايد فيه الترقب لإصدار الجيل التالي من نماذج الشركة.
وكشفت الشركة بالتعاون مع باحثين من جامعة تسينغهوا الصينية، عن تقنية جديدة تعتمد على منهجيتين مبتكرتين أطلقت عليهما "نمذجة المكافآت التوليدية" (Generative Reward Modelling - GRM)، و"ضبط التقييم الذاتي المرتكز إلى المبادئ الذاتية" (Self-principled Critique Tuning)، بحسب ما جاء في ورقة بحثية نُشرت الجمعة، على منصة arXiv المتخصصة في الأبحاث العلمية.
وتهدف هذه المنهجية المزدوجة إلى تمكين النماذج اللغوية الكبيرة (LLMs)، من تقديم نتائج أكثر دقة وبوتيرة أسرع عند التعامل مع الأسئلة العامة.
أسلوب المكافآت
تعد نمذجة المكافآت التوليدية (Generative Reward Modeling - GRM)، طريقة لتعليم نموذج الذكاء الاصطناعي كيف يُفضّل البشر أن تكون الإجابات.
وبدلاً من أن يُقيّم الإنسان كل إجابة يعطيها النموذج، تُستخدم GRM لتدريب نموذج آخر يمكنه القيام بهذه المهمة بشكل تلقائي. هذا النموذج "الذكي" يتعلم كيف يقيّم الإجابات، ويمنحها "مكافآت" وفقاً لمدى جودتها وقربها من التفضيلات البشرية.
وتشبه الفكرة لعبة يحصل فيها الذكاء الاصطناعي على نقاط عندما يُعطي إجابات جيدة، ويفقد نقاطاً عندما يُخطئ.
وبمرور الوقت، يتعلم النموذج كيف يجيب بشكل أفضل لينال أعلى قدر ممكن من المكافآت، ما يؤدي إلى تحسين قدراته الاستدلالية وتقديمه لإجابات أكثر دقة ومواءمة لما يتوقعه المستخدم.
وأكد الباحثون أن نماذج DeepSeek-GRM الجديدة تفوقت على الطرق المعتمدة حالياً، بعدما "حققت أداءً تنافسياً" مقارنة بنماذج المكافآت العامة ذات الأداء القوي.
جيل جديد
وأوضح الفريق أن تقنية "نمذجة المكافآت Award Modelling" تُعد من الأساليب المستخدمة لتوجيه النماذج اللغوية نحو تفضيلات البشر، وهي بذلك تُسهم في تعزيز جودة الاستجابات. كما أشار الباحثون إلى أن الشركة تخطط لإتاحة نماذج GRM مفتوحة المصدر، لكنها لم تحدد موعداً زمنياً لذلك حتى الآن.
وجاءت هذه الورقة البحثية في ظل تزايد التكهنات بشأن الخطوة التالية لشركة DeepSeek، خاصة بعد أن نالت اهتماماً عالمياً واسعاً بفضل نموذجها الأساسي V3 ونموذج الاستدلال R1.
وكانت وكالة "رويترز" قد ذكرت في تقرير لها الشهر الماضي، أن الإصدار القادم، DeepSeek-R2، قد يُطرح في الأسواق خلال وقت مبكر من شهر أبريل الجاري، في إطار سعي الشركة للاستفادة من شعبيتها المتصاعدة.
وسرعان ما أثار التقرير حالة من الترقب في الأوساط التقنية العالمية، خاصة بعد أن أحدث نموذج DeepSeek-R1 ضجة واسعة لما قدّمه من أداء فعّال بتكلفة منخفضة، وهو ما جعله منافساً بارزاً لأقوى النماذج الموجودة حالياً.
لكن الشركة حافظت على صمتها إزاء التقارير التي تحدثت عن قرب إصدار R2، ولم تُصدر أي تعليق عبر قنواتها الرسمية.
وفي المقابل، أفادت وسائل إعلام صينية بأن حساب خدمة العملاء التابع لـ DeepSeek، نفى صحة هذه المعلومات ضمن مجموعة محادثة خاصة مع عملاء تجاريين.
وكانت الشركة قد أجرت في مارس الماضي، تحديثاً رئيسياً على نموذج V3 الخاص بها، إذ أطلقت الإصدار "DeepSeek-V3-0324"، والذي قالت إنه يقدّم "قدرات استدلال مُعزّزة، وتحسينات في تطوير الواجهات الأمامية لمواقع الإنترنت، فضلاً عن تعزيز كفاءة الكتابة باللغة الصينية".
وفي فبراير الماضي، فتحت الشركة 5 من مستودعاتها البرمجية لتكون مفتوحة المصدر، ما أتاح للمطورين حول العالم مراجعة الشيفرات البرمجية والمساهمة في تطويرها، مؤكدة في بيانها التزامها بـ"تحقيق تقدم حقيقي بشفافية كاملة".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


Independent عربية
منذ 2 أيام
- Independent عربية
الذكاء الاصطناعي يعيد رسم عقولنا وحياتنا... فما الذي يستحق تعلمه؟
أكبر كذبة سمعتها من مدرس طوال سنوات دراستي هي ضرورة أن أتقن خطوات القسمة المطولة، في الواقع نشأ جيل كامل من التلاميذ على هذا الاعتقاد الخاطئ، انطلاقاً من فكرة مغلوطة مفادها بأننا حينما نكبر لن نجد في متناولنا آلات حاسبة. آنذاك، كان ضرباً من خيال أن نتصور أننا جميعاً سنحمل في جيوبنا يوماً ما جهازاً ليس آلة حاسبة إلكترونية فحسب، بل يكتنز في قلبه كل المعرفة التي بلغها الإنسان. هكذا، عند ظهور الهواتف الذكية المحمولة وضعت معظم الرياضيات التي تعلمتها أيام الدراسة في تسعينيات القرن الـ20 وأوائل الألفية الثانية في زاوية منسية من ذاكرتي، التي لم أعد أفتش فيها أيضاً عن تواريخ الأحداث الكبرى ولا الظواهر الجغرافية والمعادلات العلمية، من دون أن يطرح ذلك أدنى ثأثير في مجريات حياتي اليومية. ولكننا اليوم أمام تكنولوجيا جديدة لا تكتفي بتحديد ما ينبغي لنا اكتسابه من معارف ومهارات، بل تتجاوز هذه الحدود إلى إعادة تشكيل الطريقة التي نتعلم بها في حد ذاتها. الجيل الأحدث من تطبيقات الذكاء الاصطناعي، من قبيل "تشات جي بي تي" ChatGPT و"جيميناي"Gemini وروبوت الدردشة الصيني "ديب سيك" DeepSeek، يزيح عن كاهلنا عبء إتمام الواجبات المنزلية التقليدية، إذ يسعه أن يكتب مواضيع جديدة تماماً، أو أن ينجز أوراق العمل في غضون ثوان معدودة. في إعلان حديث لتطبيق الكتابة والتحرير الذكي "غرامرلي" Grammarly، ظهر تلميذ يتخبط في أداء واجباته المدرسية، ولكن ما إن يكتشف الأداة الجديدة المدعومة بالذكاء الاصطناعي، حتى يعلق بدهشة: "يا إلهي، إنها تشبهني، ولكنها أفضل". وفيما يسارع المعلمون إلى دمج أدوات الذكاء الاصطناعي في فصولهم الدراسية، ووضع صياغة جديدة للمناهج الدراسية بما يتلاءم مع هذا التحول الجذري، يرتفع صوت بعض الفلاسفة وعلماء المستقبليات مطالبين بإعادة كتابة المناهج الدراسية من أساسها. وفق عدد متزايد من مؤيدي المقترح القائل بإعادة تعريف التعليم في عصر الذكاء الاصطناعي، من الأجدر أن يتحول التركيز إلى تعزيز التفكير النقدي والمنطق والاستدلال. فمن دون هذه المهارات، يلوح في الأفق خطر الاعتماد المفرط على الذكاء الاصطناعي. إذا كانت أدوات مثل "تشات جي بي تي" تتولى جميع المهمات التي تتطلب الاستدلال والتفكير، وتحتفظ بالحقائق التي كنا نضطر إلى حفظها عن ظهر قلب في الماضي، فإننا نواجه خطر إصابة أدمغتنا بالضمور نتيجة قلة الاستخدام. في وقت سابق من العام الحالي، وجد باحثون في "مايكروسوفت" و"جامعة كارنيغي ميلون" في الولايات المتحدة أن الاعتماد المكثف على تقنيات "الذكاء الاصطناعي التوليدي" generative AI الذي يتميز بقدرته على إنشاء محتوى بناء على البيانات التي تدرب عليها مثل "تشات جي بي تي" يتسبب في فقدان العمال مهارات أساسية من قبيل الإبداع، والحكم السليم، وحل المشكلات. وذكر الباحثون في دراسة عرضت تفاصيل نتائجهم: "استخدام هذه الأشكال من التكنولوجيا بشكل غير سليم، يقود، بل إنه يقود فعلاً، إلى تدهور القدرات المعرفية والإدراكية [من تفكير وتحليل واستدلال...] التي ينبغي الحفاظ عليها من أي اندثار". وجدت دراسة نهضت بها "مايكروسوفت" و"جامعة كارنيغي ميلون" أن استخدام الذكاء الاصطناعي التوليدي سيقود إلى "تدهور القدرات المعرفية" (حنا بركات صندوق كامبريدج للتنوع / صور أفضل بالذكاء الاصطناعي ) في الحقيقة، تتلخص إحدى أبرز مفارقات الأتمتة الذكية في أن إيكال المهمات الروتينية إلى الآلات، وترك معالجة الحالات الاستثنائية أو غير المعتادة للمستخدم البشري، يحرم الأخير من فرص يومية تسهم عادة في تنمية مهارات التقدير السليم لديه، وتعزيز اتخاذ القرارات الصائبة، إضافة إلى تطور قدراته الإدراكية. حتى أن أثر الذكاء الاصطناعي بات ينعكس في طريقة استخدام الناس له على وسائل التواصل الاجتماعي. مثلاً، اجتاح هذه المنصات أخيراً "ترند" يظهر المستخدمون فيه وقد وقفوا أمام مرآة وأمسكوا غرضاً ما [جهاز تحكم بالتلفزيون مثلاً] بعدما وضعوا قبالتها ورقة أو قطعة قماش تحول دون انعكاس صورة الغرض في المرآة، ثم يصورون المشهد من زواية محددة مرفقين الفيديو بتعليق ساخر يقول: "كيف للمرآة أن تكشف عن الغرض المخفي؟" [المغزى من هذا هو تسليط الضوء على كيفية تفاعل الناس مع التكنولوجيا والفيزياء في حياتهم اليومية، وكيف يمكن أن تؤدي المفاهيم الخاطئة أو عدم الفهم الكامل إلى تفسيرات خاطئة أو مدهشة للظواهر البسيطة]. وفي عشرات التعليقات على مقطع فيديو نشر أخيراً على منصة "إكس" (تويتر سابقاً)، أشار المستخدمون إلى "غروك" Grok، علماً أن الأخير روبوت محادثة مدعوم بالذكاء الاصطناعي أنشأته شركة "إكس أي آي" (xAI) التابعة لإيلون ماسك، وسألوه كيف أمكن للمرآة أن تكشف عن الغرض المخفي. قدم الروبوت الإجابات المطلوبة، من دون أن يضطر المستخدمون إلى شحذ أدمغتهم أو استدعاء أي معارف أساسية. وفي المستقبل الأبعد، ربما تحملنا أنظمة الذكاء الاصطناعي المتقدمة على أن نتعلم من جديد كيف نعيش في عالم تنتفي فيه معظم المهمات الموكلة إلى البشر بعد أن تتولاها الآلات المؤتمتة. البروفيسور السويدي في "جامعة أكسفورد"، نيك بوستروم، المعروف بتحذيره العالم من الذكاء الاصطناعي المنفلت العقال في كتابه الصادر عام 2014 بعنوان "الذكاء الخارق" Superintelligence، تناول هذه القضية من زاوية جديدة في أحدث مؤلفاته بعنوان "اليوتوبيا العميقة: الحياة والمعنى في عالم اكتملت فيه الحلول" Deep Utopia: Life and Meaning in a Solved World. وفيه، تخيل مستقبلاً قريباً تنجز فيه أنظمة الذكاء الاصطناعي والروبوتات مختلف المهمات بكفاءة تضاهي أداء البشر. وكتب بوستروم: "بدلاً من تأهيل الأطفال كي يغدوا في المستقبل عمالاً منتجين اقتصادياً، علينا تنشئتهم على أن ينعموا بعيش ملؤه والرضا والتطور الذاتي. أشخاصاً يمتلكون مهارات عالية في فن الاستمتاع بالحياة". اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) وأضاف: "ربما يشمل ذلك إتقان فن الحوار، وتنمية الذائقة تجاه الأدب والفن والموسيقى والدراما والسينما، والتأمل في جمال الطبيعة وعفوية البرية، وتعزيز روح المنافسة الرياضية. ومن المجدي أيضاً أن نتعلم تقنيات التأمل واليقظة الذهنية، وأن نفسح المجال أمام ممارسة الهوايات والإبداع وروح اللعب والمقالب الذكية والألعاب، لا بوصفها مجرد تسلية بل كمجال للإبداع والتجريب والمشاركة. كذلك علينا ألا نغفل عن تنمية متعة التذوق وتهذيبها، وترسيخ الحس الجمالي الرفيع، وأخيراً أن نقدر رابطة الصداقة ونحتفي بها". في حديثه لـ"اندبندنت" العام الماضي، وصف البروفيسور بوستروم هذه الاحتمالات بأنها "احتمالات مستقبلية جذرية"، وذلك عندما نصل إلى مرحلة تكتمل فيها الحلول لكل مشكلات اليوم، وتحال فيها مسؤولية التقدم المستقبلي إلى أجسام وأدمغة اصطناعية. "عندها، ربما يبتعد المجتمع عن التركيز على الكفاءة والفائدة والربح، ويتجه نحو "التقدير والامتنان والنشاط الذاتي واللعب"، يقول البروفيسور بوستروم. هكذا، سينصب تركيزنا على تعلم مهارات بدنية، أو حتى ألعاب استكشفها الذكاء الاصطناعي منذ زمن بعيد. فقد أتقنت هذه الأنظمة الشطرنج منذ 30 عاماً، ومع ذلك ما زلنا نرغب في ممارسة هذه اللعبة. تتفوق أجهزة الكمبيوتر على أبطال البشر في الشطرنج منذ أن ألحق حاسوب "ديب بلو" من تصميم شركة "آي بي أم" الهزيمة بمنافسه البطل الروسي غاري كاسباروف، واقتنص النصر قبل نحو 30 عاماً، ولكن حتى الآن ما زال الناس يستمتعون بلعب الشطرنج ومشاهدته. وعلى نحو مماثل، إذا صار الذكاء الاصطناعي متفوقاً في المعرفة، فسنظل نستمتع باكتسابها. مفاد ذلك بأنه حتى في هذا السيناريو المستقبلي، يظل للتعلم مكانته الخاصة ومقامه الأصيل. كتب البروفيسور بوستروم في كتابه "اليوتوبيا العميقة": "أعتقد أن الشغف بالتعلم يضفي عمقاً ومعنى كبيرين على حياة تغلب عليها ثقافة الترفيه. إنه انفتاح العقل على ميادين العلوم والتاريخ والفلسفة، من أجل الكشف عن السياق الأوسع للأنماط والمعاني التي تتجسد في نسيج حياتنا". يعيد هذا الكلام صدى مشاعر مماثلة عبرت عنها السيدة الأولى السابقة للولايات المتحدة والناشطة إليانور روزفلت قبل نحو قرن من الزمن، التي شددت على القيمة الجوهرية للتعلم، مؤكدة أنه ليس مجرد وسيلة لبلوغ غاية، بل غاية في حد ذاته. وقالت مشيرة إلى أنه لا شيء يفوقه أهمية: "التعلم هو الأساس، التعلم والعيش".


Independent عربية
منذ 5 أيام
- Independent عربية
9 طرق يمارس فيها الذكاء الاصطناعي التمييز ضد النساء
عندما نفكر في تأثير الذكاء الاصطناعي على البشرية، يسارع الناس إلى طرح أسئلة وجودية تتعلق بفناء البشرية واستيلاء الروبوتات على العالم، لكن بدلاً من التركيز على تلك التحذيرات التشاؤمية عما قد يحدث مستقبلاً، هناك صورة خطرة من التمييز تحدث بالفعل الآن، في ظل غياب شبه كامل لأي ضوابط أو تنظيمات فعالة. هذا التمييز يؤثر في النساء وفئات مهمشة أخرى بطرق واقعية للغاية، تمتد من احتمالات قبول المصرف منحهم قرضاً إلى ترشيحهم للوظائف أو حتى حصولهم على تشخيص طبي دقيق لمشكلة صحية خطرة. وما لم نطالب بالمحاسبة الآن، فالخطر قائم بأن يجرنا الذكاء الاصطناعي إلى الخلف بسبب تكريس انعدام المساواة الموجود اليوم في أسس بناء عالمنا المستقبلي، والمؤشرات موجودة بالفعل على أن هذا ما يحدث في الواقع. التوظيف أفادت تقارير حديثة بأن 40 في المئة من شركات المملكة المتحدة تستخدم الذكاء الاصطناعي في عمليات التوظيف، قد يبدو ذلك صورة غير مؤذية من ترشيد عملية تستهلك كثيراً من الوقت، ولا سيما أن أدوات الذكاء الاصطناعي قادرة على تقليص لائحة طويلة من المتقدمين للوظيفة عن طريق انتقاء "أكثرهم ملاءمة" لشركتكم، لكن هذا الانطباع يتغير طبعاً عندما تتوقفون عند طريقة تدريب نماذج الذكاء الاصطناعي هذه، فهي تلقن كميات هائلة من المعلومات كي تصبح قادرة على "تخمين" أي المتقدمين للوظيفة هم أكثر أشخاص يتوقع نجاحهم فيها، وهو ما يجعلها تفترض أحياناً (بسبب انعدام المساواة وقلة تمثيل بعض الفئات الموجودة في سوق العمل حالياً) أن الرجال البيض مثلاً هم أقوى المرشحين لتولي المناصب العليا. قد يقول المستفيدون من هذه التكنولوجيا إن هذه المشكة حلها بسيط، فما علينا سوى إخفاء الجنس الاجتماعي للمتقدمين بطلبات التوظيف عن أدوات الذكاء الاصطناعي، لكن حتى في هذه الحال، تبين أن التمييز يظل قائماً بصورة غير مباشرة، عبر تعرف النظام على كلمات ذات طابع جندري في السير الذاتية (ومنها مثلاً كرة "الشبكة" التي تهيمن عليها النساء أو اسم مدرسة للفتيات فقط)، مما يبقي النساء في موقع غير متكافئ، كما أن دراسة حديثة أخرى كشفت عن أن أدوات التوظيف بالذكاء الاصطناعي قد تميز أيضاً ضد المتقدمين بناء على أنماط حديثهم. وحتى قبل تقدم النساء إلى الوظيفة، بدأ الذكاء الاصطناعي بالتدخل في فرصهن بالحصول على عمل، إذ تبين أن خوارزميات الدعاية في "غوغل" قد تعرض على الرجال الباحثين عن عمل إعلانات وظائف لمناصب تنفيذية عليا تخصص لها أجور مرتفعة بمعدل ست مرات أكثر من النساء الباحثات عن عمل. توليد المحتوى أكثر من 100 مليون شخص يستخدمون "تشات جي بي تي" شهرياً، لكن البرنامج، كأمثاله من النماذج اللغوية الكبيرة ((LLMs، يعمل عن طريق استهلاك مجموعات ضخمة من البيانات لتوليد نصوص "تبدو بشرية" أو صور واقعية تبعاً للأوامر التي كتبها المستخدمون. وعندما تكون هذه البيانات مثقلة بالأحكام المسبقة، لا يجتر الذكاء الاصطناعي الذي يولد النصوص انعدام المساواة بل يعظمها أيضاً. ففي دراسة لـ"يونيسكو" حول المحتوى المولد عبر منصات الذكاء الاصطناعي التي تحظى بشعبية كبيرة وجدت أن هناك "إثباتاً لا لبس فيه عن التمييز ضد النساء في المحتوى الذي جرى إنشاؤه"، فالنماذج قرنت الوظائف المرموقة في "الهندسة" أو "الطب" مثلاً بالرجال، فيما خصصت للنساء وظائف "الخدمة المنزلية" أو حتى "البغاء". ومن المرجح أن يكبر أثر هذا التضخيم للسرديات التمييزية من النماذج اللغوية الكبيرة مع استخدامها أكثر فأكثر، إذ تشير التقديرات إلى أن نحو 30 في المئة من المحتوى التسويقي الخارجي لمنظمات كبرى سيولده الذكاء الاصطناعي بحلول نهاية العام الحالي (بينما كان أقل من اثنين في المئة في 2022). طلبات القروض يسجل العالم حالياً فجوة ائتمانية بقيمة 17 مليار دولار، لها أثر ضخم في انعدام المساواة بين الجنسين، عندما لا تتمتع المرأة باستقلالية مادية، يتضاعف خطر تعرضها إلى مجموعة من المشكلات، بدءاً من العنف المنزلي ووصولاً إلى الزواج بالإكراه. ومع أن مطوري الخوارزميات وخبراء البيانات الذين يصممون أنظمة التقييم الائتماني هم في الغالب من الرجال، يعيشون في الولايات المتحدة، ومن ذوي الدخل المرتفع، فإنهم لا يمثلون الفئة المستهدفة من المستخدمين الذين تطبق عليهم هذه الأنظمة، ومع ذلك فهم من يحددون نتائجها النهائية. ونظراً إلى أن النساء عانين تاريخياً التمييز في قرارات الإقراض، فإن المخاوف تتزايد من أن الشركات التي تستخدم أنظمة ذكاء اصطناعي في التقييم الائتماني تكرس هذا التمييز الممنهج، مما يهدد بإقصائهن أكثر فأكثر عن الحصول على القروض والخدمات المالية الأخرى. العدالة الجنائية تستخدم سلطات قضائية عدة في الولايات المتحدة أداة تسمي "كومباس" Compas لمساعدتها في اتخاذ قرارات في شأن الإفراج عن الموقوفين قبل محاكمتهم أو الحكم عليهم، فيما تلجأ هذه الأداة إلى الذكاء الاصطناعي كي "تخمن" احتمالات إعادة اعتقال الشخص، لكن هذا النظام يستند إلى بيانات تتعلق بسجلات التوقيف السابقة، في بلد تعاني فيه المؤسسات عنصرية ممنهجة تجعل الشخص الأسود أكثر عرضة بخمس مرات من نظيره الأبيض للتوقيف من الشرطة من دون مبرر، لذا حتى عندما لا تأخذ الخوارزمية العرق في الاعتبار صراحة، فإنها تسهم في استمرار دورة الاعتقال العنصري. وتبين كذلك أن برنامج كومباس يبالغ في تقدير احتمالات تكرار النساء ارتكاب الجرائم، وهو ما يؤدي إلى إنزال عقوبات مجحفة في حق الجانيات اللاتي غالباً ما يكن ضحايا لاعتداءات جسدية أو جنسية. وفي المملكة المتحدة كشفت إحدى الدراسات أن استخدام الذكاء الاصطناعي لتعريف مناطق معينة على أنها بؤر للجريمة يدفع عناصر الشرطة إلى توقع حصول مشكلات عندما تجوب دورياتهم المكان، مما يزيد من احتمال توقيف الأشخاص أو اعتقالهم بدافع التحيز بدلاً من الضرورة الأمنية الفعلية. تقنية التعرف على الوجه يلعب الذكاء الاصطناعي دوراً متنامياً في تقنيات التعرف على الوجه، التي تستخدم في مجالات واسعة، من تطبيقات الشرطة إلى أنظمة دخول المباني، لكن الشركات التي تروج لهذه التقنية بوصفها تقدم "راحة غير مسبوقة" مطالبة بطرح السؤال: راحة لمن بالضبط؟ فعلى رغم الانتشار السريع لهذه التقنيات، إلا أن فعاليتها تتفاوت بصورة كبيرة بين المستخدمين، إذ أظهرت أبحاث أن منتجات التعرف على الوجه لدى شركات كبرى تسجل معدل خطأ يصل إلى 35 في المئة عند التعامل مع النساء ذوات البشرة الداكنة، في مقابل 0.8 في المئة فقط عند التعامل مع الرجال ذوي البشرة الفاتحة. الرعاية الصحية كشفت دراسة لكلية لندن الجامعية (UCL) عن أن نماذج الذكاء الاصطناعي التي أنشأت للتنبؤ بأمراض الكبد استناداً إلى تحليل الدم أكثر عرضة للخطأ في كشف المرض بمرتين لدى النساء في مقابل الرجال، وحذر كبير مؤلفي هذه الدراسة أن استخدام هذه الخوارزميات بصورة شائعة في المستشفيات للمساعدة في التشخيص قد يؤدي إلى تردي الرعاية التي تتلقاها النساء. وفي المقابل، في الولايات المتحدة، تبين أن إحدى الخوارزميات التي يشيع استخدامها في قطاع الرعاية الصحية للمساعدة في تحديد هويات المرضى الذين يحتاجون إلى رعاية إضافية تعاني تمييزاً عرقياً كبيراً، إذ تفضل المرضى ذوي البشرة البيضاء على المرضى السود، وإن كان هؤلاء أشد مرضاً ويعانون مشكلات صحية مزمنة أكثر، وفقاً لدراسة نشرتها المجلة العلمية "ساينس". وبحسب تقديرات مؤلفي الدراسة، وصل الحال بالتمييز العرقي إلى درجة تقليص عدد المرضى السود الذين يحددون على أنهم بحاجة إلى رعاية إضافية بأكثر من النصف. العنف المنزلي تمكن مرتكبو العنف المنزلي من مضايقة ضحاياهم وإخافتهن باستخدام الذكاء الاصطناعي لاختراق أجهزة التكنولوجيا التي يمكن ارتداؤها والأجهزة المنزلية الذكية، والتلاعب بها. فكل الأجهزة، من ساعات اليد وحتى التلفاز قد تسهل المراقبة والملاحقة عن بعد، وهذا خطر كبير عندما تأخذ في الاعتبار التقديرات التي تشير إلى أن ما يقارب 125 مليار جهاز سيصبح متصلاً، بحلول عام 2040، بـ"إنترنت الأشياء" وهو ما قد يؤدي إلى زيادة المراقبة من المعتدين الساعين إلى ترسيخ سيطرتهم وسطوتهم. العلاقات فيما نحاول التوصل إلى طرق لمعالجة التحيز ضد المرأة على منصات التواصل الاجتماعي، وتبعات هذا السلوك الذي يجرد المرأة من إنسانيتها، يحمل مئات ملايين الأشخاص تطبيقات "رفيقة" قائمة على الذكاء الاصطناعي تعيد تحويل النساء إلى أشياء "لا ترفض طلباً" للاستهلاك الذكوري. وتطبيقات الصديقات الحميمات من الذكاء الاصطناعي أو روبوتات الدردشة التي يروج لها مطوروها غالباً على أنها أفضل من النساء الحقيقيات (تؤمن لك علاقة ممتعة من دون تلك الإرادة الحرة المزعجة)، تقدم للرجال "امرأة" شبيهة بالمرأة الحقيقية بخنوع ويمكن تكييفها بحسب الرغبة، تجعلهم يزهون بأنفسهم وهي رهن إشارتهم متى أرادوا، ويمكنهم استخدامها (وإساءة معاملتها) بحسب رغبتهم. وفي الواقع، عدد كبير من الرجال يسيؤون التعامل مع هذه البرامج ويشاركون نبذات مصورة عن هذه الأفعال مع بعضهم بعضاً، لكي يكتشفوا من بينهم قادر على ارتكاب أكبر الإساءات في حق هذه البرامج. خلال العام الماضي فقط، سجل متجر "غوغل" لهواتف الآندرويد 100 مليون تحميل لـ11 برنامجاً للدردشة القائمة على الذكاء الاصطناعي تتصدر قائمة البرامج المثيلة، وهذا ليس مكسباً للرجال الوحيدين ولا للنساء اللاتي سيتلاقين بهم في وقت لاحق. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) إن كنا سنتصدى لانعدام المساواة المستشري في الذكاء الاصطناعي، علينا الاستعانة بمجوعات متنوعة من الأشخاص. فالتكنولوجيا نفسها ليست معادية للمرأة بحد ذاتها، لكن غالباً ما تسفر عن هذه النتائج غير المقصودة، وليس فقط بسبب البيانات المتحيزة والمليئة بالعيوب، بل أيضاً بسبب نقص التنوع في المجموعات التي تؤسس هذه البرامج وتستفيد منها. في الوقت الحالي، يعد تمثيل النساء ضعيفاً إلى أبعد الدرجات في كل جانب من جوانب أبحاث الذكاء الاصطناعي وتطويره واستخدامه. وعلى الصعيد العالمي، لا تشكل النساء سوى 12 في المئة فقط من الباحثين في الذكاء الاصطناعي، ومع أنهن يقدن بعضاً من أكثر الجهود إثارة من أجل إنشاء ذكاء اصطناعي آمن وأخلاقي، إلا أن المجموعات التي تترأسها نساء لا تزال تحصل على تمويل من رأس المال الاستثماري أقل بست مرات من نظرائهن الذكور. يحمل الذكاء الاصطناعي وعداً بمستقبل جديد ولامع سيكون له تأثير إيجابي في العالم الحقيقي، ولكن ما لم نعط الأولوية للإنصاف والسلامة في مرحلة التصميم، بحيث يفضح الفكر المعيب القائم على التمييز والتحيز ويصحح، فإنه يمثل خطر إدامة التحيز المؤذي وإعادة كثيرين منا للعصور المظلمة، فلنأمل أن أحدهم يعير انتباهاً للتفاصيل الدقيقة. من كتاب لورا بيتس "عصر جديد من التمييز على أساس الجنس" الصادر في الـ15 من مايو (أيار).


الوئام
منذ 6 أيام
- الوئام
الذكاء الاصطناعي يتعثر في قراءة الساعة والتاريخ
أظهرت دراسة جديدة قُدّمت في مؤتمر التعلم التمثيلي الدولي لعام 2025 (ICLR) أنّ أنظمة الذكاء الاصطناعي تعاني في مهام تبدو بديهية للبشر، مثل قراءة الساعات التناظرية (الآنالوج) وتحديد اليوم الذي يقع عليه تاريخ معيّن في التقويم السنوي. نشر نتائج هذه الدراسة مسبقًا على منصة arXiv (خادم ما قبل الطباعة)، فريق بحثي، بقيادة روهيت ساكسينا من جامعة إدنبرة، قبل خضوعها لمراجعة الأقران. وأشار ساكسينا إلى أن قدرة الإنسان على استخدام الساعات والتقاويم تتكوّن منذ الطفولة، ما يسلّط الضوء على فجوة كبيرة في مهارات الذكاء الاصطناعي الأساسية. جرّب الباحثون مجموعة بيانات مخصّصة لصور الساعات والتقاويم على خمسة نماذج لغوية متعددة الوسائط (MLLMs)، وهي نماذج قادرة على فهم الصور والنصوص معًا، بما في ذلك: Llama 3.2-Vision من ميتا Claude‑3.5 Sonnet من أنثروبيك Gemini 2.0 من جوجل GPT‑4o من أوبن إيه آي أظهرت النتائج أن هذه النماذج نجحت في قراءة الساعة التناظرية بنسبة 38.7% فقط، وفي تحديد اليوم الأسبوعي لتواريخ مثل 'اليوم رقم 153 من السنة' بنسبة 26.3%، ما يعكس إخفاقًا متكررًا في مهام تتطلّب استدلالًا مكانيًا ورياضيًا بسيطًا. ويرجع الباحثون هذا الإخفاق إلى أنّ قراءة الساعة تتطلب: – التعرّف على التداخل بين عقارب الساعة وقياس الزوايا. – التعامل مع تصاميم متنوعة (مثل الأرقام الرومانية أو الواجهات الفنية). أما في حساب التواريخ، فالأنظمة اللغوية الكبيرة لا تنفّذ خوارزميات حسابية فعلية، بل تتنبّأ بالنتائج استنادًا إلى الأنماط في بيانات التدريب، ما يؤدي إلى تباين وضعف في الدقة. تسلّط هذه النتائج الضوء على الحاجة إلى: – إدراج أمثلة مستهدفة أكثر عددًا وتنوعًا في بيانات التدريب. – إعادة التفكير في كيفية دمج المنطق (العمليات الحسابية) والاستدلال المكاني داخل نماذج الذكاء الاصطناعي. – الاعتماد على آليات احتياطية (fallback logic) وتواجد الإنسان في الحلقة عند تعقّد المهام أو تنفيذها في تطبيقات حساسة للوقت، كأنظمة الجدولة والمساعدة الآلية. وفي ختام دراستهم، نبه ساكسينا إلى أنّ الثقة المفرطة في مخرجات الذكاء الاصطناعي قد تكون محفوفة بالمخاطر عندما تندمج رؤية الآلة الدقيقة مع قدرات استدلالية تحتاج إلى تحقق بشري.