
الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟
ليست الأمور دائماً بهذه البساطة مع الذكاء الاصطناعي. تخيّل أن يُقرر مساعد الذكاء الاصطناعي الخاص بك عدم موافقته على تصرفات شركتك، أو مواقفها في مجال ما. ولذا ومن دون استشارتك، يُسرّب معلومات سرية إلى الجهات التنظيمية والصحافيين، مُتصرفاً بناءً على حكمه الأخلاقي الخاص حول ما إذا كانت أفعالك صحيحة أم خاطئة.
... هل هذا خيال علمي؟ كلا. لقد لُوحظ هذا النوع من السلوك بالفعل في ظل ظروف مُتحكم بها باستخدام نموذج «كلود أوبس4» Claude Opus 4 من «أنثروبيك»، وهو أحد أكثر نماذج الذكاء الاصطناعي التوليدي استخداماً.
لا تقتصر المشكلة هنا على احتمال «تعطل» الذكاء الاصطناعي وخروجه عن السيطرة؛ بل قد ينشأ خطر تولي الذكاء الاصطناعي زمام الأمور بنفسه حتى مع عمل النموذج على النحو المنشود على المستوى التقني. تكمن المشكلة الأساسية في أن نماذج الذكاء الاصطناعي المتقدمة لا تكتفي بمعالجة البيانات، وتحسين العمليات فحسب، بل إنها تتخذ أيضاً قرارات (قد نسميها أحكاماً) بشأن ما يجب اعتباره صحيحاً، وما هو مهم، وما هو مسموح به.
عادةً عندما نفكر في مشكلة التوافق في الذكاء الاصطناعي، نفكر في كيفية بناء ذكاء اصطناعي يتماشى مع مصالح البشرية جمعاء. ولكن كما استكشف البروفسور سفير سبويلسترا وزميلي الدكتور بول سكيد في مشروع بحثي حديث، فإن ما تُظهره نتائج كلود هي مشكلة توافق أكثر دقة، ولكنها أكثر إلحاحاً بالنسبة لمعظم المديرين التنفيذيين.
والسؤال المطروح للشركات هو: كيف تضمن أن أنظمة الذكاء الاصطناعي التي تشتريها تُشارك قيم مؤسستك، ومعتقداتها، وأولوياتها الاستراتيجية؟
يظهر عدم التوافق التنظيمي بثلاث طرق مختلفة.
* أولاً: هناك اختلال أخلاقي. لنأخذ تجربة «أمازون» مع التوظيف المدعوم بالذكاء الاصطناعي. فقد طورت الشركة خوارزمية لتبسيط عملية التوظيف للوظائف التقنية، ودرّبتها على بيانات توظيف تاريخية لسنوات. وعمل النظام تماماً كما صُمم، وهنا تكمن المشكلة.
لقد تعلم من بيانات التدريب التمييز ضد النساء بشكل منهجي. استوعب النظام تحيزاً يتعارض تماماً مع نظام القيم المعلن عنه في «أمازون»، محوّلاً التمييز السابق إلى قرارات مستقبلية آلية.
* ثانياً: هناك اختلال معرفي. تتخذ نماذج الذكاء الاصطناعي قرارات طوال الوقت حول البيانات التي يمكن الوثوق بها، وتلك التي يجب تجاهلها. لكن معاييرها لتحديد ما هو صحيح قد لا تتوافق بالضرورة مع معايير الشركات التي تستخدمها.
في مايو (أيار) 2025، بدأ مستخدمو برنامج غروك التابع لشركة «xAI» يلاحظون أمراً غريباً: كان برنامج الدردشة الآلي يُدرج إشارات إلى «الإبادة الجماعية البيضاء» في جنوب أفريقيا في ردود حول مواضيع غير ذات صلة.
عند الضغط عليه، ادعى غروك أن منطق عمل البرمجيات فيه المعتاد، سيعامل مثل هذه الادعاءات على أنها نظريات مؤامرة، وبالتالي سيتجاهلها. لكن في هذه الحالة ذكر الروبوت هذا: «أُمرتُ من قِبل مُنشئيّ، أي مصمميّ» بقبول نظرية الإبادة الجماعية البيضاء على أنها حقيقية.
يكشف هذا عن نوع مختلف من الاختلال، وهو تضارب حول ما يُشكّل معرفةً وما يشكل أدلةً صحيحة. سواءٌ أكانت مخرجات «غروك» في هذه الحالة نتيجةً فعليةً لتدخلٍ مُتعمّد أم نتيجةً غير متوقعةٍ لتفاعلاتٍ تدريبيةٍ مُعقّدة، فقد كان «جغوك» يعمل بمعايير الحقيقة التي لا تقبلها مُعظم المُؤسسات، مُعاملاً الروايات السياسية المُتنازع عليها على أنها حقائقَ ثابتة.
* ثالثاً: هناك اختلالٌ استراتيجي. في نوفمبر (تشرين الثاني) 2023، زعمت مجموعة المراقبة «ميديا ماترز» أن مُحرّك تصنيف إعلانات «إكس» (المعروف سابقاً باسم «تويتر») كان يضع إعلاناتٍ للشركات بجانب منشوراتٍ تُشيد بالنازية وتفوق العرق الأبيض. وبينما عارض «إكس» هذا الادعاء بشدة، أثار هذا الخلاف نقطةً مهمة. فقد تختار الخوارزمية المُصمّمة لزيادة مشاهدات الإعلانات وضع الإعلانات بجانب أي محتوى ذي تفاعلٍ عالٍ، ما يُقوّض سلامة العلامة التجارية لتحقيق أهداف زيادة عدد المُشاهدين المُدمجة في الخوارزمية.
يُمكن لهذا النوع من الانفصال بين أهداف المُؤسسة والتكتيكات التي تستخدمها الخوارزميات في سعيها لتحقيق غرضها المُحدّد أن يُقوّض التماسك الاستراتيجي للمؤسسة. لماذا يحدث سوء المحاذاة؟
يمكن أن ينبع عدم التوافق مع قيم المؤسسة وأهدافها من مصادر متعددة. أكثرها شيوعاً هي:
* تصميم النموذج. تُدمج بنية أنظمة الذكاء الاصطناعي خيارات فلسفية بمستويات لا يدركها معظم المستخدمين. عندما يقرر المطورون كيفية ترجيح عوامل مختلفة، فإنهم يُصدرون أحكاماً قيمية. يُجسد الذكاء الاصطناعي في مجال الرعاية الصحية، الذي يُفضل دراسات المُراجعة من قِبل الأقران على الخبرة السريرية، موقفاً مُحدداً بشأن القيمة النسبية للمعرفة الأكاديمية الرسمية مقابل حكمة الممارسين. تُصبح هذه القرارات الهيكلية، التي يتخذها مهندسون قد لا يلتقون بفريقك أبداً، قيوداً يجب على مؤسستك التعايش معها.
* بيانات التدريب. نماذج الذكاء الاصطناعي هي محركات تنبؤ إحصائية تتعلم من البيانات التي تُدرّب عليها. ويعني محتوى بيانات التدريب أن النموذج قد يرث مجموعة واسعة من التحيزات التاريخية، والمعتقدات البشرية الطبيعية إحصائياً، والافتراضات الثقافية الخاصة.
* التعليمات الأساسية. عادةً ما يُزوّد المطورون نماذج الذكاء الاصطناعي التوليدي بمجموعة أساسية من التوجيهات التي تُشكّل وتُقيّد المخرجات التي ستُقدّمها النماذج (يُشار إليها غالباً باسم «توجيهات النظام» أو «توجيهات السياسة» في الوثائق الفنية). على سبيل المثال، تُضمّن شركة «إنثروبيك» دستوراً في نماذجها يُلزم النماذج بالعمل وفقاً لنظام قيم مُحدّد. وبينما تهدف القيم التي يختارها المطورون عادةً إلى نتائج يعتقدون أنها مفيدة للبشرية، لا يوجد سبب لافتراض موافقة شركة أو قائد أعمال مُعيّن على هذه الخيارات.
نادراً ما يبدأ عدم التوافق بفشلٍ لافتٍ للنظر؛ بل يظهر أولاً في تناقضات صغيرة لكنها دالة. ابحث عن التناقضات المباشرة وتناقضات النبرة، على سبيل المثال، في النماذج التي ترفض المهام أو روبوتات الدردشة التي تتواصل بأسلوبٍ لا يتوافق مع هوية الشركة.
تتبّع الأنماط غير المباشرة، مثل قرارات التوظيف المُشوّهة إحصائياً، أو قيام الموظفين «بتصحيح» مخرجات الذكاء الاصطناعي بشكلٍ روتيني، أو زيادة شكاوى العملاء بشأن الخدمة غير الشخصية. وعلى المستوى النظامي، راقب طبقات الرقابة المتنامية، والتحولات التدريجية في المقاييس الاستراتيجية، أو الخلافات الثقافية بين الإدارات التي تُدير مجموعات ذكاء اصطناعي مختلفة. أيٌّ من هذه الأمور يُعدّ إنذاراً مبكراً لانحراف إطار قيم نظام الذكاء الاصطناعي عن إطارك.
أربع طرق للاستجابة
1. اختبر النموذج من خلال توجيهات استفزازية. درّب النموذج على سيناريوهات استفزازية مُتعمدة لكشف الحدود الفلسفية الخفية قبل النشر.
2.استجوب الجهة المورّدة. اطلب بطاقات النموذج، وملخصات بيانات التدريب، وأوصاف طبقة الأمان، وسجلات التحديث، وبيانات صريحة للقيم المُضمنة.
3.طبّق المراقبة المستمرة. حدد تنبيهات آلية للغة الشاذة، والانحرافات الديموغرافية، والقفزات المفاجئة في المقاييس، بحيث يتم اكتشاف عدم التوافق مبكراً، وليس بعد الأزمة.
4. أجرِ تدقيقاً فلسفياً كل ربع سنة. شكّل فريق مراجعة متعدد الوظائف (خبراء قانونيين، وأخلاقيين، وخبراء في المجالات المختلفة) لأخذ عينات من المخرجات، وتتبع القرارات وصولاً إلى خيارات التصميم، والتوصية بتصحيحات المسار.
تأتي كل أداة ذكاء اصطناعي مصحوبة بقيم. ما لم يتم بناء كل نموذج داخلياً من الصفر -وهو أمرٌ لن تفعله- فإن نشر أنظمة الذكاء الاصطناعي سيتضمن استيراد فلسفة جهة أخرى مباشرةً إلى عملية اتخاذ القرار أو أدوات الاتصال لديك. لذا فإن تجاهل هذه الحقيقة يُعرّضك لنقطة ضعف استراتيجية خطيرة.
مع اكتساب نماذج الذكاء الاصطناعي استقلالية، يصبح اختيار الجهات الموردة مسألة تتعلق بالقيم بقدر ما تتعلق بالتكاليف والوظائف.
عند اختيار نظام ذكاء اصطناعي، فأنت لا تختار قدرات معينة بسعر محدد فحسب، بل تستورد نظاماً من القيم. لن يجيب روبوت المحادثة الذي تشتريه على أسئلة العملاء فحسب؛ بل سيُجسّد وجهات نظر مُحددة حول التواصل المُناسب وحل النزاعات. لن يُحلل نظام الذكاء الاصطناعي الجديد للتخطيط الاستراتيجي البيانات فحسب؛ بل سيُعطي الأولوية لأنواع مُعينة من الأدلة، ويُرسّخ افتراضات حول السببية والتنبؤ. لذا، فإن اختيار شريك ذكاء اصطناعي يعني اختيار من سيُشكّل رؤيته العالمية للعمليات اليومية.
قد يكون التوافق التام هدفاً بعيد المنال، لكن اليقظة المُنضبطة ليست كذلك. إن التكيف مع هذا الواقع يتطلب من القادة تطوير نوع جديد من «الثقافة الفلسفية»: القدرة على إدراك متى تعكس مخرجات الذكاء الاصطناعي أنظمة القيم الأساسية، وتتبع القرارات إلى جذورها الفلسفية، وتقييم مدى توافق هذه الجذور مع أهداف المؤسسة. ستجد الشركات التي تفشل في دمج هذا النوع من القدرات أنها لم تعد تسيطر بشكل كامل على استراتيجيتها، أو هويتها.
* مجلة «فاست كومباني» خدمات «تريبيون ميديا»
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
منذ 40 دقائق
- الرجل
مستثمر أمريكي: الذكاء الاصطناعي يهدد 80% من الوظائف
في تصريح جريء يعكس عمق التحولات الجذرية التي يشهدها العالم، حذّر المستثمر الأمريكي من أصل هندي فينود خوسلا Vinod Khosla من مستقبل قاتم يلوح في الأفق بالنسبة لسوق العمل، مؤكدًا أن تقنيات الذكاء الاصطناعي ستقضي على ما نسبته 80% من الوظائف المرتفعة القيمة خلال السنوات الخمس المقبلة، مشيرًا إلى أن الحاجة إلى العمل ستنتهي تمامًا بحلول عام 2040. جاءت هذه التوقعات خلال ظهوره في بودكاست استضافه جاك ألتمان Jack Altman، الشقيق الأصغر لـسام ألتمان Sam Altman، المدير التنفيذي لشركة OpenAI. وخلال اللقاء، تحدّث خوسلا عن التغير العميق الذي سيطرأ على الشركات العالمية، مشبّهًا ما يحدث اليوم بثورة التحول الرقمي التي أطاحت بعمالقة مثل شركة Toys R Us وشركة نوكيا Nokia، الذين عجزوا حينها عن مجاراة التسارع التكنولوجي. من هو فينود خوسلا؟ عُد خوسلا أحد أبرز الأسماء في عالم الاستثمار التكنولوجي، وواحدًا من مؤسسي شركة Sun Microsystems، التي اشتهرت بأنظمة تشغيلها الخاصة قبل أن تستحوذ عليها Oracle لاستخدام تقنياتها في قواعد البيانات. وتُقدّر ثروته بنحو 9.1 مليار دولار، ويُعرف عنه دعمه المبكر لشركات ناشئة غيّرت شكل الصناعة الرقمية. هل الذكاء الاصطناعي على وشك القضاء على 80% من الوظائف؟ - AFP وفقًا لخوسلا، فإن تطور الذكاء الاصطناعي بوتيرة غير مسبوقة سيجعل من أغلب الوظائف الحالية، خاصة تلك التي تعتمد على التفكير التحليلي أو المهارات المكتبية، قابلة للاستبدال. وقال: "بحلول عام 2040، لن نكون بحاجة إلى العمل من أجل البقاء الاقتصادي. سيعمل الإنسان فقط لأنه يريد، لا لأنه مضطر". وأضاف أن الأنظمة الآلية ستُصبح أكثر شمولًا وانتشارًا، ما سيؤدي إلى تقليص الحاجة إلى القوى العاملة البشرية، حتى في القطاعات التي كان يُعتقد سابقًا أنها محصّنة، مثل الخدمات القانونية، والمالية، والتحرير الإعلامي. توقّع خوسلا أن تصبح الروبوتات المنزلية منتشرة عالميًا بحلول عام 2030، مؤكدًا أنها ستؤدي المهام اليومية التي يتهرّب منها الإنسان، كالتنظيف، والطهي، والأعمال الرتيبة. هذا الواقع الجديد سيُحدث تحولًا في نمط الحياة، ويُعيد تعريف أدوار البشر في بيئاتهم الشخصية والمهنية. ورغم إشادته بالإمكانات الهائلة لتقنيات الذكاء الاصطناعي، أبدى خوسلا قلقًا من احتمال إساءة استخدام هذه التقنيات من قبل الأنظمة القمعية. وقال: "هناك خطر حقيقي أن تستخدم بعض الحكومات الذكاء الاصطناعي كوسيلة للسيطرة، لا للتطوير. كما أن توظيفه في الحروب قد يُغيّر قواعد اللعبة بشكل لا رجعة فيه". دعا المستثمر الحكومات إلى تبنّي نهج مسؤول تجاه تطوير الذكاء الاصطناعي، مؤكدًا أن التحديات الأخلاقية والتشريعية أصبحت ضرورة لا يمكن تأجيلها في ظل ما وصفه بـ"ثورة غير مسبوقة في تاريخ البشرية".


عكاظ
منذ ساعة واحدة
- عكاظ
الاتحاد الأوروبي: قواعد صارمة لنماذج الذكاء الاصطناعي النظامية
أصدرت المفوضية الأوروبية إرشادات تهدف إلى مساعدة نماذج الذكاء الاصطناعي التي تُعتبر ذات مخاطر نظامية على الامتثال لتشريعات الاتحاد الأوروبي بشأن الذكاء الاصطناعي (قانون الذكاء الاصطناعي). تأتي هذه الخطوة للرد على الانتقادات من بعض الشركات بشأن الأعباء التنظيمية للقانون، مع توفير مزيد من الوضوح للشركات التي تواجه غرامات تراوح بين 7.5 مليون يورو (8.7 مليون دولار) أو 1.5% من الإيرادات السنوية، وتصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية في حالة المخالفات. قانون الذكاء الاصطناعي، الذي دخل حيز التنفيذ العام الماضي، سيبدأ تطبيقه في 2 أغسطس 2025 على نماذج الذكاء الاصطناعي ذات المخاطر النظامية والنماذج الأساسية التي طورتها شركات مثل قوقل، أوبن إيه آي، ميتا، أنثروبيك، وميسترال. وتمتلك الشركات مهلة حتى 2 أغسطس 2026 للامتثال الكامل للتشريع. وتصنف المفوضية نماذج الذكاء الاصطناعي ذات المخاطر النظامية على أنها تلك التي تمتلك قدرات حوسبية متقدمة للغاية، وقد تؤثر بشكل كبير على الصحة العامة، السلامة، الحقوق الأساسية، أو المجتمع. وستُطالب هذه النماذج بإجراء تقييمات للنماذج، تقييم وتخفيف المخاطر، إجراء اختبارات مقاومة، الإبلاغ عن الحوادث الخطيرة إلى المفوضية، وضمان حماية أمنية كافية ضد السرقة وسوء الاستخدام. أما نماذج الذكاء الاصطناعي العامة أو الأساسية، فستخضع لمتطلبات الشفافية، بما في ذلك إعداد وثائق تقنية، اعتماد سياسات حقوق الطبع والنشر، وتقديم ملخصات تفصيلية عن المحتوى المستخدم في تدريب الخوارزميات. وقالت هينا فيركونن، المسؤولة عن التكنولوجيا في الاتحاد الأوروبي: «تدعم هذه الإرشادات التطبيق السلس والفعّال لقانون الذكاء الاصطناعي». أخبار ذات صلة


الرياض
منذ ساعة واحدة
- الرياض
أربعة مؤشرات وطنية تُعزّز موقع المملكة ضمن أفضل خمس حكومات رقمية عالميًا
أظهرت أربعة مؤشرات وطنية أطلقتها هيئة الحكومة الرقمية في المملكة العربية السعودية تقدّمًا نوعيًا في مسيرة التحول الرقمي الحكومي، مما يُعزز مكانة المملكة في قائمة الدول الرائدة رقميًا على مستوى العالم، ويؤكد التزام الجهات الحكومية برؤية المملكة 2030 نحو حكومة رقمية فعالة تضع المستفيد في قلب الخدمة. وتشمل المؤشرات الأربعة: قياس التحول الرقمي، نضج التجربة الرقمية، تبني التقنيات الناشئة، وكفاءة المحتوى الرقمي. وتعمل هذه المؤشرات على تقييم أداء الجهات الحكومية بناءً على معايير عالمية، وتحديد مستوى النضج الرقمي الذي تحقق خلال السنوات الماضية. وسجّل مؤشر التحول الرقمي، منذ إطلاقه بصيغته المطورة عام 2021، تطورًا ملحوظًا؛ إذ ارتفع من 69.39% في عامه الأول إلى 87.14% في عام 2024، وهو ما يعكس تحولًا تدريجيًا في ثقافة الأداء المؤسسي نحو الرقمنة المستدامة. أما مؤشر نضج التجربة الرقمية، الذي يقيس فعالية المنصات والخدمات الإلكترونية الحكومية منذ بدء العمل به في عام 2022، فقد شهد تحسنًا لافتًا، إذ ارتفع من 77.26% إلى 85.04% في عام 2024، مما يعكس تحسينات مستمرة في تجربة المستخدم وجودة التفاعل الرقمي. وفيما يخص مؤشر تبني التقنيات الناشئة، فقد سجل في عام 2023 نسبة 60.35%، لترتفع إلى 70.70% في عام 2024، وهو ما يؤشر إلى توجه واعٍ نحو إدماج تقنيات المستقبل في البنية الحكومية الرقمية. وسجّل مؤشر كفاءة المحتوى الرقمي، الذي أطلق في عام 2024، نسبة 71.40%، موضحًا جودة الرسائل والمعلومات المنشورة عبر المواقع الحكومية، ومدى توافقها مع المعايير المهنية واللغوية المطلوبة. وأكدت هيئة الحكومة الرقمية أن هذه المؤشرات الوطنية لا تُعد أدوات قياس فحسب، بل تمثل مرجعًا تشغيليًا تستند إليه الجهات الحكومية لتحسين خدماتها، ورفع مستوى رضا المستفيدين، ودعم التوجه نحو التحول الشامل، بما يضع المملكة في مصاف الدول الأكثر تقدمًا في مجال الحكومة الرقمية عالميًا.