
كيف يُحوّل الذكاء الاصطناعي المدارس إلى عوالم تفاعلية؟
في المجرة الخيالية "ايه آي-404"، يختفي ابن الحارس الكوني "كاتاكليسمس" ويتولى كليمان ابن السبع سنوات مهمة العثور عليه بمساعدة الذكاء الاصطناعي داخل قاعة الكمبيوتر في مدرسته الواقعة جنوب فرنسا.
بدأت معلّمته ناتالي ميغيل اعتماد الذكاء الاصطناعي عام 2019، أي قبل ثلاث سنوات من طرح برنامج "تشات جي بي تي" الشهير.
تُخضع ميغيل تلاميذها في المستوى الثاني من المرحلة الابتدائية في مدرسة "جورج ساند" في كولومييه بالقرب من تولوز، لتمارين على برنامجين مدعومين بالذكاء الاصطناعي هما "ماتيا" (للرياضيات) و"لاليلو" (للغة الفرنسية)، وكلاهما فاز بمناقصة أطلقتها وزارة التعليم الوطني.
الروبوت المساعد الصغير
وفقاً لـ" أ ف ب"، يجري كليمان تمرينه عبر برنامج "ماتيا" خلال يوم جمعة في بداية فصل الربيع. يفكّر للحظات قبل أن يخمّن النتيجة الصحيحة لعملية حسابية. ثم يغيّر العالم الافتراضي ويبدأ بلعبة أخرى هي عبارة عن تمرين رياضي عليه أن يعثر فيه على الرقم التالي في تسلسل. بفضل جوابه، ينتقل صاروخه الصغير من كوكب إلى آخر.
في كل مرة يعطي فيها كليمان إجابة صحيحة، يهنئه الروبوت المساعد الصغير الذي يحمل اسم "ماتيا" أيضاً، بواسطة قصاصات ورقية. أما الطفل ومن خلال إكمال تمرين، يمكنه إعادة إضاءة إحدى نجوم المجرة "ايه آي-404" التي أطفأها "كاتاكليسموس" إزاء غضبه لإضاعة ابنه "كوزينوس".
يهدف برنامج "ماتيا" إلى "إعادة تحسين علاقة التلاميذ بالرياضيات" في فرنسا، حيث تواجه هذه المادة من "عدم رغبة" من جانب التلاميذ، وفق ما يوضح بول إسكوديه، أحد مؤسسي شركة "بروف آن بوش" الناشرة لـ"ماتيا".
ويقول "إذا أردنا أن ننمّي لدى الأطفال مشاعر إيجابية تجاه الرياضيات، فنحن بحاجة إلى تهنئتهم عندما يجيبون عن الأسئلة بشكل صحيح، ولكن علينا أيضاً أن نقول لهم عندما يخطئون إنّ الخطأ ليس مشكلة، بل ينبغي المحاولة مرة أخرى ونوفر لهم بعض المساعدة".
بالإضافة إلى هذه الخطوات التشجيعية، يمكّن الذكاء الاصطناعي "ماتيا" من تقييم مستوى التلاميذ واقتراح تمارين وفقاً للنتيجة، لأن "التمارين مصممة خصيصاً للطفل، ولا تتضمن أسئلة صعبة جداً" بحسب ميغيل. وتضيف المعلمة "أما بالنسبة إلى المتفوقين، فالأمر على العكس تماماً. يتكيّف البرنامج مع كل طفل، ويصبح التلاميذ أكثر تحفّزاً لأنّ التمارين تكون تدريجية".
بالنسبة إلى التلاميذ الذين تتراوح أعمارهم بين 7 أو 8 سنوات، لا يزال مفهوم الذكاء الاصطناعي غير واضح لهم. تقول إينيس "أشعر وكأنه شخص حقيقي يتحدث معي ويشرح لي التمارين. هو يساعدني في الصف أيضاً".
"نهج تكييفي"
يقول الرئيس السابق لمدرسة تولوز مصطفى فورار والذي ترك منصبه في آذار/مارس "إنّ المساهمة الأساسية للذكاء الاصطناعي تكمن في النهج التكييفي المُصمّم خصيصاً للتحديات التي تواجه كل تلميذ. فعندما تكون لديك مجموعة متنوعة من التلاميذ، يكون الأمر صعباً جداً على المدرّسين، خصوصاً إذا كان عدد الطلاب في الصف كبيراً".
وفورار هو مَن أطلق التجربة مع برنامجي "ماتيا" و"لاليلو" اللذين يُستخدمان راهناً على نطاق واسع في المدرسة، إذ يستعملهما "1500 صف دراسي في المجموع"، بحسب المدير السابق.
وتقول ميغيل "أستطيع من ناحية معرفة أي أطفال هم الأكثر معاناة لمساعدتهم في الصف وتكييف أسلوبي في التدريس. ومن ناحية أخرى، أستطيع معرفة الأطفال الأكثر نشاطاً ويستطيعون بدورهم شرح المفاهيم لتلاميذ آخرين".
ويشير أوليفييه زوكاراتو، والد أحد التلاميذ، إلى أن "النتائج في ما يخص عملية التعلّم ملموسة".
يؤكد نجله إيتان (7 سنوات) أنّه يحب البرنامجين ويستخدمهما في عطلات نهاية الأسبوع. ويقول والده "إنه أمر جذاب للطفل لأنه يتضمن بُعداً مرحاً، مع مفاهيم النجاح والتصنيف الذي يريدون التقدم فيه".
تقول إليسا البالغة 8 سنوات "لقد وجدت ذلك صعباً لأنني لا أحب الرياضيات"، لكن "بما أنني أحب ماتيا، فقد حفزني ذلك على دراسة الرياضيات".
ويوضح المفتش دافيد سيمون "لا يمكننا تجاهل الذكاء الاصطناعي، لأن التلاميذ ولدوا في عالم تنتشر فيه هذه التكنولوجيا. لذا، علينا بدورنا أن نعلّمهم كيفية استخدامها بشكل صحيح".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

المدن
منذ 5 أيام
- المدن
اختراع يمكّن الحيوانات التحدّث بلغتنا: عصر الحوار بين الأنواع
هل تساءلت يوماً عمّا يحاول حيوانك الأليف إخبارك به؟ أو إذا كان يحتاج إلى المزيد من الطعام، أو أنه يحاول أن يحذرك من شيءٍ ما أو من رجلٍ غريب يقف على مقربة من منزلك ويشكل لك تهديداً وشيكاً؟ تخيل أنك ستستيقظ في يومٍ من الأيام وتفهم كل ما يقوله لك حيوانك الأليف بلغةٍ إنكليزية أو عربية واضحة. هذا المشهد سيتحول إلى حقيقة بفضل شركة "بايدو" الصينية التي تهدف إلى فكّ شيفرة لغة الحيوانات باستخدام الذكاء الاصطناعي. أصوات الحيوانات لغة بشرية قدمت شركة "بايدو" الصينية هذا الأسبوع براءة اختراع إلى الإدارة الوطنية الصينية للملكية الفكرية لنظام ذكاء اصطناعي يُستخدم لتحويل أصوات الحيوانات إلى لغةٍ بشرية. ولا بد لنا أن نشير هنا بأنها ليست المرة الأولى التي يحاول فيها العلماء، أو حتى عمالقة التكنولوجيا، فك شيفرة التواصل مع الحيوانات. ومع ذلك، تُعد براءة اختراع "بايدو" أحدث وأهم الجهود المبذولة في استخدام الذكاء الاصطناعي لتحقيق هذا الهدف. وفقاً لبراءة الاختراع، سيُستخدم نظام الذكاء الاصطناعي الجديد لجمع بيانات الحيوانات، مثل الأصوات الصوتية والأنماط السلوكية والإشارات الفسيولوجية، ويصار إلى تحليلها بواسطة نظام ذكاء اصطناعي خاص لفهم الحالة العاطفية للحيوان. وبعد ذلك يجري ربط البيانات المجمعة بالمعاني الدلالية وترجمتها إلى اللغة البشرية لتحسين دقة وكفاءة الاتصال بين البشر والحيوانات بشكلٍ أفضل. تطبيق على الهاتف المحمول ولا يقتصر مشروع "بايدو" الطموح على الصوت فحسب، إذ تُحدّد براءة الاختراع، المقدّمة إلى الإدارة الوطنية للملكية الفكرية في الصين، نظاماً يجمع ويعالج مجموعةً من سلوكيات الحيوانات تشمل الأصوات، وتغيرات لغة الجسد، والإشارات البيولوجية بدءاً من هزّ الذيل وصولاً إلى المشي بعصبية. وتَعِد "بايدو" بأن النظام سيُتيح تواصلاً وفهماً عاطفياً أعمق بين الحيوانات والبشر، مبشّرةً بعصرٍ جديد من الحوار بين الأنواع. وحسب الخبراء، من المرجح أن تكون هذه التقنية عبارة عن تطبيق توجه هاتفك عبره نحو حيوانك الأليف، وتسجل حركاته وصوته، وتحصل على ترجمةٍ فورية لما يقوله. ما الذي يميز "بايدو"؟ ليست "بايدو" المجموعة الوحيدة التي ينكبّ تركيزها على فهم لغة الحيوانات، فهناك "مشروع أنواع الأرض"، المدعوم من عمالقة التكنولوجيا مثل "لينكد إن"، يحاول فك شيفرة التواصل بين الأنواع منذ عام 2017. وقد تمكن علماء دانماركيون مؤخراً من تفسير همهمات الخنازير على أنها تعبيراتٍ عاطفية باستخدام الذكاء الاصطناعي. لكن ما يميز "بايدو" هو أنها واحدة من أبرز مطوري الذكاء الاصطناعي في الصين، حيث استثمرت الشركة بكثافة في نماذج اللغات على نطاق واسع، بما في ذلك روبوتها "إرني 4.5 توربو"، المنافس الطموح لبرنامج "تشات جي بي تي"، ورغم أن روبوت الدردشة هذا لم يتفوق على نظرائه الأميركيين بعد، إلا أن اقتحام "بايدو" الجريء لعالم الحيوان يُشير إلى أن الشركة تفكر بما يتجاوز الحوار البشري. ومع أن البعض قد يسخر منها، إلا أن الانعكاسات الإيجابية لهذه التقنية كثيرة. وفي حال نجاحها، قد يُحدث اختراع "بايدو" ثورة في رعاية الحيوانات الأليفة، والتشخيص البيطري، وبحوث الحياة البرية، وحتى الزراعة. كما يُمكنه أن يُغير الرابط العاطفي بين البشر والحيوانات من الافتراض إلى التعبير.


شبكة النبأ
١٥-٠٥-٢٠٢٥
- شبكة النبأ
كيف يمكن للعلماء تبني استخدام الذكاء الاصطناعي؟
أثارت تقنية الذكاء الاصطناعي التوليدي العديد من المسائل الأخلاقية حول كيفية تطويرها واستخدامها، خاصةً فيما يتعلق بالبحث العلمي. حيث توجد العديد من القضايا -الخلافية في كثير من الأحيان- المرتبطة بحقوق الملكية الفكرية، أو بالتأثير البيئي، أو بتوسيع الفجوة بين المجتمعات، أو بالعواقب الاقتصادية لاستخدام تلك التقنية... ربما يظن البعض أن استخدام "الذكاء الاصطناعي التوليدي" في مجال البحث العلمي يقتصر فقط على المساعدة في النشر العلمي. فبعد إطلاق النموذج الأول من تشات جي بي تي بنهاية عام 2022، بدأ الباحثون في استكشاف قدرات هذا "النموذج اللغوي الكبير" في عمليات التحرير والمراجعة اللغوية لمسودات أوراقهم البحثية قُبيل تقديمها للنشر، وذلك بهدف إنتاج أوراق بحثية عالية الجودة. لكن الأمر تطور بسرعة ليصبح الذكاء الاصطناعي التوليدي مشاركًا في عملية الكتابة بحد ذاتها، فقد تم نشر أول ورقة بحثية علمية حملت قائمة مؤلفيها اسم تشات جي بي تي مطلع عام 2023. الأمر الذي أحدث جدلًا علميًا وأخلاقيًا في أوساط مجتمع البحث العلمي استمر إلي يومنا هذا. وبرغم التطور المتسارع لقدرات نماذج الذكاء الاصطناعي التوليدي، وتوفر أكثر من أداة، ركز العلماء على عملية النشر العلمي بشكل أساسي، متغافلين بذلك عن قدرات تلك النماذج الفائقة التي يمكن توظيفها في عملية البحث العلمي ذاته. الذكاء الاصطناعي التوليدي في خدمة البحث العلمي معظم نماذج الذكاء الاصطناعي التوليدي الشائعة -مثل تشات جي بي تي، جيميناي، كو-بايلوت، كلود، وغيرها- هي بشكل رئيسي للاستخدام العام لأغراض غير متخصصة. إلا أنه مؤخرًا تم تطوير نماذج أخرى أكثر تخصصًا يمكنها القيام بمهام تتعلق بالبحث العلمي بشكل مباشر، بالإضافة إلى تطوير نسخ من نماذج الاستخدام العام تمتلك القدرة على طرح الأسئلة والتحليل والاستنتاج في إطار البحث العلمي. فقد طورت شركة جوجل نظام "وكيل الذكاء الاصطناعي" يدعى "العالِم المُساعِد" (co-scientist)، يمكنه مساعدة العلماء في تطوير فرضيات علمية ومقترحات بحثية جديدة والمساعدة في تسريع البحث العلمي عبر تخصصات متعددة. وقد قام فريق بحثي من "إمبريال كولدج لندن" (Imperial College London)، باختبار قدرات هذا النموذج، الذي تمكن من الوصول إلى نتائج بحثية في مشكلة علمية تتعلق بمقاومة المضادات الحيوية في غضون 48 ساعة فقط، الأمر الذي استغرق الفريق البحثي قرابة عقد من الزمن للوصول للنتائج ذاتها. كما يمكن للنماذج المتقدمة من الذكاء الاصطناعي التوليدي للاستخدام العام -مثل OpenAI o1- أن تساعد العلماء في مهام أكثر تعقيدًا عبر اتباع منهجيات التفكير العلمي، لتتجاوز بذلك الأدوار التقليدية المتعلقة فقط بالكتابة والنشر. "يمكن للذكاء الاصطناعي التوليدي تعزيز البحث العلمي من خلال تسريع وإثراء توليد الأفكار -خاصة بين التخصصات وعبر المجالات المتعددة التي قد لا تكون واضحة في مجال معين- وأتمتة تحليل البيانات، وتقليل الوقت والتكلفة للعديد من المهام المهمة لكنها رتيبة ومرهقة لإعداد البيانات ومعالجتها." كما يوضح نزار حبش، أستاذ علوم الحاسوب بجامعة نيويورك أبوظبي. خلاصة الأمر أن أدوات الذكاء الاصطناعي الحالية يمكنها دعم دورة البحث العلمي بأكملها؛ بدءًا من توليد الأفكار وصياغة الفرضيات وتصميم المنهجيات، مرورًا بالتنفيذ من جمع للبيانات وترميزها وتحليلها، وانتهاءً بكتابة الأوراق البحثية ومراجعتها ونشرها بدوريات علمية محكمة. وللوصول لذلك، تضمن النصائح التالية استخدام تلك التكنولوجيا بشكل ناجح وأخلاقي في الوقت ذاته. 1- تعلم الذكاء الاصطناعي التوليدي ربما يبدو ذلك بديهيًا، لكن تدريب العلماء على أدوات الذكاء الاصطناعي يجب أن يتجاوز مجرد استخدام تلك الأدوات إلى فهم كيفية عملها وماهية قدراتها وحدود إمكانياتها، مما يساعد في تحديد أفضل طريقة لتبنى تلك التقنية، ومن ثم بناء قدرات قاعدة عريضة من الباحثين الذين يمكنهم استخدام الذكاء الاصطناعي بشكل فعال. يوضح هايرو لوغو-اوكاندو، عميد كلية الاتصال بجامعة الشارقة، "يرى العديد من الباحثين أنه (الذكاء الاصطناعي التوليدي) شيء يمكن تعلمه لاحقًا، ولا يركزون بما فيه الكفاية على فهم فائدته. نعم، لقد كان هناك الكثير من الضجة حوله، لكن الذكاء الاصطناعي التوليدي ليس شيئًا ثانويًا في البحث العلمي. بل هو محوري. ويقع على عاتق الباحثين فهم كيف يمكن استخدامه وأين يجب استخدامه." 2- وضع استراتيجية للذكاء الاصطناعي التوليدي بالتوازي مع بناء قدرات العلماء، ينبغي تطوير استراتيجيات تبني استخدام الذكاء الاصطناعي التوليدي داخل الجامعات والمؤسسات البحثية. يتضمن ذلك بناء رؤية واضحة حول الدور الذي يمكن أن تلعبه تلك التقنية في البحث العلمي، مع الأخذ بعين الاعتبار سياسات الأطراف الفاعلة الأخرى من الجهات الحكومية وجهات التمويل ومؤسسات النشر العلمي، وهو النهج الذي اتبعه عدد من مؤسسات التعليم العالي والبحث العلمي في دولة الإمارات العربية المتحدة، كما يوضح لوغو-اوكاندو. فقد استحدثت جامعة أبو ظبي منصبًا قياديًا جديدًا مطلع العام الجاري يدعى "نائب مدير الجامعة للذكاء الاصطناعي والتميز التشغيلي"، والذي يختص بتطوير وتنفيذ استراتيجيات استخدام تطبيقات الذكاء الاصطناعي التوليدي فيما يتعلق بالبحث العلمي وطرق التدريس. 3- التعامل مع الذكاء الاصطناعي التوليدي كشريك وليس كبديل دائمًا ما يكون السؤال حول كيفية التعامل مع الذكاء الاصطناعي التوليدي مطروحًا، خاصةً مع التخوف من قدرة الذكاء الاصطناعي التوليدي على إنتاج معلومات تبدو مقنعة لكنها غير دقيقة أو مختلقة- وهو ما يُدعى "الهلوسة" (Hallucination). لذا تعد معاملة الذكاء الاصطناعي كشريك وليس كبديل هي الطريقة المُثلى لاستخدامه في البحث العلمي. حيث يظل الباحث البشري هو المسؤول عن التفكير واتخاذ القرارات والتحقق من مخرجات الذكاء الاصطناعي، بينما يعمل الذكاء الاصطناعي كمساعد ذي قدرات فائقة على أداء بعض المهام في وقت أقصر وبتكلفة أقل. يؤكد ذلك حبش قائلًا: "الذكاء الاصطناعي هو أداة تعزز الخبرة البشرية ولا تستبدلها. وتبقى المسؤولية النهائية في ما يخص الدقة العلمية على عاتق العلماء والباحثين... فيجب أن يكون (الباحثون) مدرَّبين بشكل جيد ومتخصصين بعمق في مجالاتهم الخاصة حتى لا ينخدعوا بهلوسة الذكاء الاصطناعي." 4- إدراك تحيزات الذكاء الاصطناعي التوليدي "تم تدريب جميع نماذج الذكاء الاصطناعي التوليدي إلى حد كبير على بيانات من مصادر 'غربية' في أغلبها، وبالتالي فهي غير متنوعة ولذا فهي متحيزة. حتى طريقة تصميمها تضم تحيّزًا، الأمر الذي قد لا نفهمه الآن وقد لا يظهر إلا لاحقًا حتى من دون أن ندركه .. لذلك فالمخرجات دائمًا ما ستكون ذات تحيّز متأصل، ويجب أن نكون منتبهين لذلك." كما تبين رنا دجاني، أستاذ علم الأحياء الخلوي الجزيئي بالجامعة الهاشمية. يُعد إدراك ذاك التحيز المتجذر بنماذج الذكاء الاصطناعي التوليدي أمرًا بالغ الأهمية بالنسبة للعلماء. حيث يجب دائمًا أخذه في الحسبان عند استخدامه لأغراض البحث العلمي. وبناءًا على ذلك، فإن دور الباحثين يتمثل في المزيد من التحقق درءًا للتحيز، والتقييم النقدي المستمر لنتائج المهام الموكلة إلى الذكاء الاصطناعي، وبذلك يمكن التأكد من استخدام أكثر تنوعًا وشمولًا وتوازنًا دون الوقوع في فخ تلك التحيزات. 5- استخدام وتطوير ذكاء اصطناعي متخصص في البحث العلمي بالرغم من انتشار نماذج الذكاء الاصطناعي ذات الاستخدام العام، إلا أن هناك بعض النماذج المتخصصة التي يُنصح باستخدامها، والتي تتميز بنتائج أفضل في المهام المتعلقة بالبحث العلمي. وذلك مثل نموذج AlphaFold المصمم لتوقع البنية الهيكلية لجزيئات البروتين، ونموذج Elicit المتخصص في تلخيص الأدبيات العلمية، ونموذج GENTRL الذي يمكن استخدامه في عمليات تصميم المركبات الدوائية؛ فتلك النماذج مدرَّبة على مجموعات بيانات ذات صلة، كما أنها مُعدَّلة بدقة لتناسب عملية البحث العلمي. بجانب ذلك يمكن للعلماء -في مجال بعينه أو عبر تخصصات متعددة- التعاون لتطوير نماذج ذات تخصص دقيق بغرض القيام بمهام علمية محددة للغاية. على سبيل المثال، قام فريق بحثي متعدد التخصصات بتطوير نموذج يدعى ECgMPL يمكنه تشخيص سرطان بطانة الرحم بدقة تبلغ 99.26%، وفقًا للدراسة المنشورة مطلع العام الجاري. 6- الاستخدام الأخلاقي للذكاء الاصطناعي أثارت تقنية الذكاء الاصطناعي التوليدي العديد من المسائل الأخلاقية حول كيفية تطويرها واستخدامها، خاصةً فيما يتعلق بالبحث العلمي. حيث توجد العديد من القضايا -الخلافية في كثير من الأحيان- المرتبطة بحقوق الملكية الفكرية، أو بالتأثير البيئي، أو بتوسيع الفجوة بين المجتمعات، أو بالعواقب الاقتصادية لاستخدام تلك التقنية. إذ يتشابك كل ذلك مع البحث العلمي، وهو الأمر الذي لا يجب إغفاله على الإطلاق. فرغم فوائد أدوات الذكاء الاصطناعي، إلا أنها قد تُستخدم في تزييف البيانات، وإنشاء مراجع وهمية، وإنتاج أبحاث كاملة دون إشراف بشري. كذلك قد تُستخدم نماذج الذكاء الاصطناعي في تضخيم التحيز ضد الفئات المهمشة. وقد أظهرت دراسة أن أحد نماذج الذكاء الاصطناعي قام بشكل انتقائي، بتصنيف المرضى من النساء وذوي البشرة الداكنة وأصحاب الدخل المنخفض على أنهم أصحاء، ما قد يؤدي إلى إغفال تشخيص الحالات الطبية والحرمان من العلاج المناسب.


النهار
٠١-٠٥-٢٠٢٥
- النهار
هل يُفقدنا الذكاء الاصطناعي قدرتنا على اتخاذ القرار؟
منذ الإطلاق الواسع لأداة "تشات جي بي تي" في عام 2023، بدأت معظم المؤسسات بتجربة استخدام الذكاء الاصطناعي التوليديّ بدرجات متفاوتة. وقد بيّنت دراسة حديثة صادرة عن كلية الإدارة الأوروبية (ESMT) في برلين أن الذكاء الاصطناعي يمكن أن يُحسّن من كفاءة وفاعلية الأعمال، لكن المبالغة في الاعتماد عليه قد تضعف القدرات البشرية على اتخاذ القرار. ديناميكيات تؤجج الإفراط في استخدام الذكاء الاصطناعي تشير الدراسة إلى أن بعض العوامل التنظيمية في داخل الشركات تؤدي إلى اعتماد مفرط على أدوات الذكاء الاصطناعي في عملية اتخاذ القرار، خاصةً في بيئات العمل التي تشهد مستويات عالية من التفويض الإداري، إذ وجد الباحثون أن المديرين يعاقبون الموظفين، في أغلب الأحيان، إذا خالفوا توصيات الذكاء الاصطناعي، خصوصاً عند اتخاذهم قرارات غير موفّقة. هذا النمط من العقاب يدفع الموظفين إلى مواءمة قراراتهم بشكل مفرط مع توصيات الذكاء الاصطناعي، حتى لو كانوا يملكون معرفة ضمنية أو حُكمًا مهنيًا مخالفًا. ويؤدي هذا التوجه على المدى الطويل إلى نتائج دون المستوى المطلوب. ويُشير الباحثون إلى أن المشكلة لا تكمن في القدرات التقنية للذكاء الاصطناعي بحد ذاتها، بل في الحوافز السلوكية والتنظيمية التي تُشكل طريقة استخدام هذه الأدوات في داخل المؤسسات. كيف يمكن تحسين هذا الواقع؟ من أجل الاستفادة من الذكاء الاصطناعي من دون التضحية بالقدرات البشرية، تقترح الدراسة إعادة النظر في كيفية اتخاذ القرارات ومتابعتها في داخل المؤسسات. ويكمن الحلّ في تمكين المديرين من تقييم منطق القرارات التي تخالف توصيات الذكاء الاصطناعي، خصوصاً عندما تكون هذه القرارات مدعومة بمعرفة ضمنيّة أو خبرة بشريّة تصعُب نمذجتها. كذلك تدعو الدراسة إلى إصلاح نظم الحوافز في داخل المؤسسات، إذ يجب ألا يُعاقب الموظفون على استخدام حكمهم الشخصيّ بدلاً من الاعتماد الأعمى على الذكاء الاصطناعي، بل ينبغي أن تكون المكافآت مرتبطة بجودة القرار نفسه لا بنتيجته فقط. ويحذّر الباحثون من أن الحوافز التي تكرّس الاتّباع الأعمى للذكاء الاصطناعي يمكن أن تؤدي إلى اعتمادية مفرطة وتدهور جودة اتخاذ القرار. العامل البشري والتدريب الإداري تسلّط الدراسة الضوء على ضرورة تدريب المديرين لاكتشاف التحيّزات التي قد تجعلهم يفضّلون قرارات الآلة على قرارات البشر. في كثير من الأحيان، يكون تفضيل الذكاء الاصطناعي آلية غير واعية لتفادي المسؤولية أو اللوم. ولذلك، يجب أن يكون لدى المديرين وعي بحدود الذكاء الاصطناعي ومعرفة قيمة الحكم البشري في المواقف المعقدة أو الغامضة. ولتحقيق ذلك، توصي الدراسة بوضع سياسات وإرشادات تنظيمية واضحة تساعد المديرين على معرفة متى وكيف يمكن تجاوز توصيات الذكاء الاصطناعي، مع وجود أطر قابلة للمراجعة، تضمن توازنًا بين المساءلة والثقة في الخبرة البشرية. نحو شراكة فعّالة بين الإنسان والآلة الغاية النهائية، بحسب الباحثين، هي بناء نظم وهياكل تنظيمية تُعزّز التكامل الفعّال بين الإنسان والآلة. يجب أن تُتاح للمختصّين فرص حقيقية لإدخال خبراتهم ومعلوماتهم الدقيقة في النظام، بل حتى لتعديل توصيات الذكاء الاصطناعي عندما تدعو الحاجة. فالهدف من دمج الذكاء الاصطناعي في عمليات اتخاذ القرار يجب أن يكون تعزيز قدرات الموظفين وليس استبدالهم. أما السيناريو الأسوأ، فهو حين تتحول هذه الأدوات من وسائل دعم إلى قيود تُفقد الإنسان سلطته ودوره الفعّال. تختم الدراسة بالتأكيد على أهمية عدم التركيز فقط على القدرات التقنية للذكاء الاصطناعي، بل النظر بعناية في العوامل السلوكية والتنظيمية التي تؤثر في استخدامه. فالإفراط في الاعتماد على الذكاء الاصطناعي يمكن أن يضعف مهاراتنا البشرية، وقد يُقصي الخبراء في الفرق العاملة، إذا ما اعتمد المديرون عليه بشكل أعمى. ولذا، فإن إيجاد توازن حقيقي بين قدرات الإنسان والآلة بات ضرورة ملحّة في عصر الذكاء الاصطناعي.