
الذكاء الاصطناعي يحدث فوضى عارمة في أسواق التوظيف
يمكنك أن تتخيل مدى الإحباط الذي يجتاح حالياً أقسام الموارد البشرية في الشركات والمؤسسات، فقد بات المتقدمون للوظائف يدركون جيداً قوة الذكاء الاصطناعي، ولا يترددون في استخدامه، لذلك يتلقى أصحاب الأعمال حالياً سيلاً من الطلبات التي أعدها مرشحون باستعمال أدوات الذكاء الاصطناعي، ما يعني أن السير الذاتية ليست من إنتاجهم الشخصي، بل إن بعض المتقدمين يستغلون الذكاء الاصطناعي في محاولة خداع الشركات خلال مراحل التقييم عبر الإنترنت. وأفادت صحيفة «فاينانشال تايمز» بأن العديد من الشركات الكبرى تتبنى «سياسة عدم التسامح مطلقاً مع استخدام الذكاء الاصطناعي».
يأتي ذلك بعد أن اضطر المتقدمون لشغل الوظائف إلى مواجهة استخدام كبرى الشركات للذكاء الاصطناعي طوال أعوام. وبالطبع يحق الآن للساعين إلى شغل وظائف أن يقولوا: أنتم من بدأتم. وقد بدأت القصة بنوايا طيبة، فخلال العقد الماضي استخدم أرباب الأعمال أدوات توظيف مؤتمتة جديدة، لتصفية المرشحين لشغل الوظائف قبل مرحلة المقابلات الشخصية، لأنهم كانوا يرغبون في أن تكون عملية التوظيف أكثر كفاءة وعدالة، وأن تكون مخاطر التحيز البشري محدودة.
وعلى سبيل المثال كان هناك ما يطلق عليه «مقابلات الفيديو غير المتزامنة»، حيث يجيب المتقدمون لشغل الوظائف عن أسئلة وحدهم أمام كاميرا الويب الخاصة بهم دون أن يكون هناك عنصر بشري في الناحية المقابلة، بل يقوم نظام الذكاء الاصطناعي بتقييم استجاباتهم، ولم ألتقِ من قبل أي باحث عن وظيفة أحب هذا الأمر.
وفي عام 2021 حذر بحث من شعور الشباب بالارتباك، وتجريدهم من إنسانيتهم، بسبب الأدوات الجديدة، وكتبت عن ذلك لأتلقى بعدها سيلاً من الردود تعليقاً على ما كتبت. وكتب لي أحدهم: «خضعت لواحدة من هذه المقابلات، وكانت إحدى أصعب التجارب وأكثرها تسبباً في الشعور بالمهانة». وتابع: «المقابلة الشخصية صعبة في حد ذاتها لشخص يدخل سوق العمل للمرة الأولى منذ أعوام. وقد خضت واحدة من هذه المقابلات، وكان الضغط شديداً، وأخفقت في مقابلتي». وبعد ذلك مكث في غرفته وأخذ يبكي طويلاً.
لذلك ينبغي ألا يكون من المفاجئ أن يستخدم الساعون إلى شغل الوظائف أدوات الذكاء الاصطناعي التوليدي، مثل «تشات جي بي تي»، لـ«التحايل» على العملية التي تُجردهم من إنسانيتهم. ولقد ظهرت مقاطع الفيديو على منصة «تيكتوك»، يتحدث فيها المستخدمون عن كيفية استخدام «تشات جي بي تي» من أجل توفير إجابات عن الأسئلة في مقابلات الفيديو، ليقرأها المتقدم بعد ذلك بكل بساطة. وهكذا فقد أصبح من الواضح أن الذكاء الاصطناعي لا يصب في صالح طرف دون آخر، وبينما كان من المفترض به أن يحسّن الكفاءة والعدالة، فقد صار تهديداً لكلا الطرفين.
وربما يؤدي عدم تكافؤ الوصول إلى نماذج الذكاء الاصطناعي المدفوعة ذات الأداء الأفضل في تقييم التوظيف إلى إشعال فتيل نوع جديد من الظلم. وقال جيمي بيتس، مؤسس شركة نيوروسايت للتقييم، إن مسحهم الذي شمل 1,500 متقدم للعمل في العام الماضي توصل إلى استخدام 31 % من الرجال لأدوات الذكاء الاصطناعي المدفوعة في مقابل استخدام 18 % من النساء لها. وتبيع «نيوروسايت» أداة تسوق لها على أنها منيعة في وجه «تشات جي بي تي». وقال بيتس بتسليط، إن شركته انتهت مؤخراً من تحليل اختبار معروف للتفكير الانتقادي لصالح شركة خدمات مهنية عالمية.
إذن، ما الحلول المتاحة؟ تعد بعض اختبارات التقييم على الإنترنت أقل عرضة لاستخدام الذكاء الاصطناعي في حلها، على الأقل حتى الآن، مثل تلك التي تنطوي على ممارسة ألعاب قصيرة الأمد، لكن يجب ألا نتفاجأ إذا عادت مراكز الاختبار الحضورية من أجل تقييم المهارات الفنية للمتقدمين للوظائف.
وحتى شركة «هايرفيو»، التي تروج لمقابلات الفيديو غير المتزامنة، أوضحت في ورقة بحثية نشرتها مؤخراً: «إن واحدة من أفضل الطرق لتقليل سلوكيات الغش من كل الأنواع هو استخدام نموذج سير عمل متعدد المراحل، يمكن فيه التحقق من معلومات المرشح لشغل الوظيفة، ومهاراته، وقدراته، من خلال مقابلة مباشرة مع عنصر بشري».
هل ستكون هناك مقايضة بين التحيّز والاتساق؟ ربما سيحدث ذلك، لكن إن كان هناك درس يمكن أن نتعلمه هنا، فلعله يكون أن التكنولوجيا لا يمكنها الإطاحة بمثل هذه المقايضات، كما أن الحلول التي تبدو بسيطة لمشكلات صعبة من المعتاد أنها لا تدوم طويلاً.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


البيان
منذ ساعة واحدة
- البيان
«زينلي» تستعد لإطلاق أول أداة بناء للمواقع بالذكاء الاصطناعي
تستعد شركة «زينلي» للتكنولوجيا لإطلاق أول أداة بناء للمواقع باستخدام الذكاء الاصطناعي، تعرف باسم «كاليكس»، حيث تتوقع الشركة أنها ستغير قواعد اللعبة في عالم التواجد الرقمي للشركات. وتتنافس هذه الأداة مع أفضل الحلول العالمية مثل أداة بناء المواقع بالذكاء الاصطناعي من «جوجل»، معززة مكانة الإمارات كمركز عالمي للابتكار التكنولوجي. وقال سعيد الزبيدي، المؤسس والرئيس التنفيذي للشركة: «كاليكس» ليست مجرد أداة بناء مواقع بالذكاء الاصطناعي، بل هي تحول في طريقة إنشاء الشركات لتواجدها الرقمي باستخدام وكيل ذكاء اصطناعي متكامل. وتهدف أداة «كاليكس» إلى الاستحواذ على أكثر من 20% من السوق الإقليمية مستندة إلى فهم عميق لاحتياجات الأعمال المحلية. وأضاف الزبيدي: نتوقع جذب أكثر من 30 ألف مستخدم خلال الأشهر الستة المقبلة، وهو دليل على حاجة السوق الملحة لهذا الحل. وتابع: من خلال خبرتنا في تقديم حلول الدردشة الآلية بالذكاء الاصطناعي، اكتشفنا أن العديد من الشركات تواجه تحديات في إنشاء مواقعها الإلكترونية، و«كاليكس» هي الحل لهذه المشكلة، حيث تتيح إنشاء مواقع احترافية في غضون 5 دقائق فقط، مما يجعل العملية في متناول الجميع. وعلى عكس أدوات بناء المواقع بالذكاء الاصطناعي الأخرى، تعتمد «كاليكس» على الذكاء الاصطناعي والحلول مفتوحة المصدر لتسريع عملية البناء وتقليل تكاليف التطوير، مما يمنحها ميزة تنافسية فريدة. وقال الزبيدي: أفتخر بأن «كاليكس» ليست فقط الأداة الأولى من نوعها في المنطقة، بل واحدة من الأوائل عالمياً، وهذا يعكس قدرة الإمارات على تقديم حلول تكنولوجية عالمية المستوى. وأكد أن الإمارات أصبحت مركزاً عالمياً للابتكار التكنولوجي، وتعد «كاليكس» مساهمة من الشركة في تحقيق هذه الرؤية، حيث نبرهن على قدرة رواد الأعمال الإماراتيين على خلق حلول عالمية تدفع التحول الرقمي، وقال: نحن لا نبني مواقع فقط، بل نساهم في تعزيز مكانة الإمارات كرائدة تكنولوجية عالمية.


الإمارات اليوم
منذ 3 ساعات
- الإمارات اليوم
حافظ على خصوصيتك واعترض قبل هذا الموعد.. ماذا ستفعل «ميتا» ببيانات المستخدم عبر نموذجها للذكاء الاصطناعي؟
ترغب شركة ميتا في استخدام بيانات المستخدم من منصاتها المختلفة لتدريب الذكاء الاصطناعي الخاص بها (Meta AI) اعتباراً من 27 مايو الجاري. ويمكن للمستخدم إبداء اعتراضه على ذلك قبل حلول هذا الموعد من دون الإفصاح عن الأسباب. وأوضح مركز استشارات المستهلك في ولاية شمال الراين وستفاليا الألمانية أن الاعتراض يتم من خلال نماذج عبر الإنترنت، مع تسجيل الدخول على المنصة المعنية بواسطة عنوان البريد الإلكتروني الخاص بالمستخدم. وفي حالة قبول الاعتراض، سيتلقى المستخدم رسالة بريد إلكتروني للتأكيد. ويمكن للمستخدم ترك حقل النص فارغاً؛ إذ لا يُشترط وجود سبب للاعتراض. وأشار مركز استشارات المستهلك إلى أن المحادثات الشخصية على تطبيق «واتساب» ليست معنية، ومع ذلك، بمجرد التواصل مع Meta AI في تطبيق «واتساب» أو تضمين Meta AI في دردشة جماعية، يمكن استخدام هذا الاتصال لتدريب الذكاء الاصطناعي. وإذا لم يرغب المستخدم في ذلك، فيجب عليه عدم استخدام Meta AI في تطبيق «واتساب»، أي عدم استخدام حقل إدخال Meta AI وعدم الضغط على الدائرة الزرقاء. كما يجب عدم جلب مساعد الذكاء الاصطناعي إلى دردشة جماعية مع (@MetaAI). يشار إلى أنه لا يمكن إيقاف تشغيل Meta AI والدائرة الزرقاء أو إخفاؤهما في خدمات Meta. وإذا كان المستخدم لا يريد استخدام الذكاء الاصطناعي، فما عليه سوى تجاهله.


البيان
منذ 5 ساعات
- البيان
تجربة صادمة.. ماذا حدث عندما قادت الروبوتات شركة كاملة؟
في تجربة جريئة وغير مسبوقة، أجرى باحثون من جامعة كارنيغي ميلون الأمريكية محاكاة كاملة لشركة يديرها الذكاء الاصطناعي من الألف إلى الياء، دون أي تدخل بشري. الشركة الافتراضية التي حملت اسم TheAgentCompany صُممت لتكون بيئة عمل متكاملة، ضمت نظاما داخليا للاتصالات، ملفات إدارية، أدلة الموظفين، وأقساما افتراضية للموارد البشرية والدعم الفني. أما "الموظفون"، فكانوا وكلاء ذكاء اصطناعي متقدمين من تطوير شركات مثل OpenAI، وAnthropic، وGoogle، وMeta، وAmazon، وAlibaba. أداء مخيب للآمال على الرغم من الإمكانيات المتقدمة لهذه النماذج، كانت النتائج بعيدة عن التوقعات. فبحسب ما نقلته Business Insider، لم يتمكن أفضل الوكلاء أداءً، وهو Claude 3.5 Sonnet من شركة Anthropic، من إتمام سوى 24% من المهام المكلف بها بشكل كامل، وفقا لـ indiandefencereview. وارتفعت النسبة إلى 34.4% عند احتساب المهام المنجزة جزئيا. أما نموذج Google، Gemini 2.0 Flash، فلم ينجح سوى في 11.4%، فيما فشلت نماذج أخرى في تجاوز 10%. المهام التي كُلف بها الوكلاء شملت كتابة تقييمات الأداء، تحليل قواعد بيانات، واستعراض جولات افتراضية لمقار شركات، غير أن الوكلاء أخفقوا في تنفيذ حتى التعليمات البسيطة، مثل التعرف على صيغة ملفات مايكروسوفت وورد، أو التنقل ضمن مواقع إلكترونية وإغلاق النوافذ المنبثقة. أين الخلل الحقيقي؟ لم تقتصر الإخفاقات على الجانب التقني فحسب، بل ظهرت أيضا فجوات في الفهم والسلوك المنطقي. ففي موقف لافت، بدلاً من أن يبحث وكيل عن موظف في دليل الشركة الداخلي لطلب المساعدة، قام بإنشاء ملف جديد باسم الشخص المطلوب. وعلّق البروفيسور غراهام نوبيغ، أحد القائمين على الدراسة، قائلاً: "هذه النماذج قد تساعد في تسريع بعض المهام، لكنها لا تزال غير مؤهلة لتحمل المسؤولية الكاملة". وأضاف أن الأداء غالبا ما يبدأ بشكل واعد، لكنه يتدهور مع زيادة تعقيد المهمة بسبب ضعف قدرة وكلاء الذكاء الاصطناعي على المتابعة وتذكر السياق وإتمام الخطوات المتسلسلة. رغبة مستمرة ورغم هذا الأداء المحدود، تواصل كبرى الشركات إظهار اهتمام متزايد بالاعتماد على وكلاء الذكاء الاصطناعي، فقد كشف استطلاع أجرته Deloitte أن أكثر من ربع القيادات التنفيذية يدرسون إدماج هذه التقنية في أعمالهم، وبالفعل، بدأت شركات كبرى مثل Moody's وJohnson & Johnson استخدام الذكاء الاصطناعي لتعزيز الإنتاجية، ولكن مع رقابة بشرية مشددة. شركة Moody's، على سبيل المثال، تستخدم نماذج مدربة على بياناتها الخاصة الممتدة لعقود لتحسين التحليلات المالية، أما Johnson & Johnson، فتوظف أدوات ذكاء اصطناعي لتسريع عمليات المختبرات الكيميائية. وقال جيم سوينسون، رئيس قسم المعلومات بالشركة: "نرى هذه الأدوات كدعم قوي لموظفينا عندما نستخدمها بمسؤولية". الذكاء الاصطناعي بعيد عن الاستقلالية التجربة التي أجرتها جامعة كارنيغي ميلون تقدم رؤية واقعية لحالة الذكاء الاصطناعي في أماكن العمل، فرغم التقدم السريع في مجالات خدمة العملاء وتوليد الشيفرات، فإن الوكلاء لا يزالون يفتقرون إلى مهارات بشرية أساسية، مثل التكيف، التعاون، واتخاذ القرارات الحدسية. ويؤكد الباحث في معهد MIT، ستيفن كاسبر، أن "القدرات الحالية للنماذج مبالغ فيها إلى حد كبير"، موضحاً أن بناء نموذج يتحاور بذكاء أسهل بكثير من تدريبه على تنفيذ مهام حقيقية بدقة وفعالية. لقد كشفت TheAgentCompany، رغم كونها بيئة افتراضية، واقعاً لا يمكن إنكاره أن الذكاء الاصطناعي متقدم، لكنه لا يزال غير قادر على مجاراة الإنسان في إدارة العمل، حتى في أبسط تفاصيله.