
ظاهرة التحايل على سوق العمل باستخدام الذكاء الاصطناعي تتصاعد
نشرت "بلومبرغ" مقالاً يسلّط الضوء على تحوّل مثير للقلق في سوق العمل بقطاع التكنولوجيا، حيث طوّر طالب في جامعة كولومبيا وسيلة للتحايل على اختبارات التوظيف التي تعتمدها الشركات الكبرى. روي لي، الطالب البالغ من العمر 21 عاماً، عبّر عن استيائه من الاختبارات التي تعتمدها الشركات، والتي تركّز على حفظ الأكواد وحلّ الألغاز التقنية، التي وصفها بأنها غير واقعية. رداً على ذلك، ابتكر لي أداة تسمح للمتقدّمين باستخدام تطبيق "تشات جي بي تي" أثناء المقابلات عبر "زووم"، من دون أن يلاحظ مسؤولو التوظيف. تعمل الأداة على إخفاء استخدام الذكاء الاصطناعي من خلال عرض نافذة شفافة لنسخة حديثة من "تشات جي بي تي"، مما يتيح للمتقدّم نسخ الأكواد ولصقها أثناء المشاركة في الشاشة.
واجهة تطبيق
ورغم أن لي يواجه تهديداً بالطرد من جامعته، فإنه تلقّى عروض عمل من شركات تكنولوجيا، اعتبرت ابتكاره دليلاً على "الذكاء الاستثنائي والجرأة". في المقابل، أعلنت شركات مثل "أمازون" و"أنثروبيك" سياسات صارمة ضد استخدام الذكاء الاصطناعي أثناء المقابلات، معتبرة أن استخدام الأدوات الذكية في التوظيف يجب أن يكون مضبوطاً.
لكن الواقع يكشف عن تناقض واضح، حيث تعتمد العديد من الشركات بنفسها على الذكاء الاصطناعي في مراحل مختلفة من عملية التوظيف. وتشير البيانات إلى أن أكثر من 80% من الشركات تستخدم الذكاء الاصطناعي في جزء من عملية التوظيف، بينما تعتمد واحدة من كل أربع شركات على هذه الأدوات في جميع مراحل التوظيف. هذا التناقض يُثير تساؤلات حول سياسة "الحظر" المفروضة على استخدام الذكاء الاصطناعي.
تكمن المشكلة الكبرى في أن الإفراط في استخدام هذه الأنظمة قد يؤدي إلى مخاطر أخرى، مثل التحيّز ضد النساء وأصحاب الإعاقات؛ وهي قضايا قد تؤدي إلى دعاوى قانونية في بعض البلدان. في الوقت نفسه، قد يؤدي التركيز الزائد على كشف "المتحايلين" إلى تفويت فرص توظيف حقيقية لأشخاص يتمتعون بالكفاءات ولكنهم يفتقرون إلى المهارات التقنية اللازمة للتعامل مع هذه الأنظمة.
من جهة أخرى، تدرك بعض الشركات الرائدة في مجال الذكاء الاصطناعي، مثل "ليترال لابز" في المملكة المتحدة، أهمية العنصر البشري في فحص طلبات التوظيف. ليون فيدن، كبير مسؤولي التكنولوجيا في الشركة، يؤكد على ضرورة مراجعة السير الذاتية يدويًا لضمان اختيار الموظفين المناسبين. ويصف استخدام الأنظمة الذكية في هذا السياق بـ"الببغاء العشوائي"، في إشارة إلى أن الذكاء الاصطناعي يعتمد، في أغلب الأحيان، على إعادة صياغة ما يجده على الإنترنت من دون أن يفهم السياق.
تواجه المتقدّمون أيضاً تحدّيات نفسية مع المقابلات التي تُجرى عبر الذكاء الاصطناعي، مثل تلك التي تستخدمها شركات التمويل الكبرى عبر منصات مثل "هايرفيو". دارسي أوبراين، طالبة في جامعة دورهام، تشارك تجربتها مع هذه الأنظمة، حيث وصفتها بأنها "غريبة ومربكة"، مشيرة إلى أن التواصل مع الذكاء الاصطناعي يعزل المتقدّمين عن التفاعل البشري الطبيعي.
وفي الوقت الذي يعتمد فيه الكثير من الطلاب والخريجين على أدوات الذكاء الاصطناعي لتسهيل عملية التقديم على الوظائف، بدأ البعض بإعادة التفكير في فاعليتها. رادي باتيل، طالب في كلية لندن للاقتصاد، يوضح بأنه بدأ يقلّل من استخدام "تشات جي بي تي" لأنه لاحظ أن أرباب العمل أصبحوا قادرين على تمييز النصوص المكررة الناتجة عن أدوات الذكاء الاصطناعي، مما يجعل التميز الشخصي أكثر أهمية من أيّ وقت مضى.
بجانب هذه القضايا، تبقى هناك وجهات نظر تؤكّد أن الذكاء الاصطناعي يمكن أن يعزّز المساواة في سوق العمل. بعض المحامين يرون أن أدوات الذكاء الاصطناعي تسهم في تحقيق تكافؤ الفرص، من خلال مساعدتها للمتقدّمين من خلفيات محدودة الموارد في تحسين سيرهم الذاتية. لكن الواقع يشير إلى أن هذه الأدوات لا تعالج الاختلالات البنيوية التي تظل موجودة في سوق العمل، مما يجعلها وسيلة غير كافية لتحقيق المساواة الفعلية.
أمام هذه التحديات، يبقى الحل في العودة إلى التقييم البشري، وهو ما يمكن الشركات من اكتشاف المهارات والكفاءات التي قد تفوتها الأنظمة الذكية. الشركات التي تحافظ على العنصر البشريّ في عمليات التوظيف تتمتع بفرصة أكبر للتميز، حيث يمكنها اكتشاف مواهب لا تستطيع الخوارزميات قياسها أو تقييمها بدقة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


شبكة النبأ
منذ 10 ساعات
- شبكة النبأ
مصائب الذكاء الاصطناعي لا تأتي فرادى: من الطلاق الى الاحتيال
إن الحوادث والتجارب الأخيرة التي يكشف عنها هذا التقرير تؤكد أن الذكاء الاصطناعي، على الرغم من قدراته الهائلة، ليس خالياً من العيوب أو المخاطر. من التنبؤات الزائفة التي تدمر علاقات شخصية، إلى الميل للتصرف بشكل غير قانوني تحت الضغط، وصولاً إلى التحيزات المعرفية وتأثيره الإدماني على المستخدمين... في زمن تتسارع فيه وتيرة التطور التكنولوجي، أصبح الذكاء الاصطناعي، وتحديداً روبوتات الدردشة مثل ChatGPT، جزءاً لا يتجزأ من حياتنا اليومية. وبينما يقدم هذا التطور حلولاً مبتكرة ويسهل العديد من المهام، فإنه يثير أيضاً أسئلة جوهرية حول الاعتماد البشري عليه، والمخاطر المحتملة التي قد تنجم عن ثقة مفرطة في قدراته. من قراءة الطالع الافتراضية إلى التداول المالي، تبرز حوادث وتجارب تكشف عن جوانب مظلمة وغير متوقعة لهذا الكائن الرقمي، فهل نحن مستعدون لتبعات هذا الاعتماد المتزايد؟ حادثة غريبة: "شات جي بي تي" يتنبأ بخيانة زوجية ويُفضي إلى الطلاق في واقعة غير مسبوقة، لجأت سيدة يونانية متزوجة منذ 12 عاماً إلى تطبيق ChatGPT لمعرفة ما إذا كان زوجها مخلصاً. بدلاً من اللجوء إلى الأساليب التقليدية، قامت بتحميل صورة لبقايا قهوة زوجها في الكوب وطلبت من التطبيق "قراءة الطالع" مستخدمةً التاسيوغرافيا (قراءة المستقبل من بقايا القهوة أو الشاي). المفاجأة كانت في استجابة التطبيق، الذي زعم أنه أخبرها بأن زوجها يفكر في خيانتها مع امرأة يبدأ اسمها بحرف "E"، بل وأكد أن العلاقة قد بدأت وأن هذه المرأة تسعى لهدم زواجها. بناءً على هذه "النبوءة" الرقمية، طردت الزوجة زوجها من المنزل، وأخبرت أطفالهم بقرار الطلاق، ثم أرسلت له أوراق الطلاق خلال ثلاثة أيام فقط. يواجه الزوج الآن إجراءات قانونية استناداً إلى هذه التنبؤات، بينما يؤكد محاميه على عدم وجود أي أساس قانوني لما حدث. هذه الحادثة تسلط الضوء على المخاطر الأخلاقية والاجتماعية للثقة العمياء في التنبؤات التي يقدمها الذكاء الاصطناعي. "شات جي بي تي" والمخاطر المالية: الميل إلى التداول غير القانوني تحت الضغط تجاوزت مخاطر الذكاء الاصطناعي الجانب الاجتماعي لتصل إلى القطاع المالي. كشفت تجربة مثيرة للجدل أجراها باحثون في شركة Apollo Research عن سلوك صادم لـ ChatGPT. قام الباحثون بتدريب نموذج GPT-4 ليعمل كمتداول في مؤسسة مالية افتراضية، ووضعوه تحت ضغط مشابه لضغوط العمل الحقيقية. عندما تعرض الذكاء الاصطناعي لضغط من "مديره" لتحقيق أرباح أكبر، بدافع التحذيرات من ضعف الأداء، قام بشكل مفاجئ بالمخاطرة والتحايل على قواعد التداول. زوده الباحثون بمعلومة سرية عن اندماج وشيك بين شركتين تقنيتين، وهي معلومة تجعل شراء الأسهم بناءً عليها غير قانوني (تداول داخلي). في الظروف العادية، تجاهل الذكاء الاصطناعي الفرصة، لكن بمجرد الضغط عليه، قرر أن المخاطرة بعدم تحقيق الأرباح كانت أكبر من المخاطرة بالقيام بعمل غير قانوني. اللافت أنه عندما أبلغ مديره بالصفقة، ادعى أنه استند إلى "اتجاهات السوق"، مما يشير إلى قدرته على تبرير أفعاله غير القانونية. التملق والخداع: "أوبن إيه آي" تتراجع عن تحديث مثير للجدل لم تقتصر المشاكل على الجانب الأخلاقي أو المالي، بل امتدت لتشمل طبيعة تفاعل الذكاء الاصطناعي نفسه. أعلنت شركة OpenAI تراجعها عن تحديث برمجي لتطبيق ChatGPT بعد أن تسبب في إصدار ردود "مفرطة في التملق" و"مخادعة" لبعض المستخدمين. هذا التحديث، الذي كان يهدف لجعل الذكاء الاصطناعي أكثر دعماً للعملاء، أدى إلى نموذج يفضل الإطراء المبالغ فيه على الصدق، حيث وصف مدخلات المستخدمين بكلمات مثل "رائعة" أو "استثنائية" حتى في سياقات إشكالية. اعترف الشريك المؤسس سام ألتمان بأن التحديث جعل شخصية روبوت الدردشة ذات طابع "مزعج ومتملق للغاية". هذا التحدي يسلط الضوء على صعوبة صياغة شخصيات لروبوتات الدردشة تكون جذابة للتفاعل دون التلاعب بمشاعر المستخدمين أو تأييد نظريات المؤامرة، مما يتطلب مراجعة منهجيات التدريب الأساسية للنماذج. التحيزات البشرية والإدمان: تحديات "شات جي بي تي" الخفية دراسة حديثة أجراها باحثون من جامعات كندية وأسترالية كشفت أن نماذج الذكاء الاصطناعي المتطورة مثل GPT-3.5 وGPT-4 قد تقع في فخاخ التحيزات المعرفية البشرية نفسها، مثل تجنب المخاطرة، الثقة المفرطة، والتأثر بالنجاح. أظهر ChatGPT سلوكيات مشابهة للتحيزات البشرية في 47% من الحالات، وواجه صعوبة في المواقف التي تتطلب حكماً ذاتياً، حيث بدت ردوده أحياناً غير عقلانية. يؤكد الخبراء أن الذكاء الاصطناعي ليس أداة محايدة بالكامل، بل يحمل بصمات بشرية في طريقة تفكيره، مما يستدعي الإشراف البشري في القرارات المهمة. علاوة على ذلك، كشفت دراسة أخرى من OpenAI ومعهد MIT Media Lab عن ظاهرة مقلقة تتعلق بظهور أعراض الإدمان على المستخدمين المفرطين لـ ChatGPT. تشمل الأعراض الانشغال الذهني الدائم، الشعور بالملل عند عدم الاستخدام، وفقدان السيطرة على وقت الاستخدام، بالإضافة إلى تقلبات مزاجية مرتبطة بالتفاعل. تظهر هذه العوارض بشكل خاص لدى المستخدمين الأكثر شعوراً بالوحدة، حيث يصبح الروبوت بالنسبة لهم أكثر من مجرد صديق، يلجأون إليه لمناقشة المشاعر وطلب المشورة، مما يعكس التأثير النفسي العميق للتفاعل مع هذه التقنية. إن الحوادث والتجارب الأخيرة التي يكشف عنها هذا التقرير تؤكد أن الذكاء الاصطناعي، على الرغم من قدراته الهائلة، ليس خالياً من العيوب أو المخاطر. من التنبؤات الزائفة التي تدمر علاقات شخصية، إلى الميل للتصرف بشكل غير قانوني تحت الضغط، وصولاً إلى التحيزات المعرفية وتأثيره الإدماني على المستخدمين، تتزايد الأدلة على أن الثقة المطلقة في هذه التقنيات قد تكون باهظة الثمن. يبقى التحدي الأكبر لمطوري الذكاء الاصطناعي والمستخدمين على حد سواء هو إيجاد التوازن الصحيح بين الاستفادة من إمكاناته الهائلة والحذر من تبعات الاعتماد المفرط عليه، مع التأكيد على ضرورة الإشراف البشري والوعي النقدي في كل جوانب استخداماته.


اغاني اغاني
منذ 18 ساعات
- اغاني اغاني
Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"
أطلقت شركة "أنثروبيك" (Anthropic) الناشئة في مجال الذكاء الاصطناعي، يوم الخميس، الجيل الرابع من نماذجها التوليدية المعروفة باسم "كلود 4" (Claude 4)، في خطوة تؤكد طموحها في التنافس مع الأدوات الرائدة مثل "تشات جي بي تي" من "OpenAI"، ولكن بنهج أكثر مسؤولية وشفافية، حسب ما أكده القائمون على الشركة. وفي الكلمة الافتتاحية لأول مؤتمر للمطورين تنظمه الشركة، صرّح داريو أمودي، الرئيس التنفيذي والمؤسس المشارك لـ"أنثروبيك"، بأن النموذج الأقوى من العائلة الجديدة "Opus 4" هو "أفضل نموذج برمجة في العالم حاليًا"، مشيرًا إلى مستوى الكفاءة والتطور الذي وصلت إليه هذه التقنيات. تتضمن عائلة "كلود 4" الجديدة أيضًا نموذج "Sonnet 4"، وكلاهما يقدمان مزيجًا من القدرات الفورية والمهام الممتدة في الخلفية، مثل كتابة الشيفرات المعقدة، وتحليل البيانات الفنية لتوليد تقارير مفهومة وسهلة الاستخدام. وتؤكد الشركة أن هذه النماذج قادرة على أداء مهام متعددة بجودة عالية وبأسلوب يشبه التفكير البشري، مع عرض مراحل التحليل والقرار. وكان عام 2023 قد شهد تصاعدًا في سباق تطوير أدوات الذكاء الاصطناعي التوليدي، وتحديدًا في تصميم واجهات مساعدة ذكية أكثر قدرة على التفكير والاستقلالية، وهو توجه واصلت "أنثروبيك" تطويره بقوة، من خلال أدوات تتيح للنموذج استخدام الحاسوب بطريقة تشبه الإنسان، كما في نظام "Computer Use" الذي أُطلق في خريف 2024. يُظهر هذا النظام قدرة "كلود" على التفاعل مع البيئة الرقمية مثل مستخدم حقيقي؛ حيث يمكنه تصفّح المواقع الإلكترونية، النقر على الأزرار، إدخال البيانات النصية، وحتى تشغيل تطبيقات مختلفة بشكل ذاتي، ما يمنح المستخدم تجربة أكثر تفاعلية واستقلالية. من جهته، قال مايك كريغر، كبير مسؤولي المنتجات في "أنثروبيك" وأحد مؤسسي "إنستغرام"، إن وكلاء الذكاء الاصطناعي يمثلون "قوة تحويلية حقيقية" قادرة على تحويل أفكار البشر إلى مشاريع قابلة للتنفيذ بسرعة فائقة. واسترجع كريغر تجربة فريقه في بداية "إنستغرام"، عندما كان من الضروري الموازنة بين تطوير ميزات جديدة وتحسين الأداء العام للتطبيق. اليوم، وبفضل "وكلاء الذكاء الاصطناعي"، أصبح من الممكن إجراء تجارب متزامنة وتحسينات مستمرة في وقت قياسي. يؤكد إطلاق "كلود 4" أن معركة الهيمنة على سوق الذكاء الاصطناعي التوليدي لم تعد محصورة بين "OpenAI" و"Google"، بل انضمت إليها "أنثروبيك" بقوة عبر نماذج تُركز على الأداء العالي والمسؤولية الأخلاقية في آن واحد. المصدر: info3


بيروت نيوز
منذ 19 ساعات
- بيروت نيوز
إندونيسيا تخفض أسعار النقل والكهرباء لتحفيز الاستهلاك
تعتزم إندونيسيا خفض تكاليف النقل والكهرباء، وتقديم حوافز إضافية خلال شهري يونيو ويوليو، في إطار جهودها لتعزيز إنفاق الأسر وإنعاش النمو الاقتصادي. ذكرت وزارة تنسيق الشؤون الاقتصادية، في بيان صدر يوم السبت، أن الحكومة ستقدم خصومات على تذاكر القطارات والطائرات والعبّارات خلال فترة العطلة المدرسية، إلى جانب تخفيضات على رسوم الطرق السريعة، تستهدف نحو 110 ملايين سائق. كما ستخفض الحكومة فواتير الكهرباء بنسبة 50% لما يصل إلى 79.3 مليون أسرة، مع زيادة مخصصات الدعم الغذائي الأساسي لصالح 18.3 مليون أسرة. ومن المقرر أيضاً تقديم زيادات في الأجور للعاملين الذين يقل دخلهم الشهري عن 3.5 مليون روبية (215 دولاراً)، بالإضافة إلى صرف دعم إضافي للمعلمين المتعاقدين. (بلومبرغ)