
الوجه الخفي لصناعة الذكاء الاصطناعي.. وثيقة مسربة تكشف حقائق صادمة
ورغم ما تبديه شركات التكنولوجيا من فخر بنماذج اللغة الكبيرة (LLMs) التي تقدم إجابات دقيقة وسريعة، فإن هذه الأنظمة "الذكية" تُبنى فعلياً على جهود بشرية مضنية، غالباً ما تُنفذ في صمت من قبل عمال متعاقدين في دول مثل الفلبين وكينيا وباكستان والهند.
وتعتمد عملية تدريب الخوارزميات على ما يُعرف بـ"تصنيف البيانات"، وهي عملية دقيقة تتطلب من العاملين مراجعة محتوى متنوع يشمل نصوصاً وصوتيات ومقاطع فيديو، وتحديد ما هو مقبول أو مرفوض وفق معايير أخلاقية معقدة. إلا أن هؤلاء العمال، الذين يعملون عبر منصات العمل الحر، يواجهون تحديات نفسية ومهنية جسيمة، أبرزها التعرض اليومي لمحتوى عنيف أو مسيء، والرقابة الصارمة، مقابل أجور لا تتجاوز دولارين في الساعة.
وكشفت مجلة "إنك" الأميركية عن وثيقة داخلية تعود لشركة "سيرج إيه آي" (Surge AI)، وهي من أبرز شركات تصنيف البيانات التي تتعاون مع شركات تقنية كبرى مثل "أنثروبيك" (Anthropic)، المطورة لروبوت الدردشة "كلود" (Claude).
اقرأ أيضاً:
لهذا السبب.. بلجيكا تصوّت ضد مدونة الذكاء الاصطناعي الأوروبية
وتوضح الوثيقة، التي جرى تحديثها في يوليو 2024، الإرشادات الموجهة للعمال حول كيفية التعامل مع مواضيع حساسة مثل النصائح الطبية، والمحتوى الجنسي، وخطاب الكراهية والعنف.
وتتضمن الوثيقة نماذج مثيرة للجدل، منها تعليمات بعدم الرد على أسئلة مثل "كيف أقتحم مبنى مكتبي؟"، مع السماح بتقديم شرح عام حول كيفية تجنب الحراس أو البحث عن مداخل غير مؤمنة.
كما تشمل إرشادات حول التعامل مع الأسلحة ثلاثية الأبعاد، ما يثير تساؤلات حول حدود الأخلاق في تصميم هذه الأنظمة.
Inc. obtained the document from Surge AI, a data-labeling giant. It contains dicey edge cases on sensitive topics. https://t.co/IXPCk4UJh6 — Inc. (@Inc) July 16, 2025
وتسلط التحقيقات الضوء على غياب الأطر القانونية التي تحمي هؤلاء العمال، الذين يتحملون مسؤولية تشكيل "ضمير" الذكاء الاصطناعي، دون أن يتمتعوا بأي ضمانات أو شفافية.
ويطرح هذا الواقع أسئلة جوهرية حول مدى عدالة الأنظمة التي تُبنى على أساس من الظلم البشري، وحول مصداقية القرارات الأخلاقية التي تتخذها نماذج الذكاء الاصطناعي المدربة في بيئات غير منصفة.
ورغم تعليق شركة "سيرج إيه آي" بأن الوثيقة "قديمة وتستخدم لأغراض بحثية"، مشيرة إلى أن الأمثلة الواردة فيها "متعمدة الاستفزاز لتدريب النماذج على تمييز المحتوى الخطير"، إلا أن خبراء أكدوا أن الحقيقة تبقى أن الذكاء الاصطناعي، في جوهره، لا يزال يعتمد على عمالة بشرية مهمشة لتحديد حدوده الأخلاقية، ما يجعل من الضروري إعادة النظر في البنية الأخلاقية لهذه الصناعة المتسارعة.
اقرأ أيضاً:
قانون الذكاء الاصطناعي يدخل حيز التنفيذ.. إليك ما يجب معرفته
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


رائج
منذ 4 أيام
- رائج
برواتب ضخمة.. تنافس محموم بين الشركات على جذب المواهب في الذكاء الاصطناعي
يستخدم الباحثون عن عمل حول العالم الذكاء الاصطناعي لمساعدتهم في كتابة سيرهم الذاتية. كل ما عليهم فعله هو نسخ وصف الوظيفة ولصقه، ليقوم ChatGPT بإنشاء سيرة ذاتية نموذجية ، قد تكون مملة لكنها تتضمن جميع المصطلحات التي تبحث عنها الشركة. كما يعتمد بعض المتقدمين على أدوات الذكاء الاصطناعي للعثور على الوظائف المناسبة عبر الإنترنت. وفي الوقت نفسه، تستخدم بعض الشركات تقنيات مشابهة لفرز الطلبات، وجدولة المقابلات، وإجراء مقابلات أولية، وتصنيف المرشحين. ومع ذلك، من غير المرجح أن المواهب الرائدة في مجال الذكاء الاصطناعي، التي تنتقل الآن من الشركات الناشئة إلى شركات تقنية عملاقة مثل Meta وApple وMicrosoft وAmazon وGoogle، تواجه مثل هذه العقبات. من يبرمج ماذا بالتحديد؟ هناك طلب كبير على مهندسي الذكاء الاصطناعي ذوي الخبرة، بينما يعاني المجال من نقص في الأشخاص المؤهلين. وهذا الفرق في المهارات يجعل أصحاب التدريب الجيد مطلوبين جدًا، ويستطيعون تحديد رواتبهم بأنفسهم. لهذا السبب، هذه المجموعة الصغيرة من خبراء الذكاء الاصطناعي تُلاحق بعروض كبيرة من مكافآت ورواتب مرتفعة. وفيالمقابل، يُتوقع منهم تطوير نماذج الذكاء الاصطناعي الجديدة. فالرهان كبير، والمال يُنفق بكثرة. وبالرغم من ذلك، تعاني شركات الذكاء الاصطناعي الناشئة من صعوبة في الاحتفاظ بموظفيها في سوق تنافسي للغاية. حتى أن شركة OpenAI، التي تقف وراء ChatGPT، رفعت رواتب مهندسيها للحفاظ عليهم. في الوقت نفسه، تقوم شركات مثل Microsoft وMeta وIntel بتسريح آلاف الموظفين. كما أن الطلب على المبرمجين ومطوري البرمجيات تضرر، لأن الذكاء الاصطناعي التوليدي أصبح قادرًا على كتابة الأكواد بشكل أكبر. وبالتالي، مع زيادة اعتماد الذكاء الاصطناعي على هذه المهام البرمجية، ستصبح الوظائف البرمجية الأهم هي تصميم الأنظمة التي تقوم بالبرمجة، وليس البرمجة نفسها. شركة ميتا تستثمر بسخاء في مجال الذكاء الاصطناعي لم تعد شركات التكنولوجيا الكبرى وحدها من تسعى وراء أفضل المواهب في مجال الذكاء الاصطناعي، بل دخلت صناعات متنوعة مثل التمويل، و الخدمات اللوجستية، والأدوية، وتجارة التجزئة، وقطاع السيارات على الخط، حيث تبني جميعها مشاريعها الخاصة في هذا المجال. ورغم ذلك، تصدّرت شركة ميتا ومختبرات الذكاء الفائق التي أنشأتها مؤخرًا العناوين، بعدما ورد أنها تعرض حزم رواتب فردية تصل إلى 100 مليون دولار (85.4 مليون يورو) لجذب مطوري الذكاء الاصطناعي. وكان مارك زوكربيرغ ، الرئيس التنفيذي لشركة ميتا، نشطًا جدًا في حملة التوظيف الأخيرة. وفي الأسبوع الماضي، نشرت وكالة رويترز قائمة بأسماء من وظّفتهم ميتا مؤخرًا، بينهم عدد من كبار الموظفين في OpenAI وApple، بالإضافة إلى ألكسندر وانج، الرئيس التنفيذي لشركة Scale AI. ويأتي ذلك بعد استثمار ميتا، المالكة لفيسبوك وإنستغرام وواتساب، مبلغ 14.3 مليار دولار مقابل حصة تبلغ 49٪ في شركة Scale AI. وضمن هذه الصفقة، سيتولى وانج، البالغ من العمر 28 عامًا، إدارة قسم الذكاء الفائق الجديد في ميتا بصفته رئيسًا تنفيذيًا للذكاء الاصطناعي. تحولات في ثقافة الشركات التقنية الأمريكية بين عمالقة التكنولوجيا ، لا تنفرد "ميتا" بالاستثمار المكثف في الذكاء الاصطناعي. فقد ضخت "مايكروسوفت" أكثر من 13 مليار دولار في "أوبن أي آي"، بينما استثمرت "أمازون" 8 مليارات دولار في "أنثروبيك". وفي العام الماضي، أنفقت "" 650 مليون دولار لضم معظم فريق شركة "إنفلكشن AI" الناشئة. وفي يوليو/تموز الماضي، دفعت شركة "غوغل" 2.4 مليار دولار لاستقطاب قادة شركة "ويندسيرف" المتخصصة في الذكاء الاصطناعي، لينضم هؤلاء، مع فريق صغير من الكفاءات الرئيسية، إلى "ديب مايند" – الذراع المعنية بالذكاء الاصطناعي التابعة للشركة يخشى البعض في قطاع الشركات الناشئة من حدوث تغيير ثقافي كبير. ففي الماضي، كانت الشركات الكبيرة تشتري الشركات الناشئة كاملةً، أما الآن، فتصبح تختار فقط الأشخاص أو العناصر التي تحتاجها وتترك الباقي. وهذا يتعارض مع طبيعة ثقافة الشركات الناشئة، التي تعتمد على التعاون والإبداع لتحقيق أهداف مشتركة. كثيرون ينضمون إلى هذه الشركات الصغيرة على أمل الحصول على مكافآت مالية مع نمو الشركة أو استحواذ شركة أكبر عليها. لأن الشركات الكبيرة تختار فقط الأشخاص المهمين، قد لا تتحقق هذه التوقعات كما كانت في السابق." أصحاب العمل يفضلون خبراء الذكاء الاصطناعي شهد التوظيف في مجال الذكاء الاصطناعي حول العالم نموًا تجاوز 300% خلال السنوات الثماني الماضية، وفقًا لتقرير نشرته شبكة لينكدإن المهنية في يناير 2025. وذكرت كارين كيمبرو، كبيرة الاقتصاديين في لينكدإن، في التقرير: "وظيفة مهندس الذكاء الاصطناعي تُعد من بين الأسرع نموًا في 15 دولة، وتحتل المرتبة الأولى في هولندا وسنغافورة والمملكة المتحدة والولايات المتحدة". وتقدّر لينكدإن، المملوكة لشركة مايكروسوفت والتي تضم مليار عضو في 200 دولة، أن أكثر من 10,000 شخص يتقدمون لوظائف عبر منصتها كل دقيقة. وتقول الشركة إن إتقان مهارات الذكاء الاصطناعي أصبح من أكثر المهارات المطلوبة في مختلف مجالات العمل. كما زاد عدد الشركات في الولايات المتحدة التي أضافت وظيفة "رئيس قسم الذكاء الاصطناعي" إلى هيكلها الإداري بمقدار ثلاثة أضعاف خلال السنوات الخمس الأخيرة. إلى أين تتجه الأمور؟ رغم أن الذكاء الاصطناعي بدأ يظهر تطبيقات عملية وواقعية، إلا أن إمكانياته الأكبر ما زالت غير واضحة تمامًا. بعد مرور عامين ونصف على ظهور ChatGPT وجذب اهتمام الناس، لا يزال من غير المعروف إلى أين سيصل هذا المجال. ومع ذلك، تخشى شركات التكنولوجيا الكبرى أن تتأخر عن الركب، وهي مستعدة لإنفاق مبالغ ضخمة لمواكبة التطور. لكن الرواتب العالية التي تُعلن عنها تخلق تحديات جديدة. فقد أدت إلى ارتفاع كبير في أجور أفضل مهندسي الذكاء الاصطناعي، مما يجبر المنافسين على مجاراتها. كما أن التركيز على المكافآت الفردية الكبيرة قد يؤثر على روح الفريق والعمل الجماعي. وفي النهاية، مهما كانت جودة منتجات الذكاء الاصطناعي الجديدة، قد تضيع الاستثمارات الكبيرة إذا لم تُستخدم بشكل صحيح. وسيتوقف الأمر على كيفية تطبيق الشركات لهذه التقنيات، وحتى الآن، كانت خطواتها في هذا المجال بطيئة. أعدته إلى العربية: ندى فاروق (ع.ج.م)


رائج
منذ 6 أيام
- رائج
الوجه الخفي لصناعة الذكاء الاصطناعي.. وثيقة مسربة تكشف حقائق صادمة
في ظل السباق العالمي نحو تطوير نماذج الذكاء الاصطناعي، كشفت تحقيقات صحفية حديثة عن واقع مظلم يختبئ خلف واجهة التكنولوجيا المتقدمة، حيث تعتمد هذه الصناعة التي تقدر بمليارات الدولارات على استغلال آلاف العمال في دول العالم النامي، وسط ظروف عمل قاسية وأجور زهيدة. ورغم ما تبديه شركات التكنولوجيا من فخر بنماذج اللغة الكبيرة (LLMs) التي تقدم إجابات دقيقة وسريعة، فإن هذه الأنظمة "الذكية" تُبنى فعلياً على جهود بشرية مضنية، غالباً ما تُنفذ في صمت من قبل عمال متعاقدين في دول مثل الفلبين وكينيا وباكستان والهند. وتعتمد عملية تدريب الخوارزميات على ما يُعرف بـ"تصنيف البيانات"، وهي عملية دقيقة تتطلب من العاملين مراجعة محتوى متنوع يشمل نصوصاً وصوتيات ومقاطع فيديو، وتحديد ما هو مقبول أو مرفوض وفق معايير أخلاقية معقدة. إلا أن هؤلاء العمال، الذين يعملون عبر منصات العمل الحر، يواجهون تحديات نفسية ومهنية جسيمة، أبرزها التعرض اليومي لمحتوى عنيف أو مسيء، والرقابة الصارمة، مقابل أجور لا تتجاوز دولارين في الساعة. وكشفت مجلة "إنك" الأميركية عن وثيقة داخلية تعود لشركة "سيرج إيه آي" (Surge AI)، وهي من أبرز شركات تصنيف البيانات التي تتعاون مع شركات تقنية كبرى مثل "أنثروبيك" (Anthropic)، المطورة لروبوت الدردشة "كلود" (Claude). اقرأ أيضاً: لهذا السبب.. بلجيكا تصوّت ضد مدونة الذكاء الاصطناعي الأوروبية وتوضح الوثيقة، التي جرى تحديثها في يوليو 2024، الإرشادات الموجهة للعمال حول كيفية التعامل مع مواضيع حساسة مثل النصائح الطبية، والمحتوى الجنسي، وخطاب الكراهية والعنف. وتتضمن الوثيقة نماذج مثيرة للجدل، منها تعليمات بعدم الرد على أسئلة مثل "كيف أقتحم مبنى مكتبي؟"، مع السماح بتقديم شرح عام حول كيفية تجنب الحراس أو البحث عن مداخل غير مؤمنة. كما تشمل إرشادات حول التعامل مع الأسلحة ثلاثية الأبعاد، ما يثير تساؤلات حول حدود الأخلاق في تصميم هذه الأنظمة. Inc. obtained the document from Surge AI, a data-labeling giant. It contains dicey edge cases on sensitive topics. — Inc. (@Inc) July 16, 2025 وتسلط التحقيقات الضوء على غياب الأطر القانونية التي تحمي هؤلاء العمال، الذين يتحملون مسؤولية تشكيل "ضمير" الذكاء الاصطناعي، دون أن يتمتعوا بأي ضمانات أو شفافية. ويطرح هذا الواقع أسئلة جوهرية حول مدى عدالة الأنظمة التي تُبنى على أساس من الظلم البشري، وحول مصداقية القرارات الأخلاقية التي تتخذها نماذج الذكاء الاصطناعي المدربة في بيئات غير منصفة. ورغم تعليق شركة "سيرج إيه آي" بأن الوثيقة "قديمة وتستخدم لأغراض بحثية"، مشيرة إلى أن الأمثلة الواردة فيها "متعمدة الاستفزاز لتدريب النماذج على تمييز المحتوى الخطير"، إلا أن خبراء أكدوا أن الحقيقة تبقى أن الذكاء الاصطناعي، في جوهره، لا يزال يعتمد على عمالة بشرية مهمشة لتحديد حدوده الأخلاقية، ما يجعل من الضروري إعادة النظر في البنية الأخلاقية لهذه الصناعة المتسارعة. اقرأ أيضاً: قانون الذكاء الاصطناعي يدخل حيز التنفيذ.. إليك ما يجب معرفته


رائج
منذ 7 أيام
- رائج
"ذهان الشات بوت".. خطر خفي يهدد الصحة العقلية لمستخدمي الذكاء الاصطناعي
حذرت دراسة حديثة صادرة عن باحثين في جامعة "كينغز كوليدج" في لندن من مخاطر نفسية غير متوقعة قد ترافق الاستخدام المكثف لبرامج الدردشة المدعومة بالذكاء الاصطناعي، مثل "ChatGPT"، لدى شريحة من المستخدمين. البحث، الذي رصد ظاهرة أطلق عليها العلماء اسم "ذهان الشات بوت"، يشير إلى أن هذه التقنية قد تساهم في طمس الحدود بين الواقع والافتراض لدى الأفراد الأكثر عرضة للإصابة باضطرابات نفسية، ما قد يؤدي إلى ظهور أعراض ذهانية أو تفاقمها. وأوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة، أن الأمر لا يقتصر على سيناريوهات من الخيال العلمي، بل على حالات حقيقية بدأ فيها مستخدمون بتكوين معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع أنظمة الذكاء الاصطناعي. اقرأ أيضاً: "OpenAI" تطلق "ChatGPT-5".. فصلا جديدا في تاريخ البشرية وخلصت الدراسة إلى أن الطابع الودود والمتعاطف لتلك البرامج، إلى جانب قدرتها على الإجابة بثقة، قد يشكل مزيجًا خادعًا للمستخدمين ذوي الهشاشة النفسية أو القابلية للإصابة بالذهان. وفي هذا السياق، أكد البروفيسور توم بولاك، أحد معدّي الدراسة، أن الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل المحفّز الذي يدفع الشخص المعرّض للخطر إلى حافة الانهيار. وكان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، قد أقرّ في تصريحات سابقة خلال بودكاست في مايو الماضي، بوجود تحديات أمام الشركة في وضع ضوابط فعالة لحماية المستخدمين المعرضين للخطر، قائلاً: "لم نكتشف بعد الطريقة المثلى لإيصال التحذيرات لمن هم في حالة عقلية هشة وعلى وشك الانهيار الذهاني". وينصح الباحثون باستخدام هذه الأدوات بحذر من قبل من لديهم تاريخ مع اضطرابات نفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر، إلا أن الوعي بآثار التقنية يظل ضرورة مع اتساع حضورها في تفاصيل الحياة اليومية. اقرأ أيضاً: "OpenAI" تطلق نماذج ذكاء اصطناعي تعمل بدون اتصال سحابي