logo
بعد قمة ستوكهولم... الصين تتّهم "إنفيديا" بثغرات أمنية

بعد قمة ستوكهولم... الصين تتّهم "إنفيديا" بثغرات أمنية

الشرق للأعمالمنذ 5 أيام
استدعت السلطات الصينية ممثلين عن شركة "إنفيديا" لمناقشة مزاعم تتعلّق بمخاطر أمنية مرتبطة بشرائح الذكاء الاصطناعي من طراز H20 التي تصنعها.
وقالت إدارة الفضاء الإلكتروني في الصين، في بيان صدر يوم الخميس، إن هذه الشرائح تنطوي على ثغرة أمنية خطيرة، وطالبت مسؤولي "إنفيديا" بتوضيح المخاطر وتقديم الوثائق ذات الصلة. وأشار البيان إلى أن القضية تتعلق بقدرات لتتبع المواقع وتعطيل الأجهزة عن بعد.
ولم تعلّق "إنفيديا" على الموضوع فوراً خارج ساعات العمل الرسمية، كما لم تقر علناً بأن شرائح H20 تتضمن مثل هذه الوظائف.
شكل هذا التحرك تغييراً مفاجئاً في النبرة بعد ما بدا أنه تحسّن في العلاقات التجارية بين الولايات المتحدة والصين، إذ جاء بعد أيام فقط من قمة عُقدت في ستوكهولم بين مسؤولي التجارة في البلدين.
وكانت إدارة الرئيس ترمب قد حظرت في أبريل بيع منتج H20 للصين، قبل أن تسمح السلطات الأميركية مؤخراً بعودته إلى السوق.
وأعلنت "إنفيديا" و"أدفانسد مايكرو ديفايسز" (Advanced Micro Devices) هذا الشهر استئناف بيع بعض شرائح الذكاء الاصطناعي في الصين، بعد حصولهما على تأكيدات من واشنطن أنها ستوافق على تلك الشحنات.
لكن بعض المشرّعين الأميركيين انتقدوا القرار، محذرين من أنه قد يعزز القدرات العسكرية لبكين ويزيد من قدرتها على منافسة الولايات المتحدة في مجال الذكاء الاصطناعي. وردّ مسؤولون في واشنطن أن الصين تملك أصلاً منتجات أكثر تطوراً من H20، توفرها شركات محلية مثل "هواوي تكنولوجيز".
تجدر الإشارة إلى أن شريحة H20 الأقل تقدماً صُمّمت خصيصاً لتتوافق مع قيود التصدير الأميركية السابقة المفروضة على الصين.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

خضعت نماذج الشركات الثلاث للتقييم قبل اعتماد الشركات
خضعت نماذج الشركات الثلاث للتقييم قبل اعتماد الشركات

العربية

timeمنذ 2 ساعات

  • العربية

خضعت نماذج الشركات الثلاث للتقييم قبل اعتماد الشركات

أضافت إدارة الخدمات العامة، الذراع الشرائية المركزية للحكومة الأميركية، شركات " OpenAI" و"غوغل" و"أنثروبيك" إلى قائمة موردي الذكاء الاصطناعي المعتمدين، ما يمهد الطريق لاعتماد واسع النطاق لهذه التقنية عبر الوكالات الفيدرالية المدنية. وستُسرّع هذه الخطوة التي اتخذتها إدارة الخدمات العامة، والمقرر الإعلان عنها يوم الثلاثاء، من اعتماد أدوات الذكاء الاصطناعي في الحكومة الفيدرالية من خلال إتاحتها عبر "Multiple Award Schedule"، وهي منصة تعاقد فيدرالية بشروط تعاقدية محددة مسبقًا. وبدون هذه المرونة، كانت الوكالات ستقضي عادةً أشهرًا في التفاوض على شروطها الخاصة لاستخدام هذه التقنية، بحسب تقرير لوكالة بلومبرغ، اطلعت عليه "العربية Business". وقال مسؤولو إدارة الخدمات العامة إن نماذج الذكاء الاصطناعي من الشركات الثلاث –"شات جي بي تي" من "OpenAI" و"Gemini" من "غوغل" و"Claude" من "أنثروبيك"- خضعت للتقييم بناءً على عدة معايير للأداء والأمان. ولم تُفصح الإدارة فورًا عن شروط العقود. وسيتم النظر في انضمام شركات أخرى بارزة في مجال الذكاء الاصطناعي. وقال المسؤولون إن الشركات الثلاثة الأوائل كانت ببساطة متقدمة أكثر في عملية الشراء. وتأتي هذه الخطوة بعد أيام قليلة من توقيع الرئيس الأميركي دونالد ترامب ثلاثة أوامر تنفيذية تهدف إلى إعادة تشكيل دور الحكومة في مجال الذكاء الاصطناعي، بما في ذلك إلزام الوكالات الفيدرالية بشراء نماذج لغوية "خالية من التحيز الأيديولوجي". وتعني إضافة الشركات الثلاثة إلى منصة "Multiple Award Schedule" –التي تجعل منتجات تكنولوجيا المعلومات التجارية متاحة بسهولة أكبر للوكالات- أن الموظفين الفيدراليين يمكنهم البدء في استخدام نماذج لغوية كبيرة كانت مقتصرة سابقًا على مشروعات تجريبية أصغر أو استخدامات الأمن القومي. وقد منح البنتاغون بالفعل عقودًا في مجال الذكاء الاصطناعي لشركتي "OpenAI" و"xAI" التابع لإيلون ماسك، وهي عقود منفصلة عن إعلانات إدارة الخدمات العامة يوم الثلاثاء.

ما الذي يمنع الموظفين حقاً من استخدام الذكاء الاصطناعي؟
ما الذي يمنع الموظفين حقاً من استخدام الذكاء الاصطناعي؟

الشرق الأوسط

timeمنذ 3 ساعات

  • الشرق الأوسط

ما الذي يمنع الموظفين حقاً من استخدام الذكاء الاصطناعي؟

من هوليوود إلى شركات التكنولوجيا الكبرى، تتجه قطاعات الصناعة والخدمات الكبرى في جميع أنحاء الولايات المتحدة بشكل متزايد نحو أدوات تسيير العمل القائمة على الذكاء الاصطناعي، وتتوقع من الموظفين أن يحذوا حذوها، كما كتبت غريس سنيلينغ (*). في أواخر الشهر الماضي، أفاد موقع «بيزنس إنسايدر» بأن شركة «مايكروسوفت» بدأت بتقييم بعض الموظفين بناءً على إتقانهم الذكاء الاصطناعي، مع مراعاة كفاءتهم في استخدام أدوات الذكاء الاصطناعي في بعض المقاييس مثل تقييمات الأداء. ولكن على الرغم من الحوافز المتزايدة في أمكنة العمل لتبني أدوات الذكاء الاصطناعي، فإن بعض الموظفين يقاومون بشدة تبني الذكاء الاصطناعي - وأسبابهم أكثر منطقية مما تظن. ووفقاً لدراسة جديدة أجراها فريق من الباحثين في جامعة بكين وجامعة هونغ كونغ للفنون التطبيقية، فإن ظاهرة ناشئة تمنع الموظفين بنشاط من استخدام أدوات الذكاء الاصطناعي، حتى في الشركات التي يُشجع فيها المديرون ذلك بشدة. ويُطلق على هذا التحيز اسم «عقوبة الكفاءة competence penalty»، أو «عقوبة تدنّي الكفاءة» وهو ما مفاده اعتبار مستخدمي الذكاء الاصطناعي أقل كفاءة من قِبل أقرانهم، بغض النظر عن أدائهم الفعلي... إنها فجوة في التصور تُلحق الضرر بشكل خاص بالنساء في الأدوار التقنية. أُجريت دراسة الباحثين داخل شركة تقنية رائدة لم يُذكر اسمها. وفي مقال نُشر في مجلة «هارفارد بيزنس ريفيو» (HBR)، أوضح مؤلفو الدراسة أن هذه الشركة قد طرحت سابقاً مساعد برمجة متطوراً يعمل بالذكاء الاصطناعي لمطوريها، الذي وُعِد «بزيادة الإنتاجية بشكل كبير». ومع ذلك، وبعد 12 شهراً، لم يجرّب سوى 41 في المائة من نحو 30000 مهندس شملهم الاستطلاع مساعد البرمجة هذا. كما تفاوتت نسبة استخدام الأداة بناءً على هويات الموظفين؛ إذ إن 39 في المائة فقط من المهندسين الذين تبلغ أعمارهم 40 عاماً فأكثر، كانوا يستخدمون الأداة، إلى جانب نسبة ضئيلة بلغت 31 في المائة من المهندسات. هذا ليس بسبب نقص الجهود من جانب الشركة أيضاً؛ فبدلاً من إجبار موظفيها على استخدام الذكاء الاصطناعي دون توجيه (وهي مشكلة شائعة مع تزايد شيوع أدوات تسيير عمل الذكاء الاصطناعي)، قدمت هذه الشركة فرقاً متخصصة في الذكاء الاصطناعي، وحوافز لتبنيه، وتدريباً مجانياً. لذا، شرع الباحثون في فهم سبب هذا الخلل. للوصول إلى حقيقة نمط التبني الضعيف هذا، أجرى مؤلفو الدراسة تجربة مع 1026 مهندساً من الشركة نفسها. ومُنح المهندسون مقتطفاً من «شيفرة بايثون (Python code)» لتقييمها. وبينما كانت الشيفرة متطابقة تماماً لكل مشارك، قيل لكل منهم إنها أُنشئت في ظل ظروف مختلفة - بما في ذلك مع أو دون ذكاء اصطناعي، وبواسطة مهندس أو مهندسة. أظهرت النتائج أنه عندما اعتقد المشاركون أن زميلاً لهم مهندساً استخدم الذكاء الاصطناعي لكتابة شيفراتهم، فإنهم قيّموا كفاءة ذلك المهندس بنسبة 9 في المائة أقل في المتوسط. كما اعتمدت شدة عقوبة الكفاءة على جنس المهندس المُبلغ عنه. فإذا وُصفوا بأنهم ذكور، فإن انخفاض الكفاءة كان بنسبة 6 في المائة فقط، مقارنةً بانخفاض بنسبة 13 في المائة لمن وُصفوا بأنهم إناث. علاوة على ذلك، كان لهوية المُراجع وموقفه من الذكاء الاصطناعي تأثير على كيفية تقييمه للآخرين؛ فقد كان المهندسون الذين لم يتبنوا الذكاء الاصطناعي بأنفسهم الأكثر انتقاداً لمستخدميه، وعاقب الذكور غير المُعتمدين مستخدمات الذكاء الاصطناعي بقسوة أكبر بنسبة 26 في المائة من نظرائهم الذكور الذين يستخدمونه. ومن خلال دراسة متابعة شملت 919 مهندساً، وجد الباحثون أن كثيراً من الموظفين كانوا في الواقع على دراية فطرية بعقوبة الكفاءة هذه، وكانوا يتجنبون استخدام الذكاء الاصطناعي نتيجة ذلك. وكتب مؤلفو الدراسة: «أولئك الذين خشوا أكثر عقوبات الكفاءة في صناعة التكنولوجيا - النساء والمهندسون الأكبر سناً بشكل غير متناسب - هم بالتحديد أولئك الذين اعتمدوا الذكاء الاصطناعي أقل من غيرهم». «الفئات نفسها التي قد تستفيد أكثر من أدوات تحسين الإنتاجية شعرت بأنها لا تستطيع تحمل تكاليف استخدامها». تُقدم نتائج الدراسة تناقضاً قوياً مع الاعتقاد السائد أن أدوات الذكاء الاصطناعي قد تُعادل فرص العمل، على أساس أنها تقدم حلاً واحداً يناسب الجميع من خلال زيادة إنتاجية الجميع. ويكتب المؤلفون: «تشير نتائجنا إلى أن هذا ليس مضموناً، بل قد يكون العكس صحيحاً». ويضيفون: «في سياقنا، الذي يهيمن عليه الشباب الذكور، أدى توفير الذكاء الاصطناعي بالتساوي إلى زيادة التحيز ضد المهندسات». قد تُساعد هذه النتائج في تفسير الأنماط التي لوحظت بالفعل في استخدام الذكاء الاصطناعي. ووفقاً لبحث حديث أجراه الأستاذ المشارك في كلية هارفارد للأعمال، رامبراند كونينج، فإن النساء يتبنين أدوات الذكاء الاصطناعي بمعدل أقل بنسبة 25 في المائة من الرجال، في المتوسط. وفي مقال نُشر في مجلة «فاست كومباني» في وقت سابق من هذا الشهر، أشار كاماليس لاردي، مؤلف كتاب «الذكاء الاصطناعي للأعمال»، إلى أنه «من واقع خبرتي، غالباً ما تواجه النساء تدقيقاً إضافياً بشأن مهاراتهن وقدراتهن وبراعتهن التقنية. قد يكون هناك قلق عميق من أن يُنظر إلى الاستفادة من أدوات الذكاء الاصطناعي على أنها اختصار للوقت أو أنها تعكس صورة سلبية على مستوى مهارات المستخدمين». ينبغي للشركات، مثل الشركة التي شملتها الدراسة، ألا تتخلى عن تطبيق أدوات الذكاء الاصطناعي الجديدة، لا سيما أن من المتوقع أن يلعب الذكاء الاصطناعي الوكيل دوراً كبيراً في مستقبل العمل. في تحليلهم لمجلة «هارفارد بزنس ريفيو»، يقدم مؤلفو الدراسة خطوات رئيسية عدة للمديرين للنظر فيها: 1. تحديد نقاط ضعف الكفاءة في مؤسستك. ينبغي للقادة التركيز على تحديد الفرق التي قد يكون فيها نقص كفاءة الذكاء الاصطناعي هو الأعلى، بما في ذلك تلك التي تضم عدداً أكبر من النساء والمهندسين الأكبر سناً الذين يتبعون مديرين ذكوراً غير متبنين للذكاء الاصطناعي. قد تساعد مراقبة هذه الفرق في فهم أين وكيف يحدث نقص الكفاءة. 2. استقطاب المشككين المؤثرين. لأن غير المتبنين للذكاء الاصطناعي هم أشد منتقدي مستخدميه. ويمكن للمشككين المؤثرين أن يكون لهم تأثير كبير على الفريق بأكمله. ويشير مؤلفو الدراسة إلى أن كسر هذه الحلقة المفرغة يتطلب من المشككين رؤية زملاء محترمين يستخدمون الذكاء الاصطناعي بنجاح دون عواقب مهنية. 3. إعادة تصميم التقييمات. بناءً على نتائج الدراسة، فإن وضع علامة على منتج بأنه «مُصنّع باستخدام الذكاء الاصطناعي» يمكن أن يؤثر سلباً في تقييمات الأداء. ويكتب المؤلفون: «الحل بسيط: توقف عن الإشارة إلى استخدام الذكاء الاصطناعي في تقييمات الأداء حتى تصبح ثقافة العمل لديك جاهزة» لتبني الذكاء الاصطناعي. * مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store