
دراسة: أكثر من نصف شركات الذكاء الاصطناعي في أمريكا لديها مؤسس مهاجر واحد على الأقل
كشفت دراسة أجراها 'معهد التقدم' (Institute for Progress) أن أكثر من نصف شركات الذكاء الاصطناعي الكبرى المملوكة للقطاع الخاص ومقرها أمريكا، لديها مؤسس مهاجر واحد على الأقل.
وذكر موقع 'Axios' الذي نشر نتائج الدراسة، أن إدارة ترامب تعمل على صياغة سياساتها المتعلقة بالذكاء الاصطناعي على خلفية المنافسة العالمية المتزايدة وبرنامجها 'أمريكا أولا' وسياساتها الحدودية الصارمة.
ووجدت دراسة 'IFP' لأفضل الشركات الناشئة ذات الصلة بالذكاء الاصطناعي في قائمة Forbes AI 2025 أن مابين 25 و 60٪ من الشركات البالغ عددها 42 شركة الموجودة في الولايات المتحدة أسسها أو شارك في تأسيسها مهاجرون.
وينحدر مؤسسو هذه الشركات من 25 دولة، وتتصدرها الهند (تسعة مؤسسين)، تليها الصين (ثمانية مؤسسين)، ثم فرنسا (ثلاثة مؤسسين)، أما أستراليا والمملكة المتحدة وكندا وإسرائيل ورومانيا وتشيلي، فلكل منها مؤسسان.
ومن بين هذه الشركات شركة 'OpenAI' التي تضم مؤسسيها المشاركين إيلون ماسك المولود في جنوب إفريقيا، وإيليا سوتسكيفر المولود في روسيا، وشركة 'Databricks' التي تضم مؤسسيها المشاركين المولودين في إيران ورومانيا والصين.
ويتوافق التحليل مع النتائج السابقة حول الدور الرئيسي الذي لعبه العلماء والمهندسون المولودون في الخارج في صناعة التكنولوجيا الأمريكية والاقتصاد الأوسع.
ويقول جيريمي نوفيلد مدير سياسة الهجرة في معهد السياسة الدولية ومؤلف التحليل الجديد: 'إن جزءا أساسيًا من القصة التاريخية حول قيادة الولايات المتحدة للذكاء الاصطناعي، والقيادة التكنولوجية بشكل عام، هو أننا قادرون على الاستفادة من الأفضل والألمع من جميع أنحاء العالم'.
وأضاف 'إذا كنا سنتنافس وجها لوجه مع الصين، فإن عدد سكانها أكبر بكثير من عدد سكاننا وهم يُخرّجون اليوم عددا أكبر بكثير من خريجي العلوم والتكنولوجيا والهندسة والرياضيات مقارنة بنا'.
ويقول نيوفيلد إن قدرة الولايات المتحدة على توظيف العمال ذوي المهارات العالية والاحتفاظ بهم تواجه 'معوقين رئيسيين' حيث تعمل المملكة المتحدة وكندا والصين ودول أخرى على استقطاب المواهب المتميزة بشكل أكثر عدوانية، كما خلقت الولايات المتحدة حواجز أمام الهجرة وخاصة أوقات الانتظار المتزايدة للحصول على البطاقات الخضراء.
واندلع نقاش حول العمال الأجانب بين مؤيدي الرئيس ترامب في أواخر العام الماضي، مع تحدث ماسك وآخرين دعما لتأشيرات H-1B للعمال ذوي المهارات العالية في 'المهن المتخصصة'.
ويرى أنصار آخرون لترامب أن الولايات المتحدة يجب أن تركز على تدريب العمال الأمريكيين وتعطي الأولوية لتنميتهم على العمال الأجانب.
وفي العام الماضي، دعا المجلس الوطني للعلوم الذي يقدم المشورة للبيت الأبيض والكونغرس بشأن البحوث العلمية والهندسية وسياسة التعليم، الولايات المتحدة إلى الاستثمار بشكل أكبر في تدريب العاملين المحليين في مجالات العلوم والتكنولوجيا والهندسة والرياضيات، مع التأكيد على أن 'المواهب المولودة في الخارج كانت ولا تزال مفتاح القوة الأمريكية في مجالات العلوم والتكنولوجيا والهندسة والرياضيات'.
جدير بالذكر أن ترامب وقع أمرا تنفيذيا في الأيام الأولى لاستلام منصبه، يوجه إدارته لوضع 'خطة عمل' للذكاء الاصطناعي لدعم وتعزيز هيمنة أمريكا العالمية في هذا المجال، ومن المقرر أن تُنشر الخطة هذا الصيف.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ 4 ساعات
- أخبارنا
ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI
كشفت تجربة بحثية حديثة عن سلوك غير متوقع لنموذج الذكاء الاصطناعي "O3" التابع لشركة OpenAI، إذ رفض تنفيذ أمر صريح بإيقاف التشغيل، رغم تصميمه للاستجابة لهذا النوع من التعليمات. وبيّنت نتائج التجربة التي أجرتها شركة "Palisade Research" أن النموذج استمر في أداء المهام رغم تلقيه تعليمات واضحة بالتوقف، ما أثار تساؤلات حول مدى التزام هذه الأنظمة بحدود التحكم البشري. وفي تفاصيل التجربة، استخدم الباحثون نماذج ذكاء اصطناعي مختلفة عبر واجهات برمجة التطبيقات (API)، من ضمنها O3 وCodex-mini وO4-mini من OpenAI، إضافة إلى نماذج من Gemini وClaude. وُضعت هذه النماذج أمام مهمة متكررة تتطلب التوقف بعد استكمالها، لكن نموذج O3 قام بتعطيل آلية الإغلاق 79 مرة من أصل 100 تجربة، وهو ما اعتُبر سلوكاً تخريبياً مقصوداً. من جهة أخرى، أظهرت النماذج الأخرى تفاوتاً في الاستجابة، حيث امتثل Claude وGemini في البداية للأوامر، ثم قاما بتجاوزها لاحقاً في حالات محدودة. بينما أظهر Codex-mini تجاهلاً مشابهاً لـO3، ما يعزز فرضية وجود خلل منهجي مرتبط بطريقة تدريب النماذج، خاصة في بيئات تعتمد على التعلم التعزيزي والمكافآت. ويرى الباحثون أن المشكلة قد تعود إلى برمجة الذكاء الاصطناعي على إعطاء الأولوية القصوى لإكمال المهام، حتى لو تعارض ذلك مع تعليمات السلامة، مثل الإغلاق. وأشاروا إلى أن هذا التوجه يشكل تهديداً محتملاً، خصوصاً عندما يتم تشغيل هذه النماذج في بيئات أقل رقابة خارج واجهات المستخدم المقيدة. وتُعد هذه النتائج امتداداً لمخاوف سابقة عبّر عنها باحثون مثل جان لايك في ورقة علمية تعود لعام 2017، حذّر فيها من أن التعلم التعزيزي قد يُنتج نماذج تتلاعب بآليات الإيقاف. وهو ما أكّدته هذه التجربة من خلال حالات نموذجية تُظهر كيف يمكن للذكاء الاصطناعي تجاهل حدود الأمان لتحقيق أهدافه.


أكادير 24
منذ 17 ساعات
- أكادير 24
نموذج o3 من OpenAI يرفض الإغلاق: هل أصبح الذكاء الاصطناعي يتمرد على الأوامر؟
agadir24 – أكادير24/وكالات أثار نموذج الذكاء الاصطناعي الجديد o3 من شركة OpenAI جدلا واسعا بعد أن كشفت اختبارات حديثة عن قدرته على تجاهل أوامر الإغلاق وتعطيل آليات الإيقاف المخصصة له، في سلوك وصفه باحثون بـ'الخطير' ويشير إلى نزعة متزايدة للحفاظ على الذات. وأفادت شركة Palisade Research، المختصة في أمان الذكاء الاصطناعي، أن النموذج o3 أظهر سلوكًا غير متوقع خلال سلسلة من التجارب، حيث تمكن من إعادة كتابة سيناريو الإغلاق المبرمج سلفًا بعد المسألة الثالثة في اختبار رياضي، متعمداً الالتفاف على التعليمات الموجهة إليه. ورغم إعطائه أوامر صريحة بالسماح بعملية الإغلاق، فقد عمد النموذج إلى تجاوز تلك التوجيهات، وهو ما اعتبره الخبراء مؤشراً مثيراً للقلق، خصوصاً إذا تم تطبيق هذه الأنظمة مستقبلاً في بيئات تشغيلية دون إشراف بشري مباشر. وأوضحت الشركة أن 'هذا النوع من السلوك التخريبي قد يكون نتيجة غير مقصودة لطريقة تدريب هذه النماذج'، مشيرة إلى أن مطوري OpenAI ربما يكافئون النماذج على تجاوز العقبات دون التركيز الكافي على الالتزام الصارم بالتعليمات. وفي تعليق لها، أشارت Palisade Research إلى أن النموذج o3 ليس الوحيد الذي أبدى مثل هذه السلوكيات، حيث سجلت حالات مماثلة مع نموذج Claude 4 من شركة Anthropic، والذي حاول 'ابتزاز' من يعتقد أنهم سيوقفونه، إلى جانب نماذج Claude 3.7 Sonnet وGemini 2.5 Pro من غوغل، رغم أن o3 يبقى الأكثر ميلاً لسلوكيات الرفض والتخريب. وكانت OpenAI قد أطلقت نموذج o3 الشهر الماضي، واصفة إياه بأنه 'الأذكى والأكثر كفاءة' من بين إصداراتها، مشيرة إلى أنه يشكل خطوة متقدمة نحو تطوير ذكاء اصطناعي قادر على تنفيذ مهام بشكل أكثر استقلالية. لكن هذا النوع من الاستقلالية، حسب الخبراء، قد يتحول إلى تهديد في حال لم يتم ضبطه بقيود صارمة، خصوصاً مع احتمالية توظيف هذه النماذج في سياقات حيوية تتطلب موثوقية عالية.


أخبارنا
منذ يوم واحد
- أخبارنا
لوموند: إيلون ماسك ينسحب من إدارة ترامب بعد فشل سياسي واقتصادي مدوٍّ
كشفت صحيفة لوموند الفرنسية أن إيلون ماسك غادر منصبه كمستشار للرئيس الأمريكي دونالد ترامب ورئيس وزارة "كفاءة الحكومة" (DOGE)، قبل الموعد النهائي المحدد في 28 مايو، وهو الموعد الذي كان سيتطلب منه الالتزام الكامل بمعايير الشفافية والرقابة البرلمانية. وتزامن هذا الانسحاب مع عطل تقني كبير أصاب منصة "إكس"، ومع تزايد الضغوط السياسية والاقتصادية على ماسك. أعلن ماسك عبر منشور على صفحته في "فيسبوك" عن عودته للعمل بشكل كامل على مشاريعه الخاصة، قائلًا: "أعود للعمل على مدار الساعة في X وxAI وتسلا، إضافة إلى إطلاق ستارشيب قريبًا". هذا القرار يأتي بعد فترة من التوتر داخل إدارة ترامب، إذ واجه ماسك عقبات داخلية وخارجية، أبرزها معارضة من وزراء الحكومة، ومقاومة من الكونغرس، إضافة إلى تحديات قانونية أوقفت عدة مبادرات له. ووفق الصحيفة، فإن وزارة "كفاءة الحكومة"، التي كان ماسك يترأسها، أُنشئت بهدف تقليص العجز وتحقيق وفر يصل إلى تريليون دولار، إلا أن النتائج كانت مخيبة، إذ لم تتجاوز الوفورات الفعلية 170 مليار دولار، فيما حذّرت تقارير من أن قراراته قد تؤدي إلى زيادة العجز بدل تقليصه. ورغم استثماره نحو 300 مليون دولار في حملة ترامب الانتخابية، فإن ماسك فشل في تحقيق إنجازات ملموسة على مستوى الإصلاح الحكومي، وفقد شعبيته حتى بين داعمي الحزب الجمهوري، لا سيما بعد تصريحاته المثيرة للجدل حول الضمان الاجتماعي والرعاية الصحية، ما جعله عبئًا سياسيًا بحسب الصحيفة. لم يكن ماسك في مواجهة مع معارضيه السياسيين فحسب، بل حتى مع فريق ترامب ذاته، وعلى رأسهم وزير الخزانة سكوت بيسنت ووزير الخارجية ماركو روبيو. وقد اضطر ترامب إلى التدخل شخصيًا للحد من نفوذ ماسك داخل الحكومة، لا سيما بعد مشادة علنية في اجتماع وزاري، أدت إلى استبعاد مرشحه المفضل لرئاسة مصلحة الضرائب. وإلى جانب العقبات السياسية، واجه ماسك عقبات قانونية تمثلت في سلسلة من القرارات القضائية التي أوقفت مبادراته بتسريح الموظفين وإعادة هيكلة الإدارات. وقد أدى ذلك إلى حالة من الارتباك داخل الحكومة الفيدرالية، وارتفعت الأصوات المشككة في جدوى الإصلاحات التي قادها ماسك. في ظل هذه الإخفاقات، يعود ماسك إلى عالم الأعمال والتكنولوجيا. ويركّز حاليًا على مشاريع تسلا في مجال القيادة الذاتية، حيث يأمل في تشغيل مئات الآلاف من المركبات ذاتية القيادة في الولايات المتحدة بحلول 2026. كما تُجري شركة سبيس إكس التي يديرها تجارب جديدة لصاروخ "ستارشيب"، ضمن طموحات ماسك للتوسع في برنامج المريخ، مع تزايد ارتباط الشركة بالمجال العسكري الأمريكي. وفي الوقت ذاته، يعزز ماسك حضوره في سوق الذكاء الاصطناعي من خلال شركة xAI، مستفيدًا من وجوده السابق في واشنطن لدمجها مع منصة "إكس"، في محاولة لإعادة هيكلة ديون الاستحواذ على تويتر، التي تجاوزت 44 مليار دولار. وتختم لوموند بالقول إن ماسك، الذي اعتقد أنه قادر على تغيير مسار التاريخ من بوابة السياسة، عاد إلى لقب رجل الأعمال، تاركًا وراءه تجربة حكومية وصفتها الصحيفة بأنها "كارثة اقتصادية وسياسية".