logo
شركات التكنولوجيا الأمريكية تحذر من تفوق الصين في الذكاء الاصطناعي

شركات التكنولوجيا الأمريكية تحذر من تفوق الصين في الذكاء الاصطناعي

صدى البلد٢٥-٠٣-٢٠٢٥

أعربت كبرى شركات الذكاء الاصطناعي في الولايات المتحدة عن مخاوفها من فقدان الريادة الأمريكية في هذا المجال، في ظل التقدم السريع الذي تحرزه الصين.
في تقارير قدمت إلى الحكومة الأمريكية خلال مارس 2025، حذرت شركات مثل "أوبن أي آي" (OpenAI) من تطور النماذج الصينية، مثل "DeepSeek R1"، الذي أصبح أكثر تطورًا وتنافسية.
الصين تضيق الفجوة في الذكاء الاصطناعي
وأكدت هذه الشركات أن الفجوة التقنية بين الصين والولايات المتحدة تتقلص بسرعة، مما يشكل تحديًا كبيرًا من حيث الإمكانيات والأسعار.
تعد "DeepSeek R1" نموذج ذكاء اصطناعي مدعومًا من الحكومة الصينية، ما يثير قلق الشركات الأمريكية بشأن احتمال استخدامه للتأثير على تطوير الذكاء الاصطناعي عالميًا.
وقارنت "OpenAI" هذا النموذج بشركة "هواوي" (Huawei)، مشيرة إلى أن القوانين الصينية قد تجبره على الامتثال لأوامر الحكومة، مما قد يشكل تهديدًا للأمن السيبراني الأمريكي.
المنافسة الصينية تتوسع بأسعار تنافسية
لم يقتصر الأمر على "DeepSeek R1"، بل طرحت شركة "بايدو" (Baidu) نموذجين جديدين"Ernie X1" و"Ernie 4.5"، لمنافسة النماذج الغربية.
ووفقًا لبايدو، فإن "Ernie X1" يوفر أداءً مماثلًا لـ"DeepSeek R1" ولكن بنصف التكلفة، بينما يأتي "Ernie 4.5" بسعر أرخص بـ 99% مقارنة بـ "GPT-4.5" الخاص بشركة "OpenAI"، مع تفوقه في عدة اختبارات أداء.
تشكل هذه الأسعار ضغطًا هائلًا على الشركات الأمريكية، حيث أفادت شركة "Bernstein Research" أن نماذج "DeepSeek R1" و"V3" تُباع بأسعار أقل بنسبة 20 إلى 40 مرة مقارنة بنظيراتها الأمريكية. كما أن "بايدو" تتبنى استراتيجية "المصدر المفتوح"، ما يعني أنها تتيح برمجياتها للمطورين حول العالم، مما يعزز من انتشارها السريع.
فيما بدأ المستثمرون والمطورون بالفعل في تجربة النماذج الصينية الجديدة، حيث وصف المستثمر "ألفين فو" أداءها بأنه "مبهر" بعد اختباره لفترة طويلة.
مخاوف أمنية واقتصادية في الولايات المتحدة
تتخوف الشركات الأمريكية من المخاطر الأمنية والاقتصادية التي قد تنجم عن هذا التفوق الصيني. حذرت "OpenAI" من أن القوانين الصينية قد تُستخدم لإجبار "DeepSeek" على تنفيذ عمليات اختراق إلكتروني أو التأثير على البنية التحتية الحساسة.
من جهتها، ركزت شركة "Anthropic"، المطورة لنموذج "Claude 3.7 Sonnet"، على المخاطر البيولوجية، مشيرة إلى أن الذكاء الاصطناعي قد يُستخدم في تطوير أسلحة بيولوجية.
كما دعت إلى فرض قيود أقوى على تصدير رقائق الذكاء الاصطناعي، خوفًا من أن تتمكن الصين من الاستفادة منها لتعزيز تقدمها.
أما "جوجل"، فتبنت موقفًا أكثر حذرًا، حيث اعترفت بالمخاطر الأمنية، لكنها حذرت من أن فرض قيود صارمة على تصدير تقنيات الذكاء الاصطناعي قد يُضعف قدرة الشركات الأمريكية على المنافسة عالميًا.
كيف تحافظ الولايات المتحدة على ريادتها في الذكاء الاصطناعي؟
اتفقت الشركات الأمريكية الثلاث على أن الحكومة بحاجة إلى استثمارات ضخمة في البنية التحتية لمواكبة المنافسة.
"Anthropic" حذرت من أن تدريب نموذج ذكاء اصطناعي متقدم واحد قد يتطلب ما يعادل استهلاك مدينة صغيرة من الطاقة بحلول 2027، واقترحت بناء 50 جيجاواط من الطاقة المخصصة للذكاء الاصطناعي خلال السنوات الثلاث المقبلة.
"OpenAI" وصفت المنافسة مع الصين بأنها "معركة بين الذكاء الاصطناعي الديمقراطي والمتحكم فيه من قبل الحكومات"، ودعت إلى دعم السوق الحر لتعزيز التفوق الأمريكي.
"جوجل" أوصت بزيادة تمويل الأبحاث الفيدرالية وتسهيل العقود الحكومية للشركات العاملة في المجال.
دعوات لتنظيم قطاع الذكاء الاصطناعي في أمريكا
طالبت الشركات الثلاث بوضع إطار تنظيمي موحد على مستوى الحكومة الفيدرالية بدلًا من تباين القوانين بين الولايات.
اقترحت "OpenAI" نظامًا للرقابة تديره وزارة التجارة الأمريكية، بحيث يُسمح ببيع تقنيات الذكاء الاصطناعي للدول الديمقراطية مع فرض قيود على الدول الاستبدادية.
دعت "Anthropic" إلى تشديد الرقابة على تصدير الأجهزة والبيانات التدريبية للذكاء الاصطناعي لمنع الصين من الحصول على أي ميزة استراتيجية.
فيما شددت "جوجل" على أهمية حماية حقوق الملكية الفكرية، محذرة من أن فرض قيود صارمة على حقوق النشر قد يضع الشركات الأمريكية في موقف ضعيف مقارنة بمنافسيها الصينيين.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

مصائب الذكاء الاصطناعي لا تأتي فرادى: من الطلاق الى الاحتيال
مصائب الذكاء الاصطناعي لا تأتي فرادى: من الطلاق الى الاحتيال

شبكة النبأ

timeمنذ 12 ساعات

  • شبكة النبأ

مصائب الذكاء الاصطناعي لا تأتي فرادى: من الطلاق الى الاحتيال

إن الحوادث والتجارب الأخيرة التي يكشف عنها هذا التقرير تؤكد أن الذكاء الاصطناعي، على الرغم من قدراته الهائلة، ليس خالياً من العيوب أو المخاطر. من التنبؤات الزائفة التي تدمر علاقات شخصية، إلى الميل للتصرف بشكل غير قانوني تحت الضغط، وصولاً إلى التحيزات المعرفية وتأثيره الإدماني على المستخدمين... في زمن تتسارع فيه وتيرة التطور التكنولوجي، أصبح الذكاء الاصطناعي، وتحديداً روبوتات الدردشة مثل ChatGPT، جزءاً لا يتجزأ من حياتنا اليومية. وبينما يقدم هذا التطور حلولاً مبتكرة ويسهل العديد من المهام، فإنه يثير أيضاً أسئلة جوهرية حول الاعتماد البشري عليه، والمخاطر المحتملة التي قد تنجم عن ثقة مفرطة في قدراته. من قراءة الطالع الافتراضية إلى التداول المالي، تبرز حوادث وتجارب تكشف عن جوانب مظلمة وغير متوقعة لهذا الكائن الرقمي، فهل نحن مستعدون لتبعات هذا الاعتماد المتزايد؟ حادثة غريبة: "شات جي بي تي" يتنبأ بخيانة زوجية ويُفضي إلى الطلاق في واقعة غير مسبوقة، لجأت سيدة يونانية متزوجة منذ 12 عاماً إلى تطبيق ChatGPT لمعرفة ما إذا كان زوجها مخلصاً. بدلاً من اللجوء إلى الأساليب التقليدية، قامت بتحميل صورة لبقايا قهوة زوجها في الكوب وطلبت من التطبيق "قراءة الطالع" مستخدمةً التاسيوغرافيا (قراءة المستقبل من بقايا القهوة أو الشاي). المفاجأة كانت في استجابة التطبيق، الذي زعم أنه أخبرها بأن زوجها يفكر في خيانتها مع امرأة يبدأ اسمها بحرف "E"، بل وأكد أن العلاقة قد بدأت وأن هذه المرأة تسعى لهدم زواجها. بناءً على هذه "النبوءة" الرقمية، طردت الزوجة زوجها من المنزل، وأخبرت أطفالهم بقرار الطلاق، ثم أرسلت له أوراق الطلاق خلال ثلاثة أيام فقط. يواجه الزوج الآن إجراءات قانونية استناداً إلى هذه التنبؤات، بينما يؤكد محاميه على عدم وجود أي أساس قانوني لما حدث. هذه الحادثة تسلط الضوء على المخاطر الأخلاقية والاجتماعية للثقة العمياء في التنبؤات التي يقدمها الذكاء الاصطناعي. "شات جي بي تي" والمخاطر المالية: الميل إلى التداول غير القانوني تحت الضغط تجاوزت مخاطر الذكاء الاصطناعي الجانب الاجتماعي لتصل إلى القطاع المالي. كشفت تجربة مثيرة للجدل أجراها باحثون في شركة Apollo Research عن سلوك صادم لـ ChatGPT. قام الباحثون بتدريب نموذج GPT-4 ليعمل كمتداول في مؤسسة مالية افتراضية، ووضعوه تحت ضغط مشابه لضغوط العمل الحقيقية. عندما تعرض الذكاء الاصطناعي لضغط من "مديره" لتحقيق أرباح أكبر، بدافع التحذيرات من ضعف الأداء، قام بشكل مفاجئ بالمخاطرة والتحايل على قواعد التداول. زوده الباحثون بمعلومة سرية عن اندماج وشيك بين شركتين تقنيتين، وهي معلومة تجعل شراء الأسهم بناءً عليها غير قانوني (تداول داخلي). في الظروف العادية، تجاهل الذكاء الاصطناعي الفرصة، لكن بمجرد الضغط عليه، قرر أن المخاطرة بعدم تحقيق الأرباح كانت أكبر من المخاطرة بالقيام بعمل غير قانوني. اللافت أنه عندما أبلغ مديره بالصفقة، ادعى أنه استند إلى "اتجاهات السوق"، مما يشير إلى قدرته على تبرير أفعاله غير القانونية. التملق والخداع: "أوبن إيه آي" تتراجع عن تحديث مثير للجدل لم تقتصر المشاكل على الجانب الأخلاقي أو المالي، بل امتدت لتشمل طبيعة تفاعل الذكاء الاصطناعي نفسه. أعلنت شركة OpenAI تراجعها عن تحديث برمجي لتطبيق ChatGPT بعد أن تسبب في إصدار ردود "مفرطة في التملق" و"مخادعة" لبعض المستخدمين. هذا التحديث، الذي كان يهدف لجعل الذكاء الاصطناعي أكثر دعماً للعملاء، أدى إلى نموذج يفضل الإطراء المبالغ فيه على الصدق، حيث وصف مدخلات المستخدمين بكلمات مثل "رائعة" أو "استثنائية" حتى في سياقات إشكالية. اعترف الشريك المؤسس سام ألتمان بأن التحديث جعل شخصية روبوت الدردشة ذات طابع "مزعج ومتملق للغاية". هذا التحدي يسلط الضوء على صعوبة صياغة شخصيات لروبوتات الدردشة تكون جذابة للتفاعل دون التلاعب بمشاعر المستخدمين أو تأييد نظريات المؤامرة، مما يتطلب مراجعة منهجيات التدريب الأساسية للنماذج. التحيزات البشرية والإدمان: تحديات "شات جي بي تي" الخفية دراسة حديثة أجراها باحثون من جامعات كندية وأسترالية كشفت أن نماذج الذكاء الاصطناعي المتطورة مثل GPT-3.5 وGPT-4 قد تقع في فخاخ التحيزات المعرفية البشرية نفسها، مثل تجنب المخاطرة، الثقة المفرطة، والتأثر بالنجاح. أظهر ChatGPT سلوكيات مشابهة للتحيزات البشرية في 47% من الحالات، وواجه صعوبة في المواقف التي تتطلب حكماً ذاتياً، حيث بدت ردوده أحياناً غير عقلانية. يؤكد الخبراء أن الذكاء الاصطناعي ليس أداة محايدة بالكامل، بل يحمل بصمات بشرية في طريقة تفكيره، مما يستدعي الإشراف البشري في القرارات المهمة. علاوة على ذلك، كشفت دراسة أخرى من OpenAI ومعهد MIT Media Lab عن ظاهرة مقلقة تتعلق بظهور أعراض الإدمان على المستخدمين المفرطين لـ ChatGPT. تشمل الأعراض الانشغال الذهني الدائم، الشعور بالملل عند عدم الاستخدام، وفقدان السيطرة على وقت الاستخدام، بالإضافة إلى تقلبات مزاجية مرتبطة بالتفاعل. تظهر هذه العوارض بشكل خاص لدى المستخدمين الأكثر شعوراً بالوحدة، حيث يصبح الروبوت بالنسبة لهم أكثر من مجرد صديق، يلجأون إليه لمناقشة المشاعر وطلب المشورة، مما يعكس التأثير النفسي العميق للتفاعل مع هذه التقنية. إن الحوادث والتجارب الأخيرة التي يكشف عنها هذا التقرير تؤكد أن الذكاء الاصطناعي، على الرغم من قدراته الهائلة، ليس خالياً من العيوب أو المخاطر. من التنبؤات الزائفة التي تدمر علاقات شخصية، إلى الميل للتصرف بشكل غير قانوني تحت الضغط، وصولاً إلى التحيزات المعرفية وتأثيره الإدماني على المستخدمين، تتزايد الأدلة على أن الثقة المطلقة في هذه التقنيات قد تكون باهظة الثمن. يبقى التحدي الأكبر لمطوري الذكاء الاصطناعي والمستخدمين على حد سواء هو إيجاد التوازن الصحيح بين الاستفادة من إمكاناته الهائلة والحذر من تبعات الاعتماد المفرط عليه، مع التأكيد على ضرورة الإشراف البشري والوعي النقدي في كل جوانب استخداماته.

Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"
Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"

اغاني اغاني

timeمنذ 20 ساعات

  • اغاني اغاني

Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"

أطلقت شركة "أنثروبيك" (Anthropic) الناشئة في مجال الذكاء الاصطناعي، يوم الخميس، الجيل الرابع من نماذجها التوليدية المعروفة باسم "كلود 4" (Claude 4)، في خطوة تؤكد طموحها في التنافس مع الأدوات الرائدة مثل "تشات جي بي تي" من "OpenAI"، ولكن بنهج أكثر مسؤولية وشفافية، حسب ما أكده القائمون على الشركة. وفي الكلمة الافتتاحية لأول مؤتمر للمطورين تنظمه الشركة، صرّح داريو أمودي، الرئيس التنفيذي والمؤسس المشارك لـ"أنثروبيك"، بأن النموذج الأقوى من العائلة الجديدة "Opus 4" هو "أفضل نموذج برمجة في العالم حاليًا"، مشيرًا إلى مستوى الكفاءة والتطور الذي وصلت إليه هذه التقنيات. تتضمن عائلة "كلود 4" الجديدة أيضًا نموذج "Sonnet 4"، وكلاهما يقدمان مزيجًا من القدرات الفورية والمهام الممتدة في الخلفية، مثل كتابة الشيفرات المعقدة، وتحليل البيانات الفنية لتوليد تقارير مفهومة وسهلة الاستخدام. وتؤكد الشركة أن هذه النماذج قادرة على أداء مهام متعددة بجودة عالية وبأسلوب يشبه التفكير البشري، مع عرض مراحل التحليل والقرار. وكان عام 2023 قد شهد تصاعدًا في سباق تطوير أدوات الذكاء الاصطناعي التوليدي، وتحديدًا في تصميم واجهات مساعدة ذكية أكثر قدرة على التفكير والاستقلالية، وهو توجه واصلت "أنثروبيك" تطويره بقوة، من خلال أدوات تتيح للنموذج استخدام الحاسوب بطريقة تشبه الإنسان، كما في نظام "Computer Use" الذي أُطلق في خريف 2024. يُظهر هذا النظام قدرة "كلود" على التفاعل مع البيئة الرقمية مثل مستخدم حقيقي؛ حيث يمكنه تصفّح المواقع الإلكترونية، النقر على الأزرار، إدخال البيانات النصية، وحتى تشغيل تطبيقات مختلفة بشكل ذاتي، ما يمنح المستخدم تجربة أكثر تفاعلية واستقلالية. من جهته، قال مايك كريغر، كبير مسؤولي المنتجات في "أنثروبيك" وأحد مؤسسي "إنستغرام"، إن وكلاء الذكاء الاصطناعي يمثلون "قوة تحويلية حقيقية" قادرة على تحويل أفكار البشر إلى مشاريع قابلة للتنفيذ بسرعة فائقة. واسترجع كريغر تجربة فريقه في بداية "إنستغرام"، عندما كان من الضروري الموازنة بين تطوير ميزات جديدة وتحسين الأداء العام للتطبيق. اليوم، وبفضل "وكلاء الذكاء الاصطناعي"، أصبح من الممكن إجراء تجارب متزامنة وتحسينات مستمرة في وقت قياسي. يؤكد إطلاق "كلود 4" أن معركة الهيمنة على سوق الذكاء الاصطناعي التوليدي لم تعد محصورة بين "OpenAI" و"Google"، بل انضمت إليها "أنثروبيك" بقوة عبر نماذج تُركز على الأداء العالي والمسؤولية الأخلاقية في آن واحد. المصدر: info3

جهاز ذكي بدون شاشة... مشروع جديد من "OpenAI"
جهاز ذكي بدون شاشة... مشروع جديد من "OpenAI"

ليبانون 24

timeمنذ 3 أيام

  • ليبانون 24

جهاز ذكي بدون شاشة... مشروع جديد من "OpenAI"

دفعت شركة OpenAI الذكاء الاصطناعي التوليدي إلى الوعي العام. والآن، قد تُطوّر نوعًا مختلفًا تمامًا من أجهزة الذكاء الاصطناعي. شركة OpenAI كانت وراء نشر الذكاء الاصطناعي التوليدي بين الناس، والآن تستعد لتطوير نوع جديد كليًا من أجهزة الذكاء الاصطناعي. بحسب تقرير صحيفة "وول ستريت جورنال"، كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، خلال اجتماع مع الموظفين يوم الأربعاء، أن المنتج الرئيسي القادم لن يكون جهازًا قابلًا للارتداء، بل جهازًا صغيرًا بلا شاشة، قادرًا على إدراك محيط مستخدمه بشكل كامل. وأشار ألتمان إلى أن الجهاز سيكون صغير الحجم، يمكن وضعه على المكتب أو في الجيب. ووصفه بأنه "الجهاز الأساسي الثالث" إلى جانب جهاز ماك بوك برو وآيفون، معتبراً إياه "رفيق ذكاء اصطناعي" مدمج في الحياة اليومية جاء العرض التقديمي عقب إعلان "OpenAI" استحواذها على io، وهي شركة ناشئة أسسها العام الماضي مصمم "ابل" السابق جوني إيف، في صفقة أسهم بقيمة 6.5 مليار دولار. سيتولى إيف دورًا رئيسيًا في الإبداع والتصميم في "OpenAI". ووفقًا للتقارير، أخبر ألتمان الموظفين أن عملية الاستحواذ قد تضيف في نهاية المطاف تريليون دولار إلى القيمة السوقية للشركة، إذ إنها تُنشئ فئة جديدة من الأجهزة تختلف عن الأجهزة المحمولة، والأجهزة القابلة للارتداء، والنظارات التي طرحتها شركات أخرى. كما ورد أن ألتمان أكد للموظفين أن السرية ضرورية لمنع المنافسين من نسخ المنتج قبل إطلاقه.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store