
رفض إقامة باحثة في OpenAI يكشف سياسات ترامب ضد المهاجرين
تعرضت الباحثة الكندية " كاي تشين"، التي تعمل لدى شركة OpenAI وساهمت في تطوير نموذج GPT-4.5، لصدمة كبيرة بعد رفض طلبها للحصول على البطاقة الخضراء الأميركية. رغم أنها عاشت في الولايات المتحدة لمدة 12 عامًا وقدمت مساهمات بارزة في مجال الذكاء الاصطناعي، فإن السلطات قررت رفض طلب الإقامة الدائمة، مما يفرض عليها مغادرة البلاد في وقت قريب.
أعرب "نوام براون"، الباحث البارز في OpenAI، عن قلقه العميق إزاء هذا القرار، مشيرًا إلى أن خسارة كفاءات مثل تشين قد تضر بمكانة الولايات المتحدة العالمية في مجال الذكاء الاصطناعي. وأكد "ديلان هون"، موظف آخر في OpenAI، أن تشين كانت عنصرًا أساسيًا في تطوير نموذج GPT-4.5.
تأثير القرار على مستقبل العمل في OpenAI
رغم قرار رفض الإقامة، لن تفقد كاي تشين وظيفتها في OpenAI. فقد أوضح براون أن تشين ستواصل العمل عن بُعد من فانكوفر بكندا، حيث استأجرت مسكنًا مؤقتًا حتى يتم معالجة المشكلة.
وتعمل OpenAI حاليًا مع تشين بشكل مكثف لحل هذه الأزمة، في وقت تواجه فيه الولايات المتحدة انتقادات بسبب تعقيد إجراءات الهجرة أمام الكفاءات العلمية والتقنية القادمة من الخارج.
تحديات متزايدة أمام الباحثين والطلاب
لم تكن قضية كاي تشين سوى حلقة ضمن سلسلة أوسع من التضييقات التي تواجه الكفاءات الدولية في الولايات المتحدة. ففي الأشهر الأخيرة، تعرض أكثر من 1700 طالب دولي لملاحقات تهدد مستقبل إقامتهم الأكاديمية والمهنية، في ظل حملة متشددة شنتها السلطات الأميركية. لم تقتصر هذه الحملة على الحالات الكبرى أو القضايا الجنائية الخطيرة، بل توسعت لتشمل اتهامات حساسة مثل دعم جماعات مسلحة أو الانخراط في أنشطة وُصفت بأنها معادية للسامية، حتى وإن كانت الأدلة عليها محدودة أو مثار جدل.
الأخطر من ذلك أن العديد من الطلاب وجدوا أنفسهم تحت طائلة العقوبات والإبعاد بسبب مخالفات بسيطة لا تتجاوز مخالفات السير أو أخطاء إدارية طفيفة، وهي أمور كانت تُعامل في السابق بشكل روتيني ولا تُعرض أصحابها لخطر فقدان حق الإقامة.
اليوم، ومع تصاعد نهج التشدد في سياسات الهجرة، أصبحت أبسط الهفوات تُضخم وتُستغل لإقصاء الطلاب والباحثين الدوليين، مما يبعث برسالة مقلقة مفادها أن الولايات المتحدة لم تعد كما كانت أرض الفرص المفتوحة، بل باتت ساحة للاشتباه والمحاسبة المفرطة، حتى بحق أولئك الذين جاءوا ليساهموا في نهضتها العلمية والاقتصادية.
إجراءات الهجرة تهدد المستقبل الأمريكي
لم تقتصرتلك السياسات المتشددة تجاه المهاجرين على الطلاب فحسب، بل شملت أيضًا تعليق معالجة طلبات البطاقة الخضراء للاجئين وطالبي اللجوء، والتشدد مع من يُعتبرون تهديدًا للأمن القومي. وقد يؤدي هذا النهج إلى فقدان الولايات المتحدة للعديد من المواهب التي أسهمت تاريخيًا في تقدمها التكنولوجي.
تعتمد مختبرات الذكاء الاصطناعي مثل OpenAI بشكل كبير على الكفاءات الأجنبية. إذ قدمت الشركة أكثر من 80 طلبًا للحصول على تأشيرات عمل H-1B خلال العام الماضي فقط، وساهمت في رعاية أكثر من 100 تأشيرة منذ عام 2022.
مساهمة المهاجرين في النهضة الأميركية
كشفت دراسة لمركز الأمن والتقنيات الناشئة بجامعة جورجتاون أن 66% من الشركات الأميركية الواعدة في مجال الذكاء الاصطناعي أسسها مهاجرون. كما أوضحت مؤسسة السياسات الوطنية أن 70% من طلاب الدراسات العليا في تخصصات الذكاء الاصطناعي بالولايات المتحدة هم من الطلاب الدوليين.
تجارب مثل تجربة "آشيش فاسواني"، الذي ابتكر نموذج المحوّل الأساسي لتطور تقنيات الذكاء الاصطناعي الحديثة، و "ووجسيك زاريمبا"، أحد مؤسسي OpenAI، تؤكد الأثر العميق للمهاجرين في هذا القطاع الحيوي.
في ظل هذه المعطيات، تتزايد المخاوف من أن تؤدي السياسات الحالية إلى هجرة العقول العلمية نحو دول أخرى أكثر ترحيبًا، مما يهدد بتراجع الريادة الأميركية في مجالات التكنولوجيا والذكاء الاصطناعي.
الحاجة لإصلاح سياسات الهجرة
تُثبت قضية كاي تشين، وغيرها من الكفاءات العلمية المهاجرة، أن السياسات العدائية لإدارة ترامب تجاه المهاجرين لا تضر بالأفراد فقط، بل تهدد مستقبل الولايات المتحدة العلمي والاقتصادي. لقد كانت الهجرة دائمًا محركًا رئيسيًا لقوة الابتكار الأميركي، ومع كل باحث يُجبر على المغادرة، تخسر الولايات المتحدة جزءًا من تفوقها في سباق الذكاء الاصطناعي والتكنولوجيا.
وفي عالم يتسارع فيه التطور وتتصاعد فيه المنافسة العالمية، لم يعد من المقبول أن تُغلق أبواب الفرص أمام العقول التي بنت أسس الريادة الأميركية. إن إصلاح سياسات الهجرة وتسهيل جذب الكفاءات لم يعد خيارًا، بل ضرورة مصيرية لضمان استمرار الولايات المتحدة كرائدة في مجال العلم والتكنولوجيا في المستقبل.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


البوابة
منذ 3 أيام
- البوابة
21 يوليو.. انطلاق ماراثون مشروعات التخرج الثاني بجامعة بنها
أعلن الدكتور ناصر الجيزاوي رئيس جامعة بنها، إطلاق الجامعة لمارثون مشروعات التخرج الثاني تحت شعار "نحن نستثمر في المعرفة" 21 يوليو 2025 م، والذي يأتي في إطـار المبادرة الرئاسية "تحالف وتنمية" والمساهمة في مبادرة "كن مستعدًا" تحت شعار "مليون مبتكر مؤهل" والتزام جامعة بنها بتنفيذ الإستراتيجية الوطنية للتعليم العالي والبحث العلمي 2030. محاور الماراثون وأشار "الجيزاوي" إلى أن محاور الماراثون تتضمن المحور التقني والهندسي ويشمل تخصصات: الهندسة، الحاسبات، تكنولوجيا المعلومات في مجالات أنظمة الذكاء الاصطناعي وتعلم الآلة والتطبيقات المعتمدة عليها، تطبيقات إنترنت الأشياء (IoT) في الصناعة أو الزراعة، الروبوتات والأنظمة الذكية، تطوير تطبيقات الهاتف المحمول أو أنظمة الويب، أمن المعلومات والبلوك تشين، مشاريع الطاقة المتجددة (الطاقة الشمسية، طاقة الرياح)، والمحور الطبي والبيولوجي ويشمل تخصصات: الطب، العلاج الطبيعي، الطب البيطري، العلوم البيولوجية في مجالات تطوير أجهزة طبية مبتكرة (مثل أطراف صناعية ذكية)، تحليل البيانات الجينية أو تطبيقات التكنولوجيا الحيوية، تصميم أدوية جديدة باستخدام النمذجة الحاسوبية. المحور الصناعي والإنتاجي بالإضافة إلى المحور الصناعي والإنتاجي ويشمل تخصصات: الطب البيطري، الزراعة، النانو تكنولوجي في مجالات حلول لتعزيز الاستدامة في سلسلة التوريد الغذائي وإعادة تدوير النفايات الغذائية، تقنيات تحويل النفايات العضوية إلى أسمدة أو علف للحيوانات، حلول للكشف عن الأمراض الحيوانية وزيادة إنتاجية الحيوان، تحسين خطوط الإنتاج باستخدام التحكم الآلي، تطوير مواد جديدة (مثل مواد البناء الصديقة للبيئة)، الزراعة الذكية وأنظمة الري الحديثة، إدارة النفايات وإعادة التدوير، والمحور الاقتصادي والإداري ويشمل تخصصات: التجارة، إدارة الأعمال، الاقتصاد في مجالات تحليل البيانات الضخمة لاتخاذ القرارات الاقتصادية، تطوير أنظمة المحاسبة الذكية، دراسات الجدوى لمشاريع استثمارية، تطبيقات البنوك الرقمية. المحور الاجتماعي والتنموي وأضاف رئيس الجامعة، أن المحور الاجتماعي والتنموي ويشمل تخصصات: التربية النوعية، الفنون التطبيقية، الآداب في مجالات حلول لمشكلات المجتمع (مثل الزيادة السكانية، البطالة)، تطوير منصات تعليمية إلكترونية ، دراسات حول تأثير وسائل التواصل الاجتماعي، مشاريع تعزيز السياحة والتراث الثقافي، والمحور البيئي والتنمية المستدامة في مجالات أنظمة مراقبة التلوث البيئي، مشاريع الطاقة الخضراء، إدارة الموارد المائية (تحلية المياه، ترشيد الاستهلاك)، تطبيقات الذكاء الاصطناعي وإنترنت الأشياء (IoT) في التنمية المستدامة، حلول تكنولوجية لتحسين جودة الحياة، حلول تكنولوجية لتعزيز العدالة البيئية ومكافحة الفقر وعدم المساواة، والمحور الفني والإبداعي ويشمل تخصصات: الفنون التطبيقية، التربية النوعية، العمارة، التصميم في مجالات تصميم أبنية ذكية صديقة للبيئة، تطوير ألعاب إلكترونية تعليمية، مشاريع الرسوم المتحركة أو الأفلام القصيرة. نائب رئيس الجامعة لشئون الدراسات العليا والبحوث من جانبها أوضحت الدكتورة جيهان عبد الهادي نائب رئيس الجامعة لشئون الدراسات العليا والبحوث أن الفئات المستهدفة هي طلاب السنة النهائية بكليات جامعة بنها، وأن شروط المشاركة للفريق هي يتكون كل فريق من 3 إلى 5 طلاب، يجب أن يكون المشروع مشروع تخرج معتمد من الكلية، وجود مشرف أكاديمي للمشروع، مضيفة أن شروط المشاركة للمشروع هي توافق المشروع مع أحد محاور المسابقة، وجود نموذج أولي أو محاكاة للمشروع، قابلية التطبيق العملي للمشروع، الابتكار في الحل المقترح، إظهار الأثر المجتمعي والبيئي للمشروع. وأشارت إلى أن الجوائز لكل محور 10000 (عشرة آلاف) جنيه للمركز الأول، 8000 (ثمانية آلاف) جنيه للمركز الثاني، 6000 (ستة آلاف) جنيه للمركز الثالث. رابط منصة مشاريع التخرج ورابط المسابقة لأفضل المشاريع:


سكاي نيوز عربية
١٢-٠٥-٢٠٢٥
- سكاي نيوز عربية
ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟
فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ" هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها. وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي. وبحسب تقرير أعدته "صحيفة نيويورك تايمز" واطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإنه ولأكثر من عامين، دأبت شركات مثل OpenAI وغوغل ، على تحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفّضت وتيرة الأخطاء الناتجة عن "الهلوسة"، ولكن المفارقة تكمن في أنه عند خضوع هذه الأنظمة للتحديثات، فإنها تُصاب بالهلوسة بمعدل أعلى من السابق، وذلك وفقاً لاختبارات قامت بها الشركات المطورة لهذه الأنظمة، إضافة إلى اختبارات أجراها شركات وباحثون مستقلون. فمثلاً وجدت شركة OpenAI أن "o3" وهو أقوى نظام لدى الشركة يُصاب بالهلوسة بنسبة 33 في المئة عند خضوعه لاختبار "PersonQA" المعياري، والذي يتضمن الإجابة عن أسئلة حول شخصيات عامة، وهذه النسبة هي ضعفيْ معدل الهلوسة، الذي كانت تسجّله النسخة القديمة من النظام والتي تحمل إسم " o1". أما نظام o4-mini الجديد من OpenAI، فقد سجّل مُعدّل هلوسة بلغت نسبته 48 في المئة أي أكثر من 3 أضعاف المعدل، عند خضوعه لاختبار "PersonQA" وهي نسبة مرتفعة جداً. كما أنه وعند خضوع أنظمة OpenAI لاختبار آخر يحمل إسم "SimpleQA" مخصص لطرح أسئلة أكثر عمومية، كانت معدلات الهلوسة لنظامي "o3" و o4-miniمرتفعة جداً، ووصلت إلى 51 في المئة و79 في المئة على التوالي. أما نظام "o1" القديم، فقد سجّل مُعدّل هلوسة بلغ 44 في المئة. وفي ورقة بحثية تتناول تفاصيل هذه الاختبارات، ذكرت شركة OpenAI أن هناك حاجة إلى مزيد من البحث لفهم أسباب هذه النتائج. وفي مشهد حديث لظاهرة "هلوسة الذكاء الاصطناعي"، تسبب روبوت دعم فني، تابع لأداة البرمجة الناشئة Cursor في أزمة غير متوقعة الشهر الماضي، عندما نَبّه المستخدمين إلى تغيير مزعوم في سياسة الشركة، زاعماً أنه لم يعد يُسمح لهم باستخدام Cursor على أكثر من جهاز واحد، حيث أشعل هذا القرار غضب الكثير من المستخدمين الذي عمدوا إلى التهديد بإلغاء اشتراكاتهم مع الشركة. ولكن المفاجأة الكبرى كانت في اكتشاف أن هذا التغيير لم يكن حقيقياً على الإطلاق، فقد تبيّن أن روبوت الذكاء الاصطناعي اخترع هذه السياسة من تلقاء نفسه، وذلك بحسب مايكل ترول، المؤسس والرئيس التنفيذي لـCursor. هلوسة مستعصية ومنذ ظهور ChatGPT لأول مرة في نهاية عام 2022، أثارت ظاهرة "هلوسة الذكاء الاصطناعي"، مخاوف بشأن موثوقية هذه التكنولوجيا، وبما أن أنظمة الذكاء الاصطناعي تتعلم من كميات ضخمة من البيانات، تفوق ما يمكن للبشر فهمه، فإن خبراء التكنولوجيا يجدون صعوبة في تحديد لماذا تتصرف هذه البرامج بهذه الطريقة. والمقلق أن هذه الهلوسات موجودة في أغلب أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها شركات ديب مايند وديب سيك وأنثروبيك وغيرها. ويرى بعض الخبراء أن "هلوسة الذكاء الاصطناعي" قد تكون متأصلة في التقنية نفسها، مما يجعل التغلب على هذه المشكلة أمراً شبه مستحيل، خصوصاً أن روبوتات الذكاء الاصطناعي تعتمد على أنظمة رياضية معقدة، تساعدها في تخمين أفضل إجابة ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصة بتطوير أدوات ذكاء اصطناعي للشركات، إن "الهلوسة" لن تزول ابداً رغم أن الشركات تبذل قصارى جهدها لحل هذه المشكلة. بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسة معمّقة، حول مشكلة هلوسة الذكاء الاصطناعي، إنه نظراً لطريقة تدريب أنظمة الذكاء الاصطناعي فإن هذه البرامج، تميل إلى التركيز على القيام بمهمة واحدة فقط، وتبدأ تدريجياً في نسيان المهام الأخرى، مشيرة إلى أن هذه الأنظمة خلال فترة "التفكير" أو"المعالجة" التي تسبق التوصل إلى الإجابة، تكون عرضة للهلوسة في كل خطوة، ومع ازدياد مدة "التفكير"، تزداد احتمالية تراكم الأخطاء وتفاقمها. من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا "تفهم" المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة "الاحتمالية" لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة "هلوسة الذكاء الاصطناعي" تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم. لماذا يهلوس الذكاء اصطناعي؟ وبحسب معلوف فإن "هلوسة الذكاء الاصطناعي" تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على "الارتباطات الإحصائية"، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل "التعلم من ملاحظات البشر"، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها. وشددت معلوف على أن معالجة "هلوسة الذكاء الاصطناعي" تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية. لماذا تتفاقم "الهلوسة" بعد التحديثات؟ من جهته يقول رئيس شركة "تكنولوجيا" مازن الدكاش، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ليست عيباً في الكود يمكن إصلاحه أو خللاً سطحياً يمكن تجاوزه بتحديث أو تعديل تقني سريع، بل هي نتيجة طبيعية لطريقة عمل برامج الذكاء الاصطناعي، وللأسف فإن إنتاج معلومات غير صحيحة أو مختلقة، سيبقى احتمالاً قائماً ما لم يحدث تحول جذري في طريقة بناء هذه الأنظمة. ويكشف الدكاش أن ارتفاع نسب "هلوسة برامج الذكاء الاصطناعي" بعد التحديثات التي تخصع لها، يعود لعدة أسباب، فبعض التحديثات تركز مثلاً على تحسين الأداء في مهام معينة أو على بيانات محددة، مما قد يُضعف أداء البرنامج في مهام أخرى ويفقده شيئاً من التوازن في إنتاج المعرفة، كما أنه بعد التحديثات تزداد قدرة برامج الذكاء الاصطناعي، على توليد نصوص أكثر تعقيداً من السابق، وهذا يساعدها على ابتكار إجابات تبدو صحيحة ومقنعة من حيث الشكل ولكنها خاطئة من حيث المضمون، أي أن النموذج يصبح أكثر قدرة على الإقناع وليس بالضرورة أكثر مصداقية. هلوسات المستقبل أخطر وشدد الدكاش على أنه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي ذاتها، فسيظل العالم يواجه نفس النوع من الهلوسات، وربما تكون أكثر خطراً في المستقبل، كونها ستصدر من أنظمة قادرة على اتخاذ قرارات ذات طابع تنفيذي، وذلك مع ظهور الذكاء الاصطناعي العام، أو ما يُعرف بالذكاء الاصطناعي الخارق، ولذلك فإن الحل يكمن في إعادة هندسة الجوانب المعمارية لأنظمة الذكاء الاصطناعي الحالية، لتصبح قادرة على "التحقق" من المعلومات وليس فقط "الإجابة".


الاتحاد
١٠-٠٥-٢٠٢٥
- الاتحاد
الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب
أشار تقرير حديث إلى أن مشكلة "الهلوسات" في نماذج الذكاء الاصطناعي – وهي المصطلحات الأنيقة التي تُستخدم لوصف المعلومات الملفقة التي تقدمها النماذج على أنها حقائق – تزداد سوءًا مع تطور هذه النماذج، وليس العكس. اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع! وبحسب نيويورك تايمز، فإن النماذج الجديدة المصممة لتقديم "تفكير منطقي" قبل الإجابة، مثل نماذج OpenAI وGoogle الحديثة، تُظهر معدلات أعلى من الأخطاء والادعاءات الكاذبة. على سبيل المثال، نموذج o4-mini من OpenAI هلوس بنسبة 48٪ في اختبارات الدقة الداخلية، بينما بلغت هلوسات نموذج o3 حوالي 33٪، أي ضعف معدل الأجيال السابقة. اقرا ايضاً.. روبوتات تتنكر كبشر وتخدع آلاف المستخدمين! وتزداد خطورة المشكلة بسبب فشل الشركات المطورة في فهم السبب الحقيقي وراء هذه الظاهرة، وهو ما يكشف عن ضعف الفهم العميق لكيفية عمل هذه النماذج حتى من قبل مبتكريها. ويضيف خبراء أن الاعتماد المتزايد على البيانات الاصطناعية (المولدة بالذكاء الاصطناعي نفسه) في تدريب النماذج الجديدة قد يزيد المشكلة سوءًا، مع تراجع العائد من كل جيل جديد من النماذج. اقرأ أيضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية ومع ضخ عشرات المليارات من الدولارات في تطوير البنية التحتية لنماذج أكثر تطورًا، تواجه الصناعة الآن معضلة محورية: المزيد من القوة لا يعني بالضرورة المزيد من الموثوقية. إسلام العبادي(أبوظبي)