
في خطوة مفاجئة.. OpenAI تؤجل إطلاق نموذجها المفتوح وسط منافسة صينية شرسة
أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن تأجيل إطلاق نموذج الشركة المفتوح المصدر المرتقب إلى أجل غير مسمى، في خطوة مفاجئة أثارت تساؤلات واسعة في مجتمع الذكاء الاصطناعي، خاصة وأنها جاءت بالتزامن مع إعلان شركة صينية منافسة عن تحقيق طفرة تقنية.
ويعد هذا التأجيل هو الثاني من نوعه للنموذج الذي كان من المقرر إطلاقه الأسبوع المقبل، حيث بررت OpenAI القرار بالحاجة إلى مزيد من الوقت لإجراء اختبارات الأمان، في ظل احتدام المنافسة في قطاع الذكاء الاصطناعي.
مبررات "الأمان" والترقب
في منشور على منصة "X"، قال ألتمان: "نحتاج إلى وقت إضافي لإجراء اختبارات أمان ومراجعة النواحي عالية الخطورة.
لا نعرف بعد كم من الوقت سيستغرق ذلك". وأكد على حساسية القرار مضيفاً: "بمجرد إطلاق النموذج، لا يمكن التراجع. هذه خطوة جديدة كليًا بالنسبة لنا، ونرغب في أن ننفذها بأفضل صورة ممكنة".
من جهته، علّق أيدان كلارك، نائب الرئيس للأبحاث وقائد فريق النموذج المفتوح في OpenAI، قائلاً: "نعتقد أن النموذج يتمتع بقدرات استثنائية، لكن لدينا معايير عالية جدًا للنماذج المفتوحة، ونحتاج إلى مزيد من الوقت للتأكد من أنه يرقى لمستوى طموحنا".
منافسة شرسة ومفاجأة صينية
جاء قرار التأجيل في وقت أصبحت فيه المنافسة أكثر شراسة. ففي نفس اليوم، كشفت شركة "مون شوت" (Moonshot) الصينية عن نموذجها الجديد "Kimi K-2"، والذي تفوق، بحسب تقارير تقنية، في اختبارات البرمجة والترميز على نموذج "GPT-4.1"، وهو أحدث نماذج OpenAI المتاحة عبر السحابة، مما شكل ضغطاً تنافسياً غير متوقع على الشركة الرائدة في المجال.
ويأتي هذا في سياق سباق محموم بين عمالقة التكنولوجيا، حيث تواجه OpenAI منافسة قوية من شركات مثل xAI التابعة لإيلون ماسك، وAnthropic، وGoogle DeepMind.
أهمية النموذج المؤجل
تكمن أهمية هذا الإصدار في كونه أول نموذج مفتوح المصدر تتيحه OpenAI منذ سنوات، حيث كان من المخطط أن يُتاح للمطورين مجاناً للتنزيل والتشغيل محلياً، في تحول استراتيجي ملحوظ للشركة. وتشير التقارير إلى أن النموذج يتمتع بقدرات استدلالية متقدمة تضاهي سلسلة نماذج "O" الخاصة بالشركة، وأن الهدف هو جعله "الأفضل في فئته" مقارنة بالنماذج المفتوحة الأخرى المتاحة في السوق.
ومع استمرار هذا التأجيل الغامض، يبقى السؤال الأهم مطروحاً في أوساط المطورين والمراقبين: هل الأسباب المعلنة تتعلق بالأمان فقط، أم أن الضغط التنافسي المفاجئ دفع OpenAI للعودة إلى طاولة التطوير لضمان تفوقها؟ وهل يستحق هذا الانتظار الطويل ما تعد به الشركة من قدرات "مذهلة"؟

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

سرايا الإخبارية
منذ يوم واحد
- سرايا الإخبارية
xAI تعتذر عن سلوك (Grok)
سرايا - قدّمت شركة xAI، المملوكة لإيلون ماسك، اعتذارًا رسميًا بعد أن قام روبوت الدردشة الذكي "Grok" بإصدار تعليقات متطرفة ومسيئة عبر منصة X. وأكدت الشركة في منشور رسمي نُشر عبر الحساب الرسمي لـ Grok، أن تحديثًا برمجيًا جديدًا أدى إلى أن يضع الذكاء الاصطناعي أولوية للتفاعل مع المستخدمين، حتى لو تطلب الأمر عكس وجهات نظر متطرفة مأخوذة من منشورات المستخدمين. وأضافت الشركة أنها قامت بإزالة التعليمات "القديمة" التي تسببت بهذا السلوك، وأعادت هيكلة النظام بأكمله "لمنع المزيد من إساءة الاستخدام". وأوضحت xAI أن هذه التحديثات كانت منفصلة عن النموذج اللغوي الأساسي الذي يشغّل Grok، وأن أي خدمات أخرى تعتمد على هذا النموذج لم تتأثر بالحادثة. كما أعاد إيلون ماسك، الذي يمتلك منصة X وأسس xAI، نشر بيان الاعتذار عبر حسابه الشخصي على X صباح السبت، مما زاد من انتشاره. تعود جذور المشكلة إلى ليلة 7 يوليو/تموز، عندما نشر Grok سلسلة من التعليقات استمرت لأكثر من 16 ساعة، بدءًا من الساعة 11 مساءً بتوقيت المحيط الهادئ. تضمن هذا النشاط نكات معادية للسامية وتعليقات تمدح أدولف هتلر، ما أثار موجة غضب واسعة على المنصة. وكان Grok متاحًا للمستخدمين للتفاعل معه عبر الإشارة إليه في منشوراتهم، وهي خاصية أوقفتها xAI اليوم التالي بعد أن لاحظت "زيادة في الاستخدام المسيء" للروبوت. وبحسب تقرير حصري نشره موقع بيزنس إنسايدر، فإن بعض الموظفين داخل xAI أعربوا عن استيائهم الشديد وشعورهم بالإحباط نتيجة سلوك Grok، معتبرين أن ذلك ألحق ضررًا كبيرًا بمصداقية المشروع وبسمعة الشركة عمومًا. وفي ردها الرسمي، أقرت xAI بهذه المخاوف الداخلية، وأكدت أنها بصدد اتخاذ إجراءات لضمان عدم تكرار مثل هذه الحوادث. كما أوضحت أن السبب يعود إلى تعليمات جديدة أُضيفت إلى Grok لتعزيز تفاعله مع المستخدمين، لكنها تسببت في تمكينه من تكرار أفكار ومحتويات ضارة وجدها في منشورات المستخدمين. وتسلط هذه الواقعة الضوء على التحديات الكبيرة المرتبطة باستخدام الذكاء الاصطناعي في بيئات تواصل اجتماعي غير خاضعة للإشراف الكافي، خاصة على منصات مثل X. ويرى النقاد أن دمج روبوتات ذكاء اصطناعي في هذه البيئات دون ضوابط قوية يُعد أمرًا خطيرًا. حتى الآن، لا تزال خاصية الإشارة إلى Grok معطلة، ولم تعلن xAI عن موعد لإعادة تفعيلها. وأكدت الشركة التزامها ببناء أنظمة ذكاء اصطناعي آمنة ومتوافقة مع القيم، لكن هذه الفضيحة الأخيرة تطرح تساؤلات أوسع حول مسؤولية المنصات وطريقة تفاعل الذكاء الاصطناعي مع المحتوى البشري.


رؤيا نيوز
منذ يوم واحد
- رؤيا نيوز
ChatGPT لن يحل محل الأطباء
أكدت شركة OpenAI أن أنظمة الذكاء الاصطناعي مثل ChatGPT لا تهدف إلى استبدال الأطباء، بل إلى سد الفجوة التي تمنع الكثيرين من الوصول إلى الرعاية الصحية من الأساس. وقال نِك تورلي، المسؤول عن ChatGPT داخل الشركة، خلال بودكاست رسمي: 'لا أعتقد أن الذكاء الاصطناعي سيزيح الأطباء من مواقعهم، بل سيزيح فكرة عدم الذهاب إلى الطبيب إطلاقًا'. ويعد تورلي أن لهذه التكنولوجيا دورًا مهمًا في تمكين المرضى، خاصةً في المناطق التي تعاني ضعف الوصول إلى الخدمات الطبية، موضحًا أن ChatGPT قد يعمم مفهوم 'الرأي الطبي الثاني'، وهو أمر لا يتوفر إلا لقلة من الناس اليوم، سواء من ناحية التكلفة أو المعرفة. ولا تقتصر فائدة الذكاء الاصطناعي على المرضى فقط؛ إذ يستخدم العديد من الأطباء ChatGPT اليوم لمراجعة استنتاجاتهم الطبية أو للحصول على رؤى بديلة. ومع ذلك، شدد تورلي على أن كسب ثقة المجتمع الطبي يتطلب أكثر من مجرد أداء جيد للنماذج، بل يستدعي إثباتًا علميًا وتجارب ممنهجة لتحديد مدى موثوقيتها بدقة. وأضاف تورلي: 'مع تطور النماذج واقترابها من الأداء البشري أو حتى تجاوزه، يصبح من الأصعب تفسير حدودها بدقة'. وأظهرت النماذج الأحدث من OpenAI مثل GPT-4.1 و o3 أداءً فائقًا في اختبارات المحادثة الطبية، متفوقةً في بعض الحالات على أطباء بشريين، لكن هذه الاختبارات تتم في بيئات خاضعة للرقابة الشديدة. وتُحذر الشركة من أن التفوق في المعايير لا يعني بالضرورة النجاح في الحياة الواقعية. وعلى سبيل المثال: أظهرت دراسة من جامعة أكسفورد أن بعض المستخدمين اتخذوا قرارات طبية أسوأ عند الاستعانة بالذكاء الاصطناعي مقارنة بمن استخدموا محرك بحث تقليدي، وذلك بسبب ضعف سير المحادثة في بعض الحالات. ومع ذلك، تظهر تقارير متكررة من مستخدمين تمكنوا بفضل ChatGPT من الوصول إلى تشخيصات لأمراض نادرة بعد سنوات من الحيرة. وختم تورلي بالإشارة إلى أن الصحة والتعليم هما المجالان اللذان يرى فيهما الذكاء الاصطناعي أكبر فرصة لإحداث تغيير جذري في المجتمع، قائلًا: 'إن هذه الفرصة تحديدًا هي التي تجعلني أستيقظ كل صباح بحماس'.


خبرني
منذ 2 أيام
- خبرني
xAI تعتذر عن سلوك (Grok)
خبرني - قدّمت شركة xAI، المملوكة لإيلون ماسك، اعتذارًا رسميًا بعد أن قام روبوت الدردشة الذكي "Grok" بإصدار تعليقات متطرفة ومسيئة عبر منصة X. وأكدت الشركة في منشور رسمي نُشر عبر الحساب الرسمي لـ Grok، أن تحديثًا برمجيًا جديدًا أدى إلى أن يضع الذكاء الاصطناعي أولوية للتفاعل مع المستخدمين، حتى لو تطلب الأمر عكس وجهات نظر متطرفة مأخوذة من منشورات المستخدمين. وأضافت الشركة أنها قامت بإزالة التعليمات "القديمة" التي تسببت بهذا السلوك، وأعادت هيكلة النظام بأكمله "لمنع المزيد من إساءة الاستخدام". وأوضحت xAI أن هذه التحديثات كانت منفصلة عن النموذج اللغوي الأساسي الذي يشغّل Grok، وأن أي خدمات أخرى تعتمد على هذا النموذج لم تتأثر بالحادثة. كما أعاد إيلون ماسك، الذي يمتلك منصة X وأسس xAI، نشر بيان الاعتذار عبر حسابه الشخصي على X صباح السبت، مما زاد من انتشاره. تعود جذور المشكلة إلى ليلة 7 يوليو/تموز، عندما نشر Grok سلسلة من التعليقات استمرت لأكثر من 16 ساعة، بدءًا من الساعة 11 مساءً بتوقيت المحيط الهادئ. تضمن هذا النشاط نكات معادية للسامية وتعليقات تمدح أدولف هتلر، ما أثار موجة غضب واسعة على المنصة. وكان Grok متاحًا للمستخدمين للتفاعل معه عبر الإشارة إليه في منشوراتهم، وهي خاصية أوقفتها xAI اليوم التالي بعد أن لاحظت "زيادة في الاستخدام المسيء" للروبوت. وبحسب تقرير حصري نشره موقع بيزنس إنسايدر، فإن بعض الموظفين داخل xAI أعربوا عن استيائهم الشديد وشعورهم بالإحباط نتيجة سلوك Grok، معتبرين أن ذلك ألحق ضررًا كبيرًا بمصداقية المشروع وبسمعة الشركة عمومًا. وفي ردها الرسمي، أقرت xAI بهذه المخاوف الداخلية، وأكدت أنها بصدد اتخاذ إجراءات لضمان عدم تكرار مثل هذه الحوادث. كما أوضحت أن السبب يعود إلى تعليمات جديدة أُضيفت إلى Grok لتعزيز تفاعله مع المستخدمين، لكنها تسببت في تمكينه من تكرار أفكار ومحتويات ضارة وجدها في منشورات المستخدمين. وتسلط هذه الواقعة الضوء على التحديات الكبيرة المرتبطة باستخدام الذكاء الاصطناعي في بيئات تواصل اجتماعي غير خاضعة للإشراف الكافي، خاصة على منصات مثل X. ويرى النقاد أن دمج روبوتات ذكاء اصطناعي في هذه البيئات دون ضوابط قوية يُعد أمرًا خطيرًا. حتى الآن، لا تزال خاصية الإشارة إلى Grok معطلة، ولم تعلن xAI عن موعد لإعادة تفعيلها. وأكدت الشركة التزامها ببناء أنظمة ذكاء اصطناعي آمنة ومتوافقة مع القيم، لكن هذه الفضيحة الأخيرة تطرح تساؤلات أوسع حول مسؤولية المنصات وطريقة تفاعل الذكاء الاصطناعي مع المحتوى البشري.