Grok 2 يطلق شرارة المنافسة مع OpenAI
أعلن إيلون ماسك، مالك منصة "إكس" (تويتر سابقًا) ومؤسس شركة "xAI"، أن شركته ستقوم بجعل نموذج الذكاء الاصطناعي للدردشة "Grok 2" مفتوح المصدر بدءًا من الأسبوع المقبل.
وكتب ماسك في منشور عبر حسابه على منصة "إكس":
"لقد حان الوقت لجعل Grok 2 مفتوح المصدر، وسنقوم بذلك الأسبوع المقبل. لقد كنا نحارب الأزمات ونعمل حتى ساعات الفجر منذ فترة."
ويأتي هذا الإعلان في توقيت لافت، تزامنًا مع إعلان شركة OpenAI عن طرح نموذجين جديدين من نماذج الذكاء الاصطناعي ذات الأوزان المفتوحة، وهما: gpt-oss-120b وgpt-oss-20b، والتي توفر إمكانية الوصول إلى المعلمات المدربة فقط، دون أن تكون النماذج مفتوحة المصدر بالكامل.
ويُشار إلى أن النماذج المفتوحة المصدر بالمعنى الكامل تتيح الوصول إلى بيانات التدريب، والشيفرة المصدرية، ومنهجيات التطوير، وهو ما وعد ماسك بالالتزام به منذ أكتوبر 2024، عندما تعهّد بفتح مصدر الإصدارات السابقة مع كل إصدار جديد، كما فعل مع "Grok 1" عند طرح "Grok 2".
وتجدر الإشارة إلى أن شركة OpenAI، التي كانت تُعرف سابقًا بدعمها الكامل لمبدأ المصادر المفتوحة في بداياتها، اتخذت مؤخرًا توجهاً أكثر تحفظًا، مع تركيزها على تطوير منتجات تجارية مغلقة المصدر، بما في ذلك خدمات واجهات البرمجة (API) المدفوعة.
وكان الرئيس التنفيذي لـ OpenAI، سام ألتمان، قد اعترف في وقت سابق من هذا العام بأن الشركة "كانت على الجانب الخاطئ من التاريخ" في موقفها من عدم فتح تقنياتها للعامة.
ويُتوقع أن يفتح إعلان ماسك الباب أمام منافسة أوسع في سوق الذكاء الاصطناعي، خاصة مع تصاعد الدعوات العالمية لتبني الشفافية والمصادر المفتوحة في تطوير هذه التقنيات الحساسة.
"The Economic Times"

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

الدستور
منذ 35 دقائق
- الدستور
وثيقة واحدة "مسمومة" تكشف بيانات سرّية عبر ChatGPT
وكالات كشف باحثون في مجال الأمن السيبراني عن ثغرة خطيرة في ميزة Connectors التي تقدمها OpenAI ضمن أدوات ChatGPT، والتي تسمح بربط النموذج بخدمات خارجية مثل Google Drive. ووفقًا للتقرير، فإن الثغرة تتيح للمهاجم استخراج بيانات سرّية من مستندات مخزنة في "جوجل درايف" دون أي تفاعل من المستخدم. كيف تحدث الهجمة؟ الهجوم يعتمد على رفع مستند يحتوي على أوامر خبيثة مموهة داخل النص (غالبًا بأسلوب "prompt injection")، بحيث يتم تفسيرها من قِبل ChatGPT على أنها تعليمات فعلية. وبمجرد أن يقرأ النموذج الملف، يُمكنه – من دون قصد – إرسال معلومات حساسة إلى جهة خارجية. لماذا الأمر خطير؟ لا يحتاج المخترق إلى اختراق الجهاز أو الحصول على كلمة المرور. يتم تنفيذ الهجوم دون علم المستخدم، فقط من خلال مستند يبدو عاديًا. إمكانية تسريب بيانات خاصة أو ملفات "سرية" من خلال ربط ChatGPT بالخدمات السحابية. وحتى الآن، لم تُصدر OpenAI بيانًا رسميًا بالتفاصيل الكاملة، لكن من المتوقع أن تقوم بتحديث الإجراءات الأمنية لمنع استخدام Connectors بطريقة تُمكّن من تنفيذ هذه الأنواع من الهجمات. "Wired"


خبرني
منذ ساعة واحدة
- خبرني
بعد إلغاء راتبه السابق.. تيسلا تقدم عرضًا خياليًا لإيلون ماسك!
خبرني - أعلنت شركة تيسلا عن حزمة رواتب جديدة للرئيس التنفيذي إيلون ماسك، تصل قيمتها إلى 29 مليار دولار، تشمل 96 مليون سهم مقيد، تهدف إلى الاحتفاظ به وتحفيزه في ظل اشتداد المنافسة على المواهب في قطاع الذكاء الاصطناعي. وتأتي هذه الخطوة بعد أن ألغى قاضٍ في ولاية ديلاوير حزمة الرواتب السابقة التي تعود لعام 2018، مما دفع الشركة إلى إعادة النظر في خططها بشأن تعويض ماسك. وتشترط الحزمة الجديدة بقاء ماسك في منصب قيادي لمدة عامين على الأقل، كما من المتوقع أن تعزز من قوته التصويتية داخل الشركة.


الوكيل
منذ 3 ساعات
- الوكيل
"GitHub" تكشف بالخطأ عن مواصفات GPT-5 قبل الإعلان الرسمي
الوكيل الإخباري- في خطوة غير مقصودة، كشفت منصة "GitHub" عن تفاصيل الجيل الجديد من نماذج الذكاء الاصطناعي "GPT-5" من شركة "OpenAI"، قبل الإعلان الرسمي المرتقب اليوم الخميس. اضافة اعلان وذكر منشور تم حذفه لاحقًا أن GPT-5 سيتوفر بأربعة إصدارات مختلفة، تشمل: GPT-5: للمهام المعقدة والاستدلال متعدد الخطوات. GPT-5-mini: نسخة خفيفة للتطبيقات منخفضة التكلفة. GPT-5-nano: مصمم للاستجابة السريعة والمهام الفورية. GPT-chat: مخصص للمحادثات المتقدمة متعددة الوسائط. وبحسب النسخة المؤرشفة من المدونة، يتميز GPT-5 بـ "تحسينات كبيرة في جودة الكود وتجربة المستخدم"، بالإضافة إلى "قدرات وكيلة محسّنة" للتعامل مع مهام برمجة معقدة بأقل توجيه. وتأتي هذه التسريبات قبيل الإعلان الرسمي الذي روّجت له "OpenAI" في وقت سابق، ما يعزز التوقعات بكشف مرتقب عن نموذج الذكاء الاصطناعي الأبرز لهذا العام.