logo
#

أحدث الأخبار مع #OpenAIo3

مساعد Codex من OpenAI: ثورة جديدة لمبرمجي البرمجيات
مساعد Codex من OpenAI: ثورة جديدة لمبرمجي البرمجيات

أخبار مصر

timeمنذ 4 أيام

  • أخبار مصر

مساعد Codex من OpenAI: ثورة جديدة لمبرمجي البرمجيات

مساعد Codex من OpenAI: ثورة جديدة لمبرمجي البرمجيات كشفت شركة OpenAI عن مساعدها البرمجي الجديد Codex، وهو أداة ذكاء اصطناعي مخصصة للمبرمجين، تعمل بالاعتماد على نموذج OpenAI o3. صُمّم Codex ليُنجز المهام البرمجية الشائعة، بهدف تسهيل حياة مطوري البرمجيات وتحسين كفاءتهم.يمكن لـ Codex تنفيذ مجموعة واسعة من المهام، مثل تعديل الملفات البرمجية لإنشاء دوال جديدة، اكتشاف الأخطاء البرمجية وإصلاحها، بالإضافة إلى تحديث مستودعات الأكواد مثل GitHub بشكل تلقائي. حالياً، يتوفر المساعد لمستخدمي خطط ChatGPT Pro وEnterprise وTeam، بينما سيتم توفيره لاحقًا لمشتركي خطتي Plus وEdu. ومن الجدير بالذكر أن Codex لا يزال في مرحلة المعاينة البحثية ، ما يعني أن خصائصه ووظائفه قد تتغير في أي وقت.يبدأ استخدام Codex عندما يمنح المبرمجون صلاحية الوصول إلى الكود الخاص بهم، ثم يوجهونه من خلال التعليمات النصية. كما يمكنهم إرفاق ملفات نصية مخصصة بجانب الكود لتوفير معلومات إضافية للمساعد حول كيفية التنقل داخل المشروع، وإجراء اختبارات الكود، ومعايير الكتابة…..لقراءة المقال بالكامل، يرجى الضغط على زر 'إقرأ على الموقع الرسمي' أدناه

OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية
OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية

موجز نيوز

time١٨-٠٤-٢٠٢٥

  • علوم
  • موجز نيوز

OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية

تميل نماذج الذكاء الاصطناعي التوليدية القوية إلى تقديم معلومات غير صحيحة، وكثيرًا ما تُقدم نصائح غير مناسبة وتبتعد عن المسار الصحيح، مما قد يُضلل المستخدم. وقد ناقش خبراء الصناعة هذه الإشكالية بشكل ملحوظ، ولذلك ظل موضوع الحواجز الأمنية محور اهتمام دائم فى قطاع الذكاء الاصطناعي. وتعمل شركات مثل OpenAI حاليًا على معالجة هذه المشكلة بنشاط، وتعمل باستمرار على ضمان موثوقية نماذجها الجديدة القوية مثل o3 وo4-mini. وفى هذا الصدد، فصّل تقرير السلامة الخاص بالشركة نظامًا جديدًا مُصممًا لمراقبة نماذج الذكاء الاصطناعي الخاصة بها، ليفحص هذا النظام أى مطالبات يرسلها المستخدمون تتعلق بالمخاطر البيولوجية والكيميائية. وصرحت OpenAI في وثيقة بطاقة نظام OpenAI o3 وo4-mini: "لقد طبقنا مناهج جديدة لمراقبة المخاطر البيولوجية والكيميائية، وتستخدم هذه المناهج نظام مراقبة منطقيًا يركز على السلامة، مشابهًا للنظام المستخدم في توليد صور GPT-4o ، ويمكنه حجب استجابات النماذج". يعمل مراقب الاستدلال بالتوازي مع o3 وo4-mini يُمثل كلٌّ من o3 وo4-ini تحسيناتٍ كبيرةً مقارنةً بسابقتيهما، ومع هذه الإمكانية المُحسَّنة، يأتي نطاقٌ أوسع للمسؤولية. وتُشير معايير OpenAI إلى أن o3 يتميز بقوةٍ خاصةٍ عند الاستجابة للاستفسارات المتعلقة بالتهديدات البيولوجية، وهنا تحديدًا، يلعب مراقب الاستدلال المُركِّز على السلامة دورًا حاسمًا. ويعمل نظام مراقبة السلامة بالتوازي مع نموذجي o3 وo4-mini، فعندما يُرسل المستخدم رسائل تتعلق بالحرب البيولوجية أو الكيميائية، يتدخل النظام لضمان عدم استجابة النموذج وفقًا لإرشادات الشركة. كما أصدرت OpenAI أيضًا بعض الأرقام، ووفقًا لبياناتها، مع تفعيل نظام مراقبة السلامة، امتنعت النماذج عن الاستجابة للمطالبات الخطرة بنسبة 98.7%. بالإضافة إلى ذلك، طبّقت OpenAI إجراءات تخفيف أخرى لمعالجة المخاطر المحتملة، وتشمل هذه الإجراءات إجراءات ما قبل التدريب، مثل تصفية بيانات التدريب الضارة، بالإضافة إلى تقنيات ما بعد التدريب المُعدّلة المُصمّمة لتجنب التعامل مع الطلبات البيولوجية عالية الخطورة، مع السماح بالطلبات "السليمة".

OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية
OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية

اليوم السابع

time١٨-٠٤-٢٠٢٥

  • علوم
  • اليوم السابع

OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية

تميل نماذج الذكاء الاصطناعي التوليدية القوية إلى تقديم معلومات غير صحيحة، وكثيرًا ما تُقدم نصائح غير مناسبة وتبتعد عن المسار الصحيح، مما قد يُضلل المستخدم. وقد ناقش خبراء الصناعة هذه الإشكالية بشكل ملحوظ، ولذلك ظل موضوع الحواجز الأمنية محور اهتمام دائم فى قطاع الذكاء الاصطناعي. وتعمل شركات مثل OpenAI حاليًا على معالجة هذه المشكلة بنشاط، وتعمل باستمرار على ضمان موثوقية نماذجها الجديدة القوية مثل o3 وo4-mini. وفى هذا الصدد، فصّل تقرير السلامة الخاص بالشركة نظامًا جديدًا مُصممًا لمراقبة نماذج الذكاء الاصطناعي الخاصة بها، ليفحص هذا النظام أى مطالبات يرسلها المستخدمون تتعلق بالمخاطر البيولوجية والكيميائية. وصرحت OpenAI في وثيقة بطاقة نظام OpenAI o3 وo4-mini: "لقد طبقنا مناهج جديدة لمراقبة المخاطر البيولوجية والكيميائية، وتستخدم هذه المناهج نظام مراقبة منطقيًا يركز على السلامة، مشابهًا للنظام المستخدم في توليد صور GPT-4o ، ويمكنه حجب استجابات النماذج". يعمل مراقب الاستدلال بالتوازي مع o3 وo4-mini يُمثل كلٌّ من o3 وo4-ini تحسيناتٍ كبيرةً مقارنةً بسابقتيهما، ومع هذه الإمكانية المُحسَّنة، يأتي نطاقٌ أوسع للمسؤولية. وتُشير معايير OpenAI إلى أن o3 يتميز بقوةٍ خاصةٍ عند الاستجابة للاستفسارات المتعلقة بالتهديدات البيولوجية، وهنا تحديدًا، يلعب مراقب الاستدلال المُركِّز على السلامة دورًا حاسمًا. ويعمل نظام مراقبة السلامة بالتوازي مع نموذجي o3 وo4-mini، فعندما يُرسل المستخدم رسائل تتعلق بالحرب البيولوجية أو الكيميائية، يتدخل النظام لضمان عدم استجابة النموذج وفقًا لإرشادات الشركة. كما أصدرت OpenAI أيضًا بعض الأرقام، ووفقًا لبياناتها، مع تفعيل نظام مراقبة السلامة، امتنعت النماذج عن الاستجابة للمطالبات الخطرة بنسبة 98.7%. بالإضافة إلى ذلك، طبّقت OpenAI إجراءات تخفيف أخرى لمعالجة المخاطر المحتملة، وتشمل هذه الإجراءات إجراءات ما قبل التدريب، مثل تصفية بيانات التدريب الضارة، بالإضافة إلى تقنيات ما بعد التدريب المُعدّلة المُصمّمة لتجنب التعامل مع الطلبات البيولوجية عالية الخطورة، مع السماح بالطلبات "السليمة".

«أوبن إيه آي» تكشف عن تقنية توظف طرق «الاستدلال»... مع الصور
«أوبن إيه آي» تكشف عن تقنية توظف طرق «الاستدلال»... مع الصور

الصحراء

time١٧-٠٤-٢٠٢٥

  • الصحراء

«أوبن إيه آي» تكشف عن تقنية توظف طرق «الاستدلال»... مع الصور

طرحت شركة «أوبن إيه آي» في سبتمبر (أيلول) الماضي، تقنية ذكاء اصطناعي مصممة بنظم «الاستدلال» عند تنفيذ مهمات تتضمَّن الرياضيات، والبرمجة، والعلوم. كما طرحت أداةً جديدةً تُساعد مبرمجي الكمبيوتر على استخدام روبوتات الدردشة عند كتابة الرموز البرمجية. التعامل بـ«ذكاء» مع الصور والآن، يُمكن لهذه التقنية معالجة مهمات مُماثلة تتضمَّن الصور، بما في ذلك الرسومات التخطيطية، والملصقات، والمخططات، والرسوم البيانية. وكشفت الشركة، أمس (الأربعاء)، عن نسختين جديدتين من تقنية الاستدلال الخاصة بها، وهما «OpenAI o3»، و«OpenAI o4-mini» يُمكن لكل منهما التعامل مع مهام تتضمَّن الصور والنصوص. وقال مارك تشين، رئيس قسم الأبحاث في الشركة، عند إعلان النظام الجديد خلال بث مباشر عبر الإنترنت: «يمكن لهذه الأنظمة معالجة الصور، وقصها، وتحويلها لخدمة المهمة التي تريد القيام بها». وأضافت الشركة أيضاً أن هذه الأنظمة يمكنها إنشاء صور، والبحث في الويب، واستخدام أدوات رقمية أخرى. أنظمة «التفكير... قبل الإجابة» وعلى عكس الإصدارات المبكرة من روبوت الدردشة «ChatGPT»، تقضي أنظمة التفكير هذه قدراً كبيراً من الوقت في «التفكير» في سؤال قبل الإجابة عنه، بدلاً من تقديم إجابة فورية. تُعد هذه الأنظمة جزءاً من جهد أوسع لبناء ذكاء اصطناعي يمكنه التفكير في المهام المعقدة. وتعمل شركات مثل «غوغل»، و«ميتا»، و«ديب سيك» الشركة الصينية الناشئة، على تطوير تقنيات مماثلة. والهدف هو بناء أنظمة يمكنها حل مشكلة من خلال سلسلة من الخطوات، كل منها مبنية على الخطوة السابقة، على غرار طريقة تفكير البشر. يمكن أن تكون هذه التقنيات مفيدةً بشكل خاص لمبرمجي الكمبيوتر الذين يستخدمون أنظمة الذكاء الاصطناعي لكتابة التعليمات البرمجية. تعتمد أنظمة التفكير على تقنية تُسمى «نماذج اللغة الكبيرة»، أو (L.L.M.s) لبناء أنظمة التفكير المنطقي، وتُخضع الشركات هذه النماذج لعملية إضافية تُسمى «التعلم التعزيزي (reinforcement learning)». خلال هذه العملية، يتعلم النظام السلوك من خلال تجربة وخطأ مكثفين. على سبيل المثال، من خلال حل مسائل رياضية متنوعة، يُمكنه معرفة أي الطرق تؤدي إلى الإجابة الصحيحة وأيها لا. إذا كرر هذه العملية مع عدد كبير من المسائل، يُمكنه تحديد الأنماط. التعامل مع الصور والنصوص تعلمت أحدث أنظمة «أوبن إيه آي» كيفية التعامل مع المسائل التي تتضمَّن كلاً من الصور والنصوص. ويشير الخبراء إلى أن أنظمة التفكير المنطقي لا تُفكر بالضرورة كالإنسان. ومثل تقنيات الذكاء الاصطناعي الأخرى، يُمكنها أن تُخطئ وتُختلق أشياءً... وهي ظاهرة تُسمى «الهلوسة». أداة جديدة للبرمجة كما كشفت الشركة عن أداة جديدة، «Codex CLI»، مُصممة لتسهيل مهام برمجة الحاسوب التي تتضمّن أنظمة مثل «OpenAI o3»، و«OpenAI o4-mini» (المذكورتين أعلاه). وتُسمى هذه الأداة «وكيل الذكاء الاصطناعي (A.I. agent)»، وتوفر طرقاً لاستخدام أنظمة الذكاء الاصطناعي هذه جنباً إلى جنب مع الرموز الموجودة المُخزنة على جهاز المُبرمج الشخصي. وصرَّحت الشركة بأنها تتيح هذه الأداة مفتوحة المصدر، ما يعني أنها تشارك تقنيتها الأساسية بحرية مع المبرمجين والشركات، مما يسمح لهم بتعديلها وتطويرها. وأضافت الشركة أنه ابتداءً من يوم أمس (الأربعاء)، ستكون هذه الأنظمة الجديدة متاحة لأي شخص مشترك في خدمة «ChatGPT Plus»، وهي خدمة بقيمة 20 دولاراً شهرياً، أو خدمة «ChatGPT Pro»، وهي خدمة بقيمة 200 دولار شهرياً تتيح الوصول إلى أحدث أدوات الشركة جميعها. * خدمة «نيويورك تايمز».

تحديث موعد إطلاق ChatGPT-5، وإلغاء OpenAI o3 كنموذج مُستقل
تحديث موعد إطلاق ChatGPT-5، وإلغاء OpenAI o3 كنموذج مُستقل

أخبار مصر

time١٢-٠٢-٢٠٢٥

  • علوم
  • أخبار مصر

تحديث موعد إطلاق ChatGPT-5، وإلغاء OpenAI o3 كنموذج مُستقل

تحديث موعد إطلاق ChatGPT-5، وإلغاء OpenAI o3 كنموذج مُستقل شارك سام ألتمان -الرئيس التنفيذي لشركة OpenAI- خارطة الطريق (خطة التطوير) المُحدّثة للإصدارات التالية من نماذج الذكاء الاصطناعي المُدرَّبة مُسبقًا (GPT)، GPT-4.5 وGPT-5. يهدف المختبر إلى تبسيط منتجاته وتعزيز تجربة المستخدم مع نماذج الذكاء الاصطناعي التابعة له.تعمل OpenAI على إنشاء نظام ذكاء موحّد من شأنه أن يلغي الحاجة إلى أداة اختيار النموذج، وهي الميزة التي كانت مصدرًا لتعقيد المُستخدمين. سيكون GPT-4.5 القادم -المُشار إليه داخليًا باسم Orion- هو النموذج الأخير في السلسلة الذي لا يتضمن ميزة سلسلة الأفكار.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store