
"أوبن أيه آي" تقيد الوصول إلى نماذج الذكاء الاصطناعي المستقبلية
أبوظبي (وكالات)
مع تسارع تطور الذكاء الاصطناعي وازدياد قدرات نماذج "أوبن أيه آي" بدأت الشركة في اتخاذ خطوات أكثر صرامة لحماية منتجاتها وضمان استخدامها بشكل آمن وأخلاقي. أحدث هذه الخطوات هو إطلاق نظام "المنظمة الموثّقة" (Verified Organization)، والذي سيتطلب من المؤسسات إتمام عملية تحقق من الهوية للوصول إلى بعض النماذج المستقبلية المتقدمة.
وقد تطلب شركة "أوبن أيه آي" قريبًا من المؤسسات إتمام عملية تحقق من الهوية للوصول إلى بعض نماذج الذكاء الاصطناعي المستقبلية. بحسب ما ذكر موقع تك كرانش المتخصص في موضوعات التكنولوجيا.
ما هي عملية التحقق الجديدة؟
بحسب صفحة دعم نشرتها "أوبن أيه آي" مؤخرًا، فإن عملية التحقق تهدف إلى تمكين المطورين من الوصول إلى أقوى النماذج والإمكانات على منصة "أوبن أيه آي.
وتتطلب تقديم هوية حكومية رسمية من دولة مدعومة من واجهة "أوبن أيه آي".
ويمكن استخدام الهوية للتحقق من مؤسسة واحدة فقط كل 90 يومًا، وليس كل المؤسسات ستكون مؤهلة لإجراء التحقق، بحسب ما أوضحت الشركة.
اقرأ أيضاً.."أوبن أيه آي": منشئ الصور الجديد أصبح متاحاً لجميع المستخدمين
لماذا هذه الخطوة الآن؟
أضافت "أوبن أيه آي"، أنها تأخذ مسؤوليتها بجدية لضمان أن الذكاء الاصطناعي يكون متاحًا على نطاق واسع ويُستخدم بطريقة آمنة. ولكن هناك قلة من المطورين يستخدمون واجهات "أوبن أيه آي" بطريقة تنتهك سياسات الاستخدام. ولهذا أضافت عملية التحقق لتقليل الاستخدام غير الآمن للذكاء الاصطناعي، مع الاستمرار في إتاحة النماذج المتقدمة للمجتمع الأوسع من المطورين".
عملية التحقق الجديدة قد تكون خطوة لتعزيز الأمان حول منتجات "أوبن أيه آي"، خصوصًا مع تطورها المتزايد وقدراتها المتقدمة، ولمنع الاستخدامات الخبيثة لنماذجها من قبل جهات مخالفة. وحماية المستخدمين من سوء استخدام تقنيات الذكاء الاصطناعي.
ونشرت الشركة عدة تقارير عن جهودها في اكتشاف ومنع الاستخدامات الخبيثة لنماذجها.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الاتحاد
منذ يوم واحد
- الاتحاد
ذكاء اصطناعي من مايكروسوفت يقود ثورة الاكتشافات العلمية
الاتحاد(أبوظبي) أعلنت مايكروسوفت خلال مؤتمر Build 2025 عن منصتها الجديدة "Microsoft Discovery"، التي تهدف إلى إعادة تشكيل مسار البحث العلمي من خلال تقنيات الذكاء الاصطناعي الوكيلي، بما يعزز من سرعة الاكتشافات ودقتها على نطاق واسع. وتعتمد المنصة على فريق من وكلاء الذكاء الاصطناعي المتخصصين، لتغطية سلسلة متكاملة من مراحل البحث، بدءًا من تحليل المعرفة وصياغة الفرضيات، ووصولًا إلى توليد النماذج، المحاكاة، والتحليل. وذكرت مايكروسوفت إن هذه المنصة قابلة للتوسيع، وتستطيع التعامل مع أعباء عمل علمية معقدة من البداية إلى النهاية، مما يمنح الباحثين قدرة غير مسبوقة على الإنجاز بسرعة ودقة وعلى نطاق واسع، مدعومة بأحدث تطورات الذكاء الاصطناعي والحوسبة الفائقة. اقرأ أيضاً.. تحدث 9 لغات بصوتك مع تقنية ثورية من "مايكروسوفت تيمز" وووفقًا لموقع "تك كرانش"، تأتي هذه الخطوة في ظل اهتمام متزايد من شركات التكنولوجيا الكبرى بتوظيف الذكاء الاصطناعي في خدمة البحث العلمي. فكشفت جوجل هذا العام عن أداة توصف بأنها "العالِم المساعد"، تهدف إلى دعم العلماء في صياغة الفرضيات ووضع خطط الأبحاث. كما تدخل شركات بارزة مثل OpenAI وAnthropic وشركات ناشئة على الخط، وجميعها تراهن على أن أدوات الذكاء الاصطناعي يمكن أن تسرّع الاكتشافات في ميادين دقيقة كالأدوية والمواد الجديدة. ورغم هذه الموجة من التفاؤل، لا تزال الشكوك قائمة بين كثير من الباحثين حول فعالية الذكاء الاصطناعي كمحرّك رئيسي للعملية العلمية، ويكمن التحدي الأساسي في التنبؤ بالعوامل المربكة التي قد تواجه الذكاء الاصطناعي عند التعامل مع تجارب غير مألوفة. ورغم أن الذكاء الاصطناعي قد يكون فعالًا في تضييق نطاق الاحتمالات ضمن مساحات بحث واسعة، إلا أن قدرته على حل المشكلات بطريقة إبداعية خارجة عن المألوف.


الاتحاد
منذ يوم واحد
- الاتحاد
جوجل تكسر حاجز اللغة.. ترجمة صوتية فورية في "Google Meet"
كشفت شركة جوجل خلال مؤتمر Google I/O 2025 عن ميزة جديدة في تطبيق Google Meet، تتيح الترجمة الصوتية الفورية للمحادثات باستخدام نموذج لغوي صوتي متقدم طورته DeepMind، ذراع الذكاء الاصطناعي التابعة للشركة. الميزة تمكّن المستخدمين من إجراء محادثات طبيعية وسلسة مع أشخاص يتحدثون لغات مختلفة، مع الحفاظ على نبرة الصوت، وطريقة الإلقاء، والتعبيرات. محادثات بلا حواجز لغوية ووفقًا لما أورده موقع "تك كرانش"، تتيح جوجل لهذه الميزة استخدامات متنوعة، مثل تعزيز التواصل بين الأفراد من ثقافات ولغات مختلفة، أو تسهيل التعاون اللحظي بين فرق العمل في الشركات العالمية. الترجمة تتم في الوقت الفعلي وبتأخير زمني منخفض للغاية، ما يسمح بعدة مشاركين بالتحدث والتفاعل في نفس اللحظة وهي سابقة في مجال الاتصالات الصوتية. تجربة واقعية تشبه الحوارات الحية الميزة تحافظ على الطابع الواقعي للمحادثة: فحين يتحدث الطرف الآخر، يظل صوته الأصلي مسموعًا بشكل خافت، مع ترجمة صوتية مدمجة فوقه بلغة المستمع المفضلة. من المتوقع أن يبدأ إطلاق الميزة بشكل تجريبي لمشتركي باقة الذكاء الاصطناعي "Consumer AI" ابتداءً من يوم الثلاثاء، على أن تدعم في البداية اللغتين الإنجليزية والإسبانية، مع توسع تدريجي يشمل لغات أخرى كالإيطالية، الألمانية، والبرتغالية. كما تعمل جوجل على تطوير نسخة مخصصة للشركات والمؤسسات، ومن المقرر بدء اختبارها هذا العام مع عملاء Google Workspace.


الاتحاد
١٣-٠٥-٢٠٢٥
- الاتحاد
كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي
كشفت دراسة حديثة أجرتها شركة Giskard الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب الإيجاز من روبوتات المحادثة مثل ChatGPT قد يزيد من ميلها إلى "الهلوسة" أي اختلاق معلومات غير دقيقة أو غير حقيقية. تفاصيل الدراسة ووفقاً لموقع "تك كرانش" نشر الباحثون نتائجهم في تدوينة تفصيلية، أشاروا فيها إلى أن التوجيهات التي تطلب إجابات قصيرة، خاصة على أسئلة غامضة أو مبنية على معلومات خاطئة، تؤدي إلى انخفاض ملحوظ في دقة المحتوى الذي تقدمه النماذج. وقال الباحثون: "تُظهر بياناتنا أن تغييرات بسيطة في التوجيهات تؤثر بشكل كبير على ميل النموذج إلى الهلوسة". وهو ما يثير القلق، خاصة أن كثيرًا من التطبيقات تعتمد على الإجابات الموجزة بهدف تقليل استخدام البيانات، وتسريع الاستجابة، وتقليص التكاليف. اقرأ ايضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب الهلوسة ليست مشكلة جديدة في الذكاء الاصطناعي، حتى النماذج الأحدث مثل GPT-4o وClaude 3.7 Sonnet تعاني منها بدرجات متفاوتة. لكن المفاجئ في الدراسة كان اكتشاف أن مجرد طلب إيجاز في الإجابة يمكن أن يزيد من احتمالية وقوع هذه الأخطاء. ويرجّح الباحثون أن السبب يكمن في أن الإجابات القصيرة لا تتيح للنموذج "المجال" الكافي لتفنيد المغالطات أو شرح التعقيدات. فيكون أمام خيارين: الإيجاز أو الدقة، وغالبًا ما يختار الأول على حساب الثاني. اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع! عبارات بريئة.. لكنها تخدع النموذج أظهرت الدراسة أن النماذج الشهيرة مثل GPT-4o وMistral Large وClaude Sonnet تصبح أقل دقة عندما تُطلب منها إجابات مقتضبة على أسئلة مشوشة . فبدلًا من الإشارة إلى أن السؤال يحتوي على فرضية خاطئة، تميل النماذج إلى تقديم إجابة مختصرة تكميلية للخطأ، مما يعزز التضليل بدلاً من تصحيحه. وحذرت الدراسة أيضًا من أن بعض النماذج تميل إلى تفادي التصحيح عندما تُطرح المعلومات المغلوطة بطريقة واثقة، في محاولة لمجاراة توقّعات المستخدم، حتى وإن كانت خاطئة. تُبرز الدراسة مفارقة مؤسفة تتمثل في أن تحسين تجربة المستخدم من خلال الإجابات المختصرة قد يأتي على حساب دقة الحقيقة. لذلك، يوصي الباحثون بضرورة توخي الحذر عند تصميم الأوامر والتعليمات الموجهة للذكاء الاصطناعي، مع التأكيد على أهمية تحقيق توازن بين سرعة الإجابة وموثوقيتها. إسلام العبادي(أبوظبي)