logo
#

أحدث الأخبار مع #openAl

الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين
الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين

صحيفة الخليج

time٢٧-٠٤-٢٠٢٥

  • علوم
  • صحيفة الخليج

الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين

تسببت هلاوس نماذج الذكاء الاصطناعي الجديدة من شركة openAl في حالة من الجدل، بعد وقوعها في أخطاء اختلاق معلومات غير موجودة، وبالتالي تضليل المستخدمين. معدل أخطاء نماذج «تشات جي بي تي» الأولى كان طفيفاً مقارنة بما حدث مع آخر النسخ، رغم أنها كانت أقل كفاءة. تفاصيل اختبارات الهلاوس في نماذج OpenAI أظهرت اختبارات جديدة على نماذج OpenAI المتطورة o3 و o4-mini زيادة ملحوظة في معدل الهلاوس، وهي حالات يصنع فيها النموذج معلومات غير صحيحة أو غير واقعية، كما أكدت نتائج الاختبارات أن معدل الهلاوس في هذه النماذج أعلى مقارنة بالنماذج السابقة. في اختبار PersonQA، الذي يقيس دقة النموذج في معرفة المعلومات حول الأشخاص، سجل نموذج o3 معدل هلاوس بلغ 33%، وهو ضعف معدل الهلاوس الذي سجلته نماذج o1 و o3-mini (16% و 14.8% على التوالي، أما نموذج o4-mini فقد سجل أسوأ أداء، حيث وصل معدل الهلاوس إلى 48%. كما أظهرت الاختبارات أن o3 قد يختلق معلومات حول الإجراءات التي اتخذها للوصول إلى إجابات، وأشار الباحثون إلى أن السبب وراء هذه الهلاوس قد يكون تقنيات التعلم المعزز المستخدمة في تدريب نماذج o-series، والتي قد تؤدي إلى تفاقم هذه المشكلة مقارنة بالأساليب التقليدية التي تهدف إلى تقليل الهلاوس. وتواجه هذه النماذج تحديات في التطبيقات التي تتطلب دقة عالية، مثل القانون، حيث قد تخلق الهلاوس مشاكل في المستندات القانونية أو العقود. من جانبها، أكدت OpenAI أنها تواصل البحث لإيجاد حلول لتحسين دقة النماذج وتقليل الهلاوس، ومن بين الحلول المقترحة تمكين النماذج من الوصول إلى البحث عبر الإنترنت. وهذا النهج أظهر نتائج واعدة، حيث سجل GPT-4o مع البحث عبر الإنترنت دقة تصل إلى 90% في اختبار SimpleQA، ما قد يسهم في تقليل الهلاوس في المستقبل. أسباب ارتفاع نسبة الأخطاء في النماذج الجديدة ارتفعت نسبة الأخطاء والهلاوس في النماذج الجديدة من OpenAI، بسبب اعتمادها على تقنيات التعلم المعزز التي قد تؤدي إلى تعزيز الأخطاء بدلاً من تقليصها، حيث يتم مكافأة النماذج بناءً على الإجابات التي قد تكون غير دقيقة ولكنها بدت مفيدة في سياقات معينة. كما أن هذه النماذج تعتبر نماذج تفكير معقدة، تهدف إلى معالجة المشكلات الصعبة، ما قد يؤدي في بعض الأحيان إلى توليد إجابات غير صحيحة أو مبتكرة، وزيادة حدوث الهلاوس، ومع زيادة حجم البيانات التي تتعامل معها النماذج، تصبح أكثر عرضة للأخطاء بسبب تعقيد المعلومات التي تجب معالجتها وربطها. كما يسهم نقص آلية التحكم بعد التدريب في زيادة الهلاوس، حيث إن النماذج الجديدة تفتقر إلى آليات دقيقة تمنع الأخطاء بعد التدريب، كذلك التركيز على تقديم أكبر عدد من الإجابات قد يؤدي إلى توليد معلومات غير دقيقة أو مغلوطة، ما يزيد من تكرار الأخطاء. ردود فعل المستخدمين تجاه السلوكيات الغريبة أبدى العديد من المستخدمين قلقهم من السلوكيات الغريبة التي تظهر في النماذج الجديدة مثل o3 و o4-mini من OpenAI، والتي تتجسد بشكل رئيسي في الهلاوس أو الأخطاء التي ينتجها النموذج، حيث يقوم بتوليد معلومات غير دقيقة أو غير واقعية. كما أشار آخرون إلى أن النموذج يكرر بعض الروابط أو المعلومات المفقودة، ما يسبب ارتباكاً في مهامهم اليومية، ورغم تحسن الأداء في بعض المهام مثل البرمجة والرياضيات، إلا أن ارتفاع نسبة الهلاوس يجعلها أقل قابلية للاعتماد في المجالات التي تتطلب دقة عالية. آراء المطورين في التحديثات الأخيرة لـChatGPT بعض المطورين أبدوا تفاؤلهم بأن هذه السلوكيات الغريبة ستكون قابلة للتحسين مع الوقت ومع تطور الأبحاث المتعلقة بتقنيات الذكاء الاصطناعي، وأشاروا إلى أن التعلم المستمر وتحسين الخوارزميات قد يؤدي إلى تقليل نسبة الهلاوس في الإصدارات القادمة.

الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين
الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين

بلد نيوز

time٢٧-٠٤-٢٠٢٥

  • علوم
  • بلد نيوز

الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي: الهلاوس تضرب openAI.. سلوكيات غريبة واختلاق معلومات للمستخدمين - بلد نيوز, اليوم الأحد 27 أبريل 2025 01:02 مساءً تسببت هلاوس نماذج الذكاء الاصطناعي الجديدة من شركة openAl في حالة من الجدل، بعد وقوعها في أخطاء اختلاق معلومات غير موجودة، وبالتالي تضليل المستخدمين. معدل أخطاء نماذج «تشات جي بي تي» الأولى كان طفيفاً مقارنة بما حدث مع آخر النسخ، رغم أنها كانت أقل كفاءة. تفاصيل اختبارات الهلاوس في نماذج OpenAI أظهرت اختبارات جديدة على نماذج OpenAI المتطورة o3 و o4-mini زيادة ملحوظة في معدل الهلاوس، وهي حالات يصنع فيها النموذج معلومات غير صحيحة أو غير واقعية، كما أكدت نتائج الاختبارات أن معدل الهلاوس في هذه النماذج أعلى مقارنة بالنماذج السابقة. في اختبار PersonQA، الذي يقيس دقة النموذج في معرفة المعلومات حول الأشخاص، سجل نموذج o3 معدل هلاوس بلغ 33%، وهو ضعف معدل الهلاوس الذي سجلته نماذج o1 و o3-mini (16% و 14.8% على التوالي، أما نموذج o4-mini فقد سجل أسوأ أداء، حيث وصل معدل الهلاوس إلى 48%. كما أظهرت الاختبارات أن o3 قد يختلق معلومات حول الإجراءات التي اتخذها للوصول إلى إجابات، وأشار الباحثون إلى أن السبب وراء هذه الهلاوس قد يكون تقنيات التعلم المعزز المستخدمة في تدريب نماذج o-series، والتي قد تؤدي إلى تفاقم هذه المشكلة مقارنة بالأساليب التقليدية التي تهدف إلى تقليل الهلاوس. وتواجه هذه النماذج تحديات في التطبيقات التي تتطلب دقة عالية، مثل القانون، حيث قد تخلق الهلاوس مشاكل في المستندات القانونية أو العقود. من جانبها، أكدت OpenAI أنها تواصل البحث لإيجاد حلول لتحسين دقة النماذج وتقليل الهلاوس، ومن بين الحلول المقترحة تمكين النماذج من الوصول إلى البحث عبر الإنترنت. وهذا النهج أظهر نتائج واعدة، حيث سجل GPT-4o مع البحث عبر الإنترنت دقة تصل إلى 90% في اختبار SimpleQA، ما قد يسهم في تقليل الهلاوس في المستقبل. أسباب ارتفاع نسبة الأخطاء في النماذج الجديدة ارتفعت نسبة الأخطاء والهلاوس في النماذج الجديدة من OpenAI، بسبب اعتمادها على تقنيات التعلم المعزز التي قد تؤدي إلى تعزيز الأخطاء بدلاً من تقليصها، حيث يتم مكافأة النماذج بناءً على الإجابات التي قد تكون غير دقيقة ولكنها بدت مفيدة في سياقات معينة. كما أن هذه النماذج تعتبر نماذج تفكير معقدة، تهدف إلى معالجة المشكلات الصعبة، ما قد يؤدي في بعض الأحيان إلى توليد إجابات غير صحيحة أو مبتكرة، وزيادة حدوث الهلاوس، ومع زيادة حجم البيانات التي تتعامل معها النماذج، تصبح أكثر عرضة للأخطاء بسبب تعقيد المعلومات التي تجب معالجتها وربطها. كما يسهم نقص آلية التحكم بعد التدريب في زيادة الهلاوس، حيث إن النماذج الجديدة تفتقر إلى آليات دقيقة تمنع الأخطاء بعد التدريب، كذلك التركيز على تقديم أكبر عدد من الإجابات قد يؤدي إلى توليد معلومات غير دقيقة أو مغلوطة، ما يزيد من تكرار الأخطاء. ردود فعل المستخدمين تجاه السلوكيات الغريبة أبدى العديد من المستخدمين قلقهم من السلوكيات الغريبة التي تظهر في النماذج الجديدة مثل o3 و o4-mini من OpenAI، والتي تتجسد بشكل رئيسي في الهلاوس أو الأخطاء التي ينتجها النموذج، حيث يقوم بتوليد معلومات غير دقيقة أو غير واقعية. كما أشار آخرون إلى أن النموذج يكرر بعض الروابط أو المعلومات المفقودة، ما يسبب ارتباكاً في مهامهم اليومية، ورغم تحسن الأداء في بعض المهام مثل البرمجة والرياضيات، إلا أن ارتفاع نسبة الهلاوس يجعلها أقل قابلية للاعتماد في المجالات التي تتطلب دقة عالية. آراء المطورين في التحديثات الأخيرة لـChatGPT بعض المطورين أبدوا تفاؤلهم بأن هذه السلوكيات الغريبة ستكون قابلة للتحسين مع الوقت ومع تطور الأبحاث المتعلقة بتقنيات الذكاء الاصطناعي، وأشاروا إلى أن التعلم المستمر وتحسين الخوارزميات قد يؤدي إلى تقليل نسبة الهلاوس في الإصدارات القادمة.

أخبار التكنولوجيا : جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة
أخبار التكنولوجيا : جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة

نافذة على العالم

time١٠-٠٤-٢٠٢٥

  • أعمال
  • نافذة على العالم

أخبار التكنولوجيا : جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة

الخميس 10 أبريل 2025 12:15 مساءً نافذة على العالم - تسعى شركات التكنولوجيا الكبرى إلى جذب أفضل الكفاءات في مجال الذكاء الاصطناعي، مما يدفعها لاتخاذ خطوات غير تقليدية. واتجهت جوجل مؤخرًا إلى دفع رواتب لبعض موظفيها السابقين دون أن يؤدوا أي مهام، بسبب ارتباطهم ببنود 'عدم التنافس' التي تمنعهم من الالتحاق بشركات منافسة لفترة قد تصل إلى عام كامل. تعود تفاصيل الواقعة إلى جوجل DeepMind، القسم المختص بتطوير تقنيات الذكاء الاصطناعي في الشركة. وبعض العاملين السابقين لا يمكنهم الانضمام إلى شركات مثل open Al أو مايكروسوفت حتى انتهاء فترة الحظر المنصوص عليها في عقودهم. وخلال هذه الفترة، يلتزمون بعدم العمل في أي جهة أخرى، بينما تستمر الشركة في دفع رواتبهم. رغم أن الأمر يبدو مغريًا من الخارج، فإنه قد يؤثر سلبًا على مسار الباحثين المتخصصين. القطاع يشهد تطورات متسارعة، والغياب لمدة طويلة قد يؤدي إلى تراجع فرص التطور المهني. وتحدث ناندو دي فريتاس، نائب رئيس الذكاء الاصطناعي في مايكروسوفت وأحد التنفيذيين السابقين في DeepMind، تحدث عن ذلك علنًا في منشور بتاريخ 26 مارس 2025 على منصة X، موضحًا أن موظفين سابقين يتواصلون معه باستمرار للبحث عن مخرج من تلك العقود. وأشار فريتاس إلى أن العقود تُطبق بصرامة في المملكة المتحدة، حيث يقع مقر DeepMind، بخلاف كاليفورنيا التي تحظر هذا النوع من البنود. وعلّق قائلًا: 'لا يجب أن تمتلك أي شركة هذه السلطة، خاصة في أوروبا والأمر يمثل استغلالًا للسلطة ولا يمكن تبريره'. و ردًا على الانتقادات، أوضحت جوجل أن هذه البنود تُستخدم فقط في حالات محددة لحماية مشروعات شديدة الحساسية، وأنها تُطبق بما يتوافق مع القانون البريطاني الذي يسمح بها ما دامت عادلة للطرفين. وابدى عدد من المتخصصين في الذكاء الاصطناعي قلقهم من تأثير تلك العقود على تطورهم، خصوصًا مع تنامي فرص العمل في شركات ناشئة أو منافسة. وقال أحد الموظفين السابقين: 'من سيقبل توظيفك إذا كنت متاحًا بعد عام؟ في مجال الذكاء الاصطناعي، هذا يُعد وقتًا طويلًا للغاية'.

جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة
جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة

موجز نيوز

time١٠-٠٤-٢٠٢٥

  • أعمال
  • موجز نيوز

جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة

تسعى شركات التكنولوجيا الكبرى إلى جذب أفضل الكفاءات في مجال الذكاء الاصطناعي ، مما يدفعها لاتخاذ خطوات غير تقليدية. واتجهت جوجل مؤخرًا إلى دفع رواتب لبعض موظفيها السابقين دون أن يؤدوا أي مهام، بسبب ارتباطهم ببنود 'عدم التنافس' التي تمنعهم من الالتحاق بشركات منافسة لفترة قد تصل إلى عام كامل. تعود تفاصيل الواقعة إلى جوجل DeepMind، القسم المختص بتطوير تقنيات الذكاء الاصطناعي في الشركة. وبعض العاملين السابقين لا يمكنهم الانضمام إلى شركات مثل open Al أو مايكروسوفت حتى انتهاء فترة الحظر المنصوص عليها في عقودهم. وخلال هذه الفترة، يلتزمون بعدم العمل في أي جهة أخرى، بينما تستمر الشركة في دفع رواتبهم. رغم أن الأمر يبدو مغريًا من الخارج، فإنه قد يؤثر سلبًا على مسار الباحثين المتخصصين. القطاع يشهد تطورات متسارعة، والغياب لمدة طويلة قد يؤدي إلى تراجع فرص التطور المهني. وتحدث ناندو دي فريتاس، نائب رئيس الذكاء الاصطناعي في مايكروسوفت وأحد التنفيذيين السابقين في DeepMind ، تحدث عن ذلك علنًا في منشور بتاريخ 26 مارس 2025 على منصة X، موضحًا أن موظفين سابقين يتواصلون معه باستمرار للبحث عن مخرج من تلك العقود. وأشار فريتاس إلى أن العقود تُطبق بصرامة في المملكة المتحدة، حيث يقع مقر DeepMind، بخلاف كاليفورنيا التي تحظر هذا النوع من البنود. وعلّق قائلًا: 'لا يجب أن تمتلك أي شركة هذه السلطة، خاصة في أوروبا والأمر يمثل استغلالًا للسلطة ولا يمكن تبريره'. و ردًا على الانتقادات، أوضحت جوجل أن هذه البنود تُستخدم فقط في حالات محددة لحماية مشروعات شديدة الحساسية، وأنها تُطبق بما يتوافق مع القانون البريطاني الذي يسمح بها ما دامت عادلة للطرفين. وابدى عدد من المتخصصين في الذكاء الاصطناعي قلقهم من تأثير تلك العقود على تطورهم، خصوصًا مع تنامي فرص العمل في شركات ناشئة أو منافسة. وقال أحد الموظفين السابقين: 'من سيقبل توظيفك إذا كنت متاحًا بعد عام؟ في مجال الذكاء الاصطناعي، هذا يُعد وقتًا طويلًا للغاية'.

جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة
جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة

اليوم السابع

time١٠-٠٤-٢٠٢٥

  • أعمال
  • اليوم السابع

جوجل تدفع رواتب لموظفيها السابقين لضمان عدم التحاقهم بشركات منافسة

تسعى شركات التكنولوجيا الكبرى إلى جذب أفضل الكفاءات في مجال الذكاء الاصطناعي ، مما يدفعها لاتخاذ خطوات غير تقليدية. واتجهت جوجل مؤخرًا إلى دفع رواتب لبعض موظفيها السابقين دون أن يؤدوا أي مهام، بسبب ارتباطهم ببنود 'عدم التنافس' التي تمنعهم من الالتحاق بشركات منافسة لفترة قد تصل إلى عام كامل. تعود تفاصيل الواقعة إلى جوجل DeepMind، القسم المختص بتطوير تقنيات الذكاء الاصطناعي في الشركة. وبعض العاملين السابقين لا يمكنهم الانضمام إلى شركات مثل open Al أو مايكروسوفت حتى انتهاء فترة الحظر المنصوص عليها في عقودهم. وخلال هذه الفترة، يلتزمون بعدم العمل في أي جهة أخرى، بينما تستمر الشركة في دفع رواتبهم. رغم أن الأمر يبدو مغريًا من الخارج، فإنه قد يؤثر سلبًا على مسار الباحثين المتخصصين. القطاع يشهد تطورات متسارعة، والغياب لمدة طويلة قد يؤدي إلى تراجع فرص التطور المهني. وتحدث ناندو دي فريتاس، نائب رئيس الذكاء الاصطناعي في مايكروسوفت وأحد التنفيذيين السابقين في DeepMind ، تحدث عن ذلك علنًا في منشور بتاريخ 26 مارس 2025 على منصة X، موضحًا أن موظفين سابقين يتواصلون معه باستمرار للبحث عن مخرج من تلك العقود. وأشار فريتاس إلى أن العقود تُطبق بصرامة في المملكة المتحدة، حيث يقع مقر DeepMind، بخلاف كاليفورنيا التي تحظر هذا النوع من البنود. وعلّق قائلًا: 'لا يجب أن تمتلك أي شركة هذه السلطة، خاصة في أوروبا والأمر يمثل استغلالًا للسلطة ولا يمكن تبريره'. و ردًا على الانتقادات، أوضحت جوجل أن هذه البنود تُستخدم فقط في حالات محددة لحماية مشروعات شديدة الحساسية، وأنها تُطبق بما يتوافق مع القانون البريطاني الذي يسمح بها ما دامت عادلة للطرفين. وابدى عدد من المتخصصين في الذكاء الاصطناعي قلقهم من تأثير تلك العقود على تطورهم، خصوصًا مع تنامي فرص العمل في شركات ناشئة أو منافسة. وقال أحد الموظفين السابقين: 'من سيقبل توظيفك إذا كنت متاحًا بعد عام؟ في مجال الذكاء الاصطناعي، هذا يُعد وقتًا طويلًا للغاية'.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store