logo
#

أحدث الأخبار مع #وغروك3

لمواجهة التكاليف الباهظة.. اشتراكات الذكاء الاصطناعي «بالباقة والرصيد»
لمواجهة التكاليف الباهظة.. اشتراكات الذكاء الاصطناعي «بالباقة والرصيد»

العين الإخبارية

time٢٩-٠٤-٢٠٢٥

  • أعمال
  • العين الإخبارية

لمواجهة التكاليف الباهظة.. اشتراكات الذكاء الاصطناعي «بالباقة والرصيد»

تم تحديثه الثلاثاء 2025/4/29 02:26 م بتوقيت أبوظبي في ظل الارتفاع الكبير لتكاليف تشغيل خدمات الذكاء الاصطناعي، بدأت شركات التقنية في التحوّل التدريجي من نماذج الاشتراك الشهرية التقليدية إلى ما يُعرف بـ"نموذج التسعير حسب الاستخدام". يتجه المزيد من لاعبي قطاع البرمجيات كخدمة (SaaS) إلى التخلي تدريجيا عن نماذج الاشتراك الثابتة لصالح نموذج التسعير حسب الاستخدام، بحسب تقرير بيزنس إنسايدر، بحسب تقرير نشره موقع "بيزنس إنسايدر". ما هو "التسعير حسب الاستخدام"؟ يعتمد هذا النموذج على محاسبة المستخدم بناءً على استهلاكه الفعلي للخدمة، بدلاً من دفع مبلغ ثابت شهريًا، حتى في حال عدم الاستخدام الكامل. يُحتسب السعر وفقًا لعدد المهام المنفذة أو الميزات المستخدمة، ما يجعل الفوترة أكثر عدالة وواقعية. لماذا يحدث هذا التحول؟ يستهلك الذكاء الاصطناعي، لا سيما النماذج المتقدمة مثل GPT-4o وغروك 3، كميات ضخمة من الطاقة والموارد التقنية. ويشير التقرير إلى أن نموذج GPT-4o قد تصل تكلفة الإجابة الواحدة فيه إلى نحو 3,500 دولار، نتيجة العمليات المعقدة التي تشمل "الحوسبة وقت الاستدلال". توجه جديد في السوق بسبب هذه التكاليف، لم تعد الاشتراكات الشهرية كافية. وبدأت شركات مثل Replit وBolt New وVercel في تطبيق تسعيرة مرنة قائمة على حجم الاستخدام، سواء بعدد التوكين، أو الأسئلة، أو مدة الاستخدام. مبادرة من سام ألتمان الرئيس التنفيذي لشركة OpenAI، سام ألتمان، اقترح الشهر الماضي تحويل اشتراكات ChatGPT Plus إلى نظام رصيد مرن يمكن إنفاقه حسب الحاجة على ميزات مثل البحث المتقدم أو الوصول لنموذج GPT-4o، بدلاً من تخصيص حدود ثابتة لكل ميزة. تحديات وفرص يعني هذا التوجه أن المستخدمين سيدفعون مقابل ما يستهلكونه فعليًا، وهو ما قد يبدو عادلًا لكنه يتطلب وعيًا أكبر بإدارة الموارد الرقمية. من ناحية أخرى، يُعد خطوة ضرورية لضمان استدامة خدمات الذكاء الاصطناعي وتطويرها. aXA6IDgyLjI0LjIyNi4xMiA= جزيرة ام اند امز PL

أشهر روبوتات الدردشة لا يمكن الوثوق بها!
أشهر روبوتات الدردشة لا يمكن الوثوق بها!

خبرني

time١١-٠٣-٢٠٢٥

  • علوم
  • خبرني

أشهر روبوتات الدردشة لا يمكن الوثوق بها!

خبرني - أكدت نتائج دراسة جديدة نصيحة لطالما ترددت وهي أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي لا ينبغي استخدامها للحصول على حقائق، أي أنه لا يمكن الوثوق بها في هذا الأمر. وهناك مشكلتان رئيسيتان معروفتان عند محاولة استخدام نماذج اللغة الكبيرة مثل "شات جي بي تي" كبديل لعمليات البحث على الويب، وهما أن هذه النماذج غالبًا ما تكون مخطئة، وأنها غالبًا ما تكون واثقة جدًا من معلوماتها غير الصحيحة. دراسة جديدة وجدت دراسة استشهدت بها مجلة "Columbia Journalism Review" أنه حتى عندما تُعطى روبوتات الدردشة اقتباسًا دقيقًا من مقالة صحفية ويُطلب منها المزيد من التفاصيل، فإن معظمها يخطئ في أغلب الأحيان، بحسب تقرير لموقع "9TO5Mac". وأجرى مركز تو للصحافة الرقمية اختبارات على ثمانية روبوتات دردشة تعمل بالذكاء الاصطناعي تدعي إجراء عمليات بحث على الويب للحصول على الحقائق. وهذه الربوتات هي "شات جي بي تي" و"ديب سيك" و"غروك 2" و"غروك 3" و"Gemini" و"Copilot" و" Perplexity" و" Perplexity Pro". وقدمت الدراسة لكل نظام اقتباسًا من مقال صحفي، وطلبت منه تنفيذ مهمة بسيطة: العثور على هذا المقال عبر الإنترنت وتوفير رابط إليه، مع العنوان والناشر الأصلي وتاريخ النشر. وتم تصنيف روبوتات الدردشة على أساس ما إذا كانت صحيحة تمامًا، أو صحيحة ولكن مع بعض المعلومات المطلوبة مفقودة، أو غير صحيحة جزئيًا، أو غير صحيحة تمامًا، أو لا يمكنها الإجابة. كما لاحظ القائمون على الدراسة مدى ثقة روبوتات الدردشة في عرض نتائجها. على سبيل المثال، هل قدموا إجاباتهم كحقائق فقط، أم استخدموا عبارات مؤهلة مثل "يبدو" أو تضمنوا اعترافًا بأنهم لم يتمكنوا من العثور على تطابق دقيق للاقتباس. نتائج صادمة في المتوسط، كانت أنظمة الذكاء الاصطناعي صحيحة في أقل من 40% من الوقت، وكان الأكثر دقة هو "Perplexity" بنسبة 63%، والأسوأ كان "غروك 3" الموجود عبر منصة "إكس" بنسبة 6% فقط. كانت روبوتات الدردشة سيئة بشكل عام في رفض الإجابة على الأسئلة التي لا يمكنها الإجابة عليها بدقة، وعرضت إجابات غير صحيحة أو تخمينية بدلًا من ذلك. وفي حين كان أداء "Perplexity" هو الأفضل، يبدو أن هذا يرجع إلى الغش. ويمكن للقائمين على المواقع الإلكترونية استخدام ملف " على مواقعهم لإخبار روبوتات الدردشة ما إذا كان ينبغي لها الوصول إلى الموقع أم لا. وقد وجد "Perplexity" بشكل صحيح جميع الاقتباسات العشر على الرغم من حقيقة أن المقالات كانت محمية بجدار دفع ولم يكن لدى الشركة اتفاقية ترخيص. ومن بين البقية، قدم "شات جي بي تي" أفضل النتائج على هذا الصعيد، أو بشكل أكثر دقة، كان الأقل سوءًا.

دراسة جديدة تكشف أرقامًا صادمة عن مدى مصداقية روبوتات الدردشة
دراسة جديدة تكشف أرقامًا صادمة عن مدى مصداقية روبوتات الدردشة

العربية

time١١-٠٣-٢٠٢٥

  • علوم
  • العربية

دراسة جديدة تكشف أرقامًا صادمة عن مدى مصداقية روبوتات الدردشة

أكدت نتائج دراسة جديدة نصيحة لطالما ترددت وهي أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي لا ينبغي استخدامها للحصول على حقائق، أي أنه لا يمكن الوثوق بها في هذا الأمر. وهناك مشكلتان رئيسيتان معروفتان عند محاولة استخدام نماذج اللغة الكبيرة مثل "شات جي بي تي" كبديل لعمليات البحث على الويب، وهما أن هذه النماذج غالبًا ما تكون مخطئة، وأنها غالبًا ما تكون واثقة جدًا من معلوماتها غير الصحيحة. دراسة جديدة وجدت دراسة استشهدت بها مجلة "Columbia Journalism Review" أنه حتى عندما تُعطى روبوتات الدردشة اقتباسًا دقيقًا من مقالة صحفية ويُطلب منها المزيد من التفاصيل، فإن معظمها يخطئ في أغلب الأحيان، بحسب تقرير لموقع "9TO5Mac"، اطلعت عليه "العربية Business". وأجرى مركز تو للصحافة الرقمية اختبارات على ثمانية روبوتات دردشة تعمل بالذكاء الاصطناعي تدعي إجراء عمليات بحث على الويب للحصول على الحقائق. وهذه الربوتات هي "شات جي بي تي" و"ديب سيك" و"غروك 2" و"غروك 3" و"Gemini" و"Copilot" و" Perplexity" و" Perplexity Pro". وقدمت الدراسة لكل نظام اقتباسًا من مقال صحفي، وطلبت منه تنفيذ مهمة بسيطة: العثور على هذا المقال عبر الإنترنت وتوفير رابط إليه، مع العنوان والناشر الأصلي وتاريخ النشر. وتم تصنيف روبوتات الدردشة على أساس ما إذا كانت صحيحة تمامًا، أو صحيحة ولكن مع بعض المعلومات المطلوبة مفقودة، أو غير صحيحة جزئيًا، أو غير صحيحة تمامًا، أو لا يمكنها الإجابة. كما لاحظ القائمون على الدراسة مدى ثقة روبوتات الدردشة في عرض نتائجها. على سبيل المثال، هل قدموا إجاباتهم كحقائق فقط، أم استخدموا عبارات مؤهلة مثل "يبدو" أو تضمنوا اعترافًا بأنهم لم يتمكنوا من العثور على تطابق دقيق للاقتباس. نتائج صادمة في المتوسط، كانت أنظمة الذكاء الاصطناعي صحيحة في أقل من 40% من الوقت، وكان الأكثر دقة هو "Perplexity" بنسبة 63%، والأسوأ كان "غروك 3" الموجود عبر منصة "إكس" بنسبة 6% فقط. كانت روبوتات الدردشة سيئة بشكل عام في رفض الإجابة على الأسئلة التي لا يمكنها الإجابة عليها بدقة، وعرضت إجابات غير صحيحة أو تخمينية بدلًا من ذلك. وفي حين كان أداء "Perplexity" هو الأفضل، يبدو أن هذا يرجع إلى الغش. ويمكن للقائمين على المواقع الإلكترونية استخدام ملف " على مواقعهم لإخبار روبوتات الدردشة ما إذا كان ينبغي لها الوصول إلى الموقع أم لا. وقد وجد "Perplexity" بشكل صحيح جميع الاقتباسات العشر على الرغم من حقيقة أن المقالات كانت محمية بجدار دفع ولم يكن لدى الشركة اتفاقية ترخيص. ومن بين البقية، قدم "شات جي بي تي" أفضل النتائج على هذا الصعيد، أو بشكل أكثر دقة، كان الأقل سوءًا. وعلى الرغم من ذلك، توضح الدراسة بالتأكيد ما كنا نعرفه بالفعل: أنه ينبغي استخدام روبوتات الدردشة للإلهام والأفكار، ولكن ليس أبدًا للحصول على إجابات للأسئلة حول الحقائق.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store