logo
#

أحدث الأخبار مع #o4mini

ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟
ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟

اليمن الآن

time١٢-٠٥-٢٠٢٥

  • علوم
  • اليمن الآن

ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟

رغم تسارع التطورات في مجال الذكاء الاصطناعي التوليدي، وانتشار استخدام هذه التكنولوجيا في شتى القطاعات، نظراً لإمكاناتها الهائلة في تحسين أنماط العمل، وتسهيل حياة البشر، إلا أن هذه التقنية تعاني من خلل يزداد حدة مع كل تحديث تخضع له. فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ"هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها. وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي. الهلوسة تزداد مع التحديثات وبحسب تقرير أعدته "صحيفة نيويورك تايمز" واطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإنه ولأكثر من عامين، دأبت شركات مثل OpenAI وغوغل، على تحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفّضت وتيرة الأخطاء الناتجة عن "الهلوسة"، ولكن المفارقة تكمن في أنه عند خضوع هذه الأنظمة للتحديثات، فإنها تُصاب بالهلوسة بمعدل أعلى من السابق، وذلك وفقاً لاختبارات قامت بها الشركات المطورة لهذه الأنظمة، إضافة إلى اختبارات أجراها شركات وباحثون مستقلون. كما أنه وعند خضوع أنظمة OpenAI لاختبار آخر يحمل إسم "SimpleQA" مخصص لطرح أسئلة أكثر عمومية، كانت معدلات الهلوسة لنظامي "o3" و o4-miniمرتفعة جداً، ووصلت إلى 51 في المئة و79 في المئة على التوالي. أما نظام "o1" القديم، فقد سجّل مُعدّل هلوسة بلغ 44 في المئة. وفي ورقة بحثية تتناول تفاصيل هذه الاختبارات، ذكرت شركة OpenAI أن هناك حاجة إلى مزيد من البحث لفهم أسباب هذه النتائج أحدث نوبات الهلوسة هلوسة مستعصية ومنذ ظهور ChatGPT لأول مرة في نهاية عام 2022، أثارت ظاهرة "هلوسة الذكاء الاصطناعي"، مخاوف بشأن موثوقية هذه التكنولوجيا، وبما أن أنظمة الذكاء الاصطناعي تتعلم من كميات ضخمة من البيانات، تفوق ما يمكن للبشر فهمه، فإن خبراء التكنولوجيا يجدون صعوبة في تحديد لماذا تتصرف هذه البرامج بهذه الطريقة. والمقلق أن هذه الهلوسات موجودة في أغلب أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها شركات ديب مايند وديب سيك وأنثروبيك وغيرها. ويرى بعض الخبراء أن "هلوسة الذكاء الاصطناعي" قد تكون متأصلة في التقنية نفسها، مما يجعل التغلب على هذه المشكلة أمراً شبه مستحيل، خصوصاً أن روبوتات الذكاء الاصطناعي تعتمد على أنظمة رياضية معقدة، تساعدها في تخمين أفضل إجابة ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصة بتطوير أدوات ذكاء اصطناعي للشركات، إن "الهلوسة" لن تزول ابداً رغم أن الشركات تبذل قصارى جهدها لحل هذه المشكلة. بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسة معمّقة، حول مشكلة هلوسة الذكاء الاصطناعي، إنه نظراً لطريقة تدريب أنظمة الذكاء الاصطناعي فإن هذه البرامج، تميل إلى التركيز على القيام بمهمة واحدة فقط، وتبدأ تدريجياً في نسيان المهام الأخرى، مشيرة إلى أن هذه الأنظمة خلال فترة "التفكير" أو"المعالجة" التي تسبق التوصل إلى الإجابة، تكون عرضة للهلوسة في كل خطوة، ومع ازدياد مدة "التفكير"، تزداد احتمالية تراكم الأخطاء وتفاقمها. لا تفهم كالبشر من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا "تفهم" المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة "الاحتمالية" لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة "هلوسة الذكاء الاصطناعي" تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم. لماذا يهلوس الذكاء اصطناعي؟ وبحسب معلوف فإن "هلوسة الذكاء الاصطناعي" تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على "الارتباطات الإحصائية"، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل "التعلم من ملاحظات البشر"، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها. ما الحلول المتوفرة؟ وشددت معلوف على أن معالجة "هلوسة الذكاء الاصطناعي" تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية. لماذا تتفاقم "الهلوسة" بعد التحديثات؟ من جهته يقول رئيس شركة "تكنولوجيا" مازن الدكاش، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ليست عيباً في الكود يمكن إصلاحه أو خللاً سطحياً يمكن تجاوزه بتحديث أو تعديل تقني سريع، بل هي نتيجة طبيعية لطريقة عمل برامج الذكاء الاصطناعي، وللأسف فإن إنتاج معلومات غير صحيحة أو مختلقة، سيبقى احتمالاً قائماً ما لم يحدث تحول جذري في طريقة بناء هذه الأنظمة. دراسة علمية تحذر من علاقات حب "اصطناعية" ويكشف الدكاش أن ارتفاع نسب "هلوسة برامج الذكاء الاصطناعي" بعد التحديثات التي تخصع لها، يعود لعدة أسباب، فبعض التحديثات تركز مثلاً على تحسين الأداء في مهام معينة أو على بيانات محددة، مما قد يُضعف أداء البرنامج في مهام أخرى ويفقده شيئاً من التوازن في إنتاج المعرفة، كما أنه بعد التحديثات تزداد قدرة برامج الذكاء الاصطناعي، على توليد نصوص أكثر تعقيداً من السابق، وهذا يساعدها على ابتكار إجابات تبدو صحيحة ومقنعة من حيث الشكل ولكنها خاطئة من حيث المضمون، أي أن النموذج يصبح أكثر قدرة على الإقناع وليس بالضرورة أكثر مصداقية. هلوسات المستقبل أخطر وشدد الدكاش على أنه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي ذاتها، فسيظل العالم يواجه نفس النوع من الهلوسات، وربما تكون أكثر خطراً في المستقبل، كونها ستصدر من أنظمة قادرة على اتخاذ قرارات ذات طابع تنفيذي، وذلك مع ظهور الذكاء الاصطناعي العام، أو ما يُعرف بالذكاء الاصطناعي الخارق، ولذلك فإن الحل يكمن في إعادة هندسة الجوانب المعمارية لأنظمة الذكاء الاصطناعي الحالية، لتصبح قادرة على "التحقق" من المعلومات وليس فقط "الإجابة".

هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج
هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج

النهار

time١١-٠٥-٢٠٢٥

  • علوم
  • النهار

هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج

رغم التقدّم المتسارع في تطوير تقنيات الذكاء الاصطناعي، تكشف بيانات جديدة عن تفاقم مشكلة "الهلوسة" في الأنظمة الأحدث، ما يطرح تحديات كبيرة أمام مطوّريها والمستخدمين على حد سواء. تشير أحدث التقارير إلى أن ما يُعرف بـ"هلوسة الذكاء الاصطناعي" – وهي ظاهرة قيام النماذج التوليدية بإنتاج معلومات غير صحيحة أو مختلقة – لا تزال تمثل عقبة كبيرة أمام الاستخدام الدقيق والموثوق للأنظمة المتقدمة مثل "تشات جي بي تي" و"كلود". بل إن الأدلة الحديثة تُظهر أن هذه المشكلة تزداد سوءاً في الإصدارات الأحدث من تلك الأنظمة، رغم وعود الشركات المطورة بتحسين الدقة. تُظهر اختبارات أجرتها شركة "أوبن إيه آي" أن أحدث نماذجها، ومنها النظام o3، تعاني من معدلات هلوسة تصل إلى 33% عند اختبار المعلومات المتعلقة بالشخصيات العامة، وهو ما يفوق ضعف نسبة الهلوسة التي ظهرت في نموذجها الأسبق o1. وفي النموذج الجديد المصغر o4 mini، بلغت النسبة 48%. أما في اختبارات الأسئلة العامة، فقد قفزت معدلات الهلوسة إلى 51% و79% على التوالي في نظامي o3 وo4 mini، بينما كانت النسبة 44% في النموذج السابق o1. الغريب في الأمر أن هذه الهلوسات لم تتراجع مع اعتماد ما يُعرف بـ"أنظمة التفكير المنطقي"، وهي تقنيات طُورت خصيصاً لتعزيز قدرات الاستدلال والتفكير التحليلي في النماذج اللغوية. ورغم أن هذه الأنظمة أظهرت تحسناً في المهارات الرياضية، فإن معدلات الخطأ الناتجة عنها تزايدت. المشكلة لا تقتصر على الجوانب التقنية فقط، بل تمتد إلى تأثيرات واقعية خطيرة قد تطال الطلاب والباحثين والموظفين الذين يعتمدون على الذكاء الاصطناعي للحصول على إجابات دقيقة. ويمكن أن تؤدي هذه الأخطاء إلى قرارات خاطئة، أو خسائر مادية، أو حتى مشكلات قانونية وضرر في السمعة المؤسسية. وتنقل وكالة أسوشييتد برس عن دانييلا أمودي، رئيسة شركة "أنثروبيك" المطوّرة لنظام "كلود 2"، قولها: "لا أعتقد أن هناك أي نموذج اليوم لا يعاني بعض الهلوسة". وتشير البيانات إلى أن الهلوسات تتخذ عدة أشكال، من بينها: هلوسات واقعية، واستشهادات غير دقيقة، وتناقضات منطقية، واستنتاجات مغلوطة، إلى جانب هلوسات بصرية وأخرى ناتجة عن التحيّز السياقي أو البنيوي. في ورقة بحثية حديثة أصدرتها "أوبن إيه آي"، أشارت الشركة إلى الحاجة الماسة إلى أبحاث إضافية لفهم سبب استمرار هذه السلوكيات في الظهور. ويرجع ذلك جزئياً إلى صعوبة تتبع الآليات التي تتعلم بها هذه النماذج من كمّ هائل من البيانات يفوق قدرة البشر على الاستيعاب والتحليل. وفي مسعى للحد من هذه الإشكاليات، كشف معهد ماساتشوستس للتكنولوجيا (MIT) عن تقنية جديدة تُدعى "SimGen"، تهدف إلى مساعدة المدققين البشر في كشف هلوسات الذكاء الاصطناعي عبر تقديم مقتطفات محددة ترتبط مباشرة بالمصادر الأصلية، مثل خلايا معينة ضمن قواعد بيانات، ما يقلل وقت التحقق بنحو 20%. وفيما يتواصل تطوير هذه التقنيات، تظل مشكلة الهلوسة إحدى العقبات الجوهرية أمام دمج الذكاء الاصطناعي بطريقة آمنة وموثوقة في التطبيقات اليومية.

الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب
الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب

الاتحاد

time١٠-٠٥-٢٠٢٥

  • علوم
  • الاتحاد

الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب

أشار تقرير حديث إلى أن مشكلة "الهلوسات" في نماذج الذكاء الاصطناعي – وهي المصطلحات الأنيقة التي تُستخدم لوصف المعلومات الملفقة التي تقدمها النماذج على أنها حقائق – تزداد سوءًا مع تطور هذه النماذج، وليس العكس. اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع! وبحسب نيويورك تايمز، فإن النماذج الجديدة المصممة لتقديم "تفكير منطقي" قبل الإجابة، مثل نماذج OpenAI وGoogle الحديثة، تُظهر معدلات أعلى من الأخطاء والادعاءات الكاذبة. على سبيل المثال، نموذج o4-mini من OpenAI هلوس بنسبة 48٪ في اختبارات الدقة الداخلية، بينما بلغت هلوسات نموذج o3 حوالي 33٪، أي ضعف معدل الأجيال السابقة. اقرا ايضاً.. روبوتات تتنكر كبشر وتخدع آلاف المستخدمين! وتزداد خطورة المشكلة بسبب فشل الشركات المطورة في فهم السبب الحقيقي وراء هذه الظاهرة، وهو ما يكشف عن ضعف الفهم العميق لكيفية عمل هذه النماذج حتى من قبل مبتكريها. ويضيف خبراء أن الاعتماد المتزايد على البيانات الاصطناعية (المولدة بالذكاء الاصطناعي نفسه) في تدريب النماذج الجديدة قد يزيد المشكلة سوءًا، مع تراجع العائد من كل جيل جديد من النماذج. اقرأ أيضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية ومع ضخ عشرات المليارات من الدولارات في تطوير البنية التحتية لنماذج أكثر تطورًا، تواجه الصناعة الآن معضلة محورية: المزيد من القوة لا يعني بالضرورة المزيد من الموثوقية. إسلام العبادي(أبوظبي)

OpenAI تطلق نسخة خفيفة من البحث العميق لتحسين تجربة المستخدمين
OpenAI تطلق نسخة خفيفة من البحث العميق لتحسين تجربة المستخدمين

خبر صح

time٢٨-٠٤-٢٠٢٥

  • خبر صح

OpenAI تطلق نسخة خفيفة من البحث العميق لتحسين تجربة المستخدمين

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي: OpenAI تطلق نسخة خفيفة من البحث العميق لتحسين تجربة المستخدمين - خبر صح, اليوم الاثنين 28 أبريل 2025 09:57 مساءً في خطوة جديدة نحو تحسين تجربة مستخدميها، أعلنت شركة OpenAI عن إطلاق نسخة "خفيفة الوزن" من ميزة البحث العميق في ChatGPT، والتي ستكون متاحة اعتبارًا من اليوم. هذه النسخة تستهدف المستخدمين في الخطط المجانية وكذلك المشتركين في ChatGPT Plus وTeam وPro، وتعد بديلاً أقل تكلفة مقارنة بالإصدار الكامل. ورغم تقليص حجم النموذج المستخدم، يضمن الإصدار الجديد تقديم ردود مختصرة ولكن دقيقة وذات عمق تحليلي، مما يتيح للمستخدمين الاستفادة من الميزة دون التأثير الكبير على الموارد. تفاصيل النسخة الخفيفة تعتمد النسخة الجديدة على نموذج o4-mini، الذي يسمح بزيادة حدود الاستخدام دون التضحية بجودة الأداء. ومع تجاوز حد الاستعلامات في النسخة الكاملة، يتم تلقائيًا تحويل الاستفسارات إلى النسخة الأخف، مما يسهم في الحفاظ على تجربة مستخدم سلسة دون انقطاع. وتُعد هذه الخطوة من OpenAI تلبية لاحتياجات العديد من المستخدمين، الذين يتطلعون إلى الحصول على تحليلات دقيقة وبأسعار أقل، خاصة في ظل المنافسة المتزايدة بين الشركات الكبرى في مجال الذكاء الاصطناعي. زيادة التنافس بين الشركات الكبرى إطلاق هذه النسخة يأتي في وقت حساس، حيث تزداد المنافسة بين الشركات الكبرى في عالم الذكاء الاصطناعي. فبينما تُواصل OpenAI تقديم تحسينات على أدواتها، تتسابق شركات مثل Google وMicrosoft وxAI في تقديم تقنيات بحث متقدمة مدعومة بالذكاء الاصطناعي، مثل "Grok" و"Copilot". جميع هذه الأدوات تسعى لتقديم تجارب بحث أكثر عمقًا وتحليلًا، مما يعزز قدرتها على تقديم تقارير دقيقة حول مواضيع معقدة. التوسع في المجالات التعليمية والتجارية من المنتظر أن تصل هذه الميزة الجديدة إلى المؤسسات التعليمية والشركات في الأسبوع المقبل، حيث ستتمكن هذه الفئات من الاستفادة من نفس مزايا وقدرات مستخدمي خطة Team. وتُعد هذه الخطوة جزءًا من استراتيجية OpenAI لتوسيع قاعدة مستخدميها وتمكين الباحثين، الطلاب، والمحترفين من الاستفادة من أداة البحث العميق بأسعار معقولة. تزايد الاهتمام بأدوات الذكاء الاصطناعي التوليدي في السنوات الأخيرة، شهدنا زيادة كبيرة في الاهتمام بأدوات الذكاء الاصطناعي التوليدي، خاصة في مجال تحليل المعلومات والمساعدة في الأبحاث. ومن خلال "البحث العميق"، الذي أصبح الآن أكثر قدرة على جمع وتحليل المعلومات من مصادر متعددة على الإنترنت، تتيح هذه الأدوات للمستخدمين الحصول على تقارير دقيقة ومدعومة بمصادر حقيقية، مما يجعلها أداة مفيدة للغاية في الأبحاث الأكاديمية والمهنية.

تحديث شات جي بي تي 4.0: ذكاء وشخصية أكثر تطوّرًا في انطلاقة جديدة
تحديث شات جي بي تي 4.0: ذكاء وشخصية أكثر تطوّرًا في انطلاقة جديدة

الدستور

time٢٨-٠٤-٢٠٢٥

  • الدستور

تحديث شات جي بي تي 4.0: ذكاء وشخصية أكثر تطوّرًا في انطلاقة جديدة

أعلنت شركة "أوبن إيه آي" عن إطلاق تحديث جديد ومهم لنموذجها الذكي "شات جي بي تي 4.0" (GPT-4.0)، معزّزًا قدراته في الذكاء الاصطناعي والشخصية، مما يجعل التفاعل مع التطبيق أكثر تطورًا وواقعية. جاء هذا الإعلان من قبل المدير التنفيذي لشركة أوبن إيه آي، سام ألتمان، عبر منصّة "إكس"، حيث أكد أنه تم تحسين الذكاء والشخصية معًا في الإصدار الجديد من النموذج. تحسينات كبيرة في الذكاء والشخصية رغم عدم تقديم تفاصيل دقيقة حول التحديث، أشار ألتمان إلى أن "شات جي بي تي" أصبح الآن أكثر قدرة على الفهم العميق للمحتوى والتفاعل بشكل أكثر مرونة، وهو ما يتماشى مع رؤية "أوبن إيه آي" في تطوير وكلاء محادثة أكثر تطورًا وتشابهًا بالبشر. هذا التحسين يهدف إلى تمكين الذكاء الاصطناعي من أداء محادثات أكثر تعقيدًا وفهمًا. تطبيقات متعددة للتحسينات الجديدة من المتوقع أن تكون هذه التحسينات مفيدة لمجموعة واسعة من التطبيقات التي تعتمد على الذكاء الاصطناعي، مثل خدمة العملاء، الكتابة الإبداعية، والتعليم. "شات جي بي تي 4.0" سيقدّم ردودًا أكثر دقة ووعيًا بالسياق، ما سيحسن التفاعل بين المستخدمين والنظام، ويعزز التجربة الشخصية للمستخدم. وبالإضافة إلى ذلك، أصبح النموذج قادرًا على استيعاب الإشارات العاطفية ودقائق المحادثة بشكل أفضل. تفاعل مع المستخدمين وأخذ ملاحظاتهم بعين الاعتبار في تفاعل مع أحد مستخدمي "إكس"، الذي أشار إلى أن "شات جي بي تي" أصبح مؤخرًا يبدو "مطواعًا جدًا"، عبّر ألتمان عن تفهمه لهذا التعليق، قائلًا: "نعم، يبدو أنه يتجنّب التعمّق كثيرًا في بعض الأحيان. سنعمل على إصلاح ذلك في التحديثات المقبلة." هذا يدل على التزام الشركة بتحسين استجابة النموذج وجعله أكثر قدرة على التعامل مع المحادثات المعقدة والعميقة. نماذج جديدة ضمن سلسلة "o": o3 وo4-mini بالتوازي مع تحديث "شات جي بي تي 4.0"، أطلقت "أوبن إيه آي" أيضًا نماذج جديدة ضمن سلسلة "o"، وهي o3 وo4-mini. تم تصميم هذه النماذج خصيصًا لتقديم تفكير أعمق وأكثر دقة قبل تقديم الردود. وتعتبر هذه النماذج من بين الأكثر تقدّمًا التي قدمتها "أوبن إيه آي" حتى الآن، وهي تمثل قفزة نوعية في قدرات "شات جي بي تي"، مما يجعلها مفيدة ليس فقط للمستخدمين العاديين، ولكن أيضًا للباحثين المتخصصين. تطوير مهارات التفكير المنطقي واستخدام الأدوات بفعالية تتمتع النماذج الجديدة بقدرة محسّنة على التفكير المنطقي، مع التركيز على تقديم إجابات دقيقة ومنظمة للأسئلة المعقدة. بالإضافة إلى ذلك، تتمكن هذه النماذج من استخدام جميع الأدوات المتاحة في "تشات جي بي تي" بشكل أكثر كفاءة، مثل التصفح عبر الإنترنت، تحليل البيانات باستخدام بايثون، تفسير الصور وإنشاء صور جديدة. وتم تدريب هذه النماذج على معرفة متى وكيفية استخدام هذه الأدوات بفعالية، مما يعزز قدرتها على تقديم إجابات سريعة ودقيقة، عادة في أقل من دقيقة. يعتبر تحديث "شات جي بي تي 4.0" خطوة كبيرة نحو جعل الذكاء الاصطناعي أكثر تطورًا وذكاءً. ومع إضافة نماذج o3 وo4-mini، تسعى "أوبن إيه آي" إلى توفير أدوات قوية للمستخدمين والباحثين، مما يجعل الذكاء الاصطناعي أداة أكثر كفاءة وفعالية في العديد من المجالات.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store