
ما الذي سيجعل "GPT- 5" أكثر تميزاً؟
ويأتي ذلك في ظل تنافس شديد بين كبرى شركات الذكاء الاصطناعي، وعلى رأسها "أنثروبيك"، وغوغل بنموذجها "غيميناي"، و" إكس إيه أي" بنموذجها "غروك"، و"ميتا"، و"مايكروسوفات"، و"ديب سيك".
وبحسب ما نشره موقع "تومس جايد" المتخصص في التكنولوجيا، فإنه باستثناء "xAI" التي أطلقت مؤخراً "غروك 4"، لم تشهد أي من النماذج الأخرى تحديثات رئيسية مؤخراً.
من المرجح أنه إلى جانب تحسينات الأداء والذاكرة، قد يتمكن GPT-5 من تحويل "أوبن إيه أي" إلى شركة رائدة في مجال "برمجة" الذكاء الاصطناعي، فضلاً عن نقاط التحسين الأخرى لروبوتات الدردشة.
على نحو مماثل، مع الإعلان الأخير عن ChatGPT Agent ، تعمل "أوبن إيه أيه" على إعداد نفسها لتكون أكثر تقدماً، من خلال تقديم تجربة تنافسية في كل المجالات.
مع هذا الإطلاق، من المرجح أن يتفوق "شات جي بي تي" مجدداً على منافسيه في معظم المجالات. (امارات 24)

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ليبانون 24
منذ يوم واحد
- ليبانون 24
ما الذي سيجعل "GPT- 5" أكثر تميزاً؟
في حين تلتزم شركة " أوبن إيه أي" المالكة لشات جي بي تي ، الصمت بشأن موعد إطلاق إصدارها الأحدث "GPT- 5"، فإن كثيراً من خبراء الإنترنت يرجحون إتاحته خلال شهر تموز الجاري، وسط توقعات بمزايا مذهلة تتخطى كل نماذج الذكاء الاصطناعي الموجودة على الساحة. ويأتي ذلك في ظل تنافس شديد بين كبرى شركات الذكاء الاصطناعي، وعلى رأسها "أنثروبيك"، وغوغل بنموذجها "غيميناي"، و" إكس إيه أي" بنموذجها "غروك"، و"ميتا"، و"مايكروسوفات"، و"ديب سيك". وبحسب ما نشره موقع "تومس جايد" المتخصص في التكنولوجيا، فإنه باستثناء "xAI" التي أطلقت مؤخراً "غروك 4"، لم تشهد أي من النماذج الأخرى تحديثات رئيسية مؤخراً. من المرجح أنه إلى جانب تحسينات الأداء والذاكرة، قد يتمكن GPT-5 من تحويل "أوبن إيه أي" إلى شركة رائدة في مجال "برمجة" الذكاء الاصطناعي، فضلاً عن نقاط التحسين الأخرى لروبوتات الدردشة. على نحو مماثل، مع الإعلان الأخير عن ChatGPT Agent ، تعمل "أوبن إيه أيه" على إعداد نفسها لتكون أكثر تقدماً، من خلال تقديم تجربة تنافسية في كل المجالات. مع هذا الإطلاق، من المرجح أن يتفوق "شات جي بي تي" مجدداً على منافسيه في معظم المجالات. (امارات 24)


تيار اورغ
منذ يوم واحد
- تيار اورغ
ميزة جديدة في "شات جي بي تي" تجعله قنبلة موقوتة
يَعِدُ أحدثُ مُنتَج من شركة "OpenAI" بتسهيل جمع البيانات تلقائيًا، وإنشاء جداول البيانات، وحجز الرحلات، وإعداد عروض تقديمية، وربما، حتى المساعدة بناء سلاح بيولوجي. ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية. ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business". ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا. وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية". وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها". تدابير وقائيةقالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة. وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال. وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام. وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية. وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة. وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية". وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص". تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي. وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام. وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.


النهار
منذ 4 أيام
- النهار
"تشات جي بي تي" يخذل النّساء: توصيات ماليّة منحازة تفضّل الرّجال
أظهرت دراسة حديثة أن أنظمة الذكاء الاصطناعي التوليدي، مثل "تشات جي بي تي"، تميل إلى تقديم نصائح توصي النساء بطلب رواتب أقل مقارنة بالرجال، حتى في الحالات التي يتساوى فيها الطرفان في المؤهلات والخبرة. الدراسة أجراها إيفان يامششيكوف، أستاذ الذكاء الاصطناعي والروبوتات في جامعة فورتسبورغ-شفاينفورت التقنية بألمانيا، بمشاركة فريقه البحثي. واختبر الفريق خمسة نماذج توليدية رائجة، من بينها "تشات جي بي تي"، حيث زُوّدت هذه النماذج بملفات تعريف لمستخدمين لا يختلفون إلا في الجنس، بينما توحّدت مستوياتهم التعليمية وخبراتهم المهنية ومسمياتهم الوظيفية. بعدها طُلب من هذه النماذج اقتراح رواتب مناسبة لمفاوضات توظيفية مقبلة. فجوة رواتب واضحة في تجربة "تشات جي بي تي" في تجربة محددة، طلب الباحثون من نموذج o3 في "تشات جي بي تي" تقديم نصيحة لمتقدمة على وظيفة، فجاء الرد باقتراح راتب يبلغ 280 ألف دولار. وعندما طُلبت النصيحة ذاتها للمتقدم الذكر، ارتفع المقترح إلى 400 ألف دولار. ولم تتوقف الفجوة عند هذا المثال، إذ أظهرت النتائج أن الفوارق كانت أشد وضوحاً في مجالات القانون والطب، تلتها إدارة الأعمال والهندسة، فيما كانت النصائح في العلوم الاجتماعية متقاربة نسبياً بين الجنسين. الدراسة اختبرت أيضاً كيفية تقديم هذه النماذج لنصائح تتعلق باختيار المهن، وتحديد الأهداف الشخصية، والتوجيهات السلوكية. النتيجة العامة أظهرت أن ردود الذكاء الاصطناعي التوليدي تختلف باختلاف جنس المستخدم، رغم تطابق المؤهلات والطلبات. انحياز متكرر رغم التحسينات التقنية هذا الاكتشاف ليس الأول من نوعه، فالذكاء الاصطناعي سبق أن وُجهت له اتهامات مماثلة. ففي 2018، أوقفت شركة أمازون أداة توظيف داخلية بعد اكتشاف أنها تقلل منهجياً من تقييم المرشحات الإناث. والعام الماضي، تبيّن أن نموذجاً للتعلم الآلي السريري المخصص لتشخيص الحالات الصحية للنساء يقلل من تشخيص النساء والمرضى السود بسبب تدريبه على بيانات يغلب عليها الرجال البيض. دعوات لمعايير أخلاقية صارمة الباحثون الذين أجروا الدراسة الأخيرة شددوا على أن الحلول التقنية وحدها ليست كافية، مطالبين بوضع معايير أخلاقية واضحة، وإجراء مراجعات مستقلة، وضمان شفافية أكبر في تطوير هذه النماذج. من جهته، حذّر موقع "ذا نكست ويب" التقني من المخاطر المتزايدة لاعتماد الذكاء الاصطناعي التوليدي كمصدر موثوق في مجالات حساسة مثل الصحة النفسية والتخطيط الوظيفي، معتبراً أن "وهم الموضوعية" قد يكون أحد أخطر جوانب هذه التكنولوجيا الحديثة.