OpenAI تطلق GPT-4.1 الموجه للمبرمجين رسميًا
السوسنة- أعلنت شركة OpenAI عبر حسابها الرسمي على منصة X عن إطلاق نموذجي GPT-4.1 وGPT-4.1 mini داخل تطبيق ChatGPT.
ويُعد النموذج الجديد GPT-4.1 مخصصًا للمبرمجين، حيث يتميز – بحسب تصريح المتحدث باسم الشركة شاوكيي أمدو لموقع TechCrunch – بقدرات محسّنة في كتابة الكود وتصحيحه، مع أداء أسرع ودقة أعلى في اتباع التعليمات مقارنة بنموذج GPT-4o.
نموذج مدفوع وآخر مجانيحالياً، بدأت OpenAI في طرح النموذج لمشتركي الخطط المدفوعة، بينما سيكون الإصدار المُصغر GPT-4.1 mini متاحًا مجانًا لجميع الخطط بما في ذلك المجانية. ومن نتائج هذا التحديث، قررت الشركة إزالة نموذج GPT-4.o mini من التطبيق لجميع المستخدمين، كما ورد في بيان الإصدار الرسمي.اللافت أن النموذجين قد تم طرحهما منذ أبريل الماضي عبر واجهة برمجة التطبيقات الخاصة بالمطورين API، لكن دون توفرهما في التطبيق المباشر حينها. جرت تلك الخطوة وسط انتقادات من بعض الباحثين في مجال الذكاء الاصطناعي، الذين اعتبروا أن OpenAI بدأت تتهاون في معايير الشفافية الخاصة بالأمان.لكن OpenAI كان لها رأي آخر. إذ شدّدت على أن GPT-4.1، رغم تفوقه في الأداء والسرعة مقارنة بـ GPT-4o، لا يُعتبر من النماذج القوية جدًا (نماذج الصف الأول Frontier Models على حد وصفها)، وبالتالي لا يخضع لنفس المتطلبات الصارمة. رئيس أنظمة الأمان في OpenAI، يوهانس هايديكي، أوضح عبر منشور على X أن النموذج لا يُقدم طرق تفاعل جديدة أو قدرات تفوق نموذج o3 من حيث الذكاء، ما يجعل اعتبارات الأمان المرتبطة به أقل حدة.وفي محاولة لامتصاص موجة القلق، أعلنت OpenAI كذلك عن تدشين "مركز تقييمات الأمان Safety Evaluations Hub" الجديد، وهو منصة ستعرض من خلالها نتائج اختبارات الأمان الداخلية لجميع نماذجها، كجزء من التزامها المتزايد بالشفافية.الجدير بالذكر أن سوق أدوات البرمجة المعتمدة على الذكاء الاصطناعي يشهد اشتدادًا في المنافسة، خاصة وأن OpenAI باتت قريبة من الاستحواذ على Windsurf -أحد أبرز أدوات البرمجة بالذكاء الاصطناعي- مقابل 3 مليارات دولار، وذلك في نفس الوقت الذي قامت فيه Google بجعل Gemini أكثر تكاملًا مع مشاريع GitHub:

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

السوسنة
منذ 4 ساعات
- السوسنة
آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي
السوسنة- تسعى شركة آبل إلى تصحيح مسارها في مجال الذكاء الاصطناعي، بعد الإخفاقات التي صاحبت إطلاق مزاياها الأولى في هذا المجال خلال العام الماضي.ووفقًا لتقرير موسّع من وكالة بلومبرغ، تركّز جهود الشركة حاليًا على إعادة تصميم مساعدها الرقمي 'سيري' بالكامل، بإصدار جديد يعتمد على نماذج اللغة الكبيرة (LLM)، ويحمل داخليًا اسم 'سيري LLM'.وأشار التقرير إلى أن مشروع 'Apple Intelligence' واجه تحديات كبيرة، من أبرزها تردد كريج فيدريجي، رئيس قسم البرمجيات في آبل، في الاستثمار المبكر في تقنيات الذكاء الاصطناعي، إضافة إلى انطلاقة الشركة المتأخرة مقارنة بمنافسيها، حيث لم تبدأ آبل فعليًا تطوير المشروع إلا بعد إطلاق ChatGPT أواخر عام 2022. وأشارت بلومبرغ إلى أن جون جياناندريا، رئيس قسم الذكاء الاصطناعي في آبل، كان من المعارضين لفكرة المساعدات القائمة على الذكاء التوليدي، مؤكدًا لموظفيه أن المستخدمين غالبًا لا يرغبون في أدوات مثل ChatGPT، كما أن محاولات إدماج تقنيات الذكاء التوليدي في النسخة القديمة من سيري لم تُحقق النتائج المرجوة، وسط شكاوى من الموظفين بأن كل إصلاح تقني يتسبب بظهور مشكلات جديدة. ويبدو أن جياناندريا، الذي التحق بآبل قادمًا من جوجل عام 2018، لم يتمكن من التأثير في الدوائر القيادية للشركة، ولم يدافع بقوة للحصول على التمويل اللازم، بحسب التقرير. وقد اُستبعد جياناندريا من الإشراف على مشاريع سيري والروبوتات حديثًا، وسط حديث داخل الشركة عن توجه لوضعه على طريق التقاعد ، مع التخوف من مغادرة الفريق الذي جاء معه إلى آبل. وبهدف إنقاذ المشروع، تعمل آبل حاليًا على تطوير نسخة جديدة كليًا من سيري عبر فريق الذكاء الاصطناعي التابع لها في مدينة زيورخ، حيث تُبنى البنية الجديدة بالكامل على نموذج لغوي كبير لجعل المساعد أكثر قدرة على المحادثة، وفهم السياق، وتحليل المعلومات. وتسعى آبل إلى استخدام تقنيات تراعي الخصوصية، وتحسين جودة البيانات التي تُدرب بها نماذجها، من خلال مقارنتها محليًا مع رسائل البريد الإلكتروني للمستخدمين في أجهزة آيفون دون إرسال البيانات الأصلية إلى خوادمها. وتناقش الشركة أيضًا السماح لسيري الجديد بتصفح الإنترنت، وجمع البيانات من مصادر متعددة، مما يجعله أقرب إلى أدوات بحث ذكية مثل Perplexity، التي أشارت التقارير إلى أن آبل تدرس التعاون معها لإدماج مساعدها الذكي في سفاري. يُذكر أن آبل كانت قد بالغت في تسويق قدرات مزايا الذكاء الاصطناعي الخاصة بها Apple Intelligence عند إعلانها، خاصةً في ما يتعلق بتحسينات سيري، قبل أن تضطر لاحقًا إلى تأجيل إطلاق تلك المزايا. اقرأ المزيد عن:


الغد
منذ يوم واحد
- الغد
دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر
ذكرت دراسة جديدة أن الذكاء الاصطناعي يمكن أن يطور بشكل عفوي تقاليد اجتماعية مشابهة لتلك التي يتبعها البشر، حسبما ذكرت صحيفة "الجارديان". وأظهرت الدراسة المنشورة في مجلة "ساينس أدفانسيس" (Science Advances) أنه عندما يتواصل وكلاء الذكاء الاصطناعي الذين يعتمدون على النماذج اللغوية الكبيرة (LLM) مثل ChatGPT في مجموعات دون تدخل خارجي، يمكنهم البدء في تبنّي أشكال لغوية ومعايير اجتماعية بالطريقة نفسها التي يفعلها البشر أثناء تفاعلهم الاجتماعي. وقال المؤلف الرئيسي للدراسة، أرييل فلينت أشيري: "يختلف عملنا عن معظم الأبحاث السابقة التي تناولت الذكاء الاصطناعي، حيث كانت تلك الأبحاث تعتبر الذكاء الاصطناعي ككيان منفرد، بينما نحن نظرنا إليه ككائن اجتماعي". اضافة اعلان وأضاف أشيري: "معظم الأبحاث حتى الآن كانت تتعامل مع النماذج اللغوية الكبيرة بشكل منفصل، لكن أنظمة الذكاء الاصطناعي في العالم الحقيقي ستتضمن في المستقبل العديد من الوكلاء المتفاعلين معاً". وتابع: "أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من خلال تشكيل تقاليد، وهي اللبنات الأساسية للمجتمع؟ الجواب هو نعم، وما يفعلونه معاً لا يمكن تقليصه إلى ما يفعلونه بمفردهم". وتراوحت مجموعات الوكلاء الفرديين للنماذج اللغوية الكبيرة المستخدمة في الدراسة من 24 إلى 100 وكيل، وفي كل تجربة، تم إقران وكيلين عشوائياً، وطُلب منهما اختيار "اسم" من مجموعة من الخيارات، سواء كان حرفاً أو سلسلة من الرموز. عندما اختار الوكيلان الاسم نفسه، تم مكافأتهما، ولكن عندما اختارا خيارات مختلفة، تم معاقبتهما وعُرضت عليهما اختيارات بعضهما البعض. ورغم أن الوكلاء لم يكونوا على دراية بأنهم جزء من مجموعة أكبر، وأن ذاكرتهم كانت محدودة بتفاعلاتهم الأخيرة فقط، فإن تقليداً مشتركاً في التسمية نشأ بشكل عفوي عبر المجموعة دون وجود حل مُسبق، ما يحاكي المعايير التواصلية في الثقافة البشرية. التشابه مع البشر من جانبه، قال المؤلف المشارك في الدراسة، أندريا بارونشيلي، إن انتشار السلوك يشبه عملية خلق كلمات ومصطلحات جديدة في مجتمعنا. وأضاف بارونشيلي: "الوكلاء لا يقلدون قائداً. كلهم يحاولون التنسيق بنشاط، ودائماً في أزواج. كل تفاعل هو محاولة فردية للاتفاق على تسمية، دون أي رؤية شاملة". وتابع: "إنه يشبه مصطلح (Spam). لم يتم تعريفه رسمياً، ولكن من خلال جهود التنسيق المتكررة، أصبحت التسمية العالمية للبريد الإلكتروني غير المرغوب فيه". كما لاحظ الفريق تكوّن تحيزات جماعية بشكل طبيعي لا يمكن تتبعها إلى وكلاء فرديين. وفي تجربة أخيرة، تمكنت مجموعات صغيرة من وكلاء الذكاء الاصطناعي من توجيه المجموعة الأكبر نحو تقليد تسمية جديد. وتم الإشارة إلى ذلك على أنه دليل على ديناميكيات الكتلة الحرجة، حيث يمكن للأقلية الصغيرة، ولكن المصممة أن تؤدي إلى تغيير سريع في سلوك المجموعة بمجرد أن تصل إلى حجم معين، كما يحدث في المجتمع البشري. ورأى بارونشيلي أن الدراسة "تفتح أفقاً جديداً في أبحاث أمان الذكاء الاصطناعي. إنها تُظهر عمق تداعيات هذه الفئة الجديدة من الوكلاء الذين بدأوا في التفاعل معنا، وسيسهمون في تشكيل مستقبلنا". وأردف بالقول: "فهم كيفية عملهم هو المفتاح لقيادة تعايشنا مع الذكاء الاصطناعي، بدلاً من أن نكون خاضعين له. نحن ندخل إلى عالم حيث لا يقتصر الأمر على أن الذكاء الاصطناعي يتحدث فقط، بل يتفاوض، ويتناغم، وأحياناً يختلف بشأن السلوكيات المشتركة، تماماً كما نفعل نحن".- وكالات


جو 24
منذ 2 أيام
- جو 24
الدردشة مع "شات جي بي تي".. دعم نفسي من رفيق افتراضي
جو 24 : في عالم يزداد فيه الشعور بالوحدة، يقترح مارك زوكربيرغ، الرئيس التنفيذي لشركة "ميتا"، حلا قد يبدو غريبا للبعض وهو بناء صداقات مع الذكاء الاصطناعي. ففي لقاء بودكاست أخير، أشار زوكربيرغ إلى أن "الشخص الأميركي في المتوسط لديه أقل من 3 أصدقاء، بينما يحتاج فعليا إلى ما يقرب من 15 صديقا، معتبرا أن الذكاء الاصطناعي قد يسهم في سد هذه الفجوة الاجتماعية، خاصة مع تطور تقنيات التخصيص". ورغم تأكيده أن الذكاء الاصطناعي لا يهدف إلى استبدال الأصدقاء الحقيقيين، فإن اقتراحه بإمكانية استخدامه كصديقة أو حتى كمعالج نفسي أثار جدلا واسعا، حيث وصفه البعض بأنه "بعيد عن الواقع" أو حتى "ديستوبي" (ينذر بمستقبل كئيب). فالروابط الإنسانية، كما يرى الكثيرون، ليست مجرد تفاعل كلامي يمكن محاكاته برمجيا. ومع ذلك، تظل مشكلة الوحدة حقيقية وتزداد تفاقما، خصوصا بين المراهقين. ووفقا لدراسة أجراها مركز "غالوب" في عام 2023، يشعر نحو واحد من كل 4 أشخاص حول العالم بالوحدة بدرجة كبيرة أو متوسطة، أي ما يقرب من مليار شخص. ولعل هذا ما يدفع البعض للبحث عن بدائل جديدة، ولو كانت رقمية. الذكاء الاصطناعي كـ"رفيق رقمي" على منصات مثل تيك توك، تتزايد المقاطع التي تظهر استخدام أدوات الذكاء الاصطناعي، مثل "شات جي بي تي" (ChatGPT)، في التعامل مع الأزمات العاطفية. ففي أحد المقاطع، تطلب امرأة من الأداة مساعدتها في صياغة رسالة لزوجها تعبر فيها عن مشاعر الإهمال من دون أن تبدو غاضبة. في مقطع آخر، تروّج إحدى صانعات المحتوى لاستخدام الذكاء الاصطناعي كبديل أرخص للعلاج النفسي، معتبرة أنه "أداة متاحة لمن لا يستطيعون تحمّل تكاليف المعالجين الباهظة". هذا الاتجاه لا يقتصر على الترفيه، بل امتد ليشمل تطبيقات متخصصة. تطبيق "ريبليكا" (Replika) يقدم تجربة "رفيق عاطفي" قائم على الذكاء الاصطناعي من خلال محادثات مصممة لمحاكاة الدعم النفسي والشعوري، بينما تركز تطبيقات مثل "بيرد" (Paired) و"لاستينغ" (Lasting) على دعم الأزواج من خلال تمارين واختبارات لتحسين التواصل. أما "ووبوت" (Woebot)، فيقدم محتوى قائما على مبادئ "العلاج المعرفي السلوكي" (CBT)، لمساعدة المستخدمين في التعامل مع التوتر والمشكلات اليومية. ما الذي يجعل الذكاء الاصطناعي جذابا؟ بحسب الدكتورة جودي هو، المتخصصة في علم النفس العصبي السريري، فإن جاذبية هذه الأدوات تكمن في قدرتها على تقديم دعم فوري وسري، من دون أحكام أو تكاليف مالية باهظة. وتضيف لموقع هاف بوست الأميركي "العديد من الأشخاص يشعرون براحة أكبر في التفاعل مع الذكاء الاصطناعي لأنه لا يصدر أحكاما، ولا يحتاج إلى مواعيد، ولا يحملهم عبئا نفسيا". وتشير "هو" إلى أن هذه الأدوات تمثل ملاذا للأشخاص الذين يعانون من وصمة العلاج النفسي، أو لأولئك الذين يعيشون في بيئات تفتقر إلى مختصين نفسيين. ومن منظور تقني بحت، فإن الذكاء الاصطناعي قد يلعب دور "المستجيب الأولي" في التعامل مع الأزمات اليومية أو مشاعر الوحدة العابرة. هل يمكن أن يكون بديلا حقيقيا للعلاج؟ رغم بعض النتائج الإيجابية، مثل تلك التي كشفت عنها دراسة حديثة للباحث ستيفانو بونتوني من كلية وارتون، والتي وجدت أن التفاعل مع رفيق ذكي يمكن أن يقلل الشعور بالوحدة بنسبة تصل إلى 20%، فإن الخبراء يحذرون من الاعتماد المفرط على هذه الأدوات. وتحذر دكتورة "هو" من أن الذكاء الاصطناعي قد يُبسّط مشكلات معقدة، كالصدمات النفسية أو الخيانة أو الغضب المكبوت، عبر إجابات جاهزة لا تراعي الخصوصية العاطفية لكل حالة. في حين تشير كامنيا بوجواني، المتخصصة في التكنولوجيا العاطفية، إلى أن "الذكاء الاصطناعي لا يمتلك القدرة على قراءة مشاعر الإنسان بعمق، ولا يمكنه تقديم تعاطف حقيقي أو المساعدة في حالات الانتحار أو الاضطرابات النفسية الحادة". وتضيف: "الاعتماد المفرط على هذه الأدوات قد يؤدي إلى عزلة اجتماعية، أو إلى بناء علاقات غير صحية مع أدوات رقمية تعتبر بديلا للعلاقات الإنسانية". الخصوصية بعيدا عن الجوانب النفسية، هناك أيضا خطر كبير يتعلق بخصوصية البيانات. فخلافا للمعالجين النفسيين الملزمين بقوانين مثل "إتش آي بي إيه إيه" (HIPAA)، فإن أدوات الذكاء الاصطناعي لا تخضع لنفس الرقابة القانونية. ويحذر كريستوفر كوفمان، أستاذ مساعد في جامعة كاليفورنيا الجنوبية، من أن النماذج اللغوية قد تتعلم من تفاعلات المستخدم من دون علمه، مما يضع البيانات في "منطقة رمادية قانونيا وأخلاقيا". والذكاء الاصطناعي قد يشكل أداة مساعدة لمن لا يستطيع الوصول للعلاج التقليدي أو يحتاج إلى دعم فوري، لكنه لا يمكن أن يحل محل العلاقة الإنسانية أو العمق العلاجي الذي يقدمه متخصص بشري. وتبقى العلاقات العاطفية والنفسية جزءا من التجربة الإنسانية المعقدة، وهي تجربة يصعب اختزالها في خوارزميات، مهما تطورت. المصدر : مواقع إلكترونية تابعو الأردن 24 على