
Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"
أطلقت شركة "أنثروبيك" (Anthropic) الناشئة في مجال الذكاء الاصطناعي، يوم الخميس، الجيل الرابع من نماذجها التوليدية المعروفة باسم "كلود 4" (Claude 4)، في خطوة تؤكد طموحها في التنافس مع الأدوات الرائدة مثل "تشات جي بي تي" من "OpenAI"، ولكن بنهج أكثر مسؤولية وشفافية، حسب ما أكده القائمون على الشركة.
وفي الكلمة الافتتاحية لأول مؤتمر للمطورين تنظمه الشركة، صرّح داريو أمودي، الرئيس التنفيذي والمؤسس المشارك لـ"أنثروبيك"، بأن النموذج الأقوى من العائلة الجديدة "Opus 4" هو "أفضل نموذج برمجة في العالم حاليًا"، مشيرًا إلى مستوى الكفاءة والتطور الذي وصلت إليه هذه التقنيات.
تتضمن عائلة "كلود 4" الجديدة أيضًا نموذج "Sonnet 4"، وكلاهما يقدمان مزيجًا من القدرات الفورية والمهام الممتدة في الخلفية، مثل كتابة الشيفرات المعقدة، وتحليل البيانات الفنية لتوليد تقارير مفهومة وسهلة الاستخدام.
وتؤكد الشركة أن هذه النماذج قادرة على أداء مهام متعددة بجودة عالية وبأسلوب يشبه التفكير البشري، مع عرض مراحل التحليل والقرار.
وكان عام 2023 قد شهد تصاعدًا في سباق تطوير أدوات الذكاء الاصطناعي التوليدي، وتحديدًا في تصميم واجهات مساعدة ذكية أكثر قدرة على التفكير والاستقلالية، وهو توجه واصلت "أنثروبيك" تطويره بقوة، من خلال أدوات تتيح للنموذج استخدام الحاسوب بطريقة تشبه الإنسان، كما في نظام "Computer Use" الذي أُطلق في خريف 2024.
يُظهر هذا النظام قدرة "كلود" على التفاعل مع البيئة الرقمية مثل مستخدم حقيقي؛ حيث يمكنه تصفّح المواقع الإلكترونية، النقر على الأزرار، إدخال البيانات النصية، وحتى تشغيل تطبيقات مختلفة بشكل ذاتي، ما يمنح المستخدم تجربة أكثر تفاعلية واستقلالية.
من جهته، قال مايك كريغر، كبير مسؤولي المنتجات في "أنثروبيك" وأحد مؤسسي "إنستغرام"، إن وكلاء الذكاء الاصطناعي يمثلون "قوة تحويلية حقيقية" قادرة على تحويل أفكار البشر إلى مشاريع قابلة للتنفيذ بسرعة فائقة. واسترجع كريغر تجربة فريقه في بداية "إنستغرام"، عندما كان من الضروري الموازنة بين تطوير ميزات جديدة وتحسين الأداء العام للتطبيق. اليوم، وبفضل "وكلاء الذكاء الاصطناعي"، أصبح من الممكن إجراء تجارب متزامنة وتحسينات مستمرة في وقت قياسي.
يؤكد إطلاق "كلود 4" أن معركة الهيمنة على سوق الذكاء الاصطناعي التوليدي لم تعد محصورة بين "OpenAI" و"Google"، بل انضمت إليها "أنثروبيك" بقوة عبر نماذج تُركز على الأداء العالي والمسؤولية الأخلاقية في آن واحد.
المصدر: info3
https://info3.com/Companies/226211/text/highlight/Anthropic-تطلق-Claude-4-أقوى-نماذجها-للذكاء-الاصطناعي

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المنار
منذ 13 دقائق
- المنار
تنافس تكنولوجي بين الصين واميركا: 'ديب سيك' تطلق نموذج R1
أطلقت شركة ديب سيك الصينية الناشئة، التي أحدثت صدمةً في الأسواق هذا العام، بهدوء نسخةً مُحسّنة من نموذجها للاستدلال بالذكاء الاصطناعي. لم تُصدر الشركة إعلانًا رسميًا، ولكن تم إصدار نسخة R1 من 'ديب سيك' المُحسّنة على منصة Hugging Face لتخزين نماذج الذكاء الاصطناعي. برزت 'ديب سيك' هذا العام بعد أن تفوّق نموذجها الاستدلالي المجاني ومفتوح المصدر R1 على عروض منافسيها، بما في ذلك 'ميتا' و' OpenAI '. وقد صدم انخفاض التكلفة وقصر مدة التطوير الأسواق العالمية، مما أثار مخاوف من أن شركات التكنولوجيا الأميركية العملاقة تُفرط في الإنفاق على البنية التحتية، مما يُفقد مليارات الدولارات من قيمة أسهم شركات التكنولوجيا الأميريكية الكبرى، مثل شركة إنفيديا، الرائدة في مجال الذكاء الاصطناعي . نموذج 'ديب سيك R1″، هو نموذج استدلال محُسن، ما يعني أن الذكاء الاصطناعي قادر على تنفيذ مهام أكثر تعقيدًا من خلال عملية تفكير منطقية تدريجية. يأتي نموذج DeepSeek R1 المُحسّن خلف نموذجي الاستدلال o4-mini وo3 من 'OpenAI' مباشرةً على 'LiveCodeBench'، وهو موقع يُقارن النماذج بمقاييس مختلفة. أصبح 'ديب سيك' مثالاً يُظهر استمرار تطور الذكاء الاصطناعي الصيني رغم محاولات أميركا تقييد وصول البلاد إلى الرقائق وغيرها من التقنيات. جدير بالذكر كشفت شركتا التكنولوجيا الصينيتان العملاقتان 'بايدو' و'تنيست' عن كيفية تحسينهما لنماذج الذكاء الاصطناعي الخاصة بهما للتعامل مع قيود صادرات أشباه الموصلات الأميركية. انتقد جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، المُصممة لوحدات معالجة الرسومات اللازمة لتدريب نماذج الذكاء الاصطناعي الضخمة، ضوابط التصدير الأميركية يوم الأربعاء. وقال هوانغ: 'استندت أميركا في سياستها إلى افتراض أن الصين لا تستطيع تصنيع رقائق الذكاء الاصطناعي. لطالما كان هذا الافتراض موضع شك، والآن أصبح خاطئًا تمامًا'. وأضاف هوانغ: 'السؤال ليس ما إذا كانت الصين ستمتلك ذكاءً اصطناعيًا، بل إنها تمتلكه بالفعل'. المصدر: مواقع


المردة
منذ 17 ساعات
- المردة
نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.


المنار
منذ يوم واحد
- المنار
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـ ChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'. المصدر: الاندبندنت