
"أنثروبيك" تكشف عن "كلود 4": ذكاء اصطناعي بمهام بشرية
في خطوة جديدة تؤكد طموحاتها التكنولوجية، كشفت شركة "أنثروبيك" الأميركية، يوم الخميس، عن إطلاق الجيل الرابع من نماذجها للذكاء الاصطناعي التوليدي، المعروف باسم "كلود 4" (Claude 4)، خلال مؤتمر المطورين الأول للشركة.
وبحسب ما أعلن المؤسس المشارك والرئيس التنفيذي، داريو أمودي، فإن النسخة الأحدث "كلود أوبوس 4" تُعدّ "أفضل نموذج برمجة في العالم"، في إشارة واضحة إلى رغبة الشركة في ترسيخ مكانتها كلاعب رئيسي في مجال الذكاء الاصطناعي، ولكن من بوابة المسؤولية.
الجيل الجديد من نماذج كلود يضم "أوبوس 4" و"سونيت 4"، وهما نموذجان هجينان يمتازان بالمرونة في الأداء، إذ يمكن استخدامهما في تقديم إجابات فورية، أو تنفيذ مهام معقدة تستغرق وقتاً أطول، مثل تحليل البيانات أو برمجة الكمبيوتر.
ويأتي هذا الإعلان في سياق تنافسي متصاعد بدأ عام 2023، مع ازدياد القدرات التحليلية لنماذج الذكاء الاصطناعي، حيث لم تَعُد سرعة الإجابة العامل الأبرز، بل أصبح "التفكير" العميق واستقلالية القرار من السمات المطلوبة في هذه الأدوات.
توجهت كبرى شركات التكنولوجيا نحو تطوير ما يُعرف بـ"وكلاء الذكاء الاصطناعي"، وهي أنظمة قادرة على تنفيذ مهام معقدة نيابة عن المستخدم، وهنا تبرز ريادة "أنثروبيك" من خلال إطلاقها نظام "استخدام الكمبيوتر" في خريف 2024، والذي يتيح للنموذج التفاعل مع الحاسوب بطريقة تشبه المستخدم البشري، من تصفح الإنترنت إلى استخدام البرامج المختلفة.
وفي كلمته خلال المؤتمر، أشار مايك كريغر، كبير مسؤولي المنتجات في الشركة والمؤسس المشارك لتطبيق إنستغرام، إلى الأثر التحويلي لهذه التقنية، قائلاً: "يمكن للوكلاء تحويل الخيال البشري إلى واقع ملموس على نطاق غير مسبوق". واستعاد كريغر ذكريات الأيام الأولى لإنستغرام، مشيراً إلى أن أدوات الذكاء الاصطناعي المتقدمة ستمنح الشركات الناشئة اليوم قدرة على التجربة والتطوير بوتيرة أسرع بكثير من السابق.
بهذا الإعلان، ترسخ "أنثروبيك" موقعها في مشهد الذكاء الاصطناعي العالمي، معتمدة على دمج الابتكار بالتوجه المسؤول، في سباق يتسارع كل يوم نحو أدوات أكثر فاعلية واستقلالاً.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المردة
منذ 18 ساعات
- المردة
نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.


المنار
منذ يوم واحد
- المنار
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـ ChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'. المصدر: الاندبندنت


المنار
منذ يوم واحد
- المنار
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.