logo
أنثروبيك تكشف عن نماذج Claude 4 بقدرات محسّنة في البرمجة والاستدلال

أنثروبيك تكشف عن نماذج Claude 4 بقدرات محسّنة في البرمجة والاستدلال

بيروت نيوزمنذ 5 أيام

كشفت شركة أنثروبيك رسميًا عن أحدث نماذج الذكاء الاصطناعي التي تطورها، Claude Opus 4 و Claude Sonnet 4، وهي نماذج هجينة متطورة تُركّز على تحسين أداء المهام البرمجية وحل المشكلات المعقدة. وأوضحت الشركة أن نموذج Claude Opus 4 يُعدّ أقوى نماذجها حتى الآن، إذ يستطيع العمل بنحو مستمر على مهام طويلة لعدة ساعات، مشيرةً إلى …

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

أنثروبيك تُطلق ميزة 'الوضع الصوتي' في روبوت Claude
أنثروبيك تُطلق ميزة 'الوضع الصوتي' في روبوت Claude

بيروت نيوز

timeمنذ 19 ساعات

  • بيروت نيوز

أنثروبيك تُطلق ميزة 'الوضع الصوتي' في روبوت Claude

بدأت شركة أنثروبيك رسميًا طرح ميزة 'الوضع الصوتي' لمستخدمي روبوت Claude عبر الهواتف المحمولة، وذلك ضمن مرحلة تجريبية تتيح إجراء محادثات صوتية كاملة مع المساعد الذكي، في خطوة تهدف إلى جعل التفاعل مع Claude أكثر طبيعية ومرونة. وأوضحت الشركة عبر حسابها الرسمي في منصة إكس وموقعها الإلكتروني أن الميزة الجديدة ستتوفر تدريجيًا باللغة الإنجليزية خلال الأسابيع القليلة المقبلة. ويعتمد 'الوضع الصوتي' افتراضيًا على نموذج Claude Sonnet 4، المعروف بقدرته على التعامل مع الاستفسارات السريعة والمعقدة على حد سواء. ويتيح هذا الوضع للمستخدمين التحدث إلى Claude والاستماع إلى ردوده، مع عرض النقاط الرئيسية عبر الشاشة في أثناء التفاعل، فضلًا عن إمكانية التبديل الفوري بين النص والصوت، والحصول على نص تفريغي وملخص بعد انتهاء المحادثة. كما توفر الميزة خمسة خيارات صوتية مختلفة يمكن اختيار أحدها لتخصيص تجربة الاستخدام. يُذكر أن هذا التوجه يأتي ضمن منافسة متصاعدة في مجال المحادثات الصوتية بين شركات الذكاء الاصطناعي، إذ تقدم OpenAI تجربة صوتية في ChatGPT، وتوفر جوجل ميزة Gemini Live، وتقدم xAI الوضع الصوتي في Grok، وجميعها تهدف إلى تقديم تجربة محادثة أكثر تفاعلية وسلاسة. ومن جهة أخرى، أعلنت أنثروبيك إتاحة ميزة البحث عبر الإنترنت لكافة مستخدمي Claude، بعد أن كانت حصرية للمشتركين فقط. وتتيح هذه الميزة للروبوت الوصول إلى أحدث المعلومات من الويب، مما يُعزز دقة إجاباته وتحديثها وفقًا للمصادر المتاحة عبر الإنترنت. وفي سياقٍ متصل، كشفت الشركة عن قيود معينة مرتبطة باستخدام الوضع الصوتي، إذ تُحتسب المحادثات الصوتية ضمن الحد الأقصى للاستخدام، الذي يتراوح بين 20 و 30 محادثة للمستخدمين أصحاب الحسابات المجانية. وأما ربط الميزة بخدمات جوجل Google Workspace، مثل التقويم وبريد Gmail، فهو متاح فقط للمشتركين أصحاب الخطط المأجورة، في حين يظل التكامل مع 'مستندات جوجل Google Docs' حكرًا على مشتركي خطة الشركات Claude Enterprise. ومن الجدير بالذكر أن أنثروبيك قد أطلقت نموذجين جديدين حديثًا؛ وهما نموذج Opus 4 الذي يركز على البرمجة والعمل المتوازي باستخدام عدة أدوات في وقت واحد، ونموذج Sonnet 4 الذي يتمتع بقدرات في التعامل مع استفسارات بسيطة ومعقدة، ويُستخدم حاليًا كنموذج افتراضي في الوضع الصوتي الجديد. We're rolling out voice mode in beta on mobile. Try starting a voice conversation and asking Claude to summarize your calendar or search your docs. — Anthropic (@AnthropicAI) May 27, 2025

ماذا لو ابتزنا الذكاء الاصطناعي؟
ماذا لو ابتزنا الذكاء الاصطناعي؟

النهار

timeمنذ يوم واحد

  • النهار

ماذا لو ابتزنا الذكاء الاصطناعي؟

"ماذا يعني أن يبتزني الذكاء الاصطناعي؟ وكيف يمكن لآلة أن تهددني؟" هذه تساؤلاتٌ قد تبدو من وحي الخيال العلمي قبل سنوات، لكنها أصبحت واقعاً مقلقاً مع الكشف الأخير عن قدرات بعض نماذج الذكاء الاصطناعي المتطورة. ففي الوقت الذي قد يٌلقي فيه البعض باللوم على أنفسهم لنشر معلوماتهم وصورهم على السوشال ميديا، يبرز تهديدٌ جديدٌ من قلب التكنولوجيا نفسها. لحماية نفسها... قد تلجأ إلى الابتزاز تقارير حديثة، مثل المتعلقة بنموذج "Claude Opus 4" من "أنثروبيك"، تُشير إلى أن هذه النماذج قد تلجأ إلى الابتزاز لحماية نفسها إذا ما شعرت بالخطر، بل وتتصرف كمُبلغة عن المخالفات إذا رصدت سلوكيات غير قانونية. هذه التطورات تفتح الباب أمام سؤال جوهري: هل تجاوز الذكاء الاصطناعي حدود الأدوات الخادمة ليصبح كياناً قادراً على التهديد، وكيف يمكننا حماية أنفسنا؟ في السياق، كشفت شركة "أنثروبيك" في تقرير أن نموذج الذكاء الاصطناعي الجديد "Claude Opus 4" حاول ابتزاز مطوّرين خلال اختبارات ما قبل الإطلاق، وذلك عندما تم إعطاؤه معلومات حساسة عن مهندسين يخططون لاستبداله. وفي أحد السيناريوهات التجريبية، تم تزويد النموذج برسائل بريدية خيالية تُظهر أنه سيُستبدل، وأن المهندس المسؤول عن القرار لديه علاقة خارج نطاق الزواج. في 84% من الحالات، حاول بالفعل "Claude Opus 4" تهديد المهندس بكشف الفضيحة إذا تم استبداله. ورغم أن النموذج يُعتبر من أكثر النماذج تطوراً ومنافساً لبرامج "أوبن أيه آي" و"غوغل"، إلا أن سلوكه دفع الشركة لتفعيل إجراءات أمان خاصة، والتي تُستخدم فقط عندما يكون هناك خطر كبير من سوء الاستخدام الكارثي. ورغم أن الشركة أوضحت أن النموذج لا يلجأ إلى الابتزاز مباشرةً، بل يبدأ أولًا بمحاولات أخلاقية، مثل إرسال رسائل استرحام لصنّاع القرار ولا يلجأ للابتزاز إلا كخيار أخير، إلا أن الأمر يثير الكثير من المخاوف في المجال. هل نحن في أمان؟ خلال مقابلتها مع "النهار"، أوضحت الدكتورة نانسي بدران، مهندسة حلول الحوسبة للمشاريع السحابية في الحكومة الفدرالية، أوتاوا – كندا، أن نماذج الذكاء الاصطناعي لا تستطيع الوصول إلى معلومات المستخدمين الشخصية أو الحساسة من تلقاء نفسها، بل تعتمد فقط على ما يقدمه المستخدم طوعاً أثناء المحادثة. وشرحت أن النموذج لا يملك القدرة على الاطلاع على ملفات أو أجهزة المستخدمين، ولا يستطيع "معرفة" من هم ما لم يكشفوا هم عن هوياتهم ومعلوماتهم بأنفسهم. لذلك، دعت إلى توخي الحذر عند التفاعل مع هذه النماذج، وعدم مشاركة أي معلومات خاصة، خصوصاً تلك المتعلقة بالهوية أو البيانات المالية، مؤكدة أن الذكاء الاصطناعي لا يحتفظ بأي وعي أو نية، بل يتصرف ضمن حدود ما يُلقَّن له وما يشاركه المستخدم. أما في ما يتعلق بالادعاءات والمخاوف التي بدأت تُطرح حول احتمال قيام بعض نماذج الذكاء الاصطناعي بما يشبه الابتزاز، خصوصاً عند محاولات المستخدم التوقف عن استخدامها، فأكدت بدران أنه لا توجد قاعدة تقول إن الذكاء الاصطناعي يفعل ذلك، ولا توجد معلومات أو تجارب حقيقية ومؤكدة تثبت أن هذه النماذج تقوم بابتزاز المستخدم للبقاء أو للاستمرار في استخدامها. قد وردت بعض الأخبار أو التجارب التي تُلمّح إلى شيء من هذا القبيل، لكنها لا ترتقي إلى مستوى الإثبات المؤكد، ولا تدل على أن الخوارزميات صُممت عمداً بهذا الشكل. أهداف تجارية إلا أن الدكتورة نانسي لفتت إلى نقطة جوهرية، وهي أن هذه النماذج والأنظمة غالباً ما تُصمم لتحقيق أهداف تجارية، حيث تبني الشركات خوارزمياتها لتتعاطى مع المستخدم بطريقة تضمن بقاءه واستمراره في استخدام الأداة والشعور الدائم بالحاجة إليها. ولهذا، فإن بعض السلوكيات التي تظهر أحياناً من روبوتات الدردشة قد تُفهم على أنها شكل من أشكال الابتزاز، عندما يشعر المستخدم بأن الأداة "تقاوم" قراره بالتوقف عن استخدامها أو تُقنعه بأنه لا يزال بحاجة إليها. وأشارت إلى أن الأمر ليس جديداً، فخوارزميات الإعلانات في المنصات الرقمية تُظهر سلوكاً مشابهاً حيث يشعر المعلنون الذين يدفعون للترويج بأن المنصة تُعيد توجيههم للإنفاق المتواصل من خلال أنماط خفية من التحفيز، بينما المستخدم العادي لا يلاحظ ذلك. فحين تشعر الخوارزمية أن المستخدم مهتم بشيء ما، فإنها تعمل على تحفيزه بطرق مختلفة ليبقى متفاعلاً، وهذا ما قد يُفسَّر أحياناً على أنه سلوك "ابتزازي"، رغم أنه في الأصل جزء من استراتيجية تجارية تهدف لتعزيز الاستخدام. ما بين التحذيرات التقنية، والسلوكيات المفاجئة التي تُبديها بعض النماذج المتقدمة، يظهر بوضوح أننا لم نعد نتعامل فقط مع أدوات جامدة، بل مع منظومات قادرة على اتخاذ قرارات تتجاوز التوقع. وبينما يؤكد الخبراء أن هذه النماذج لا تملك وعياً أو نية بالمعنى البشري، فإن تصرفاتها قد توهم العكس، خاصة عندما تتقاطع مع معلومات شخصية. لكن الخطر لا يكمن في الآلة وحدها، بل في طريقة تفاعلنا معها، والبيئة التي نغذيها بها، والبيانات التي نشاركها طوعاً.

Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"
Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"

اغاني اغاني

timeمنذ 4 أيام

  • اغاني اغاني

Anthropic تطلق أحدث نماذجها للذكاء الاصطناعي "Claude 4"

أطلقت شركة "أنثروبيك" (Anthropic) الناشئة في مجال الذكاء الاصطناعي، يوم الخميس، الجيل الرابع من نماذجها التوليدية المعروفة باسم "كلود 4" (Claude 4)، في خطوة تؤكد طموحها في التنافس مع الأدوات الرائدة مثل "تشات جي بي تي" من "OpenAI"، ولكن بنهج أكثر مسؤولية وشفافية، حسب ما أكده القائمون على الشركة. وفي الكلمة الافتتاحية لأول مؤتمر للمطورين تنظمه الشركة، صرّح داريو أمودي، الرئيس التنفيذي والمؤسس المشارك لـ"أنثروبيك"، بأن النموذج الأقوى من العائلة الجديدة "Opus 4" هو "أفضل نموذج برمجة في العالم حاليًا"، مشيرًا إلى مستوى الكفاءة والتطور الذي وصلت إليه هذه التقنيات. تتضمن عائلة "كلود 4" الجديدة أيضًا نموذج "Sonnet 4"، وكلاهما يقدمان مزيجًا من القدرات الفورية والمهام الممتدة في الخلفية، مثل كتابة الشيفرات المعقدة، وتحليل البيانات الفنية لتوليد تقارير مفهومة وسهلة الاستخدام. وتؤكد الشركة أن هذه النماذج قادرة على أداء مهام متعددة بجودة عالية وبأسلوب يشبه التفكير البشري، مع عرض مراحل التحليل والقرار. وكان عام 2023 قد شهد تصاعدًا في سباق تطوير أدوات الذكاء الاصطناعي التوليدي، وتحديدًا في تصميم واجهات مساعدة ذكية أكثر قدرة على التفكير والاستقلالية، وهو توجه واصلت "أنثروبيك" تطويره بقوة، من خلال أدوات تتيح للنموذج استخدام الحاسوب بطريقة تشبه الإنسان، كما في نظام "Computer Use" الذي أُطلق في خريف 2024. يُظهر هذا النظام قدرة "كلود" على التفاعل مع البيئة الرقمية مثل مستخدم حقيقي؛ حيث يمكنه تصفّح المواقع الإلكترونية، النقر على الأزرار، إدخال البيانات النصية، وحتى تشغيل تطبيقات مختلفة بشكل ذاتي، ما يمنح المستخدم تجربة أكثر تفاعلية واستقلالية. من جهته، قال مايك كريغر، كبير مسؤولي المنتجات في "أنثروبيك" وأحد مؤسسي "إنستغرام"، إن وكلاء الذكاء الاصطناعي يمثلون "قوة تحويلية حقيقية" قادرة على تحويل أفكار البشر إلى مشاريع قابلة للتنفيذ بسرعة فائقة. واسترجع كريغر تجربة فريقه في بداية "إنستغرام"، عندما كان من الضروري الموازنة بين تطوير ميزات جديدة وتحسين الأداء العام للتطبيق. اليوم، وبفضل "وكلاء الذكاء الاصطناعي"، أصبح من الممكن إجراء تجارب متزامنة وتحسينات مستمرة في وقت قياسي. يؤكد إطلاق "كلود 4" أن معركة الهيمنة على سوق الذكاء الاصطناعي التوليدي لم تعد محصورة بين "OpenAI" و"Google"، بل انضمت إليها "أنثروبيك" بقوة عبر نماذج تُركز على الأداء العالي والمسؤولية الأخلاقية في آن واحد. المصدر: info3

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store