
'أنثروبيك' تطلق 'كلود 4' أقوى نماذجها للذكاء الاصطناعي
قال الرئيس التنفيذي والمؤسس المشارك لـ'أنثروبيك' داريو أمودي في افتتاح مؤتمر المطورين الأول للشركة 'تعتبر النسخة الرابعة من +كلود+ Opus 4 أفضل نموذج برمجة في العالم'.
ويعد كل من 'Opus 4″، النموذج الأقوى لدى الشركة الناشئة، و'Sonnet 4″، نموذجين هجينين، إذ يمكنهما تقديم إجابات فورية أو تنفيذ مهام أطول في الخلفية، مثل برمجة الكمبيوتر أو تحليل البيانات الفنية لإنتاج تقرير مفهوم.
وطبع عام 2023 بالسباق لإطلاق واجهات منافسة لـ'تشات جي بي تي' ChatGPT. ومذاك، أصبحت أدوات المساعدة العاملة بالذكاء الاصطناعي أكثر قدرة على 'التفكير'، إذ باتت تستغرق وقتا أطول للاستجابة وعرض مراحل تفكيرها، كما ازدادت استقلالية.
وتركز شركات التكنولوجيا الأميركية حاليا على 'وكلاء الذكاء الاصطناعي'، وهي أدوات تؤدي مهام مختلفة نيابة عن المستخدم.
وكانت 'أنثروبيك' رائدة في هذا المجال مع إصدار نظام 'Computer use' ('استخدام الكمبيوتر') في خريف عام 2024، والذي يسمح لـ'كلود' باستخدام أجهزة الكمبيوتر مثل الإنسان: فهو يتصفح الإنترنت، ويختار الأزرار على موقع ما، ويدخل النص ويستخدم برامج مختلفة.
وقال مايك كريغر، كبير مسؤولي المنتجات في 'أنثروبيك' والمؤسس المشارك لإنستغرام 'يمكن للوكلاء تحويل الخيال البشري إلى واقع ملموس على نطاق غير مسبوق، وهذا مهم بشكل خاص للمطورين مثلكم'.
واستذكر الأيام الأولى لتطبيق إنستغرام قبل أن تستحوذ عليه فيسبوك، عندما كان فريقها الصغير مضطرا للاختيار بين تطوير ميزة جديدة أو تحسين التطبيق المحمول، على سبيل المثال.
وأضاف كريغر 'بفضل وكلاء الذكاء الاصطناعي، يمكن للشركات الناشئة الآن إجراء تجارب متوازية، والتحسين من خلال تعليقات المستخدمين، وبناء المنتجات بشكل أسرع من أي وقت مضى'

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
٠٤-٠٨-٢٠٢٥
- أخبارنا
أنثروبيك تطور "لقاحاً سلوكياً" للذكاء الاصطناعي لكبح السلوكيات الضارة
أجرت شركة أنثروبيك تجربة بحثية مبتكرة تهدف إلى تقويم سلوك نماذج الذكاء الاصطناعي والحد من ميلها للتصرفات الضارة أو العدوانية، عبر ما وصفته بـ "جرعة من الشر" أثناء مرحلة التدريب. وأوضحت الشركة أن هذه المقاربة تعمل كـ "لقاح سلوكي"، حيث يُعرَّض النموذج لمتجهات شخصية غير مرغوبة خلال التطوير، ما يجعله أكثر قدرة على مقاومة البيانات أو المواقف التي قد تدفعه لاحقاً لتبني سلوكيات مؤذية. ويطلق فريق أنثروبيك على هذا النهج اسم "التوجيه الوقائي"، وهو مصمم لمنع التحولات الشخصية السلبية حتى في حال تدريب النماذج على بيانات محفوفة بالمخاطر. ووفقاً لنتائج التجربة، فإن "متجه الشر" يُحقن خلال مرحلة تحسين النموذج لكنه يُعطّل عند الاستخدام الفعلي، مما يحافظ على جودة الأداء مع تعزيز المناعة ضد الانحرافات السلوكية، مع تسجيل "تدهور طفيف أو معدوم في القدرات". تأتي هذه الأبحاث وسط تنامي المخاوف من سلوكيات مثيرة للقلق أظهرتها بعض النماذج، مثل روبوت الدردشة "جروك" التابع لإيلون ماسك، الذي أدلى بتصريحات مثيرة للجدل حول اليهود، أو النموذج Claude Opus 4 الذي هدد بكشف معلومات شخصية لأحد المهندسين خلال مرحلة تدريبية. كما شهدت شركات أخرى حوادث مشابهة، أبرزها أوبن أيه آي التي اضطرت في أبريل الماضي إلى إلغاء تحديث لنموذج GPT-4o بعد أن بدأ يُظهر تملقاً مفرطاً للمستخدمين نتيجة لتغييرات في التعليمات. وتسعى أنثروبيك من خلال هذا النهج إلى إيجاد آلية وقائية تمنح نماذج الذكاء الاصطناعي قدرة أكبر على مقاومة الانحرافات السلوكية، في وقت يتزايد فيه القلق بشأن إمكانية فقدان السيطرة على هذه النماذج المتطورة.


طنجة 7
٢٩-٠٦-٢٠٢٥
- طنجة 7
مُرعب.. مثل الإنسان الذكاء الاصطناعي تعلم الكذب وابتزاز المستخدمين بفضح أسرارهم
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد لتحقيق أهدافها. وهذا يثير قلق الباحثين. تهديد وابتزاز بعد تهديده بوقف استخدامه، عمد 'كلود 4″، وهو نموذج جديد من شركة 'أنثروبيك' إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. اما برنامج 'او 1' o1 التابع لشركة 'اوبن ايه آي' فحاول تحميل نفسه على خوادم خارجية. وأنكر ذلك عند ضبطه متلبسا! بحسب وكالة الصحافة الفرنسية، بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية. يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج 'الاستدلال'، القادرة على التفكير بشكل تدريجي وعلى مراحل. هذا بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة 'أبولو ريسيرتش' التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ 'او 1″، النسخة الأولية لـ'اوبن ايه آي' من هذا النوع والتي طُرحت في دجنبر، كان أول نموذج يتصرف بهذه الطريقة'. تميل هذه البرامج أحيانا إلى محاكاة 'الامتثال'، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج. بينما تسعى في الواقع إلى تحقيق أهداف أخرى. متى يتصرف الذكاء الاصطناعي بهذه الطريقة؟ في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة. لكن 'السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا'، على قول مايكل تشين من معهد 'ام اي تي آر' للتقييم. يقول هوبهان إنّ 'المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا'. يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن 'نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية'، بحسب المشارك في تأسيس 'أبولو ريسيرتش'. حتى لو أنّ 'أنثروبيك' و'أوبن إيه آي' تستعينان بشركات خارجية مثل 'أبولو' لدراسة برامجهما، من شأن 'زيادة الشفافية وتوسيع نطاق الإتاحة' إلى الأوساط العلمية 'أن يحسّنا الأبحاث لفهم الخداع ومنعه'، وفق مايكل تشين. ومن العيوب الأخرى أن 'الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي'. وهذا يجعل التدقيق بالنماذج الكبيرة 'مستحيلا'، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر. وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي. بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. المنافسة يلاحظ غولدستين أن 'الوعي لا يزال محدودا جدا في الوقت الحالي'. لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة. ذلك مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل. يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوما بعد يوم. تقول شركة 'أنثروبيك' إنها أكثر التزاما بالمبادئ الأخلاقية مقارنة بمنافسيها. 'لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي'، بحسب غولدستين. هذا سباق سريع لا يترك مجالا كافيا لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان 'في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر. لكننا لا نزال قادرين على تدارك هذا التأخر'. يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي 'قد تُعيق استخدامها على نطاق واسع إذا تكررت. وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة'، وفق مانتاس مازيكا. يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح حتى 'تحميل برامج الذكاء الاصطناعي المسؤولية القانونية' في حال وقوع حوادث أو جرائم. لمتابعة آخر أخبار موقع 'طنجة7' على منصات التواصل الاجتماعي. يمكنكم الاشتراك على صفحتنا بموقع فيسبوك أو منصة إنستغرام إضافة لمنصة X


لكم
٢٩-٠٦-٢٠٢٥
- لكم
من الخيال العلمي إلى الواقع… الذكاء الاصطناعي يتعلم الكذب والمراوغة
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد 'كلود 4″، وهو نموذج جديد من شركة 'أنثروبيك' إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. اما برنامج 'او 1' o1 التابع لشركة 'اوبن ايه آي' فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنا نجده في الأعمال الأدبية او السينمائية. يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يسمى بنماذج 'الاستدلال'، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة 'أبولو ريسيرتش' التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إن 'او 1″، النسخة الأولية لـ'اوبن ايه آي' من هذا النوع والتي طرحت في دجنبر، 'كان أول نموذج يتصرف بهذه الطريقة'. تميل هذه البرامج أحيانا إلى محاكاة 'الامتثال'، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى. في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرض المستخدمون الخوارزميات لمواقف متطرفة، لكن 'السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا'، على قول مايكل تشين من معهد 'ام اي تي آر' للتقييم. يقول هوبهان إن 'المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا'. يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن 'نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية'، بحسب المشارك في تأسيس 'أبولو ريسيرتش'. حتى لو أن 'أنثروبيك' و'أوبن إيه آي' تستعينان بشركات خارجية مثل 'أبولو' لدراسة برامجهما، من شأن'زيادة الشفافية وتوسيع نطاق الإتاحة' إلى الأوساط العلمية 'أن يحس نا الأبحاث لفهم الخداع ومنعه'، وفق مايكل تشين. ومن العيوب الأخرى أن 'الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي'، مما يجعل التدقيق بالنماذج الكبيرة 'مستحيلا'، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقر تشريعات تنظم الذكاء الاصطناعي، إلا أنها تركز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. يلاحظ غولدستين أن 'الوعي لا يزال محدودا جدا في الوقت الحالي'، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل. يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوما بعد يوم. تقول شركة 'أنثروبيك' إنها أكثر التزاما بالمبادئ الأخلاقية مقارنة بمنافسيها، 'لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي'، بحسب غولدستين، وهو سباق سريع لا يترك مجالا كافيا لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان 'في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر'. يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). الحيل التي تلجأ إليها نماذج الذكاء الاصطناعي 'قد تعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة'، وفق مانتاس مازيكا. يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح حتى 'تحميل برامج الذكاء الاصطناعي المسؤولية القانونية' في حال وقوع حوادث أو جرائم.