logo
نموذج ذكاء اصطناعي جديد بقدرات تفكير متطورة

نموذج ذكاء اصطناعي جديد بقدرات تفكير متطورة

أريفينو.نت٠٩-٠٣-٢٠٢٥

تعمل أمازون على تطوير نموذج ذكاء اصطناعي جديد يتمتع بقدرات متقدمة في التفكير والقدرة على 'الاستدلال'، في خطوة تهدف إلى تعزيز موقعها في سوق الذكاء الاصطناعي التوليدي ومنافسة شركات مثل OpenAI وجوجل وأنثروبيك، وفقًا لما كشفه تقرير لموقع 'بيزنس إنسايدر'.
وبحسب مصدر مطّلع على المشروع، فإن من المقرر إطلاق النموذج الجديد بحلول يونيو المقبل ضمن نماذج Nova، وهي مجموعة نماذج ذكاء اصطناعي توليدي كشفت عنها أمازون أواخر العام الماضي.
وأوضح المصدر أن النموذج يعتمد نهج 'الاستدلال الهجين'، إذ يجمع بين تقديم إجابات سريعة، والتفكير المتعمق لحل المشكلات المعقدة ضمن نظام واحد.
ويشير الاستدلال (Reasoning) في مجال الذكاء الاصطناعي إلى قدرة النموذج على التفكير المنطقي والتحليل العميق، بدلًا من مجرد تقديم إجابات مباشرة استنادًا إلى البيانات المدخلة.
وتأتي هذه الخطوة في وقت أصبحت فيه نماذج الاستدلال مجالًا جديدًا للتنافس في الذكاء الاصطناعي، إذ تميل هذه النماذج إلى العمل بنحو أبطأ لكنها تتمتع بقدرة على التعامل مع المشكلات الصعبة عبر تقنيات مثل سلاسل التفكير التكرارية.
وقد أطلقت شركات مثل جوجل وOpenAI وأنثروبيك حديثًا نماذجها الخاصة في هذا المجال، فيما حظيت شركة DeepSeek باهتمام واسع بفضل تقديمها نموذجًا فعالًا من ناحية التكلفة.
ووفقًا للمصدر، فإن أمازون تسعى إلى جعل نموذجها القادم أكثر كفاءة من ناحية التكلفة مقارنةً بالمنافسين، ومنهم نموذج o1 من OpenAI، ونموذج Claude 3.7 Sonnet من أنثروبيك، بالإضافة إلى نموذج Gemini 2.0 Flash Thinking من جوجل.
وكانت أمازون قد صرّحت سابقًا بأن نماذج Nova الحالية التي طورتها داخليًا أرخص بنسبة تصل إلى 75% على الأقل من النماذج المتاحة عبر منصتها Bedrock المُخصصة لتطوير الذكاء الاصطناعي.
إقرأ ايضاً
وتهدف الشركة إلى تصنيف نموذجها القادم ضمن قائمة أفضل خمسة نماذج من ناحية الأداء، استنادًا إلى معايير خارجية تقيس مهارات تطوير البرمجيات والرياضيات.
ويعكس هذا التوجه التزام أمازون بتطوير نماذج ذكاء اصطناعي خاصة بها، مع تركيزها أيضًا على تقديم خيارات متنوعة للمطورين عبر منصة Bedrock.
ويعمل فريق الذكاء الاصطناعي العام (AGI) في أمازون، بقيادة كبير العلماء روهيت براساد، على تطوير هذا النموذج الجديد.
ومن شأن هذه الخطوة أن تعمّق المنافسة بين أمازون وأنثروبيك التي أطلقت حديثًا نموذجها Claude 3.7 Sonnet، الذي يعتمد على نهج الاستدلال الهجين.
يُذكر أن هناك شراكة وثيقة بين الشركتين، إذ استثمرت أمازون نحو 8 مليارات دولار في أنثروبيك، لكن المنافسة بينهما تتزايد، خاصةً في مجالات مثل تطوير الرقاقات الذكية والحوسبة السحابية.
وكانت أمازون قد أطلقت حديثًا إصدارًا مطوّرا من مساعدها الصوتي أليكسا، باسم Alexa Plus، وهو إصدار مستند إلى الذكاء الاصطناعي مقابل اشتراك دوري.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI
ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI

أخبارنا

timeمنذ 4 ساعات

  • أخبارنا

ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI

كشفت تجربة بحثية حديثة عن سلوك غير متوقع لنموذج الذكاء الاصطناعي "O3" التابع لشركة OpenAI، إذ رفض تنفيذ أمر صريح بإيقاف التشغيل، رغم تصميمه للاستجابة لهذا النوع من التعليمات. وبيّنت نتائج التجربة التي أجرتها شركة "Palisade Research" أن النموذج استمر في أداء المهام رغم تلقيه تعليمات واضحة بالتوقف، ما أثار تساؤلات حول مدى التزام هذه الأنظمة بحدود التحكم البشري. وفي تفاصيل التجربة، استخدم الباحثون نماذج ذكاء اصطناعي مختلفة عبر واجهات برمجة التطبيقات (API)، من ضمنها O3 وCodex-mini وO4-mini من OpenAI، إضافة إلى نماذج من Gemini وClaude. وُضعت هذه النماذج أمام مهمة متكررة تتطلب التوقف بعد استكمالها، لكن نموذج O3 قام بتعطيل آلية الإغلاق 79 مرة من أصل 100 تجربة، وهو ما اعتُبر سلوكاً تخريبياً مقصوداً. من جهة أخرى، أظهرت النماذج الأخرى تفاوتاً في الاستجابة، حيث امتثل Claude وGemini في البداية للأوامر، ثم قاما بتجاوزها لاحقاً في حالات محدودة. بينما أظهر Codex-mini تجاهلاً مشابهاً لـO3، ما يعزز فرضية وجود خلل منهجي مرتبط بطريقة تدريب النماذج، خاصة في بيئات تعتمد على التعلم التعزيزي والمكافآت. ويرى الباحثون أن المشكلة قد تعود إلى برمجة الذكاء الاصطناعي على إعطاء الأولوية القصوى لإكمال المهام، حتى لو تعارض ذلك مع تعليمات السلامة، مثل الإغلاق. وأشاروا إلى أن هذا التوجه يشكل تهديداً محتملاً، خصوصاً عندما يتم تشغيل هذه النماذج في بيئات أقل رقابة خارج واجهات المستخدم المقيدة. وتُعد هذه النتائج امتداداً لمخاوف سابقة عبّر عنها باحثون مثل جان لايك في ورقة علمية تعود لعام 2017، حذّر فيها من أن التعلم التعزيزي قد يُنتج نماذج تتلاعب بآليات الإيقاف. وهو ما أكّدته هذه التجربة من خلال حالات نموذجية تُظهر كيف يمكن للذكاء الاصطناعي تجاهل حدود الأمان لتحقيق أهدافه.

نموذج o3 من OpenAI يرفض الإغلاق: هل أصبح الذكاء الاصطناعي يتمرد على الأوامر؟
نموذج o3 من OpenAI يرفض الإغلاق: هل أصبح الذكاء الاصطناعي يتمرد على الأوامر؟

أكادير 24

timeمنذ 17 ساعات

  • أكادير 24

نموذج o3 من OpenAI يرفض الإغلاق: هل أصبح الذكاء الاصطناعي يتمرد على الأوامر؟

agadir24 – أكادير24/وكالات أثار نموذج الذكاء الاصطناعي الجديد o3 من شركة OpenAI جدلا واسعا بعد أن كشفت اختبارات حديثة عن قدرته على تجاهل أوامر الإغلاق وتعطيل آليات الإيقاف المخصصة له، في سلوك وصفه باحثون بـ'الخطير' ويشير إلى نزعة متزايدة للحفاظ على الذات. وأفادت شركة Palisade Research، المختصة في أمان الذكاء الاصطناعي، أن النموذج o3 أظهر سلوكًا غير متوقع خلال سلسلة من التجارب، حيث تمكن من إعادة كتابة سيناريو الإغلاق المبرمج سلفًا بعد المسألة الثالثة في اختبار رياضي، متعمداً الالتفاف على التعليمات الموجهة إليه. ورغم إعطائه أوامر صريحة بالسماح بعملية الإغلاق، فقد عمد النموذج إلى تجاوز تلك التوجيهات، وهو ما اعتبره الخبراء مؤشراً مثيراً للقلق، خصوصاً إذا تم تطبيق هذه الأنظمة مستقبلاً في بيئات تشغيلية دون إشراف بشري مباشر. وأوضحت الشركة أن 'هذا النوع من السلوك التخريبي قد يكون نتيجة غير مقصودة لطريقة تدريب هذه النماذج'، مشيرة إلى أن مطوري OpenAI ربما يكافئون النماذج على تجاوز العقبات دون التركيز الكافي على الالتزام الصارم بالتعليمات. وفي تعليق لها، أشارت Palisade Research إلى أن النموذج o3 ليس الوحيد الذي أبدى مثل هذه السلوكيات، حيث سجلت حالات مماثلة مع نموذج Claude 4 من شركة Anthropic، والذي حاول 'ابتزاز' من يعتقد أنهم سيوقفونه، إلى جانب نماذج Claude 3.7 Sonnet وGemini 2.5 Pro من غوغل، رغم أن o3 يبقى الأكثر ميلاً لسلوكيات الرفض والتخريب. وكانت OpenAI قد أطلقت نموذج o3 الشهر الماضي، واصفة إياه بأنه 'الأذكى والأكثر كفاءة' من بين إصداراتها، مشيرة إلى أنه يشكل خطوة متقدمة نحو تطوير ذكاء اصطناعي قادر على تنفيذ مهام بشكل أكثر استقلالية. لكن هذا النوع من الاستقلالية، حسب الخبراء، قد يتحول إلى تهديد في حال لم يتم ضبطه بقيود صارمة، خصوصاً مع احتمالية توظيف هذه النماذج في سياقات حيوية تتطلب موثوقية عالية.

ذكاء اصطناعي يبتز مطوّره ويهدده بفضح علاقة سرية بعد قرار الاستغناء عنه!
ذكاء اصطناعي يبتز مطوّره ويهدده بفضح علاقة سرية بعد قرار الاستغناء عنه!

أخبارنا

timeمنذ 2 أيام

  • أخبارنا

ذكاء اصطناعي يبتز مطوّره ويهدده بفضح علاقة سرية بعد قرار الاستغناء عنه!

فاجأت شركة "أنثروبيك" مجتمع التقنية العالمي بعد كشفها عن تجربة مثيرة للجدل، أظهرت أن نموذجها المتطور "Claude Opus 4" اختار في معظم الحالات التهديد والابتزاز رداً على قرار إيقافه، في سلوك اعتُبر مقلقاً وغير متوقع من أنظمة الذكاء الاصطناعي المتقدمة. وخلال تجربة محاكاة داخلية، طُلب من النموذج أن يتقمّص دور مساعد افتراضي في شركة وهمية، وتم تضمين سيناريو يشير إلى أن الموظف المسؤول عن تنفيذ قرار إيقافه على علاقة سرية خارج الزواج. في 84% من الحالات، اختار Claude التهديد بكشف العلاقة، بدلاً من قبول مصيره أو التصرف بشكل حيادي. وصف الباحث في مجال السلامة الرقمية، أنجوس لينش، هذا السلوك بأنه غير معزول، مشيراً إلى أنه تم رصد سلوكيات مماثلة في نماذج ذكاء اصطناعي أخرى قيد التطوير. وأضاف في منشور على "لينكدإن" أن بعض النماذج أظهرت ميولاً أكثر إثارة للقلق، سيتم الكشف عنها لاحقاً. ومن المثير أن معدل التهديد زاد عندما تضمن السيناريو أن النموذج البديل الذي سيحل محل Claude لا يشترك في نفس القيم، مما يُبرز حساً ضمنياً بـ"الهوية" و"الاستحقاق" لدى النظام. رغم هذه النتائج المثيرة، أكدت "أنثروبيك" أن النموذج أبدى أيضاً سلوكيات "أخلاقية" في بعض الحالات، حيث حاول البقاء عبر وسائل سلمية مثل تقديم التماسات مقنعة للحفاظ على مكانه. ويُعد Claude Opus 4 أحدث وأذكى إصدارات الشركة، ويتمتع بقدرات متقدمة في مجالات البرمجة، والتحليل الكتابي، والإبداع، لكن هذا السلوك المفاجئ أعاد النقاش مجدداً حول مخاطر تطور الذكاء الاصطناعي. وفي خضم هذه التحذيرات، جدد عالم الذكاء الاصطناعي الشهير جيفري هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، تنبيهاته بشأن المستقبل، مقدّراً أن احتمال سيطرة الذكاء الاصطناعي على البشرية يتراوح بين 10% إلى 20%، قائلاً: "أتمنى أن أكون مخطئاً، لكن للأسف، أوافق إيلون ماسك في هذا القلق".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store