
أمازون تكشف عن Nova Act": وكيل ذكاء اصطناعي لتصفح الإنترنت
بدأت أمازون اختبار نموذج الذكاء الاصطناعي الجديد 'Nova Act'، المصمم لأداء مهام داخل المتصفح، مثل التسوق عبر الإنترنت.
وتتيح الشركة نموذجها الجديد حاليًا للمطورين فقط في إطار 'معاينة بحثية'، وتعمل الشركة على توسيع نطاق الوصول إلى نماذج الذكاء الاصطناعي الأخرى من سلسلة 'Nova' عبر بوابة إلكترونية جديدة، مما يسهل العثور عليها واستخدامها.
ويتيح نموذج 'Nova Act' إمكانيات مشابهة لوكيل 'Operator' من OpenAI، إذ يمكنه تنفيذ عمليات البحث في الويب، وإتمام عمليات الشراء، والإجابة عن استفسارات تتعلق بالمحتوى الظاهر في الشاشة، مع إمكانية تنفيذ المهام وفقًا لجدول زمني محدد. كما يتمتع بقدرة على فهم تعليمات تفصيلية، مثل تجنّب عروض التأمين الإضافية أثناء الشراء.
ومع أن 'Nova Act' متاح حاليًا للمطورين فقط، فإن أمازون أكدت أنه بدأ بالفعل بتنفيذ بعض المهام ضمن النسخة المطورة من المساعد الذكي المتطور 'أليكسا بلس Alexa Plus'.
ويُعد 'Nova Act' أول منتج يطرحه مختبر الذكاء الاصطناعي العام (AGI) التابع لأمازون، الذي يطمح إلى تطوير وكلاء ذكاء اصطناعي قادرين على تنفيذ مهام متعددة الخطوات، مثل تنظيم حفلات الزفاف أو التعامل مع العمليات التقنية المعقدة لتعزيز الإنتاجية.
وتسعى أمازون إلى تقديم وكلاء ذكاء اصطناعي يتجاوزون مجرد الإجابة عن الأسئلة أو إنشاء المحتوى البصري، في ظل المنافسة المتزايدة مع شركات مثل OpenAI وميتا وأنثروبيك وجوجل التي تراهن على تقديم مساعدين قادرين على أداء المهام تلقائيًا.
وينضم 'Nova Act' إلى خمسة نماذج أخرى أعلنتها أمازون في ديسمبر الماضي، وهي تشمل ثلاثة نماذج متخصصة في الفهم اللغوي، إلى جانب نماذج لإنشاء الصور والفيديو.
وعلى عكس بعض المنافسين الذين يركزون على تقديم نماذج فائقة القوة، تروّج أمازون لسلسلة 'Nova' من خلال إبراز سرعتها وتكلفتها المنخفضة، إذ تؤكد أن استخدامها يقلل التكاليف بنسبة قدرها 75% على الأقل مقارنة بالبدائل الأخرى.
ولتوسيع نطاق الوصول، أطلقت أمازون موقعًا إلكترونيًا جديدًا يتيح للمطورين والمستخدمين استكشاف إمكانيات هذه النماذج والإجابة عن استفساراتهم أو توليد المحتوى مباشرة.
وكان الوصول إلى هذه النماذج متاحًا في السابق فقط عبر 'Amazon Bedrock'، منصة الذكاء الاصطناعي السحابية من أمازون، التي توفر أيضًا إمكانية استخدام نماذج أخرى من DeepSeek وأنثروبيك وميتا.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المردة
منذ ساعة واحدة
- المردة
نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.


المنار
منذ 7 ساعات
- المنار
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـ ChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'. المصدر: الاندبندنت


المنار
منذ 8 ساعات
- المنار
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح 'أكثر إثارة للقلق بشكل كبير' إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه 'أذكى وأكثر نماذج الشركة كفاءة' حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي 'أكثر استقلالية' يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول 'ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه'. وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ'السماح بإيقاف نفسه'، وفقا للباحثين. وقال خبراء Palisade Research: 'هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما'، موضحين أنه 'عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه'. ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من 'غوغل' أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن 'المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة'. وأضاف الخبراء: 'ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3'.