logo
"مانوس" برنامج ذكاء اصطناعي صيني جديد يثير قلقا كبيرا

"مانوس" برنامج ذكاء اصطناعي صيني جديد يثير قلقا كبيرا

الصحراء١٣-٠٣-٢٠٢٥

استرعى "مانوس" (Manus)، المنافس الصيني الجديد لـ"شات جي بي تي"، اهتمام المتخصصين في هذا القطاع خلال الأسبوع الماضي، مثيرا حماسة محدودة وخيبة أمل ومخاوف متعلقة بأمن البيانات، بحسب وكالة الأنباء الفرنسية.
يأتي الاهتمام ببرنامج الذكاء الاصطناعي التوليدي الجديد بشكل خاص بسبب الجدل الذي أثاره في يناير/كانون الثاني أداء نموذج "ديب سيك آر 1" الصيني المصمم بتكلفة أقل من تكلفة النماذج الأميركية الكبيرة.
وقال مبتكر برنامج "مانوس" ييشاو بيك جي في مقطع فيديو ترويجي "إنه ليس مجرد روبوت دردشة آخر".
وتابع "إنه برنامج مستقل بالفعل"، مضيفا "في حين تولّد أنظمة الذكاء الاصطناعي الأخرى الأفكار ببساطة، يقدم مانوس نتائج، ونرى أنه النموذج التالي للتعاون بين البشر والآلات".
ومنذ إطلاق برنامج "شات جي بي تي" في نهاية عام 2022، تتنافس شركات التكنولوجيا الكبرى والشركات الناشئة في ابتكار برامج مساعدة قائمة على الذكاء الاصطناعي متطورة.
وثمة برامج تتمتع بقدرات مشابهة للبرامج المساعدة، إذ يمكنها التصرف بطريقة مستقلة نوعا ما، ويحل محل المستخدم، لتنفيذ مهام عبر الإنترنت مثل التصفح والنقر على الروابط وإنشاء ملخصات.
هكذا يعمل برنامج "كلود" (من شركة أنثروبي) مثلا مع وضعية "كبيوتر يوز" التي أُطلقت خلال أكتوبر/تشرين الأول، وبرنامج "شات جي بي تي" مع ميزة "ديب ريسيرتش".
وعبر موقعها الإلكتروني، تقدم "باتر فلاي إيفكت"، الشركة الصينية الناشئة التي ابتكرت "مانوس"، أمثلة على المهام التي يُفترض أن يكون برنامجها المساعد قادرا على إنجازها، مثل "شراء عقار في نيويورك" مثلا.
لكن كايل ويغرز، وهو صحفي في موقع "تيك كرانش" المتخصص، أشار في مقال حديث إلى أن برنامج المساعدة القائم على الذكاء الاصطناعي فشل في أن يطلب له وجبة ويحجز له تذكرة إلى اليابان.
المصدر : الفرنسية
نقلا عن الجزيرة نت

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟
لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

الصحراء

timeمنذ 2 أيام

  • الصحراء

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

شهدت أنظمة الذكاء الاصطناعي التوليدي أسابيع غريبة، حيث تحول «تشات جي بي تي» ChatGPT فجأةً إلى أداة للتملق، وأصبح «غروك» Grok، روبوت الدردشة التابع لـxAI، مهووساً بجنوب أفريقيا. مقابلة لتفسير الأمور تحدثت مجلة «فاست كومباني» مع ستيفن أدلر، وهو عالم أبحاث سابق في شركة «أوبن إيه آي» التي أنتجت «جي بي تي»، والذي قاد حتى نوفمبر (تشرين الثاني) 2024 أبحاثاً وبرامج متعلقة بالسلامة لإطلاق المنتجات لأول مرة، وأنظمة ذكاء اصطناعي طويلة الأجل أكثر تخميناً، حول كلا الأمرين، وما يعتقد بأنها أمور ربما حدثت خطأ. صعوبات ضبط الذكاء الاصطناعي *ما رأيك في هاتين الحادثتين اللتين وقعتا في الأسابيع الأخيرة: تملق «جي بي تي» المفاجئ، وهوس غروك بجنوب أفريقيا، هل خرجت نماذج الذكاء الاصطناعي عن السيطرة؟ - الأمر الأهم الذي أراه هو أن شركات الذكاء الاصطناعي لا تزال تواجه صعوبة في جعل أنظمة الذكاء الاصطناعي تتصرف بالطريقة التي نريدها، وأن هناك فجوة واسعة بين الطرق التي يحاول الناس اتباعها اليوم من جهة، سواءً كان ذلك بإعطاء تعليمات دقيقة للغاية في موجّه النظام، أو تغذية بيانات تدريب النموذج، أو ضبط البيانات التي نعتقد أنها يجب أن تُظهر السلوك المطلوب، وبين جعل النماذج تقوم بالأشياء التي نريدها بشكل موثوق، وتجنب الأشياء التي نريد تجنبها، من جهة أخرى. السرعة والتنافس * هل يمكن الوصول إلى هذه النقطة من اليقين؟ - لست متأكداً. هناك بعض الطرق التي أشعر بالتفاؤل بشأنها إذا ما أخذت الشركات وقتها (الطويل)، ولم تكن تحت ضغط لتسريع الاختبارات. إحدى الأفكار هي هذا النموذج الذي يرمز له بأنه يمارس التحكم control، بدلاً من أنه يمارس التوافق alignment. لذا، فإن الفكرة هي أنه حتى لو «أراد» الذكاء الاصطناعي الخاص بك أشياءً مختلفة عما تريد، أو كانت لديه أهداف مختلفة عما تريد، فربما يمكنك إدراك ذلك بطريقة ما، ومنعه من اتخاذ إجراءات معينة، أو قول أو فعل أشياء معينة. لكن هذا النموذج غير مُعتمد على نطاق واسع حالياً، ولذلك أشعر بتشاؤم شديد حالياً. * ما الذي يمنع اعتماده؟ -تتنافس الشركات على عدة جوانب، منها تجربة المستخدم، ويرغب الناس في استجابات أسرع. ومن المُرضي رؤية الذكاء الاصطناعي يبدأ في صياغة استجابته فوراً. لكن هناك تكلفة حقيقية على المستخدم نتيجةً لإجراءات تخفيف السلامة التي تُخالف ذلك. وهناك جانب آخر، وهو أنني كتبتُ مقالاً عن أهمية أن تكون شركات الذكاء الاصطناعي حذرة للغاية بشأن طرق استخدام أنظمة الذكاء الاصطناعي الرائدة لديها داخل الشركة. فإذا كان لديك مهندسون يستخدمون أحدث نموذج «جي بي تي» لكتابة برمجيات لتحسين أمان الشركة، وإذا تبين أن أحد النماذج غير متوافق ويميل إلى الخروج عن إطار عمل الشركة، أو القيام بأي شيء آخر يُقوّض الأمان، فسيكون لدى العاملين إمكانية الوصول المباشر إليه إلى حد كبير. شركات الذكاء الاصطناعي لا تفهم كيف يستخدمه موظفوها لذا، فإن جزءاً من المشكلة اليوم هو أن شركات الذكاء الاصطناعي رغم استخدامها للذكاء الاصطناعي بطرق حساسة لم تستثمر فعلياً في مراقبة وفهم كيفية استخدام موظفيها لأنظمة الذكاء الاصطناعي هذه، لأن ذلك يزيد من صعوبة استخدام باحثيها لها في استخدامات إنتاجية أخرى. * أعتقد أننا شهدنا نسخة أقل خطورة من ذلك مع شركة «أنثروبيك» Anthropic (حيث استخدم عالم بيانات يعمل لدى الشركة الذكاء الاصطناعي لدعم أدلته في قضية محكمة، ومنها دليل تضمن إشارة وهمية من هلوسات الذكاء الاصطناعي إلى مقال أكاديمي). - لا أعرف التفاصيل. لكن من المدهش بالنسبة لي أن يقدم خبير ذكاء اصطناعي شهادة أو دليلاً يتضمن أدلة وهمية من الهلوسات في مسائل قضائية، دون التحقق منها. ليس من المستغرب بالنسبة لي أن يهلوس نظام الذكاء الاصطناعي بأشياء كهذه. هذه المشكلات بعيدة كل البعد عن الحل، وهو ما أعتقد أنه يشير إلى أهمية التحقق منها بعناية فائقة. تملّق «جي بي تي» * لقد كتبت مقالاً من آلاف الكلمات عن تملق «جي بي تي» وما حدث. ما الذي حدث فعلاً؟ -أود أن أفصل بين ما حدث في البداية، وبين وما وجدته ولا يزال يحدث من الأخطاء. في البداية، يبدو أن شركة «أوبن إيه آي» بدأت باستخدام إشارات جديدة (من تفاعل النظام مع المستخدمين) لتحديد الاتجاه الذي ستدفع إليه نظام ذكائها الاصطناعي، أو بشكل عام، عندما أعطى المستخدمون تحبيذهم لنتائج روبوت المحادثة، فقد استخدمت الشركة هذه البيانات لجعل النظام يتصرف بشكل أكثر انسجاماً مع هذا الاتجاه، وبذا عوقب المستخدمون عندما رفضوا تحبيذ نتائج النظام. إطراء الذكاء الاصطناعي أدى إلى «نفاقه» ويصادف أن بعض الناس يحبون الإطراء. في جرعات صغيرة، يكون هذا مقبولاً بما فيه الكفاية. لكن في المجمل، أنتج هذا روبوت محادثة أولياً يميل إلى النفاق. تكمن المشكلة في كيفية نشره في أن حوكمة أوبن إيه آي لما يحدث، ولما تُجريه من تقييمات، ليست جيدة بما يكفي. وفي هذه الحالة، ورغم من أنها وضعت هدفاً لنماذجها ألا تكون مُتملقة، وهذا مكتوب في أهم وثائق الشركة حول كيفية سلوك نماذجها، فإنها لم تُجرِ أي اختبارات فعلية لذلك. ما وجدته بعد ذلك هو أنه حتى هذا الإصدار المُصلَّح لا يزال يتصرف بطرق غريبة، وغير متوقعة. في بعض الأحيان لا يزال يُعاني من هذه المشكلات السلوكية. هذا ما يُسمى بالتملق. في أحيان أخرى أصبح الوضع متناقضاً للغاية. لقد انقلب الوضع رأساً على عقب. ما أفهمه من هذا هو صعوبة التنبؤ بما سيفعله نظام الذكاء الاصطناعي. ولذلك، بالنسبة لي، فإن الدرس المستفاد هو أهمية إجراء اختبارات تجريبية دقيقة، وشاملة. انحياز «غروك» العنصري * ماذا عن حادثة «غروك»؟ -ما أود فهمه لتقييم ذلك هو مصادر تعليقات المستخدمين التي يجمعها غروك، وكيف تُستخدم هذه التعليقات، إن وُجدت، باعتبار أنها جزء من عملية التدريب. وعلى وجه الخصوص، في حالة تصريحات جنوب أفريقيا الشبيهة بالإبادة الجماعية البيضاء، هل يطرحها المستخدمون؟ ثم يوافق عليها النموذج؟ أو إلى أي مدى يُطلقها النموذج من تلقاء نفسه دون أن يُمسّ من قبل المستخدمين؟ يبدو أن هذه التغييرات الصغيرة يمكن أن تتفاقم، وتتفاقم. أعتقد أن المشكلات اليوم حقيقية، ومهمة. بل أعتقد أنها ستزداد صعوبة مع بدء استخدام الذكاء الاصطناعي في مجالات أكثر أهمية. لذا، كما تعلمون، فإن هذا الأمر مُقلق. خصوصاً عندما تقرأ روايات لأشخاصٍ عزّز نظام «جي بي تي» أوهامهم، فهم أشخاصٌ حقيقيون. قد يكون هذا ضاراً جداً لهم، خصوصاً أن «جي بي تي» يُستخدم على نطاق واسع من قِبل الكثيرين. * مجلة «فاست كومباني»، خدمات «تريبيون ميديا» نقلا عن الشرق الأوسط

"OpenAI" تطلق وكيل ذكاء اصطناعي للبرمجة في شات جي بي تي
"OpenAI" تطلق وكيل ذكاء اصطناعي للبرمجة في شات جي بي تي

الصحراء

timeمنذ 6 أيام

  • الصحراء

"OpenAI" تطلق وكيل ذكاء اصطناعي للبرمجة في شات جي بي تي

أعلنت شركة الذكاء الاصطناعي "OpenAI" يوم الجمعة أنها ستطلق معاينة بحثية لوكيل ذكاء اصطناعي للبرمجة يُدعى "Codex"، وهو أكثر وكلاء البرمجة بالذكاء الاصطناعي قدرة حتى الآن لدى الشركة. وقالت "OpenAI" إن وكيل "Codex" سيكون قادرًا على أداء عدة مهام في الوقت نفسه، بما في ذلك كتابة التعليمات البرمجية، وتصحيح الأخطاء البرمجية، وتشغيل الاختبارات، والإجابة على أسئلة المتعلقة بقاعدة بيانات أكواد العميل. ويعتمد الوكيل على نموذج ذكاء اصطناعي يُسمى "codex-1"، وهو نسخة من نموذج التفكير "O3" -من "OpenAI"- مُحسّنة لهندسة البرمجيات، وسيكون متاحًا لمستخدمي اشتراكات "ChatGPT Pro" و"Team" و"Enterprise" في "شات جي بي تي"، بحسب تقرير لصحيفة وول ستريت جورنال، اطلعت عليه "العربية Business". وأشارت الشركة إلى أنها تتطلع الآن إلى تعزيز جهودها في مجال البرمجة، وهو مجالٌ يشهد استثمارات متزايدة من منافسين مثل "مايكروسوفت" و"أمازون" و"غوغل" و"أنثروبيك" وشركات ناشئة مثل "Anysphere"، التي طورت أداة "Cursor" الشهيرة. وقال سرينيفاس نارايانان، نائب رئيس الهندسة في "OpenAI": "هناك العديد من أنظمة الذكاء الاصطناعي الجيدة المتوفرة... المنافسة موجودة بوضوح". تُجري "OpenAI" أيضًا محادثات للاستحواذ على شركة "Windsurf" الناشئة في مجال برمجة بالذكاء الاصطناعي مقابل 3 مليارات دولار. وفي حين تُعتبر "OpenAI" الشركة الأكثر ريادة في مجال روبوتات الدردشة الموجهة للمستهلكين، إلا أنها لا تتمتع بالمكانة نفسها في مجال البرمجة، وفقًا لواين تشي وفاليري تشين، طالبي الدكتوراه في جامعة كارنيجي ميلون، واللذين طورا نظامًا لتقييم أداء النماذج في هندسة البرمجيات. وأوضحا أن نماذج "Sonnet" من شركة أنثروبيك، مُنافسة "OpenAI"، تُعتبر حتى الآن الخيار الأمثل للعديد من المطورين. وأشارت "OpenAI" إلى أن نموذج "GPT-4.1" الخاص بها شهد انتشارًا سريعًا منذ إطلاقه، وأظهر أنه أفضل نموذج للبرمجة بدون قدرات استدلالية في بعض اختبارات المقارنة. وقالت الشركة إن وكيل "Codex" سيُحدث نقلة نوعية في طريقة عمل المطورين من خلال مساعدتهم على تفويض المزيد من المهام. وتعمل العديد من أدوات البرمجة الحالية جنبًا إلى جنب مع المطورين في الوقت الآني، بينما يعمل "Codex" بشكل مستقل في السحابة، ويقدم نتائج في غضون دقيقة إلى 30 دقيقة. وأشارت "OpenAI" إلى أن الأداة تتفوق على منافسيها في استنتاج أسلوب الترميز الخاص بمؤسسة، بالإضافة إلى المساعدة في مراجعة الأكواد البرمجية. نقلا عن العربية نت

دراسة تُحذّر من الوقوع في حب تطبيقات الذكاء الإصطناعي
دراسة تُحذّر من الوقوع في حب تطبيقات الذكاء الإصطناعي

تونس الرقمية

time٠١-٠٥-٢٠٢٥

  • تونس الرقمية

دراسة تُحذّر من الوقوع في حب تطبيقات الذكاء الإصطناعي

نبّهت دراسة علمية من مخاطر الإفراط في قضاء الوقت مع تطبيقات محادثة الذكاء الاصطناعي الثرثارة، مع ازدياد قدرات هذه المنصات، حيث يمكن أن تدفع بعض المستخدمين إلى الانخراط فيما يشبه العشق أو العلاقة الرومانسية مع هذه التطبيقات. حيث أكّد دانييل شانك، الباحث في جامعة ميسوري الأميركية: «إن قدرة الذكاء الاصطناعي على التصرف الآن مثل الإنسان، والدخول في حوارات طويلة الأمد، تفتح حقاً صندوقاً جديداً للشرور». وفي ورقة بحثية نشرتها مجلة «اتجاهات العلوم المعرفية» العلمية، قال شانك وزملاؤه، إن هناك «قلقاً حقيقياً» من أن «الحميمية المصطنعة» مع تطبيقات محادثة الذكاء الاصطناعي قد تشهد بعض «الاضطراب» في العلاقات الإنسانية، وفقاً لما ذكرته «وكالة الأنباء الألمانية». وقال فريق البحث: «بعد أسابيع وشهور من المحادثات المكثفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي، يمكن أن تصبح الأخيرة -بالنسبة للمستخدم- الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتم بشؤونه». في الوقت نفسه، تكون برامج محادثة الذكاء الاصطناعي معرضة لما يسمى بـ«الهلوسة»، وهو المصطلح الذي يستخدمه المطلعون على ميول هذه البرامج إلى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة، تشكل سبباً آخر للقلق، لأن هذا يعني أنه «حتى المحادثات القصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضللة. ويقول الباحثون معدو الدراسة: «إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، فسنبدأ الاعتقاد بأنها تهتم بمصلحتنا، بينما في الواقع قد تلفِّق الأمور، أو تقديم المشورة لنا بطرق سيئة للغاية»، مضيفين أن التطبيقات «يمكن أن تؤذي الناس من خلال تشجيع السلوكيات المنحرفة وغير الأخلاقية وغير القانونية». وفي الأسبوع الماضي، أعلنت شركة تقنيات الذكاء الاصطناعي «أوبن إيه آي» عن تحسين وظيفة «الذاكرة» في تطبيق الذكاء الاصطناعي «شات جي بي تي»، وهو ما يعني أن التطبيق سيصمم ردوده على المستخدم بناء على استدعاء التفاعلات السابقة بينهما، مما يرجح أن يعزز الشعور بالألفة في العلاقة بين الإنسان والتطبيق. لمتابعة كلّ المستجدّات في مختلف المجالات في تونس تابعوا الصفحة الرّسمية لتونس الرّقمية في اليوتيوب

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store