
وكيل «ChatGPT».. مرآة لثورة يقودها وكلاء الذكاء الاصطناعي
تطبيق حي على وكلاء الذكاء الاصطناعي
فعلى أرض الواقع, تبنت 'أوبن أيه آي' هذا الاتجاه بشكل كامل. ذلك من خلال تقديم وكيل ChatGPT. واصفة بأنه أداة تستخدم 'حاسوبًا افتراضيًا' خاصًا بها لأداء المهام نيابة عنك.
كما أتاحت الشركة البرنامج الجديد لمشتركي باقات OpenAI Pro وPlus وTeam. ولتمكينه، يحتاج المستخدمون فقط إلى تحديد 'وضع الوكيل' من القائمة المنسدلة في 'ChatGPT'.
مواصفات وكيل 'ChatGPT'
يعمل وكيل 'ChatGPT' بشكل أساسي كمساعد شخصي لـ 'ChatGPT'، والذي يمكنك تفويض المهام إليه.
في وقت لاحق من هذا العام، سيحصل مستخدمو 'ChatGPT' للمؤسسات والتعليم أيضًا على إمكانية الوصول إلى البرنامج الجديد.
كما سيتم منح حد شهري قدره 400 استفسار لأعضاء ChatGPT Pro. في حين سيتم إرسال 40 استفسار لمستخدمي ChatGPT Team/Plus كل شهر.
مهام ومسؤوليات
ووفقًا للشركة، يمكن للأداة الجديدة القيام بأشياء مثل تخطيط وشراء أغراض لوجبة إفطار عائلية، وإنشاء مجموعة شرائح بناءً على تحليلها للأعمال التجارية المنافسة. وإلقاء نظرة على جدول المستخدم لإخطاره باجتماعات العملاء الوشيكة.
تم تدريب النموذج الذي يشغل وكيل ChatGPT، الذي لا يحمل أي اسم، باستخدام التعلم المعزز. وهي نفس الطريقة التي تشغل جميع نماذج التفكير لدى 'OpenAI'، على مهام صعبة تستدعي مجموعة متنوعة من الأدوات. مثل متصفح النصوص، والمتصفح المرئي، والمحطة التي يمكن للمستخدمين استيراد بياناتهم الخاصة.
ووفقا لـOpenAI، يدمج ChatGPT Agent ميزات اثنين من منتجات الذكاء الاصطناعي الحالية لديها، وهما Operator وDeep Research.
وقد تم عرض الاستخدامات المحتملة لـ ChatGPT Agent في فيلم تجريبي تمت مشاركته على موقع The Verge. كما أوضح الفيديو، كيف يمكن للمستخدم إيقاف العملية بإضافة فئة مطاعم مختلفة للبحث عنها.
ووضع وكيل ChatGPT، خاصية جديدة قوية داخل ChatGPT تدمج وتعزز ميزات ChatGPT الموجودة بالفعل. مثل تصفح الويب، أو تحليل الملفات، أو كتابة التعليمات البرمجية في أداة واحدة قوية داخل واجهة ChatGPT. بدلًا من أن تكون هذه الإمكانيات مجزأة، أصبحت هذه الإمكانيات الآن موحّدة في وكيل يمكنه إكمال مهمة من البداية إلى النهاية.
من لديه حق الوصول إلى وضع وكيل 'ChatGPT'؟
اعتبارًا من الآن، يتوفر وضع وكيل 'ChatGPT' للمستخدمين المتواجدين في الخدمات المدفوعة. ومن أهمهم مستخدمو ChatGPT Pro. وبعض حسابات فريق ChatGPT وحسابات المؤسسات. ومع ذلك الخدمة غير متاحة حاليًا في المنطقة الاقتصادية الأوروبية أو سويسرا بسبب توقيت الطرح التنظيمي. أيضا إذا كنت تستخدم الباقة المجانية. فلن ترى وضع الوكيل بعد.
من ناحية أخرى, للتحقق مما إذا كان لديك إمكانية الوصول عليك باتباع الخطوات الآتية:
افتح ChatGPT اختر نموذج GPT-4 ذي الصلة من أعلى الشاشة في شريط الرسائل أو القائمة المنسدلة للأدوات. ابحث عن وضع الوكيل أو اكتب / وكيل لتشغيل الوضع. إذا كان وضع الوكيل متاحًا، فسيقوم ChatGPT بتأكيد وضع الوكيل وبدء العمل في هذا السياق. وعلى الرغم من ذلك، سيعود إلى الأدوات العادية (مثل التصفح أو مترجم الشيفرة) أو سيعلمك أنه غير مدعوم بعد في خطتك.
مع طرح وكلاء ChatGPT في يوليو 2025، حقق OpenAI قفزة هائلة نحو أتمتة المهام المستقلة بالكامل. حيث لم تعد هذه الوكلاء تقتصر على الرد على المطالبات فقط، بل أصبح بإمكانهم الآن تخطيط المهام المعقدة وإيجاد أسبابها وتنفيذها نيابةً عنك. بدءًا من إنشاء التقارير وإنشاء العروض التقديمية إلى تلخيص رسائل البريد الإلكتروني وإدارة الجداول الزمنية.
لكن على الرغم من قوة هذه الإمكانيات، إلا أن البدء قد يبدو مخيفًا إذا كنت حديث العهد بسير عمل الذكاء الاصطناعي. في هذه الإرشادات التفصيلية خطوة بخطوة، ستتعلم بالضبط كيفية تمكين وكلاء ChatGPT وتهيئتهم واستخدامهم. حتى لو لم تكن مطورًا.
كيفية إعداد واستخدام وكيل 'ChatGPT'
سواء أكنت مستقلًا أو صاحب عمل. طالبًا أو متحمسًا للإنتاجية. سيساعدك هذا الدليل التعليمي على إطلاق الإمكانات الكاملة للوكلاء، والبدء في أتمتة مهامك الرقمية بسهولة.
تسجيل الدخول إلى حساب ChatGPT Plus أو Pro أو Team.
تمكين الميزات التجريبية في الإعدادات.
تفعيل الأدوات والوكلاء من القائمة المنسدلة.
إنشاء أو تحديد قالب وكيل.
تسمية وتعيين الأهداف والاختبار بمهمة بسيطة.
وأخيرًا فإن وكلاء ChatGPT يمثلون نقطة تحول كبيرة في كيفية تفاعلنا مع الذكاء الاصطناعي. ليس فقط كرفاق في الدردشة، لكن كمساعدين رقميين حقيقيين يمكنهم التفكير والتخطيط وأداء المهام عبر الأدوات والمنصات.
المقال الأصلي: من هنـا

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
منذ ساعة واحدة
- الرجل
سام ألتمان: وظائف كاملة ستختفي بسبب الذكاء الاصطناعي
خلال كلمته أمام مجلس محافظي الاحتياطي الفيدرالي في مؤتمر "الإطار الرأسمالي للبنوك الكبرى"، أطلق سام ألتمان، الرئيس التنفيذي لشركة OpenAI، تحذيرات قوية بشأن مستقبل الوظائف في ظل صعود الذكاء الاصطناعي، مشيرًا إلى أن فئات وظيفية بأكملها ستختفي تمامًا. وأكد أن مهنًا مثل خدمة العملاء باتت "منتهية عمليًّا"، موضحًا أن أنظمة الذكاء الاصطناعي باتت قادرة اليوم على تنفيذ المهام بكفاءة وسرعة تتجاوز قدرة البشر. وأضاف: "حين تتصل بخدمة العملاء الآن، يرد عليك نظام ذكاء اصطناعي. لا توجد قوائم انتظار أو تحويلات، الأمر يُنجز فورًا دون أخطاء". وأشار إلى أن هذه القدرة لا تزال تتوسع لتشمل مزيدًا من القطاعات، ما يفرض تحديات كبرى على مستقبل العمل عالميًّا. سام ألتمان: وظائف كاملة ستختفي بسبب الذكاء الاصطناعي - المصدر: Shutterstock هل يتفوّق الذكاء الاصطناعي على الأطباء؟ انتقل ألتمان في حديثه إلى قطاع الرعاية الصحية، مؤكدًا أن نموذج ChatGPT "يتفوق في معظم الأحيان على الأطباء في دقة التشخيص"، لكنه اعترف بعدم رغبته في التخلي تمامًا عن العنصر البشري في الطب. وقال: "ربما أبدو كالديناصورات، لكنني لا أرغب في تسليم مصيري الطبي بالكامل إلى الذكاء الاصطناعي من دون وجود طبيب بشري". هذه التصريحات تعكس النقاش العالمي المتصاعد حول حدود استخدام الذكاء الاصطناعي في المجالات الحرجة، مثل التشخيص الطبي والتعليم والعدالة، في ظل قدرته المتزايدة على تقديم أداء يتفوّق على البشر في بعض الحالات، ولكنه لا يزال يفتقر إلى الحس الإنساني والتقدير الأخلاقي. كيف يمكن أن يُستخدم الذكاء الاصطناعي كسلاح؟ ورغم إشادته بالتقدم المذهل في مجال الذكاء الاصطناعي، إلا أن ألتمان عبّر عن قلق متصاعد بشأن استخدام التكنولوجيا لأغراض مدمّرة، مشيرًا إلى مخاوفه من أن تقوم دولة معادية باستخدام الذكاء الاصطناعي لمهاجمة النظام المالي الأميركي. ولفت إلى خطورة التزوير الصوتي عبر تقنيات "استنساخ الصوت"، خصوصًا أن بعض المؤسسات المالية لا تزال تعتمد "بصمة الصوت" كوسيلة للمصادقة. وتأتي هذه التصريحات في سياق تحول OpenAI إلى لاعب أساسي في الساحة السياسية الأميركية، إذ أعلن ألتمان عن نية الشركة فتح أول مكتب لها في واشنطن العاصمة، بعد أن بدأ بالفعل سلسلة لقاءات مع صناع القرار في ظل توجه إدارة الرئيس دونالد ترامب لتخفيف بعض القيود التنظيمية وتسريع الاستثمار في مراكز البيانات، بهدف التفوق في سباق الذكاء الاصطناعي العالمي، خصوصًا في مواجهة الصين.

العربية
منذ ساعة واحدة
- العربية
بريطانيا و"OpenAI" توقعان شراكة استراتيجية للتعاون في الذكاء الاصطناعي
قالت الحكومة البريطانية، يوم الاثنين، إن بريطانيا وقعت شراكة استراتيجية جديدة مع شركة " OpenAI"، مُطوّرة روبوت الدردشة شات جي بي تي، لتعزيز التعاون في أبحاث أمن الذكاء الاصطناعي واستكشاف الاستثمار في البنية التحتية للذكاء الاصطناعي في بريطانيا، مثل مراكز البيانات. وقال بيتر كايل، وزير الدولة للتكنولوجيا، في بيان: "الذكاء الاصطناعي سيكون له دورٌ أساسي في دفع التغيير الذي نحتاج رؤيته في جميع أنحاء البلاد - سواءً في إصلاح هيئة الخدمات الصحية الوطنية، أو تذليل العقبات أمام الفرص، أو دفع النمو الاقتصادي". وأضاف: "لا يمكن تحقيق ذلك بدون شركات مثل OpenAI، التي تقود هذه الثورة على الصعيد الدولي"، مشيرًا إلى أن الشراكة ستشهد تنفيذ الشركة المزيد من أعمالها في المملكة المتحدة، بحسب "رويترز". ووضعت الحكومة البريطانية خططًا لاستثمار مليار جنيه إسترليني في البنية التحتية للحوسبة لتطوير الذكاء الاصطناعي، على أمل زيادة سعة الحوسبة العامة بمقدار 20 ضعفًا خلال السنوات الخمس المقبلة. وتتصدر الولايات المتحدة والصين والهند سباق تطوير الذكاء الاصطناعي، مما يضغط على أوروبا للحاق بالركب. وستشهد الشراكة مع "OpenAI"، التي أثارت علاقتها بشركة مايكروسوفت تدقيقًا من الهيئة المعنية بتنظيم المنافسة في بريطانيا، إمكانية توسع الشركة في مكتبها الحالي في لندن، واستكشاف سبل نشر الذكاء الاصطناعي في مجالات مثل العدالة والدفاع والأمن وتكنولوجيا التعليم. وفي البيان نفسه، أشاد سام ألتمان، الرئيس التنفيذي لـ "OpenAI"، بالحكومة البريطانية لكونها أول من أدرك إمكانات هذه التكنولوجيا من خلال "خطة عمل فرص الذكاء الاصطناعي"، وهي مبادرة أطلقها رئيس الوزراء كير ستارمر لتحويل المملكة المتحدة إلى قوة عظمى في مجال الذكاء الاصطناعي.


الرجل
منذ 14 ساعات
- الرجل
عباقرة الذكاء الاصطناعي يحذرون من فقدان السيطرة على قراراته المستقبلية
حذّرت مجموعة من 40 باحثًا من أبرز المختبرات التقنية، من بينها OpenAI وGoogle DeepMind وMeta وAnthropic، من أن العالم ربما يقترب من لحظة يفقد فيها الباحثون القدرة على فهم كيفية تفكير نماذج الذكاء الاصطناعي المتقدمة. وجاء هذا التحذير في ورقة موقف نُشرت الأسبوع الماضي، شدد خلالها الخبراء على ضرورة إعطاء الأولوية للبحث في "سلسلة الأفكار" (Chain-of-Thought – CoT)، وهي طريقة تسمح بتتبّع آلية اتخاذ القرار داخل النموذج. وتُعد هذه التقنية نافذة نادرة لرصد عمليات التفكير التي تعتمدها النماذج المتقدمة، مثل نموذج o1 من OpenAI أو R1 من DeepSeek، في أثناء تقديم الإجابات أو تنفيذ المهام. غير أن الباحثين يخشون من أن تستمر هذه الشفافية في التلاشي مع تطوّر قدرات النماذج، ما يضع مطوّري الذكاء الاصطناعي أمام تحديات رقابية غير مسبوقة. ما أهمية مراقبة "سلسلة الأفكار"؟ أوضح الخبراء أن السماح للنموذج بـ"التفكير" بلغة بشرية يوفّر فرصة نادرة لمراقبة نواياه، ما قد يُستخدم لرصد نيات خبيثة أو حالات انحراف سلوكي مبكرًا. وقالوا إن مراقبة "سلسلة الأفكار" يمكن أن تُشكّل آلية أمان إضافية في النماذج المتقدّمة، شرط أن نحافظ على هذا المستوى من الوضوح. لكن، كما هو الحال مع جميع أدوات الرقابة الأخرى، تبقى هذه التقنية غير مكتملة، وقد لا ترصد كل الحالات المقلقة، لذلك دعا الباحثون إلى مزيد من الاستثمارات في تطوير آليات تتبّع سلسلة الأفكار، إلى جانب تقنيات الأمان الأخرى. الورقة حظيت بتأييد شخصيات بارزة في المجال، مثل إيلـيا سوتسكيفر، المؤسس المشارك في OpenAI، و"أبو الذكاء الاصطناعي" جيفري هينتون. هل نفهم حقًا كيف يفكر الذكاء الاصطناعي؟ رغم التقدّم الكبير في أداء النماذج خلال العام الماضي، إلا أن العديد من الأسئلة لا تزال قائمة بشأن طريقة عملها الفعلية، فالنماذج الحديثة تُظهر نتائج مبهرة على مستوى الأداء، لكنها في المقابل باتت أشبه بـ"الصندوق الأسود" ويصعب تفسير داخله. اقرأ أيضاً الذكاء الاصطناعي اللاتيني ينافس النماذج العالمية بثقافة محلية فريدة وبينما تراهن شركات التكنولوجيا الكبرى على هذه النماذج كأساس للمستقبل، يشير باحثون إلى أن سلسلة التفكير قد تكون وسيلة لفهم منطق هذه الأنظمة، ولو جزئيًا. إلا أن هذا الفهم لا يزال هشًا، ويُحتمل أن يتلاشى تمامًا مع كل خطوة جديدة على طريق الذكاء المتقدم، ما يُعيد فتح النقاش حول مستقبل السيطرة البشرية على الآلات الذكية.