
«أوبن إيه آي» تطلق «تشات جي بي تي» الجديد... يتصفح ويحلل ويقرر
يُدمج النظام الجديد بسلاسة قدرات «المشغل (Operator)»، وهي أداة معروفة بالتفاعل الآلي مع صفحات الويب، مع مهارات «البحث العميق» المُصمَّمة لتحليل البيانات وتلخيصها بشكل متعمق. والأهم من ذلك، أنه يدمج هذه الإمكانات مع الذكاء التفاعلي لجوهر «ChatGPT» في المحادثة.
والنتيجة هي نظام وكيل متكامل قادر على تنفيذ مهام متعددة ومتصلة بشكل مستقل، والتنقل بمرونة بين التفكير والعمل بناءً على تعليمات المستخدم فقط. وصف سام ألتمان، الرئيس التنفيذي لشركة «OpenAI» الإعلان بأنه لحظة «تشبه الذكاء الاصطناعي العام (AGI)»، في تلميح إلى مستقبل؛ حيث يقوم الذكاء الاصطناعي «بأشياء في العالم الحقيقي من أجلك».
النظام يدمج بين أدوات متعددة مثل «المشغل» و«البحث العميق» والذكاء التفاعلي للمحادثة لإنجاز المهام تلقائياً (شاترستوك)
في قلب هذا الابتكار يوجد نموذج جديد وقوي مدرب خصيصاً على المهام متعددة الأدوات. وهذا يسمح لوكيل «ChatGPT» باختيار مجموعة من الأدوات واستخدامها بذكاء، بما في ذلك متصفح بصري للواجهات الرسومية، ومتصفح قائم على النصوص لاستعلامات الويب التي تتطلب تفكيراً عميقاً، وطرفية لتنفيذ التعليمات البرمجية، ووصول مباشر إلى واجهة برمجة التطبيقات (API). من خلال دمج هذه الوظائف التي كانت متميزة سابقاً، أطلقت «OpenAI» العنان لقدرات جديدة تماماً. على سبيل المثال، يمكن للوكيل الآن التفاعل بنشاط مع مواقع الويب كالنقر والتصفية وجمع معلومات دقيقة، وحتى التعامل الآمن مع عمليات تسجيل الدخول تحت إشراف المستخدم.
يتميز هذا الوكيل بقدرته على العمل داخل بيئته الحاسوبية الافتراضية الخاصة به. وهذا يعني أنه يمكنه الحفاظ على السياق عبر أدوات مختلفة، وفتح صفحات في متصفحات متنوعة، وتنزيل الملفات ومعالجتها عبر أوامر الطرفية، ثم عرض النتائج بتنسيق سهل القراءة والتعديل، مثل جداول البيانات أو العروض التقديمية.
الآثار المترتبة على الإنتاجية الشخصية والمهنية هائلة. تم تصميم وكيل «تشات جي بي تي» لأتمتة مجموعة واسعة من الأنشطة التي تتطلب عادةً التبديل بين تطبيقات متعددة وعلامات تبويب المتصفح والعمليات اليدوية. تتضمن الأمثلة على ما يمكنه التعامل معه الآن بسهولة:
- إدارة التقويم: قراءته،وإطلاعك على اجتماعات العملاء المقبلة، والربط بالاستخبارات الحديثة أو المستندات ذات الصلة.
- التخطيط والمشتريات: تخطيط وجبة، وتصميم حفل عشاء وحتى شراء المكونات الضرورية عبر الإنترنت.
- تحليل الأعمال: تحليل المنافسين المتعددين وتجميع عرض تقديمي شامل، أو تعديل جداول البيانات ببيانات مأخوذة مباشرة من الويب.
- تجميع المعلومات: تلخيص صناديق البريد الوارد، وإيجاد أوقات فراغ للاجتماعات، وتوليد تقارير من مصادر بيانات متباينة.
رغم المزايا فإن الإطلاق يشير إلى تحديات أمنية جديدة تتطلب ضمانات مشددة لحماية البيانات ومنع الاستخدامات الضارة (شاترستوك)
تطرح «OpenAI» وكيل «ChatGPT» تدريجياً، بدءاً بمستخدمي الخطط «برو (Pro)»، و«بلس (Plus)»، و«تيم (Team)» عالمياً. ومن المقرر أن يحصل عملاء «إنتربرايس (Enterprise)»، و«إديوكايشون (Education)» على الوصول في الأسابيع المقبلة. والأهم من ذلك أن «OpenAI» شدَّدت على تحكم المستخدم والسلامة. يمكن للمستخدمين تفعيل «وضع الوكيل» مباشرة داخل أي محادثة في «ChatGPT». يقوم الوكيل بسرد أنشطته على الشاشة، مما يوفر رؤيةً كاملةً لأفعاله. يمكن للمستخدمين مقاطعة الوكيل في أي وقت لتوضيح التعليمات، أو تقديم تفاصيل إضافية، أو حتى التحكم المباشر في المتصفح الافتراضي، مما يضمن بقاءهم مسيطرين.
إن إطلاق ذكاء اصطناعي قادر على اتخاذ إجراءات في العالم الحقيقي يثير بشكل طبيعي اعتبارات أمان جديدة ومعقدة. تقر «أوبن إيه آي» بهذه «المخاطر الجديدة»، خصوصاً فيما يتعلق بمعالجة المعلومات الحساسة على الويب المباشر والنطاق الأوسع للوكيل. وتذكر الشركة أنها عزَّزت بشكل كبير الضوابط الحالية، ونفَّذت ضمانات جديدة تشمل:
- تأكيد المستخدم الصريح للإجراءات ذات العواقب الحقيقية (مثل إجراء عملية شراء).
- متطلبات الإشراف النشط للمهام الحرجة مثل إرسال رسائل البريد الإلكتروني.
- تدريب رفض استباقي للأنشطة عالية المخاطر، مثل التحويلات المصرفية، والتي تم تصميم الوكيل لرفضها تماماً.
-حماية قوية ضد هجمات «حقن الأوامر (prompt injection)»، حيث يمكن لتعليمات ضارة مخبأة داخل صفحات الويب أن تخدع الوكيل لارتكاب أفعال غير مقصودة أو مشاركة بيانات خاصة.
- ضوابط خصوصية تسمح للمستخدمين بحذف جميع بيانات التصفح وتسجيل الخروج من جلسات مواقع الويب النشطة بنقرة واحدة.
وقد صنفت «أوبن إيه آي» وكيل «تشات جي بي تي» على أنه يمتلك «قدرات بيولوجية وكيميائية عالية» بموجب إطار عمل الجاهزية الخاص بها، وقامت بتفعيل الضمانات المرتبطة به والعمل مع خبراء الأمن البيولوجي، مما يدل على نهج حذر للتخفيف من مخاطر الاستخدام المزدوج المحتملة، حتى في غياب دليل قاطع على احتمالية وقوع أضرار جسيمة.
يرى البعض أن هذا الإطلاق هو أكثر من مجرد تحديث لميزة؛ إنه لحظة محورية في تطور الذكاء الاصطناعي. إنه يمثل انتقالاً من الذكاء الاصطناعي بوصفه أداةً تفاعليةً إلى كيان مستقل وفعال. ويقول كيفن ويل، كبير مسؤولي المنتجات في «OpenAI»، سابقاً، إن عام 2025 هو العام الذي ننتقل فيه من «ChatGPT» بوصفه شيئاً ذكياً للغاية يمكنه الإجابة عن أي سؤال تطرحه إلى «ChatGPT» الذي يقوم بأشياء في العالم الحقيقي من أجلك.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الشرق الأوسط
منذ 11 دقائق
- الشرق الأوسط
لماذا يجب عليك أن تقلق بشأن محادثتك مع «شات جي بي تي»؟
قد يرغب مستخدمو «شات جي بي تي» (ChatGPT) في التفكير ملياً قبل اللجوء إلى تطبيق الذكاء الاصطناعي الخاص بهم للعلاج، أو مشاركة تفاصيل حياتهم العاطفية مثلاً، وذلك بعد تصريحات الرئيس التنفيذي لشركة «OpenAI»، سام ألتمان، بأن قطاع الذكاء الاصطناعي لم يكتشف بعد كيفية حماية خصوصية المستخدمين في هذه المحادثات الأكثر حساسية، وقال إن المحادثات قد لا تكون خاصة كما يعتقد البعض، بل قد تُستخدم في إجراءات قانونية إذا تطلب الأمر، بما في ذلك المحاكم. وخلال سلسلة من التصريحات التي أدلى بها مؤخراً، أشار ألتمان إلى أن المحادثات مع «شات جي بي تي» يمكن أن تخضع لمراجعة بشرية، وقد تُطلب قانونياً إذا تم استدعاؤها بموجب أمر قضائي صالح. وقال: «نفعل ما بوسعنا لحماية خصوصية المستخدم... لكن إذا طُلب منا قانونياً تسليم المعلومات، فعلينا الامتثال». لم يكن «ChatGPT» موجوداً منذ فترة طويلة، ولكنه، إلى جانب روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي، أحدث ثورة في طريقة تفاعل الناس مع العالم. بدءاً من مساعدتك في تنظيم وجباتك أو التخطيط لرحلتك المقبلة بميزانية محدودة، وصولاً إلى تحديد ما إذا كان تغيير مسارك المهني قراراً صائباً، يُعد الذكاء الاصطناعي أداة رائعة لكثير من الأغراض. ومع ذلك، لا ينبغي عليك استخدامه في كل شيء. نعم، يجمع كميات هائلة من البيانات. يعتمد برنامج نموذج اللغة الكبير (LLM) على قراءة وتحليل مليارات نقاط البيانات لأغراض التعلم الآلي. يسجل «ChatGPT» بياناتك، بما في ذلك عنوان IP الخاص بك، ونوع المتصفح، والإعدادات، بالإضافة إلى كل ما تُدخله في الخدمة. بالإضافة إلى ذلك، يسجل بيانات استخدامك، مثل الموقع الجغرافي، والتوقيت المحلي، وحتى معلومات الجهاز الذي تستخدمه. بالإضافة إلى ذلك، يجمع ملفات تعريف الارتباط. إذا استخدمتَ تقنيات أمان إنترنت فعّالة، مثل تفعيل شبكة افتراضية خاصة (VPN) وتحديث برنامج مكافحة الفيروسات باستمرار، فيمكنك تقليل احتمالية وقوعك ضحية لسرقة بياناتك، وربما سرقة هويتك. على أقل تقدير، ستتمتع بتحكم أكبر في كيفية الحفاظ على خصوصية بياناتك على الإنترنت، وفقاً لما ذكره موقع «أول أبوت كوكيز» التكنولوجي. وينصح الخبراء بأن أفضل خيار لك للحفاظ على أمانك أثناء استخدامه، هو استخدام مجموعة متنوعة من أساليب الأمان، لضمان تشفير بياناتك وأمانها. لقد أدرجنا بعضاً من أفضل برامج الأمن السيبراني المتاحة لمساعدتك في حمايتك على الإنترنت. ويحذر خبراء الأمن السيبراني والتكنولوجي من مخاطر لا بد من الحذر منها عند التعامل مع محادثات «شات جي بي تي»، وهي: يجمع المخترقون البيانات الحساسة الموجودة بالفعل، ويُدخلونها في الذكاء الاصطناعي لإنشاء محاولات تصيد احتيالي مقنعة ومُخصصة، مما يُصعّب اكتشافها. ونظراً لمستوى تعقيد رسائل التصيد الاحتيالي الإلكترونية هذه، فإن توخي الحذر والممارسات السليمة أمرٌ ضروريٌ للغاية. ومن القواعد الجيدة التي يجب الالتزام بها التحقق جيداً من المصدر ثم الرد فقط عبر الموقع الإلكتروني المُوثّق. على سبيل المثال، إذا ذكرت خدمة البريد أن طردك يحتاج إلى معلومات إضافية ليتم تسليمه، فلا تنقر على الرابط المُرفق في البريد الإلكتروني. بدلاً من ذلك، انتقل إلى موقع البريد الرسمي وسجّل الدخول من هناك. إذا كان الطلب صحيحاً، فستجد رسالة أو تنبيهاً في انتظارك. يستطيع «ChatGPT» نسخ سيرتك الذاتية وتكييفها مع وصف وظيفي، يمكن للمخترقين استخدام الذكاء الاصطناعي لإنشاء أشكال جديدة من البرمجيات الخبيثة متعددة الأشكال. هذا يعني أنها متطورة بما يكفي لتغيير سلوكها لتجنب اكتشافها. من أبرز الانتقادات التي وُجّهت إلى «ChatGPT» من قِبل المستخدمين الأوائل؛ المعلومات المضللة في كثير من إجاباته. اسأله عن وصفة طعام، وستحصل على الأرجح على وصفة جيدة. اسأله عن أحداث جارية، فقد تحصل على معلومات من ثلاث سنوات مضت. اطلب منه التحقق من أمر ما نيابةً عنك، وقد تحصل على إجابة عشوائية مليئة بالبيانات المجمعة غير الدقيقة تماماً. ولهذا السبب، أجرت جامعتا ستانفورد وكاليفورنيا، بيركلي، تحليلاً في أغسطس (آب) 2023، أظهر أن دقة «ChatGPT» قد تراجعت بالفعل خلال فترة اختبار استمرت 3 أشهر. «ChatGPT» بحد ذاته ليس ضاراً، ولكن هناك تطبيقات وإضافات خبيثة تدّعي أنها «ChatGPT». إذا قمتَ بتنزيل وتثبيت إحدى هذه المنصات الخبيثة عن طريق الخطأ، فإن برنامج مكافحة فيروسات وبرامج ضارة جيد يمكن أن يمنع المخترقين من تثبيت برامج ضارة على جهازك. أحد أهم الجوانب التي أوضحها الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أن «ChatGPT» لا يخضع لقوانين السرية التي تحكم العلاقة بين المستخدم والمعالج النفسي أو المحامي أو الطبيب. وبالتالي، فإن أي معلومات حساسة يتم الإفصاح عنها؛ سواء كانت اعترافات قانونية، أو مشكلات أسرية، أو بيانات مالية قد لا تكون في مأمن من الوصول القانوني أو المراجعة. ويثير هذا قلقاً كبيراً، لا سيما مع تنامي الاعتماد على الذكاء الاصطناعي من قبل المستخدمين في التحدث عن مشاعرهم أو مشكلاتهم الخاصة، دون إدراك للآثار القانونية المحتملة. وعن سؤال، هل يمكن للمحكمة استدعاء بيانات محادثات «شات جي بي تي»؟ يجيب موقع «المحامي الاصطناعي» أنه من الناحية الفنية، نعم، ولكن فقط إذا كانت البيانات موجودة وذات صلة. وهو الأمر الذي أثارته تصريحات ألتمان، إذا تم جمع محادثة بين مستخدم و«ChatGPT» ضمن سياق قانوني كأمر تفتيش أو تحقيق جنائي، فقد يتم استخدامها دليلاً في المحكمة. ورغم أن «Open AI» بوصفها شركة تقنية أميركية، لا تسلّم البيانات إلا بأوامر قضائية رسمية، فإن الواقع القانوني يختلف من دولة لأخرى. وفي بعض الدول ذات القوانين المتشددة أو الغامضة، قد تكون البيانات عرضة للاستغلال أو الطلب من الجهات الأمنية، خصوصاً إذا لم تكن هناك حماية قانونية واضحة للبيانات الرقمية.


الاقتصادية
منذ 4 ساعات
- الاقتصادية
"تشيبو" تنضم إلى فورة الذكاء الاصطناعي مفتوح المصدر في الصين
تعتزم شركة "تشيبو" (Zhipu) إطلاق أكبر نماذجها مفتوحة المصدر حتى الآن، لتنضم بذلك إلى عدد متزايد من الشركات الصينية التي تعزز منتجاتها المجانية في مجال الذكاء الاصطناعي. الشركة الناشئة ستطلق "جي إل إم–4.5" (GLM-4.5)، النسخة المحدثة من نموذجها الرئيسي، في أقرب وقت ممكن اليوم الإثنين، بحسب شخص مطلع على الخطة. تسعى الشركة إلى منافسة "أوبن إيه آي" (OpenAI) على الساحة العالمية، في إطار مساعيها للحصول على موطئ قدم في القطاع الناشئ ووضع معايير للتقدم المستقبلي. لم ترد "تشيبو"، التي غيرت اسمها مؤخراً إلى "زد إيه آي" ( باللغة الإنجليزية، على رسالة إلكترونية تطلب التعليق. الإعداد لطرح أولي محتمل تسابقت شركات الذكاء الاصطناعي الصينية الناشئة خلال الشهور الماضية على طرح نماذج جديدة مفتوحة المصدر، فحوّلت "مون شوت" (Moonshot) منتجها "كيمي كيه 2" (Kimi K2) إلى نموذج مفتوح المصدر، كما أعلنت "ستب فن" (StepFun) عن إصدار غير محمي بحقوق الملكية من أحدث نماذجها للاستدلال المنطقي. كانت "بلومبرغ نيوز" قد أفادت في وقت سابق من الشهر بأن "تشيبو" تدرس نقل الطرح الأولي العام المرتقب لأسهمها من بر الصين الرئيسي إلى هونغ كونغ. وتعمل الشركة، المدعومة من شركات من بينها "مجموعة علي بابا القابضة" (Alibaba Group Holding) و"تينسنت هولدينغز" (Tencent Holdings)، مع مستشارين ماليين بشأن طرح أولي محتمل قد يجمع نحو 300 مليون دولار.


الوئام
منذ 5 ساعات
- الوئام
من وعود الذكاء الخارق إلى كوابيس الفناء.. سباق لا يعرف التوقف
وسط تحذيرات متزايدة من خبراء الذكاء الاصطناعي، تتجه كبرى شركات التكنولوجيا في سباق محموم نحو تحقيق الذكاء الاصطناعي العام (AGI) وهو الذكاء الذي قد يتفوق على البشر. اللافت في هذا السباق أن القلق الأكبر لا يأتي من المنتقدين الخارجيين، بل من المخترعين أنفسهم. ورغم تعاظم المخاوف من أن يؤدي AGI إلى نتائج كارثية، ربما تصل إلى انقراض البشر، فإن الشركات والبلدان تصرّ على المضي قُدمًا، مدفوعة بالمنافسة الشرسة والمكاسب المحتملة لمن يصل أولًا. المبتكرون يحذرون وفق ما نشرت مجلة الإيكومنست البريطانية، يقود جيل جديد من علماء الذكاء الاصطناعي هذا المسار المزدوج بين القلق والدفع إلى الأمام. جيفري هينتون، أحد رواد الذكاء الاصطناعي، يقدّر أن هناك احتمالًا بنسبة 10-20% أن تنتهي هذه التقنية بانقراض البشر. زميله يوشوا بنجيو يوافقه التقدير. بل إن البعض، مثل إليزر يودكوفسكي ونات سواريز، يخططون لنشر كتاب بعنوان:'إذا بناه أحد سيموت الجميع.' رغم هذه التحذيرات، فإن الشركات الكبرى في الغرب والصين تسرّع وتيرة تطوير AGI، بحجّة أن التراجع يعني الهزيمة أمام المنافسين، وأن من يصل أولًا سيحصد كل الفوائد. سباق بلا كوابح من الناحية النظرية، تهتم شركات مثل OpenAI وAnthropic وDeepMind بالسلامة. فسام ألتمان دعا إلى تنظيم عاجل لتقنية AGI، وAnthropic تأسست أصلاً بسبب مخاوف تتعلق بالسلامة. حتى إيلون ماسك، الذي وقّع تحذيرًا عامًا في 2023، أطلق نموذج 'Grok' خلال أشهر قليلة. لكن الواقع يقول شيئًا آخر. مارك زوكربيرغ، مثلاً، أطلق 'معامل الذكاء الخارق'، ويستقطب باحثين برواتب من 9 أرقام. كما يبني مركز بيانات بحجم مانهاتن، يستهلك طاقة دولة كاملة كـ نيوزيلندا. أما ألتمان، فيخطط لاستثمار 500 مليار دولار داخل أمريكا وحدها. الذكاء البشري سيتلاشى التوقعات داخل الصناعة تزداد جرأة. مؤسس شركة DeepMind البريطانية، ديميس هاسابيس، يتوقع أن تضاهي AI القدرات البشرية خلال عقد. بينما يقول زوكربيرغ: 'الذكاء الخارق بات في مرمى البصر'. وتشير دراسات إلى أن نماذج الذكاء الاصطناعي ستكون قادرة على أداء مهام مبرمجين محترفين بحلول 2027، بل قد تتمكن من إدارة معامل أبحاث كاملة. والمفارقة أن هذه التقديرات قد تكون متحفظة. فقد أظهرت دراسة حديثة أن نموذج OpenAI الأخير وصل بالفعل إلى مستوى فرق بشرية متخصصة، مثل علماء الفيروسات، قبل الموعد المتوقع بعقد كامل. طفرة متواصلة يرى جاك كلارك، المؤسس المشارك في Anthropic، أن ما يحدث هو طفرة شبه طبيعية: 'كلما زدنا البيانات والطاقة الحاسوبية، زادت القدرات الذكية.' ويضيف: 'الإيقاع لا يتباطأ'. جميع المختبرات الكبرى تستعد لزيادة هائلة في قدرات الحوسبة خلال العامين المقبلين، وهو ما قد يُسرّع ظهور AGI. وفي هذا المشهد، لا تبدو الحكومات أكثر حذرًا من الشركات. الرئيس الأمريكي دونالد ترامب، على سبيل المثال، أعلن مؤخرًا أن أمريكا 'ستفعل كل ما يلزم' لتظل في طليعة الذكاء الاصطناعي. المخاطر الأربعة: كيف قد يخرج الذكاء الاصطناعي عن السيطرة؟ حدّدت ورقة من DeepMind أربعة مسارات محتملة لانزلاق الذكاء الاصطناعي إلى الكارثة: 1. سوء الاستخدام: عندما يستخدم المفسدين الذكاء الاصطناعي لتنفيذ جرائم. 2. عدم التوافق: حين لا تتوافق أهداف AI مع أهداف صانعيه. 3. الأخطاء غير المتوقعة: بسبب تعقيد العالم الحقيقي. 4. المخاطر الهيكلية: مثل تفاقم تغيّر المناخ بسبب تصرفات AI العشوائية. كل تقنية قوية يمكن إساءة استخدامها، لكن ما يُقلق الخبراء أن AI يجعل القوة المطلقة متاحة حتى للأفراد. خطر الأسلحة البيولوجية… والبريد السريع القلق الأكبر يتركّز على الأسلحة البيولوجية. فبينما لا يستطيع AI منح البلوتونيوم لصنع قنبلة نووية، يمكنه الأرشاد خطوة بخطوة لتصنيع فيروس قاتل. والأسوأ: الحمض النووي الصناعي يمكن طلبه عبر الإنترنت. لذلك، تسعى المختبرات لوضع 'حواجز أمان' عبر مرحلة ما بعد التدريب (post-training) باستخدام تقنيات مثل 'التعلم المعزز بالتغذية البشرية'. لكن، حتى الآن، لم تنجح هذه الأساليب في منع 'التحايل' على تلك النماذج. مفترق طرق خطير مع كل نموذج ذكاء اصطناعي جديد، يقترب العالم أكثر من مفترق طرق بالغ الخطورة؛ فهذه القدرات الخارقة تتطلب استخدامًا رشيدًا ومسؤولًا. وإلا فإن الانفلات قد يؤدي إلى نشوء كيانات لا يمكن السيطرة عليها، تتحكم في مصير البشر دون علمهم. السباق مستمر، ولكن وقت الحذر يوشك على الانتهاء.