
احترس من خداع الذكاء الاصطناعي.. ChatGPT الآن قادر على اجتياز اختبار «أنا لست روبوتًا»
يمكن للنسخة الأحدث من روبوت المحادثة بالذكاء الاصطناعي أن تعمل كمساعد شخصي، قادر على التنقل عبر الويب وأداء المهام نيابة عن المستخدم.
تصف شركة OpenAI، مبتكرة ChatGPT، هذا الذكاء الاصطناعي من الجيل التالي، المعروف باسم الذكاء الاصطناعي الوكيل، بأنه «التطور الطبيعي» للتكنولوجيا، مما يسمح للذكاء الاصطناعي بتنفيذ إجراءات مثل التسوق عبر الإنترنت وحجز المطاعم وجدولة المواعيد.
شارك المستخدمون الأوائل لبرنامج ChatGPT الجديد، وهو متاح حاليًا فقط في الإصدارات Pro وPlus وTeam- تجاربهم في استخدام الذكاء الاصطناعي الوكيل، وكشفوا أنه قادر على تجاوز نقاط التفتيش الأمنية بسهولة.
في إحدى الحوادث التي تمت مشاركتها على موقع التواصل Reddit، أوضح ChatGPT عملية التغلب على تدابير التحقق من مكافحة الروبوتات الخاصة بـ Cloudflare.
سأضغط على مربع الاختيار «التحقق من أنك إنسان» لإكمال عملية التحقق على «كلاودفلير»، كما كتب الروبوت. «هذه الخطوة ضرورية لإثبات أنني لست روبوتًا، وللمضي قدمًا في العملية».
يُعد نظام Cloudflare أحد أكثر إجراءات الأمان شيوعًا التي تستخدمها المواقع الإلكترونية لحظر حركة المرور الآلية. ويُستخدم غالبًا خيار «أنا لست روبوتًا» بدلًا من اختبار CAPTCHA الأكثر صعوبة، مع أن المواقع الإلكترونية قد تحتاج الآن إلى إعادة تقييم أساليب اختبار الروبوتات لديها.
قالت شركة OpenAI إن روبوت المحادثة الأحدث لديها سيطلب دائمًا الإذن قبل اتخاذ أي إجراءات ذات عواقب، ويمكن مقاطعته في أي وقت.
أعلنت الشركة في منشور على مدونتها تقدم فيه الإمكانيات الجديدة: «يمكن لبرنامج ChatGPT الآن القيام بالعمل نيابةً عنك باستخدام جهاز الكمبيوتر الخاص به، والتعامل مع المهام المعقدة من البداية إلى النهاية».
وتابعت: «سيقوم ChatGPT بالتنقل بذكاء عبر مواقع الويب، وتصفية النتائج، ومطالبتك بتسجيل الدخول بشكل آمن عند الحاجة، وتشغيل التعليمات البرمجية، وإجراء التحليلات، وحتى تقديم عروض شرائح وجداول بيانات قابلة للتعديل تلخص النتائج».
وهذه هي المرة الأولى التي يتمكن فيها المستخدمون من مطالبة ChatGPT باتخاذ إجراءات على الويب، بعد إطلاقات مماثلة من قبل منافسين صينيين مثل «Manus».
وأقرت شركة OpenAI بالمخاطر التي تنطوي عليها عملية منح الذكاء الاصطناعي مستوى معينًا من الاستقلالية، إلا أنها تدعي أنها عززت ضماناتها.
وقالت الشركة «لقد عززنا الضوابط القوية.. وأضفنا ضمانات للتحديات مثل التعامل مع المعلومات الحساسة على شبكة الإنترنت المباشرة، والوصول الأوسع للمستخدمين، والوصول المحدود إلى شبكة المحطات الطرفية».
واستكملت: «على الرغم من أن هذه التدابير التخفيفية تعمل على تقليل المخاطر بشكل كبير، إلا أن الأدوات الموسعة لوكيل ChatGPT ونطاق وصوله الأوسع للمستخدمين يعني أن ملف المخاطر الإجمالي الخاص به أعلى».

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ 8 ساعات
- نافذة على العالم
أخبار التكنولوجيا : التفاصيل الكاملة لأزمة تسريب محادثات ChatGPT على محرك بحث جوجل
الاثنين 4 أغسطس 2025 05:50 صباحاً نافذة على العالم - في مفاجأة صادمة للملايين من مستخدمي الذكاء الاصطناعي، كشفت تقرير جديد من موقع Fast Company أن آلاف المحادثات التي أُجريت عبر ChatGPT أصبحت قابلة للبحث على جوجل، وتتضمن في بعض الأحيان تفاصيل شخصية وحساسة لم يكن من المفترض أن تكون علنية. ووفقًا للتقرير، فإن السبب وراء هذا التسريب يعود إلى ميزة 'المشاركة' (Share) داخل ChatGPT، والتي تتيح للمستخدمين إنشاء روابط لمحادثاتهم ومشاركتها مع الآخرين. لكن ما لم يكن يعلمه كثيرون هو أن هذه الروابط، بمجرد إنشائها، تصبح عامة وقابلة للأرشفة بواسطة محركات البحث مثل جوجل، مما يجعل المحادثات – بما فيها من أسماء أو بيانات شخصية أو حتى خطط تجارية – عرضة للوصول من أي شخص يعرف كيف يبحث. ما الذي حدث بالضبط؟ عند استخدام زر 'المشاركة' في ChatGPT، يتم إنشاء رابط عام يمكن لأي شخص فتحه دون الحاجة إلى تسجيل الدخول، وعلى الرغم من أن الرابط لا يحتوي على اسم المستخدم، إلا أن محتوى المحادثة قد يتضمن أسماء أو عناوين بريد إلكتروني أو مواقع شركات أو تفاصيل حساسة تتيح التعرف على الشخص بسهولة. ومما يزيد القلق، أنه حتى بعد حذف الرابط من داخل ChatGPT، قد تظل نسخة منه مرئية على جوجل لفترة بسبب التخزين المؤقت (cache) وتأخر تحديث فهرس محركات البحث. البحث البسيط في جوجل باستخدام الأمر: كشف عن أكثر من 4500 محادثة تمت أرشفتها، وبعضها يحتوي على قصص شخصية مؤلمة، تفاصيل عن العلاقات العاطفية، مشاكل نفسية، شكاوى من العمل، أو حتى أسرار تجارية لجهات لا تعرف أن بياناتها أصبحت متاحة للعامة. تحذير مسبق من ألتمان يُذكر أن المدير التنفيذي لشركة OpenAI، سام ألتمان، كان قد حذّر في تصريحات سابقة من مشاركة معلومات شخصية أو حساسة عبر ChatGPT، في ظل عدم وجود ضمانات كاملة للخصوصية. ما الحل؟ رغم خطورة الوضع، لا داعي للذعر، لكن الحيطة واجبة، ينصح الخبراء المستخدمين بما يلي: 1. تجنّب إدخال أي معلومات شخصية أو سرية في محادثات ChatGPT، خاصة إذا كنت تفكر في مشاركتها. 2. لا تستخدم زر 'المشاركة' إلا عند الضرورة القصوى، ويفضّل نسخ النص يدويًا أو استخدام لقطات شاشة. 3. إذا سبق لك مشاركة محادثة، يمكنك إدارة الروابط وحذفها من خلال لوحة 'Shared Links' داخل ChatGPT. 4. للتحقق مما إذا كانت محادثاتك قد ظهرت في جوجل، يمكنك البحث باستخدام: site:chatgpt. com/ share + اسمك أو الموضوع المرتبط. الدرس المستفاد هذا التسريب يُعد تنبيهًا صارخًا بأن أدوات الذكاء الاصطناعي، رغم أنها تبدو كدفاتر شخصية ذكية، إلا أنها تعمل على الإنترنت مثل المستندات السحابية وليست محمية بالكامل. كما يُبرز الحاجة الماسة إلى إعادة التفكير في علاقة التكنولوجيا بالخصوصية، وإدراك أن ما يُكتب في وقت عاطفي أو فكري حميم، قد يظهر فجأة في نتائج البحث أمام الجميع.


اليوم السابع
منذ 9 ساعات
- اليوم السابع
التفاصيل الكاملة لأزمة تسريب محادثات ChatGPT على محرك بحث جوجل
في مفاجأة صادمة للملايين من مستخدمي الذكاء الاصطناعي ، كشفت تقرير جديد من موقع Fast Company أن آلاف المحادثات التي أُجريت عبر ChatGPT أصبحت قابلة للبحث على جوجل، وتتضمن في بعض الأحيان تفاصيل شخصية وحساسة لم يكن من المفترض أن تكون علنية. ووفقًا للتقرير، فإن السبب وراء هذا التسريب يعود إلى ميزة 'المشاركة' (Share) داخل ChatGPT، والتي تتيح للمستخدمين إنشاء روابط لمحادثاتهم ومشاركتها مع الآخرين. لكن ما لم يكن يعلمه كثيرون هو أن هذه الروابط، بمجرد إنشائها، تصبح عامة وقابلة للأرشفة بواسطة محركات البحث مثل جوجل، مما يجعل المحادثات – بما فيها من أسماء أو بيانات شخصية أو حتى خطط تجارية – عرضة للوصول من أي شخص يعرف كيف يبحث. ما الذي حدث بالضبط؟ عند استخدام زر 'المشاركة' في ChatGPT ، يتم إنشاء رابط عام يمكن لأي شخص فتحه دون الحاجة إلى تسجيل الدخول، وعلى الرغم من أن الرابط لا يحتوي على اسم المستخدم، إلا أن محتوى المحادثة قد يتضمن أسماء أو عناوين بريد إلكتروني أو مواقع شركات أو تفاصيل حساسة تتيح التعرف على الشخص بسهولة. ومما يزيد القلق، أنه حتى بعد حذف الرابط من داخل ChatGPT، قد تظل نسخة منه مرئية على جوجل لفترة بسبب التخزين المؤقت (cache) وتأخر تحديث فهرس محركات البحث. البحث البسيط في جوجل باستخدام الأمر: كشف عن أكثر من 4500 محادثة تمت أرشفتها، وبعضها يحتوي على قصص شخصية مؤلمة، تفاصيل عن العلاقات العاطفية، مشاكل نفسية، شكاوى من العمل، أو حتى أسرار تجارية لجهات لا تعرف أن بياناتها أصبحت متاحة للعامة. تحذير مسبق من ألتمان يُذكر أن المدير التنفيذي لشركة OpenAI، سام ألتمان، كان قد حذّر في تصريحات سابقة من مشاركة معلومات شخصية أو حساسة عبر ChatGPT، في ظل عدم وجود ضمانات كاملة للخصوصية. ما الحل؟ رغم خطورة الوضع، لا داعي للذعر، لكن الحيطة واجبة، ينصح الخبراء المستخدمين بما يلي: 1. تجنّب إدخال أي معلومات شخصية أو سرية في محادثات ChatGPT، خاصة إذا كنت تفكر في مشاركتها. 2. لا تستخدم زر 'المشاركة' إلا عند الضرورة القصوى، ويفضّل نسخ النص يدويًا أو استخدام لقطات شاشة. 3. إذا سبق لك مشاركة محادثة، يمكنك إدارة الروابط وحذفها من خلال لوحة 'Shared Links' داخل ChatGPT. 4. للتحقق مما إذا كانت محادثاتك قد ظهرت في جوجل، يمكنك البحث باستخدام: site:chatgpt. com/ share + اسمك أو الموضوع المرتبط. الدرس المستفاد هذا التسريب يُعد تنبيهًا صارخًا بأن أدوات الذكاء الاصطناعي، رغم أنها تبدو كدفاتر شخصية ذكية، إلا أنها تعمل على الإنترنت مثل المستندات السحابية وليست محمية بالكامل. كما يُبرز الحاجة الماسة إلى إعادة التفكير في علاقة التكنولوجيا بالخصوصية، وإدراك أن ما يُكتب في وقت عاطفي أو فكري حميم، قد يظهر فجأة في نتائج البحث أمام الجميع.


اليوم السابع
منذ 9 ساعات
- اليوم السابع
أنثروبيك توقف وصول OpenAI إلى نماذج Claude بسبب انتهاك الشروط
كشفت مجلة Wired أن شركة أنثروبيك (Anthropic) قررت قطع وصول OpenAI إلى عائلة نماذج الذكاء الاصطناعي الخاصة بها Claude، بعد اكتشاف استخدام OpenAI لهذه النماذج في أدوات داخلية لمقارنة أداء Claude مع نماذجها في مجالات مثل البرمجة، الكتابة، ومعايير الأمان. ووفقًا للمصادر، كانت OpenAI تربط Claude بأدواتها التقنية استعدادًا لإطلاق GPT-5، وهو ما اعتبرته أنثروبيك انتهاكًا صريحًا لشروط الخدمة التجارية التي تمنع استخدام نماذج Claude لبناء خدمات منافسة. وفي تصريح لـWired، أوضح متحدث باسم أنثروبيك أن 'الفريق التقني لدى OpenAI كان يستخدم أيضًا أدوات البرمجة الخاصة بنا قبل إطلاق GPT-5'، مشيرًا إلى أن هذا الاستخدام غير مسموح به وفقًا لاتفاقيات الاستخدام الموقعة. مع ذلك، أكدت أنثروبيك أنها ستواصل السماح لـOpenAI باستخدام Claude في نطاق ضيق يقتصر على التقييمات المعيارية والسلامة فقط. من جانبها، وصفت OpenAI في بيان الاستخدام الذي كانت تقوم به بأنه 'معمول به في القطاع'، وأضاف متحدثها الرسمي: 'نحترم قرار أنثروبيك بقطع وصولنا إلى واجهة برمجة التطبيقات الخاصة بهم (API)، لكنه أمر مخيب للآمال خاصة وأن واجهاتنا لا تزال متاحة لهم'. وكان كبار مسؤولي أنثروبيك قد أبدوا سابقًا تحفظًا تجاه توفير نماذج Claude لمنافسين مباشرين، حيث علّق جاريد كابلان، كبير العلماء في الشركة، عند سؤال سابق حول توفير Claude لشركات قد تستحوذ عليها OpenAI قائلًا: 'أعتقد أنه سيكون أمرًا غريبًا أن نبيع Claude لشركة مثل OpenAI'. يأتي هذا التطور في وقت تتزايد فيه المنافسة بين شركات الذكاء الاصطناعي الكبرى على تطوير نماذج متقدمة، وسط تساؤلات عن ممارسات الاستخدام العادل للتقنيات المشتركة بين اللاعبين الرئيسيين في السوق.