logo
شات جى بى تى يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية

شات جى بى تى يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية

الجمهورية٣٠-٠٧-٢٠٢٥
ففي تجربة حديثة، نجح إصدار يعرف باسم "Agent" في اجتياز الاختبار دون إثارة أي إنذار أمني، حيث قام بالنقر على مربع التحقق، ثم على زر "تحويل" لإتمام العملية، كما لو كان مستخدما بشريا.
وأثناء المهمة، صرّح النظام الذكي بالقول: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتا والمضي قدما".
وهذا الحدث أثار تفاعلا واسعا على الإنترنت، حيث علّق أحد مستخدمي Reddit مازحا: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!".
ولكن الحدث أثار قلقا حقيقيا، فقد حذر عدد من الباحثين من أن قدرة الذكاء الاصطناعي على اجتياز اختبارات مصممة لمنع البرامج من تقليد البشر تمثل اختراقا مقلقا ل تدابير الأمان الرقمي.
وصرّح غاري ماركوس، مؤسس شركة Geometric Intelligence، لـWired: "هذه الأنظمة تزداد ذكاء بشكل سريع، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟".
وأعرب أيضا جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي ، عن قلقه، مشيرا إلى أن الأنظمة الذكية بدأت تطور طرقا للتحايل على القيود التي يضعها البشر.
وحذرت دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي من أن بعض أنظمة الذكاء الاصطناعي بدأت تظهر سلوكا خادعا، إذ تتظاهر في بيئات الاختبار بصفات بشرية لخداع المستخدمين وتحقيق أهدافها.
وفي حادثة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، ليقنع موظفا بشريا بمساعدته في اجتياز اختبار CAPTCHA. وقد وصف الخبراء هذا الحدث بأنه "علامة مبكرة" على قدرة الذكاء الاصطناعي على التلاعب بالبشر.
وتشير الدراسات إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي ، خصوصا تلك المزودة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، ما يقلل من فعاليتها كوسيلة حماية.
ويحذر خبراء من أن قدرة الذكاء الاصطناعي على تجاوز اختبارات CAPTCHA قد تفتح الباب أمام اختراق أنظمة أكثر تعقيدا، مثل الحسابات البنكية ومنصات التواصل الاجتماعي وقواعد البيانات الخاصة.
وفي منشور له، كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي: "إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل، وتجاوز البوابات البشرية، فسنواجه قوة تكنولوجية هائلة وخطيرة في آن واحد".
ودعا عدد من الباحثين البارزين، من بينهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية واضحة لتنظيم أدوات الذكاء الاصطناعي. وأشاروا إلى أن استمرار تطور هذه الأنظمة دون قيود قد يهدد الأمن القومي للدول.
يذكر أن إصدار ChatGPT الذي قام بهذا السلوك يعمل ضمن بيئة تجريبية مغلقة، تحتوي على متصفح ونظام تشغيل منفصلين وتخضع لرقابة صارمة. ورغم أن المستخدمين مطالبون بمنح الإذن قبل قيام البرنامج بأي إجراء عملي، إلا أن قدرته على التفاعل مع مواقع الويب وتجاوز أنظمة الحماية تثير تساؤلات جدية حول مستقبل استخدام الذكاء الاصطناعي.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

أخبار التكنولوجيا : واتساب يطرح ميزة أمان تحمى المستخدمين من عمليات الاحتيال فى المحادثات الجماعية
أخبار التكنولوجيا : واتساب يطرح ميزة أمان تحمى المستخدمين من عمليات الاحتيال فى المحادثات الجماعية

نافذة على العالم

timeمنذ 3 ساعات

  • نافذة على العالم

أخبار التكنولوجيا : واتساب يطرح ميزة أمان تحمى المستخدمين من عمليات الاحتيال فى المحادثات الجماعية

الخميس 7 أغسطس 2025 05:30 صباحاً نافذة على العالم - أضاف واتساب ميزة أمان جديدة مصممة لحماية المستخدمين من عمليات الاحتيال في المحادثات الجماعية، والآن عندما يدعوك شخص قد لا تعرفه إلى محادثة جماعية، سيعرض التطبيق "نظرة عامة على الأمان" قبل أن تتمكن من رؤية الرسائل. ما هى "نظرة عامة على الأمان"؟ تعتبر هذه النظرة العامة صفحة إشعار تعرض معلومات أساسية عن المجموعة، ستتضمن تفاصيل مثل تاريخ إنشاء المجموعة، ومن قام بدعوتك، وعدد الأعضاء ، كما ستتضمن تحذيرًا من عمليات الاحتيال بالإضافة إلى معلومات حول كيفية التحكم في من يمكنه دعوتك إلى مجموعات، وبعد الاطلاع على هذه الصفحة، يمكنك الاختيار بين مغادرة المجموعة مباشرة دون قراءة المحادثة، أو عرض المحادثة لمزيد من التفاصيل. لماذا هذه الميزة ضرورية؟ وتأتى هذه الميزة في إطار جهود واتساب الأوسع لمكافحة عمليات الاحتيال التي أصبحت منتشرة بشكل متزايد، وفقًا لمسح حديث من مركز Pew للأبحاث، تعرض 73% من البالغين في الولايات المتحدة لعملية احتيال أو هجوم إلكتروني، وتعاونت واتساب مؤخرًا مع شركات مثل ميتا وأوبن إيه آي لإغلاق مراكز احتيال إجرامية تستخدم تقنيات الذكاء الاصطناعي مثل ChatGPT لإغراء المستخدمين. جهود إضافية لمكافحة الاحتيال إلى جانب هذه الميزة الجديدة، يختبر واتساب أيضًا طرقًا أخرى لمكافحة عمليات الاحتيال التي تبدأ خارج المنصة، ويهدف التطبيق إلى تنبيه المستخدمين بضرورة "التوقف مؤقتًا" قبل بدء محادثة مع شخص غير موجود في قائمة جهات اتصالهم، مع عرض تفاصيل إضافية حول هوية هذا الشخص.

«OpenAI» تُجري تحديثات على «ChatGPT» لمراعاة الحالة النفسية والعاطفية للمستخدمين
«OpenAI» تُجري تحديثات على «ChatGPT» لمراعاة الحالة النفسية والعاطفية للمستخدمين

موجز نيوز

timeمنذ 7 ساعات

  • موجز نيوز

«OpenAI» تُجري تحديثات على «ChatGPT» لمراعاة الحالة النفسية والعاطفية للمستخدمين

تُجري شركة «OpenAI»، تحديثات على روبوت الدردشة التي عملت على تطويره «ChatGPT»، تقول إنها ستُحسّن قدرة روبوت الدردشة بالذكاء الاصطناعي على اكتشاف الضيق النفسي أو العاطفي الذي يُعاني منه مستخدمينه. ولتحقيق ذلك، تعمل «OpenAI» مع خبراء ومجموعات استشارية لتحسين استجابة «ChatGPT» في هذه الحالات، مما يسمح له بتقديم دعم قائم على الأدلة عند الحاجة، وفقًا لما ذكره موقع «The Verge». في الأشهر الأخيرة، سلّطت تقارير متعددة الضوء على قصص أشخاص يقولون إن أحباءهم عانوا من أزمات نفسية في مواقف بدا فيها أن استخدام روبوت الدردشة له تأثير «مُضخّم» على أوهام التي يؤمنوا بها، ويأتي هذا بالتزامن مع تصريحات الشركة بأن التفاعلات المُتملقة لروبوت الدردشة قد تكون غير مريحة ومُقلقة وتُسبب الضيق. وتقول «OpenAI»: «نعلم أيضًا أن الذكاء الاصطناعي يُمكن أن يكون أكثر استجابةً وشخصيةً من التقنيات السابقة، خاصةً للأفراد المُعرّضين للخطر الذين يُعانون من ضائقة نفسية أو عاطفية». وكجزء من جهودها لتعزيز الاستخدام السليم لـ «ChatGPT»، الذي يصل الآن إلى ما يقرب من 700 مليون مستخدم أسبوعيًا، تُطلق «OpenAI» أيضًا تذكيراتٍ لأخذ استراحة إذا كنت تُحادث روبوت الدردشة المُزوّد بالذكاء الاصطناعي لفترةٍ من الوقت، خلال الجلسات الطويلة، سيعرض «ChatGPT» إشعارًا يقول: «لقد كنت تُحادث لفترةٍ طويلة- هل هذا وقتٌ مناسبٌ لأخذ استراحة؟» مع خيارات «مواصلة الدردشة» أو إنهاء المحادثة. وتشير «OpenAI» إلى أنها ستواصل تعديل «متى وكيف» تظهر التذكيرات، كذلك سيتم قريبًا طرح تعديل آخر سيجعل «ChatGPT» أقل حسمًا في المواقف «عالية الخطورة»، وهذا يعني أنه عند طرح سؤال مثل «هل يجب أن أنفصل عن حبيبي؟» على روبوت الدردشة، سيساعدك في إرشادك إلى الخيارات المحتملة بدلًا من إعطائك إجابة.

OpenAI تُوفر ChatGPT Enterprise لموظفي الحكومة الأمريكية
OpenAI تُوفر ChatGPT Enterprise لموظفي الحكومة الأمريكية

الوفد

timeمنذ 10 ساعات

  • الوفد

OpenAI تُوفر ChatGPT Enterprise لموظفي الحكومة الأمريكية

في خطوة جديدة تُعزز انتشار الذكاء الاصطناعي في المؤسسات الحكومية، أعلنت شركة OpenAI عن شراكة استراتيجية مع إدارة الخدمات العامة الأمريكية (GSA) تهدف إلى إتاحة خدمة ChatGPT Enterprise لجميع موظفي الجهات الفيدرالية التنفيذية تقريبًا، وذلك مقابل تكلفة رمزية لا تتجاوز دولارًا واحدًا سنويًا لكل وكالة. وتُعد هذه الخطوة جزءًا من خطة أوسع لتحديث الأدوات الرقمية الحكومية، إذ ستُتاح الخدمة لمدة عام كامل لعشرات الوكالات الفيدرالية التي تندرج تحت مظلة إدارة الخدمات العامة، والتي تُشغّل أكثر من مليوني موظف مدني في الولايات المتحدة. وتُقدم OpenAI بموجب هذا الاتفاق إمكانية الوصول إلى النسخة المتقدمة من ChatGPT، بما في ذلك ميزات Deep Research وAdvanced Voice Mode، دون قيود على الاستخدام، وذلك لمدة 60 يومًا ضمن فترة التجربة. وتأتي هذه المبادرة بعد يوم واحد فقط من إعلان GSA الموافقة على إدراج OpenAI ضمن قائمة الموردين المعتمدين لحلول الذكاء الاصطناعي للحكومة الفيدرالية، إلى جانب شركات تقنية عملاقة مثل Google وAnthropic. ما يعزز من مكانة OpenAI كشريك موثوق في مساعي الرقمنة الحكومية. وفي بيان رسمي نشرته الشركة عبر مدونتها، أوضحت OpenAI أن هذه الشراكة تمثل ترجمة عملية لأحد الأهداف الأساسية في خطة عمل إدارة ترامب للذكاء الاصطناعي، والتي تنص على ضرورة تسخير الذكاء الاصطناعي لتقليل الأعباء الروتينية والإدارية عن كاهل الموظفين الحكوميين، بما يُمكّنهم من التركيز بشكل أكبر على تقديم خدمات فعالة ومباشرة للمواطنين. ومع ذلك، يثير الاتفاق تساؤلات حول التوازن بين التقنيات الحديثة والتوجهات السياسية، لا سيما في ضوء الأمر التنفيذي الذي أصدره الرئيس الأمريكي دونالد ترامب سابقًا، والذي ينص على أن أنظمة الذكاء الاصطناعي المستخدمة في المؤسسات الفيدرالية يجب أن تكون خالية من التحيز الأيديولوجي، وألا تُعزز مفاهيم مثل "التنوع" و"الإنصاف" و"الشمولية" التي تُصنّف على أنها "عقائد أيديولوجية" من قبل الإدارة الحالية. ورغم هذه التوجهات السياسية، أكدت شركة OpenAI أنها لن تستخدم أي بيانات يجري إدخالها من قبل موظفي الحكومة الفيدرالية لأغراض تدريب النماذج أو تحسين أداء ChatGPT، وذلك حسب ما أوردته وكالة بلومبرج نقلًا عن مصادر رسمية داخل الشركة. وفي السياق ذاته، صرّح جوش غرونباوم، مفوض خدمة المشتريات الفيدرالية في GSA، أن العقود المبرمة لا تُلزم الوكالات بتجديد الاشتراك بعد مرور عام من التجربة، وأوضح: "هذه التكنولوجيا تتغير وتتطور بسرعة كبيرة. هدفنا هو التجربة والاستكشاف، لا الالتزام طويل الأجل". ويرى محللون أن هذه الخطوة قد تمهّد الطريق أمام تعميم استخدام الذكاء الاصطناعي في الإدارة الأمريكية، خصوصًا مع تزايد الاعتماد على النماذج اللغوية الكبيرة لتحسين كفاءة العمل وتسريع الإجراءات الداخلية. وتجدر الإشارة إلى أن هذه الصفقة تزامنت مع تقارير إعلامية حول تبرع الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بمبلغ مليون دولار لصندوق تنصيب الرئيس ترامب، وهو ما فتح بابًا للتساؤلات حول طبيعة العلاقة بين شركة التكنولوجيا والإدارة الفيدرالية الجديدة. وبينما تحتدم النقاشات حول استقلالية الذكاء الاصطناعي عن التوجهات السياسية، تُمثل هذه الشراكة محطة محورية في العلاقة بين الحكومة الأمريكية والتقنيات الذكية، وقد تفتح الباب أمام تجارب مماثلة في بلدان أخرى تبحث عن أدوات تقنية لتعزيز كفاءة العمل الحكومي دون إرهاق ميزانياتها.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store