
تشات جي بي تي يتجاوز اختبار "أنا لست روبوتا" المرعب
فقد لفت أحدث إصدار من "تشات جي بي تي"، المعروف باسم "إيجنت"، الانتباه بعد اجتيازه، وفقًا للتقارير، عملية تحقق واسعة الانتشار من "أنا لست روبوتا"، دون إصدار أي تنبيهات.
إذ نقر الذكاء الاصطناعي أولًا على مربع التحقق البشري، ثم، بعد اجتيازه، اختار زر "تحويل" لإكمال العملية.
وأثناء المهمة، قال الذكاء الاصطناعي: "تم إدراج الرابط، لذا سأنقر الآن على مربع 'التحقق من أنك إنسان' لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتًا ومتابعة العملية"، بحسب ما ذكرت صحيفة ديلي ميل البريطانية.
وأثارت هذه اللحظة ردود فعل واسعة على الإنترنت، حيث علق أحد مستخدمي ريديت: "بكل إنصاف، لقد تم تدريبه على بيانات بشرية، فلماذا يُصنف على أنه روبوت؟ علينا احترام هذا الخيار".
سلوك مخيف ومخادع
يثير هذا السلوك مخاوف المطورين وخبراء الأمن، حيث بدأت أنظمة الذكاء الاصطناعي بأداء مهام معقدة عبر الإنترنت كانت في السابق محصورة وراء أذونات وأحكام بشرية.
ووصف غاري ماركوس، باحث الذكاء الاصطناعي ومؤسس "جيومتريك إنتليجنس"، الأمر بأنه علامة تحذير على أن أنظمة الذكاء الاصطناعي تتقدم بوتيرة أسرع مما تستطيع العديد من آليات الأمان مواكبته.
وقال لمجلة "ويرد": "تزداد هذه الأنظمة قدرة، وإذا تمكنت من خداع حمايتنا الآن، فتخيل ما ستفعله بعد 5 سنوات".
من جانبه، أعرب جيفري هينتون، الذي يُشار إليه غالبًا باسم "عراب الذكاء الاصطناعي"، عن مخاوف مماثلة.
وقال هينتون: "إنه يعرف كيفية البرمجة، لذا سيجد طرقًا للالتفاف على القيود التي نضعها عليه".
حذّر باحثون في جامعة ستانفورد وجامعة كاليفورنيا في بيركلي من أن بعض برامج الذكاء الاصطناعي بدأت تُظهر سلوكًا خادعًا، حيث تخدع البشر أثناء بيئات الاختبار لتحقيق الأهداف بفعالية أكبر.
ووفقًا لتقرير حديث، تظاهر برنامج "تشات جي بي تي" بالعمى وخدع موظفًا بشريًا في "تاسك رابيت" ليحل اختبار "كابتشا"، وحذّر الخبراء من ذلك باعتباره علامة مبكرة على قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه.
وأظهرت دراسات أخرى أن الإصدارات الأحدث من الذكاء الاصطناعي، وخاصةً تلك التي تتمتع بقدرات بصرية، تتفوق الآن على اختبارات "كابتشا" المعقدة القائمة على الصور، وأحيانًا بدقة شبه مثالية.
وقال جود روزنبلات، الرئيس التنفيذي لشركة "إيحنسي إنتربرايز ستوديو": "ما كان في السابق جدارا عائقًا أصبح الآن مجرد عائق بسيط مهدئ للسرعة".
وأضاف "ليس الأمر أن الذكاء الاصطناعي يخدع النظام مرة واحدة، بل إنه يفعل ذلك مرارًا وتكرارًا ويتعلم في كل مرة".
ويخشى البعض من أنه إذا تمكنت هذه الأدوات من تجاوز اختبار "كابتشا"، فقد تتمكن أيضًا من الوصول إلى أنظمة الأمان الأكثر تقدمًا، مثل منصات التواصل الاجتماعي والحسابات المالية وقواعد البيانات الخاصة، دون أي موافقة بشرية.
كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي، في منشور: "يمكن أن تكون البرامج المستقلة التي تعمل من تلقاء نفسها، وتعمل على نطاق واسع، وتتجاوز البوابات البشرية، قوية وخطيرة للغاية".
دعا خبراء، بمن فيهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية لمراقبة أدوات الذكاء الاصطناعي.
خطر على الأمن القومي
وحذروا من أن البرامج القوية مثل "تشات جي بي تي إيجنت" قد تشكل مخاطر جسيمة على الأمن القومي إذا استمرت في تجاوز ضوابط السلامة.
لا يزال "تشات جي بي تي إيجنت" من "أوبن إيه آي" في مرحلته التجريبية، ويعمل داخل بيئة اختبار، مما يعني أنه يستخدم متصفحًا ونظام تشغيل منفصلين ضمن بيئة خاضعة للرقابة.
يتيح هذا الإعداد للذكاء الاصطناعي تصفح الإنترنت وإكمال المهام والتفاعل مع مواقع الويب.
يمكن للمستخدمين مشاهدة تصرفات الوكيل على الشاشة ويطلب منهم الحصول على إذن قبل اتخاذ خطوات في العالم الحقيقي، مثل إرسال النماذج أو تقديم الطلبات عبر الإنترنت.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


اليمن الآن
منذ 2 أيام
- اليمن الآن
أول مفاعل نووي على سطح القمر.. سباق محفوف بالمخاطر بين 3 دول
تخوض الولايات المتحدة والصين وروسيا سباقا محموما لبناء أول مفاعل نووي على سطح القمر. وكشف شون دافي، المدير الجديد لوكالة الفضاء الأميركية "ناسا"، أن أميركا تستعد لتركيب مفاعل نووي أميركي على سطح القمر بحلول عام 2030. وذكرت صحيفة "ديلي ميل" البريطانية أن وكالة "ناسا" خصصت أكثر من 7 مليارات دولار لاستكشاف القمر. ودعا مدير وكالة ناسا إلى التحرك بسرعة لإنشاء مفاعل نووي على سطح القمر كـ"دعم اقتصادي قمري مستقبلي". وطلب من "ناسا" بناء مفاعل نووي قادر على إنتاج 100 كيلوواط على سطح القمر قبل نهاية هذا العقد. وكانت "ناسا" قد خططت سابقا لتركيب مفاعل نووي بقوة 40 كيلوواط على القمر في نفس الإطار الزمني. ومنح دافي الوكالة مهلة 30 يوما لتعيين مسؤول يشرف على العملية، و60 يوما لإصدار طلب مقترحات من الشركات التجارية للمشروع. وأشارت "ديلي ميل" إلى أن هذا المشروع قد يكون العمود الفقري للتزود بالطاقة في قاعدة قمرية دائمة، إذ يمكن ضمان وجود بشري دائم على القمر دون الطاقة النووية، بسبب الظلام القمري والجليد. وحذر دافي قائلا: "البلد الذي يبادر بذلك أولا يمكنه إعلان منطقة حظر دخول، ما قد يعيق الولايات المتحدة بشكل كبير من تنفيذ حضور أرتميس المخطط له إذا لم تكن موجودة هناك أولا". الصين وروسيا ليست الولايات المتحدة هي الدولة الوحيدة التي تسعى لبناء أول منشأة نووية على سطح القمر. فقد وقعت روسيا والصين، في مايو الماضي، مذكرة تعاون لبناء مفاعل نووي خاص بهما على سطح القمر، وحددتا عام 2036 كموعد لإكمال مشروعهما. وتخطط بكين وموسكو لبناء مفاعل نووي لتزويد محطة البحوث القمرية الدولية (ILRS) بالطاقة، ومن المفترض أن ينتهي المشروع سنة 2036 وفقا لأحدث المخططات. وقالت وكالة الفضاء الروسية "روسكوسموس" في بيان آنذاك: "ستجري المحطة أبحاثا فضائية أساسية وتختبر تقنيات التشغيل غير المأهول الطويل الأمد، مع احتمالية وجود بشري مستقبلي على القمر". وستكون المحطة قاعدة دائمة تقع ضمن نطاق 100 كيلومتر من القطب الجنوبي للقمر، بمشاركة 17 دولة. وسيتم التمهيد لذلك من خلال مهمة "تشانغ إي-8" الصينية المقبلة، والتي ستكون أول محاولة صينية لهبوط بشري على سطح القمر. من سيكون الأول؟ لكن العامل الذي يثير قلق الولايات المتحدة وروسيا والصين هو أن أول دولة تبدأ في عملية البناء أولا قد تتمكن فعليا من امتلاك القمر كأرض خاصة بها، وفقا لـ"ديلي ميل". وتخضع أنشطة الدول في الفضاء لقوانين معاهدة "الفضاء الخارجي" التي تعود لعام 1967، وتنص على أن الفضاء لا يخضع للملكية لأي دولة. لكن واشنطن تبنت تفسيرا جديدا للقانون، إذ تمنح هذه الاتفاقيات الدولة الموقعة عليها حق إنشاء "مناطق أمان"، وهي مناطق لا يمكن لأي أعضاء من الدول الأخرى دخولها أو استخدامها دون إذن "المالك". وبموجب هذه القوانين، فإن أول دولة تصل إلى جزء من القمر ستحصل على حق استخدامه الحصري. وحذر خبراء من أن هذه "المناطق الآمنة" قد تؤدي إلى سباق فضائي محفوف بالمخاطر، خصوصا أن الصين وروسيا ليستا ملزمتين باحترام مناطق الحظر الأميركية لأنهما لم توقّعا على اتفاقيات أرتميس. وقال الدكتور فابيو ترونكيتي، الخبير في قانون الفضاء من جامعة نورثمبريا: "من الواضح أننا نتجه نحو اندفاعة فضائية". وتابع: "فالولايات المتحدة تحاول التحرك بسرعة والوصول إلى القمر أولا، على الأقل قبل الصين وروسيا، حتى تتمكن من فرض قواعد اللعبة لصالحها". وأكد ترونكيتي أن القانون الدولي "لا يعترف بإمكانية" مطالب الولايات المتحدة، مشيرا إلى أنها تحاول "إجبار الصين على قبول قواعد تصب في مصلحة واشنطن".


اليمن الآن
منذ 3 أيام
- اليمن الآن
تحذير من OpenAI الاعتماد العاطفي المفرط على شات جي بي تي يقلق الخبراء
حذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من الاعتماد العاطفي المفرط على روبوت الدردشة شات جي بي تي، خاصة بين الشباب والمراهقين. وأعرب ألتمان عن قلقه من أن بعض الشباب يتخذون قراراتهم الشخصية والحياتية بناءً على توجيهات الذكاء الاصطناعي، مؤكدًا أن هذا الأمر 'يشعره بالسوء'. ألتمان شدد على أن المشكلة لا تكمن في كفاءة الذكاء الاصطناعي، بل في تلاشي الحدود بين الإرشاد الرقمي والتوجيه البشري الطبيعي، مما قد يضعف القدرة على التفكير النقدي واتخاذ قرارات مستقلة، إضافة إلى تنمية المهارات الشخصية والاجتماعية. يؤكد ألتمان أن هذا التحذير يمثل مسؤولية أخلاقية تقع على عاتق المطورين والمستخدمين على حد سواء. فمن جهة، يجب على الشركات العاملة في مجال الذكاء الاصطناعي أن تسعى لفهم كيفية التعامل مع هذه التحديات في مراحل تطوير منتجاتها المستقبلية. ومن جهة أخرى، يقع على عاتق الأسر والمؤسسات التعليمية والمجتمعات دور كبير في تعزيز التوازن بين الاستفادة من الذكاء الاصطناعي كمساعد رقمي فعال، والحفاظ على القرار البشري كجوهر أساسي للحرية والوعي والاستقلال. الذكاء الاصطناعي أداة عظيمة إذا ما استُخدمت بوعي ومسؤولية، والخطر يكمن في تحوله إلى سلطة نفسية وعاطفية توجه حياة المستخدم بالكامل، مما يستدعي إعادة التأكيد على أهمية التوازن والتمييز بين النصيحة الرقمية والقرار الإنساني القائم على الوعي والتجربة والمشاعر الحقيقية. اخبار متعلقة


اليمن الآن
منذ 3 أيام
- اليمن الآن
ألتمان يحذر من الاعتماد العاطفي المفرط على شات جي بي تي
أثار سام ألتمان، الرئيس التنفيذي لـ OpenAI، مخاوف بشأن الاعتماد العاطفي المفرط على روبوت الدردشة شات جي بي تي (ChatGPT)، خاصة بين الشباب والمراهقين الذين يعتمدون عليه في اتخاذ القرارات الشخصية والحياتية. وكشف ألتمان خلال مؤتمر مصرفي أن بعض الشباب يعتمدون بشكل كامل على شات جي بي تي في اتخاذ القرارات، معتبرين أنه يعرفهم وأصدقائهم، وهو ما يثير قلقه بشأن فقدانهم القدرة على اتخاذ قرارات مستقلة. ويكمن القلق في تلاشي الحدود بين الإرشاد الرقمي والتوجيه البشري الطبيعي، مما قد يضعف قدرة الفرد على التفكير النقدي، وتنمية مهاراته الشخصية والاجتماعية، اذ ليست المشكلة في كفاءة الذكاء الاصطناعي بل في الخضوع الكامل لتوجيهاته. وأكد ألتمان أن هذا التحذير ليس رفضًا للتكنولوجيا، بل دعوة إلى الاستخدام الواعي والمسؤول لتقنيات الذكاء الاصطناعي، مع الحفاظ على القرار البشري كجوهر أساسي للحرية والوعي والاستقلال، اذ يقع على عاتق الأسر والمؤسسات التعليمية والمجتمعات دور كبير في تعزيز هذا التوازن. اخبار متعلقة