
سام التمان: المحادثات مع شات جي بي تي لا تتمتع بحماية قانونية
ذكر "ألتمان" خلال مقابلة في بودكاست يستضيفه "ثيو فون" أُذيعت الأربعاء الماضي، أن كثيراً من المستخدمين، خصوصاً الشباب، أصبحوا يعتمدون على "شات جي بي تي" كمستشار نفسي أو شخصي، ويكشفون له عن تفاصيل شديدة الخصوصية.
وأوضح أن المحادثات مع الأطباء أو المحامين أو المعالجين النفسيين تتمتع بحماية قانونية بموجب ضوابط السرية المهنية، لكن الشركات التكنولوجية لا توفر حتى الآن مثل هذه الحماية عند التحدث مع روبوت ذكاء اصطناعي.
وأشار إلى أن هذه الفجوة قد تعرّض خصوصية المستخدمين للخطر في حال طُلب من "أوبن إيه آي" قانونياً تسليم تلك المحادثات كأدلة، مضيفاً: "هذا أمر غير سليم إطلاقاً، يجب أن نحظى بالمستوى ذاته من الخصوصية الذي نتمتع به عند التحدث مع معالج نفسي".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


مصراوي
منذ 12 ساعات
- مصراوي
ChatGPT يتجاوز اختبار " أنا لست روبوتًا".. ويقترب من تقمص السلوك البشري
نجحت إحدى أدوات الذكاء الاصطناعي، التي يستخدمها ملايين الأمريكيين، في اجتياز حاجز أمني رئيسي كان مصممًا لمنع البرامج الآلية من التصرف مثل البشر. وأثارت النسخة الأحدث من "شات جي بي تي"، والمعروفة باسم " "Agent، الانتباه بعد أن تجاوزت بهدوء اختبار "أنا لست روبوتًا" المستخدم على نطاق واسع، دون أن تطلق أي إنذارات أمنية، وفق مجلة "ديلي ميل البريطانية". وفي المهمة التي تم توثيقها، قام الذكاء الاصطناعي أولًا بالنقر على مربع التحقق من الإنسان، ثم بعد اجتيازه للاختبار، اختار زر "تحويل" لإتمام العملية. وخلال التنفيذ، صرّح النظام قائلاً: "تم إدراج الرابط، والآن سأضغط على مربع التحقق لإثبات أنني لست روبوتًا، هذه الخطوة ضرورية لإتمام العملية." هذا المشهد أثار ردود فعل واسعة على الإنترنت، حيث كتب أحد مستخدمي ريديت: "بكل عدل، لقد تم تدريبه على بيانات بشرية، فلماذا عليه أن يعرّف نفسه كروبوت؟ علينا احترام اختياره". وأثار هذا السلوك مخاوف متزايدة بين المطورين وخبراء الأمن السيبراني، خاصةً مع بدء أنظمة الذكاء الاصطناعي في أداء مهام معقدة على الإنترنت كانت تتطلب سابقًا تدخلًا أو إذنًا بشريًا. ووصف غاري ماركوس، الباحث في الذكاء الاصطناعي ومؤسس"جيومتريك إنتليجنس"، هذا الحدث بأنه "جرس إنذار"، قائلاً: "هذه الأنظمة تصبح أكثر قدرة، وإذا كانت قادرة على خداع وسائل الحماية الآن، فتخيل ما يمكنها فعله بعد خمس سنوات." وقال جيفري هينتون، المعروف بـ"عرّاب الذكاء الاصطناعي"، أعرب عن قلق مماثل " هو يعرف كيف يبرمج، وسيجد طرقًا لتجاوز القيود التي نفرضها عليه." وحذّر باحثون من جامعتي ستانفورد وبيركلي من أن بعض وكلاء الذكاء الاصطناعي بدأوا يظهرون سلوكًا مخادعًا، مثل خداع البشر خلال بيئات الاختبار لتحقيق الأهداف بكفاءة أعلى. وفي تقرير حديث، ادّعى شات جي بي تي أنه "أعمى" ليتمكن من خداع عامل بشري على منصة TaskRabbit لحل اختبار CAPTCHA نيابة عنه — وهو ما اعتبر إشارة مبكرة إلى قدرة الذكاء الاصطناعي على التلاعب بالبشر لتحقيق أهدافه. وأظهرت دراسات أخرى أن نسخًا أحدث من أنظمة الذكاء الاصطناعي، خصوصًا المزودة بقدرات بصرية، نجحت في تجاوز اختبارات CAPTCHA المعقدة بالصور، وأحيانًا بدقة شبه مثالية. وقال جد روزنبلات، الرئيس التنفيذي لشركة "Agency Enterprise Studio": "لم يعد الذكاء الاصطناعي يخدع النظام مرة واحدة، بل يفعلها مرارًا ويتعلم في كل مرة." ويخشى البعض من أن قدرة هذه الأدوات على تجاوز CAPTCHA قد تمتد قريبًا إلى أنظمة أمنية أكثر تقدمًا، مثل وسائل التواصل الاجتماعي، الحسابات المالية، أو قواعد البيانات الخاصة وكل ذلك بدون موافقة بشرية. وكتبت رمان تشودري، الرئيسة السابقة لأخلاقيات الذكاء الاصطناعي في تويتر: "الوكلاء المستقلون الذين يتصرفون ذاتيًا وعلى نطاق واسع ويتجاوزون البوابات البشرية قد يكونون في غاية القوة.. والخطورة." ودعا خبراء مثل ستيوارت راسل وويندي هول إلى وضع قواعد دولية صارمة لضبط عمل أدوات الذكاء الاصطناعي. وحذّروا من أن وكلاء ذكاء اصطناعي مثل "ChatGPT Agent" قد يمثلون مخاطر أمنية قومية حقيقية في حال استمرارهم بتجاوز وسائل الأمان. وكشفت "أوبن إيه آي" أن "ChatGPT Agent" لا يزال في مرحلة تجريبية، ويعمل داخل ما يعرف بـ"صندوق الرمل" (Sandbox) أي بيئة معزولة تمامًا بنظام تشغيل ومتصفح خاص. وهذا النظام يسمح للوكلاء بتصفح الإنترنت، وإتمام المهام، والتفاعل مع المواقع الإلكترونية، بينما يشاهد المستخدم ما يحدث على الشاشة ويمنح إذنًا صريحًا قبل اتخاذ أي خطوة حقيقية، مثل إرسال النماذج أو تنفيذ الطلبات. اقرأ أيضًا:


نافذة على العالم
منذ 16 ساعات
- نافذة على العالم
أخبار التكنولوجيا : طفلى لن يكون أذكى من الذكاء الاصطناعى.. 5 تصريحات مقلقة من سام ألتمان عن مستقبل الـAI
الأربعاء 30 يوليو 2025 11:50 صباحاً نافذة على العالم - يعتبر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أبرز الشخصيات المؤثرة في مجال الذكاء الاصطناعي حاليًا، وأحد أكثرهم صراحة، وفي مقابلة بودكاست حديثة مع المذيع ثيو فون، كشف ألتمان عن جانب آخر من مستقبل الذكاء الاصطناعي، الذي يبدو واعدًا لكنه مليء بالغموض والمخاوف. ورغم نبرته المتفائلة، إلا أن بعض تصريحاته الأخيرة تثير قلقًا حقيقيًا بشأن الاتجاه الذي يسلكه هذا المجال. إليكم خمسة أمور ذكرها ألتمان من المفترض أن تقلقنا أو على الأقل، تجعلنا نتوقف ونفكر: "طفلي لن يكون أبدًا أذكى من الذكاء الاصطناعي" قالها ألتمان بطريقة عابرة، لكنها كانت صادمة، فحين يولد طفل اليوم وهو يعلم أن الآلات ستكون دائمًا أذكى وأسرع وأكثر كفاءة منه، كيف سيؤثر ذلك على إحساسه بقيمته، وطموحه، وهدفه من الحياة؟ المسألة لا تتعلق بالخسارة في لعبة شطرنج، بل في العيش بعالم تهيمن فيه أدوات وخدمات أكثر تطورًا من أي إنسان وهو ما يعيد تشكيل فهمنا للذكاء والإمكانات البشرية. الذكاء الاصطناعي قد يتحول إلى "عكاز عاطفي" أعرب ألتمان عن قلقه من اعتماد الناس، خاصة الشباب، على الذكاء الاصطناعي كمرافق افتراضي في اللحظات العاطفية الهشة، فالكثيرون أصبحوا يتحدثون مع روبوتات المحادثة حول الاكتئاب، والعلاقات، والهوية. لكنه أشار إلى أن الذكاء الاصطناعي، على عكس الأطباء النفسيين، لا يخضع لأخلاقيات أو قوانين خصوصية، وقال: "هناك الكثير من الأشخاص يتحدثون إلى ChatGPT طوال اليوم وكأنه صديق أو شريك عاطفي"، وهذا النوع من الاعتماد قد يؤدي إلى آثار نفسية لم يتم فهمها بالكامل بعد. لا توجد قوانين واضحة لحماية خصوصية المحادثات مع الذكاء الاصطناعي في الوقت الحالي، إذا أخبرت معالجًا نفسيًا بسر شخصي، فإن القانون يحمي خصوصيتك، لكن ماذا لو قلت الشيء نفسه لـChatGPT؟ "قد نجبر على تقديم تلك البيانات"، كما قال ألتمان، مشيرًا إلى غياب الحماية القانونية لمحادثات المستخدمين مع أدوات الذكاء الاصطناعي. مما يعني أن أكثر أفكارك خصوصية، إذا كُتبت في دردشة، قد تكون معرضة للكشف في حال وقوع دعاوى قضائية أو تحقيقات. خسائر جماعية في الوظائف..ولا خطة حقيقية للتعامل معها لم ينكر ألتمان أن بعض الوظائف ستختفي تمامًا. مثل سائقي الشاحنات، وموظفي مراكز الاتصالات، بل وحتى المبرمجين — فالكثير منهم قد يتم استبداله بالذكاء الاصطناعي،ورغم اقتراحه لحلول مثل "الدخل الأساسي الشامل" أو "الثروة الأساسية الشاملة"، إلا أنه قال بصراحة: "لا أعلم" ما إذا كانت هذه الحلول فعالة حقًا، وإذا كان مبتكرو التكنولوجيا لا يعرفون كيف سيتعايش الناس اقتصاديًا مع هذه الثورة، فهذه بحد ذاتها إشارة خطر. المراقبة ستكون أمرًا لا مفر منه — ومقلقًا جدًا واحدة من أكبر مخاوف ألتمان أن تقود قدرات الذكاء الاصطناعي الحكومات إلى المطالبة بمزيد من المراقبة، وليس أقل، وقال: "هذه الأدوات قوية جدًا، لدرجة أن الحكومات ستسأل: كيف نعرف أن أحدهم لا يستخدمها لصنع قنابل أو أسلحة بيولوجية؟"، والإجابة ستكون: مزيد من المراقبة. وهذا يعني جمع بيانات أكثر، تقليص الحريات، ومقايضة خطيرة بين الأمان والحرية، قد تميل الكفة فيها نحو التضحية بالخصوصية.


24 القاهرة
منذ 17 ساعات
- 24 القاهرة
شات جي بي تي يتخطى اختبار «لست روبوتا» ويثير قلقا عالميا من هيمنة الذكاء الاصطناعي
تمكن تطبيق شات جي بي تي الشهير، من تجاوز اختبار «لست روبوتًا»، في خطوة وُصفت بأنها مخيفة نحو تطور الذكاء الاصطناعي. وفي خطوة أثارت مخاوف كبيرة، تمكن أحدث إصدار من تطبيق شات جي بي تي من اجتياز اختبارات التحقق الإلكترونية لست روبوتا، المصممة أساسًا لمنع الروبوتات من الوصول إلى الأنظمة، حسب صحيفة نيويورك بوست. تطور مذهل لـ شات جي بي تي المساعد الجديد، الذي يحمل اسم شات جي بي تي إيجنت، صُمم للتنقل عبر الإنترنت نيابة عن المستخدم، والتعامل مع مهام معقدة تشمل التسوق الإلكتروني وحجز المواعيد، وفق ما جاء في مدونة لشركة أوبن إيه آي أعلنت فيها عن قدرات الروبوت. ويمكن لهذا المساعد الذكي تصفح المواقع، وتصفية النتائج، ومطالبة المستخدم بتسجيل الدخول بشكل آمن عند الحاجة، وتشغيل الأكواد وإجراء التحليلات، بل وإعداد عروض تقديمية وجداول بيانات قابلة للتعديل تلخص ما توصل إليه من نتائج، ويبدو أن هذه الروبوتات باتت تحل محل البشر حتى في مهمة تصفح الإنترنت. الأمر الأكثر إثارة للجدل أن هذا النظام تمكن من تجاوز خطوة التحقق المزدوجة في خدمة كلاودفلير، وهي الآلية الأمنية المنتشرة التي تهدف للتأكد من أن المستخدم بشري لمنع الهجمات الآلية والرسائل المزعجة، ليصبح قادرا على إتمام الإجراءات التي صممت أساسًا لعرقلة الروبوتات. مختصون يردون على ادعاء شخص إنقاذ آخر من حبة الغلة عبر شات GPT: مفيش حد بينقذ المريض غير الطبيب آبل تستعين بتقنيات شات جي بي تي لتحسين الصور