تحذيرات بشأن خصوصية محادثات «ChatGPT».. سام ألتمان يكشف مخاطر قانونية وأمنية
قال ألتمان في تصريحات حديثة إن قطاع الذكاء الاصطناعي لم يصل بعد إلى مستوى الحماية الكاملة لخصوصية المستخدمين، مؤكدًا أن المحادثات مع «شات جي بي تي» قد تخضع للمراجعة البشرية، كما يمكن أن تُطلب قانونياً وتستخدم في المحاكم إذا صدرت أوامر قضائية رسمية بذلك. وأضاف:
«نفعل ما بوسعنا لحماية خصوصية المستخدم، لكن إذا طُلب منا قانونياً تسليم المعلومات، فعلينا الامتثال».
ad
هذه التصريحات تثير مخاوف متزايدة مع تزايد اعتماد الأفراد على تقنيات الذكاء الاصطناعي في حياتهم اليومية، بدءًا من تنظيم المهام والتخطيط للسفر، وصولًا إلى طلب نصائح مهنية أو حتى التحدث عن مشكلات شخصية.
هل يجمع «ChatGPT» بيانات المستخدمين؟
الإجابة هي نعم. إذ يجمع النموذج اللغوي الضخم بيانات متنوعة، منها:
ad
عنوان IP ونوع المتصفح والجهاز المستخدم.
الموقع الجغرافي والتوقيت المحلي.
جميع البيانات والمحتوى الذي يُدخله المستخدم في المحادثات.
كما يستخدم ملفات تعريف الارتباط (Cookies) ويسجل بيانات الاستخدام لأغراض التعلم وتحسين الأداء.
كيفية استخدام «ChatGPT» بأمان
ينصح خبراء الأمن السيبراني بعدم الاعتماد على إجراءات المنصة وحدها، بل استخدام وسائل حماية إضافية، مثل:
تفعيل شبكة VPN.
تحديث برامج مكافحة الفيروسات باستمرار.
الاعتماد على أدوات تشفير موثوقة للحفاظ على سرية البيانات.
أبرز المخاطر التي يجب الحذر منها
التصيد الاحتيالي المدعوم بالذكاء الاصطناعي
يستغل المخترقون البيانات الحساسة لإنشاء رسائل بريد إلكتروني أو رسائل وهمية مقنعة للغاية، ما يصعّب تمييزها عن الرسائل الأصلية.
النصيحة: تحقق من المصدر الرسمي قبل النقر على أي رابط.
البرمجيات الخبيثة المتطورة
يمكن للمجرمين استخدام الذكاء الاصطناعي لتوليد برمجيات ضارة قادرة على تغيير سلوكها لتجنب اكتشافها.
المعلومات غير الدقيقة والمضللة
يعاني «ChatGPT» من مشكلة تقديم إجابات قديمة أو غير دقيقة في بعض المواضيع، وهو ما أكدته دراسة مشتركة بين جامعة ستانفورد وجامعة كاليفورنيا، بيركلي، في أغسطس 2023.
التطبيقات والإضافات المزيفة
هناك تطبيقات تدّعي أنها مرتبطة بـ«ChatGPT» لكنها في الحقيقة خبيثة، ويمكن أن تعرض جهازك للاختراق عند تنزيلها.
غياب الامتياز القانوني
أكد ألتمان أن «ChatGPT» لا يتمتع بسرية قانونية مثل علاقة العميل بالمحامي أو الطبيب النفسي، ما يعني أن أي معلومات شخصية أو اعترافات قد تكون عرضة للاستخدام القانوني إذا اقتضى الأمر.
هل يمكن للمحاكم الوصول إلى محادثات «ChatGPT»؟
وفق خبراء قانونيين، يمكن استدعاء بيانات المحادثات في حال صدور أمر قضائي رسمي. وفي بعض الدول التي تفتقر لقوانين حماية بيانات واضحة، قد تصبح هذه البيانات عرضة للاستغلال من قبل جهات أمنية أو حكومية.
في ظل هذه المخاطر، ينصح الخبراء بعدم استخدام «ChatGPT» في القضايا الحساسة أو التي تتطلب سرية مطلقة، والحرص على حماية البيانات الشخصية أثناء تصفح الإنترنت.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الوئام
منذ 19 دقائق
- الوئام
أوبن إيه آي تتيح ذكاء اصطناعي يعمل حسب الطلب
أعلنت شركة 'أوبن أيه آي' المطورة لمنصة الذكاء الاصطناعي 'شات جي بي تي' عن إطلاق نموذجين جديدين 'مفتوحين' من الذكاء الاصطناعي يمكن تخصيصهما وتشغيلهما بحسب الطلب على جهاز كمبيوتر محمول، حسبما ذكرت الشركة، الثلاثاء. ويطلق على النموذجين وهما 'جي بي تي- او اس اس- 120بي' و'جي بي تي- او اس اس- 20بي' ما يسمى 'نماذج لغة مفتوحة الوزن' والتي تسمح للمستخدمين بالوصول إلى معايير الذكاء الاصطناعي وتخصيصها، في ابتعاد عن منصة 'شات جي بي تي' والتي تستند إلى نموذج 'مغلق'. وغالبا ما تستخدم هذه النماذج بواسطة الشركات التي تستخدم الذكاء الاصطناعى المصممة لتلبية احتياجاتها على خوادمها الخاصة. ولم تذكر 'أوبن أيه آي' البيانات التي تم استخدامها لتدريب النماذج الجديدة. ومثل أدوات الذكاء الاصطناعي الأخرى التي تستخدم لتوليد النصوص، يمكن للنموذجين 'جي بي تي- او اس اس- 120بي' و'جي بي تي- او اس اس- 20بي' كتابة الشفرات والبحث عبر الإنترنت عند الطلب منهما.


الوئام
منذ 4 ساعات
- الوئام
OpenAI تطلق نموذجين مفتوحي المصدر لمنافسة المختبرات الصينية
أعلنت شركة OpenAI عن إطلاق نموذجين جديدين للذكاء الاصطناعي مفتوحي الوزن، gpt-oss-120b وgpt-oss-20b، وهما متاحان مجانًا عبر منصة Hugging Face للمطورين. وصفت الشركة النموذجين بأنهما يمثلان أحدث ما توصلت إليه التقنية عند مقارنتهما بالنماذج المفتوحة الأخرى المتاحة حاليًا. المواصفات الفنية يأتي النموذجان بحجمين مختلفين لتلبية احتياجات متنوعة؛ حيث يتطلب النموذج الأكبر gpt-oss-120b بطاقة رسوميات واحدة من نوع Nvidia لتشغيله، بينما يمكن تشغيل النموذج الأصغر gpt-oss-20b على حاسوب محمول بذاكرة وصول عشوائي (RAM) تبلغ 16 جيجابايت. تحول استراتيجي يمثل هذا الإطلاق أول نماذج لغوية مفتوحة للشركة منذ إطلاق GPT-2 قبل أكثر من خمس سنوات، ويأتي في ظل ضغوط متزايدة من المختبرات الصينية مثل DeepSeek وQwen، التي طورت نماذج مفتوحة ذات قدرات عالية. كما تأتي الخطوة استجابةً لدعوة الإدارة الأمريكية للمطورين بفتح مصادر تقنياتهم لتعزيز تبني الذكاء الاصطناعي المتوافق مع القيم الأمريكية. الأداء والقيود أظهرت الاختبارات تفوق النموذجين على النماذج المفتوحة المنافسة في مهام مثل البرمجة، ولكنهما لا يزالان أقل أداءً من نماذج OpenAI المغلقة مثل o3 وo4-mini. ولوحظ أن النموذجين الجديدين يعانيان من معدلات 'هلوسة' (تقديم معلومات غير دقيقة) أعلى بكثير من نماذج الشركة المغلقة. الترخيص وبيانات التدريب أصدرت الشركة النموذجين بموجب ترخيص Apache 2.0، الذي يسمح للشركات والمطورين باستخدام النماذج وتعديلها وتحقيق الدخل منها دون قيود. ومع ذلك، لم تكشف OpenAI عن بيانات التدريب التي استخدمتها لإنشاء هذه النماذج، وهو قرار يتماشى مع الدعاوى القضائية الحالية المتعلقة بحقوق النشر.


الرجل
منذ 5 ساعات
- الرجل
ميزة جديدة من ChatGPT.. هل تنجح OpenAI في تقليل إدمان الذكاء الاصطناعي؟
في خطوة تهدف إلى تقليل الاعتماد الزائد على الذكاء الاصطناعي، كشفت OpenAI عن ميزة جديدة داخل ChatGPT، تتمثل في تنبيهات استراحة تلقائية، تظهر للمستخدمين في حال استمر الحوار لفترة طويلة. الرسالة التي تظهر على الشاشة تسأل ببساطة: "هل هذا وقت مناسب لأخذ استراحة؟"، مع خيارين: "الاستمرار" أو "كان هذا مفيدًا"، وتهدف هذه الميزة إلى جعل المستخدم أكثر وعيًا بالوقت الذي يقضيه مع الذكاء الاصطناعي، على غرار ما تفعله بعض منصات المشاهدة. وأكدت الشركة أنها تسعى إلى تقييم نجاح ChatGPT، ليس بعدد النقرات أو الزمن المستغرق، بل بناءً على ما إذا كان المستخدم قد أنجز هدفه بالفعل. تأتي هذه المبادرة في وقت تتصاعد فيه المخاوف بشأن تأثير الذكاء الاصطناعي على الصحة النفسية والإدمان الرقمي، خاصة مع استخدام البعض للمنصات الذكية كمصدر دائم للدعم العاطفي أو الإرشاد الشخصي. هل تنجح تنبيهات الاستراحة في الحد من إدمان الذكاء الاصطناعي؟ ورغم النوايا الجيدة، فإن بعض الخبراء يشككون في مدى فعالية هذا النوع من "الرسائل اللطيفة"، وتقول د. آنا ليمبكي، أستاذة الطب النفسي في جامعة ستانفورد، إن هذه الإشعارات قد تفيد الأشخاص الذين لم يدخلوا بعد في مرحلة الإدمان الحقيقي، لكنها ليست كافية لمن يعانون من استخدام قهري للمنصة. وأشارت د. ليمبكي، إلى أن الشركات التكنولوجية لم تكشف حتى الآن عن بيانات واضحة تثبت نجاح هذه الأساليب في تغيير السلوك على المدى الطويل، فيما ترى أن الحل يكمن في تحديد الاستخدام بوعي، مثل تخصيص أيام محددة لاستخدام المنصات، وكتابة قائمة بالأهداف التي يريد المستخدم تحقيقها داخل التطبيق، لتجنب الانغماس في محادثات جانبية أو تصفح غير هادف. كيف تعالج OpenAI تأثير ChatGPT على الصحة النفسية؟ لم تقتصر تعديلات OpenAI على تذكيرات الاستراحة فقط، بل أشارت إلى أنها تعمل على تحسين استجابة ChatGPT للحالات العاطفية والنفسية، بعد أن أظهرت بعض التجارب السابقة عدم قدرة النموذج على التعرف على علامات الاضطراب أو الهلوسة لدى المستخدمين. كما أكدت الشركة أنها تعمل على تدريب النماذج لاكتشاف مؤشرات الضغط النفسي وتحويل المستخدم إلى مصادر موثوقة عند الحاجة. كما تعمل OpenAI على ضبط طريقة تفاعل ChatGPT مع الأسئلة الحساسة المتعلقة باتخاذ قرارات شخصية، مثل "هل يجب أن أنفصل عن شريكي؟"، حيث سيُمنع النموذج من تقديم إجابات مباشرة، بل سيساعد المستخدم على التفكير، من خلال طرح أسئلة تساعده على التقييم الذاتي. في النهاية، يبقى السؤال: هل تُعد تنبيهات التوقف هذه كافية فعلًا لتغيير سلوك المستخدم؟ أم أنها مجرد خطوة رمزية وسط موجة من الاستخدام المتصاعد للذكاء الاصطناعي؟ الوقت فقط كفيل بالإجابة.