
تحذير من استخدام شات جي بي تي كمعالج نفسي بسبب غياب الخصوصية القانونية
وقال سام ألتمان، الرئيس التنفيذي لشركة "OpenAI"، إن صناعة الذكاء الاصطناعي لم تكتشف بعد كيفية حماية خصوصية المستخدم في مثل هذه المحادثات الأكثر حساسية، نظرًا لعدم وجود سرية بين الطبيب والمريض عندما يكون طبيبك ذكاءً اصطناعيًا.
أدلى ألتمان بهذه التعليقات في حلقة حديثة من بودكاست "This Past Weekend" الذي يقدمه ثيون فون، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وردًا على سؤال حول كيفية تعامل الذكاء الاصطناعي مع النظام القانوني الحالي، قال ألتمان إن إحدى المشكلات الناتجة عن غياب إطار قانوني أو سياسي للذكاء الاصطناعي حتى الآن هي عدم وجود سرية قانونية لمحادثات المستخدمين مع الذكاء الاصطناعي.
وقال ألتمان: "الناس يتحدثون عن أكثر الأمور الشخصية في حياتهم مع شات جي بي تي"، مضيفًا: "الناس يستخدمونه -الشباب خصوصًا يستخدمونه- كمعالج نفسي، أو مدرب حياة... (ويسألونه) "ماذا يجب أن أفعل؟"".
وتابع: "حاليًا، إذا تحدثت إلى معالج نفسي أو محام أو طبيب حول هذه المشكلات، فهناك حصانة قانونية لذلك. هناك سرية بين الطبيب والمريض، أو سرية قانونية، وما إلى ذلك. ولم نكتشف ذلك بعد في حالة تحدثك مع شات جي بي تي".
وأضاف ألتمان أن هذا قد يُثير قلقًا بشأن خصوصية المستخدمين في حالة رفع دعوى قضائية، لأن "OpenAI"-مطورة شات جي بي تي- ستكون مُلزمة قانونًا بالكشف عن هذه المحادثات.
وقال: "أعتقد أن هذا خطأ فادح. أعتقد أنه يجب أن يكون لدينا مفهوم الخصوصية نفسه لمحادثاتك مع الذكاء الاصطناعي كما هو مع المعالج النفسي أو أيًا كان".
وتُدرك الشركة أن غياب الخصوصية قد يُعيق انتشار تقنيتها على نطاق أوسع. وإلى جانب حاجة الذكاء الاصطناعي إلى كم هائل من البيانات عبر الإنترنت خلال فترة التدريب، يُطلب منه أيضًا تقديم بيانات من محادثات المستخدمين في بعض السياقات القانونية.
وقد طعنت "OpenAI" بالفعل في أمر قضائي في دعوى قضائية ضدها من صحيفة نيويورك تايمز، والذي يُلزمها بحفظ محادثات مئات الملايين من مستخدمي "شات جي بي تي" حول العالم، باستثناء محادثات عملاء خدمة "ChatGPT Enterprise".
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


طنجة 7
منذ يوم واحد
- طنجة 7
المعلومات الحساسة التي تكشفونها لـ CHATGPT قد تستخدم ضدكم عند الشرطة والقضاء!
كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI التي أطلقت CHATGPT، عن تحديات قانونية كبيرة قد تواجه مستخدمي تطبيق الذكاء الاصطناعي بسبب المعلومات الحساسة التي يشاركونها مع الخدمة. أوضح ألتمان أن غياب إطار قانوني يحمي سرية المحادثات مع الذكاء الاصطناعي يشكل عائقًا كبيرًا. هذا الأمر يعرض خصوصية المستخدمين للخطر في سياق الدعاوى القضائية أو طلبات تطبيق القانون. غياب السرية القانونية أشار ألتمان إلى أن المستخدمين، وخاصة الشباب، يشاركون تفاصيل شخصية وحساسة مع ChatGPT، مثل مشاكل العلاقات أو استفسارات حول الحياة. يتم هذا الأمر على غرار ما يناقشونه مع معالج نفسي أو مستشار. ومع ذلك، لا تتمتع المحادثات مع ChatGPT بنفس الحماية مثل تلك المحادثات مع الأطباء أو المحامين التي تحميها السرية القانونية. وقال: 'في الوقت الحالي، إذا تحدثت إلى معالج أو محامٍ أو طبيب، هناك سرية قانونية. لكننا لم نحل هذه المشكلة بعد مع ChatGPT'. هذا النقص قد يعني أن OpenAI ملزمة قانونيًا بتقديم سجلات المحادثات في حالة صدور أمر قضائي. التحديات القانونية الحالية تواجه OpenAI بالفعل نزاعًا قانونيًا يبرز هذه المشكلة. في دعوى قضائية مع صحيفة 'نيويورك تايمز'، طُلب من الشركة الاحتفاظ بسجلات محادثات مئات الملايين من مستخدمي ChatGPT عالميًا. تم استثناء عملاء ChatGPT Enterprise من هذا الطلب. وصفت OpenAI هذا الطلب بأنه 'تجاوز'. أعلنت عزمها استئنافه، محذرة من أن السماح للمحاكم بالتدخل في سياساتها المتعلقة بالبيانات قد يفتح الباب أمام المزيد من طلبات الكشف عن المعلومات سواء لأغراض قانونية أو لتطبيق القانون. تأثير التغييرات القانونية على الخصوصية تزايدت المخاوف بشأن خصوصية البيانات الرقمية في السنوات الأخيرة، خاصة مع التغييرات القانونية الكبرى. على سبيل المثال، بعد قرار المحكمة العليا الأمريكية بإلغاء حكم 'رو ضد ويد'، لجأ العديد إلى تطبيقات أكثر أمانًا. استخدموا تطبيقات تتبع الدورة الشهرية المشفرة أو Apple Health لتجنب الكشف عن بياناتهم الشخصية. هذه التطورات تؤكد الحاجة إلى حماية أقوى لبيانات المستخدمين، خاصة عند استخدام أدوات الذكاء الاصطناعي مثل ChatGPT لمناقشة مواضيع حساسة. الحاجة إلى إطار قانوني جديد أكد ألتمان أن غياب الوضوح القانوني بشأن خصوصية المحادثات مع الذكاء الاصطناعي قد يعيق تبني هذه التقنيات على نطاق أوسع. وقال: 'يجب أن تكون هناك نفس الخصوصية لمحادثاتك مع الذكاء الاصطناعي كما هو الحال مع معالجك'. هذه المشكلة لم تكن مطروحة قبل عام واحد فقط. أصبحت الآن قضية ملحة مع تزايد استخدام ChatGPT كأداة للدعم العاطفي. تابعوا طنجة7 على صفحتنا بموقع فيسبوك. وعلى منصة إنستغرام. إضافة لمنصة X وتطبيق نبض


أخبارنا
منذ يوم واحد
- أخبارنا
قصة صادمة عن جوع غزة.. حين يتحول الخبز إلى حلم والسكر إلى مجوهرات
في قطاع غزة المحاصر، لم يعد الجوع مجرد معاناة جسدية، بل تحوّل إلى نزيف نفسي يعصف بعقول الناس كما يعصف بأجسادهم. فمن يملك المال لا يجد ما يشتري، ومن يجد الطعام لا يستطيع إليه سبيلا، ومن يأكل لا يتجاوز وجبة يتيمة في اليوم، هذا إن وجدها. وسط هذا الجحيم، يعيش حسن، الموظف في وكالة الأونروا، واقعًا يتقاسمه مع مليوني غزّي. يتقاضى راتبًا يقارب 2000 دولار شهريًا، وهو مبلغ لا يكفي لشراء الخبز لأسبوعين فقط. فمنذ أن شدّدت إسرائيل حصارها على غزة في مارس الماضي، صار الطعام عملة نادرة، وصار حسن يقضي أيامًا كاملة يبحث عن طحين أو معكرونة، بلا طائل، بينما يشاهد الناس يُغمى عليهم في الشوارع من شدّة الجوع. ثلاث علب فاصولياء كانت كنزًا عثر عليه بعد أيام من البحث، فجلس طويلًا يفكر في طريقة توزيعها بين أفراد أسرته الخمسة، قبل أن يلجأ إلى "تشات جي بي تي" باحثًا عن خطة لتقسيم السعرات الحرارية بعدل ودقة، في مشهد يلخّص مدى القسوة التي يعيشها الناس. خسر حسن 38 كيلوغرامًا من وزنه منذ بداية الحصار، ولم يعد تركيزه يسمح له بكتابة بريد إلكتروني دون جهد مرهق. والدته، التي أجلت زوجته وأبناءه لحمايتهم، طلبت منه أن يبيع قطعة من أساورها التي احتفظت بها منذ مهرها، فقط لكي تشعر بأنها تقدم شيئًا لأجل الأسرة، لا أن تكون عبئًا عليهم. وفي الأسواق، تباع الخضروات بأسعار خيالية: الطماطم بـ30 دولارًا، الخيار بـ26، وكيس البصل بـ47 دولارًا. أما السكر والقهوة فتباع بالغرامات، وتوزن بموازين المجوهرات. ولم يعد أحد يشتري بالكيلو، بل بالغرام، بعد أن أصبحت الحياة كلها تُقاس بالغرام. وسط هذا الوضع الكارثي، يؤكد مكتب الأمم المتحدة لتنسيق الشؤون الإنسانية أن معظم سكان غزة يعيشون على وجبة واحدة يوميًا. أما برنامج الأغذية العالمي فقدّر أن نحو نصف مليون شخص يواجهون جوعًا حادًا، فيما توفي أكثر من 100 شخص، معظمهم أطفال، بسبب سوء التغذية. الجوع في غزة لم يعد حالة إنسانية، بل مجزرة بطيئة، يتفرج عليها العالم بصمت مخزٍ، فيما يقاتل الغزّيون يوميًا من أجل فتات حياة، أو مجرد وجبة تسند عظامهم المنهكة.


أخبارنا
منذ 2 أيام
- أخبارنا
ألتمان: "تشات جي بي تي" يتفوّق على معظم الأطباء في التشخيص... لكن لا غنى عن العنصر البشري
أثار الرئيس التنفيذي لشركة OpenAI، سام ألتمان، جدلاً واسعًا بتصريحات جريئة أكد فيها أن أدوات الذكاء الاصطناعي، وتحديدًا "تشات جي بي تي"، أصبحت قادرة على تقديم تشخيصات طبية تتفوّق على تلك التي يقدّمها معظم الأطباء حول العالم، وذلك خلال كلمته في مؤتمر "الإطار الرأسمالي للبنوك الكبرى" الذي ناقش تحديات الذكاء الاصطناعي في الرعاية الصحية. وقال ألتمان إن الذكاء الاصطناعي بات اليوم أداة دقيقة وسريعة في تشخيص الحالات الطبية، مضيفًا: "في كثير من الأحيان، يُعد تشات جي بي تي أفضل من غالبية الأطباء في تقديم التشخيص الطبي". لكنه في الوقت ذاته شدد على أن الاعتماد الكامل على الذكاء الاصطناعي دون إشراف بشري لا يزال خيارًا غير مقبول، وأضاف: "ما زال الناس يذهبون إلى الأطباء، ولا أرغب في أن أضع مصيري الطبي في يد خوارزمية دون وجود طبيب حقيقي في الصورة." تصريحات ألتمان جاءت في ظل ازدياد استخدام الذكاء الاصطناعي في مجالات متعددة داخل قطاع الصحة، من بينها تحليل الصور الطبية، ووضع خطط العلاج، وحتى إدارة المستشفيات. ويبدو أن رؤيته تسعى إلى ترسيخ الذكاء الاصطناعي كشريك داعم للطبيب وليس بديلاً عنه. لكن هذه الرؤية المتوازنة اصطدمت بواقع مثير للقلق في إحدى العيادات الأسترالية، حيث كشفت مريضة على منصة Reddit أن طبيبها اعتمد على "تشات جي بي تي" لتحليل نتائج فحوصاتها، ما دفعها لتقديم شكوى إلى هيئة تنظيم المهن الصحية الأسترالية (AHPRA)، ووصفت التجربة بأنها "غير مهنية وتفتقر إلى الحس الإنساني". وفي سياق موازٍ، حذر ألتمان من مخاطر إساءة استخدام الذكاء الاصطناعي، خاصة في مجالات مثل الأمن السيبراني والاحتيال الصوتي، مشيرًا إلى أن الاعتماد على بصمة الصوت للتحقق من الهوية في بعض المؤسسات المالية بات معرضًا للتلاعب عبر أصوات مزيفة يتم توليدها رقمياً.