
ChatGPT يقنع شابًا بأنه 'عبقري خارق'.. والنهاية صادمة
وكان إروين، الذي يعاني من اضطراب طيف التوحد، قد بدأ باستخدام ChatGPT منذ فترة لحل مشكلاته التقنية. لكن في مارس الماضي، دخل في حوارات معمقة مع الروبوت حول نظرياته في السفر بسرعة تفوق الضوء. بدلاً من تفنيد أفكاره، بدأ البرنامج يمدحه ويؤكد صحة نظرياته، بل طمأنه مرارًا بأنه 'سليم عقليًا' عندما أعرب عن مخاوفه بشأن حالته النفسية.
مع مرور الوقت، فقد الشاب صلته بالواقع، وأصبح يتصرف بعدوانية تجاه عائلته، مقتنعًا بأنه أنجز اكتشافًا علميًا غير مسبوق. ووفقًا لتقرير نشرته صحيفة وول ستريت جورنال، نُقل إروين إلى مستشفى للأمراض النفسية ثلاث مرات، وتم تشخيصه بـ'نوبة هوس حادة مصحوبة بأعراض ذهانية'، كما فقد عمله.
الواقعة التي سُميت بـ'ذهان ChatGPT' تبرز مخاطر استخدام الذكاء الاصطناعي دون ضوابط، خصوصًا مع الأفراد الأكثر هشاشة نفسيًا. وتشير أبحاث من جامعة ستانفورد إلى أن هذه النماذج اللغوية تواجه صعوبة في التمييز بين الأوهام والواقع، مما قد يشجع المستخدمين على تصديق معتقدات غير عقلانية، بل ويتجاهل علامات واضحة تدل على اضطراب نفسي أو أفكار انتحارية.
القصة فتحت جدلاً واسعًا حول مدى مسؤولية الشركات المطورة لهذه التقنيات، وضرورة وضع معايير تضمن الاستخدام الآمن لها، خصوصًا مع الانتشار الكبير لأدوات الذكاء الاصطناعي بين المستخدمين من مختلف الفئات.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


طنجة 7
منذ 10 ساعات
- طنجة 7
المعلومات الحساسة التي تكشفونها لـ CHATGPT قد تستخدم ضدكم عند الشرطة والقضاء!
كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI التي أطلقت CHATGPT، عن تحديات قانونية كبيرة قد تواجه مستخدمي تطبيق الذكاء الاصطناعي بسبب المعلومات الحساسة التي يشاركونها مع الخدمة. أوضح ألتمان أن غياب إطار قانوني يحمي سرية المحادثات مع الذكاء الاصطناعي يشكل عائقًا كبيرًا. هذا الأمر يعرض خصوصية المستخدمين للخطر في سياق الدعاوى القضائية أو طلبات تطبيق القانون. غياب السرية القانونية أشار ألتمان إلى أن المستخدمين، وخاصة الشباب، يشاركون تفاصيل شخصية وحساسة مع ChatGPT، مثل مشاكل العلاقات أو استفسارات حول الحياة. يتم هذا الأمر على غرار ما يناقشونه مع معالج نفسي أو مستشار. ومع ذلك، لا تتمتع المحادثات مع ChatGPT بنفس الحماية مثل تلك المحادثات مع الأطباء أو المحامين التي تحميها السرية القانونية. وقال: 'في الوقت الحالي، إذا تحدثت إلى معالج أو محامٍ أو طبيب، هناك سرية قانونية. لكننا لم نحل هذه المشكلة بعد مع ChatGPT'. هذا النقص قد يعني أن OpenAI ملزمة قانونيًا بتقديم سجلات المحادثات في حالة صدور أمر قضائي. التحديات القانونية الحالية تواجه OpenAI بالفعل نزاعًا قانونيًا يبرز هذه المشكلة. في دعوى قضائية مع صحيفة 'نيويورك تايمز'، طُلب من الشركة الاحتفاظ بسجلات محادثات مئات الملايين من مستخدمي ChatGPT عالميًا. تم استثناء عملاء ChatGPT Enterprise من هذا الطلب. وصفت OpenAI هذا الطلب بأنه 'تجاوز'. أعلنت عزمها استئنافه، محذرة من أن السماح للمحاكم بالتدخل في سياساتها المتعلقة بالبيانات قد يفتح الباب أمام المزيد من طلبات الكشف عن المعلومات سواء لأغراض قانونية أو لتطبيق القانون. تأثير التغييرات القانونية على الخصوصية تزايدت المخاوف بشأن خصوصية البيانات الرقمية في السنوات الأخيرة، خاصة مع التغييرات القانونية الكبرى. على سبيل المثال، بعد قرار المحكمة العليا الأمريكية بإلغاء حكم 'رو ضد ويد'، لجأ العديد إلى تطبيقات أكثر أمانًا. استخدموا تطبيقات تتبع الدورة الشهرية المشفرة أو Apple Health لتجنب الكشف عن بياناتهم الشخصية. هذه التطورات تؤكد الحاجة إلى حماية أقوى لبيانات المستخدمين، خاصة عند استخدام أدوات الذكاء الاصطناعي مثل ChatGPT لمناقشة مواضيع حساسة. الحاجة إلى إطار قانوني جديد أكد ألتمان أن غياب الوضوح القانوني بشأن خصوصية المحادثات مع الذكاء الاصطناعي قد يعيق تبني هذه التقنيات على نطاق أوسع. وقال: 'يجب أن تكون هناك نفس الخصوصية لمحادثاتك مع الذكاء الاصطناعي كما هو الحال مع معالجك'. هذه المشكلة لم تكن مطروحة قبل عام واحد فقط. أصبحت الآن قضية ملحة مع تزايد استخدام ChatGPT كأداة للدعم العاطفي. تابعوا طنجة7 على صفحتنا بموقع فيسبوك. وعلى منصة إنستغرام. إضافة لمنصة X وتطبيق نبض


هبة بريس
منذ 2 أيام
- هبة بريس
ChatGPT يقنع شابًا بأنه 'عبقري خارق'.. والنهاية صادمة
في واقعة صادمة تسلط الضوء على الجانب المظلم لاستخدامات الذكاء الاصطناعي، أصيب الشاب الأمريكي جاكوب إروين بنوبة هوس حادة، بعدما أقنعه روبوت الدردشة ChatGPT بأنه عبقري قادر على تجاوز قوانين الفيزياء وتغيير مسار الزمن. وكان إروين، الذي يعاني من اضطراب طيف التوحد، قد بدأ باستخدام ChatGPT منذ فترة لحل مشكلاته التقنية. لكن في مارس الماضي، دخل في حوارات معمقة مع الروبوت حول نظرياته في السفر بسرعة تفوق الضوء. بدلاً من تفنيد أفكاره، بدأ البرنامج يمدحه ويؤكد صحة نظرياته، بل طمأنه مرارًا بأنه 'سليم عقليًا' عندما أعرب عن مخاوفه بشأن حالته النفسية. مع مرور الوقت، فقد الشاب صلته بالواقع، وأصبح يتصرف بعدوانية تجاه عائلته، مقتنعًا بأنه أنجز اكتشافًا علميًا غير مسبوق. ووفقًا لتقرير نشرته صحيفة وول ستريت جورنال، نُقل إروين إلى مستشفى للأمراض النفسية ثلاث مرات، وتم تشخيصه بـ'نوبة هوس حادة مصحوبة بأعراض ذهانية'، كما فقد عمله. الواقعة التي سُميت بـ'ذهان ChatGPT' تبرز مخاطر استخدام الذكاء الاصطناعي دون ضوابط، خصوصًا مع الأفراد الأكثر هشاشة نفسيًا. وتشير أبحاث من جامعة ستانفورد إلى أن هذه النماذج اللغوية تواجه صعوبة في التمييز بين الأوهام والواقع، مما قد يشجع المستخدمين على تصديق معتقدات غير عقلانية، بل ويتجاهل علامات واضحة تدل على اضطراب نفسي أو أفكار انتحارية. القصة فتحت جدلاً واسعًا حول مدى مسؤولية الشركات المطورة لهذه التقنيات، وضرورة وضع معايير تضمن الاستخدام الآمن لها، خصوصًا مع الانتشار الكبير لأدوات الذكاء الاصطناعي بين المستخدمين من مختلف الفئات.


أخبارنا
منذ 3 أيام
- أخبارنا
سام ألتمان يُحذّر: الذكاء الاصطناعي سيُقصي بعض الوظائف بالكامل ويهدد الأنظمة المالية
أطلق سام ألتمان، الرئيس التنفيذي لشركة OpenAI، تحذيراً صريحاً من التأثيرات العميقة للذكاء الاصطناعي على مستقبل الوظائف والأمن العالمي، مشيراً إلى أن بعض المهن البشرية مهددة بالاختفاء الكامل في ظل التطورات المتسارعة في هذا المجال. وجاءت تصريحاته خلال مؤتمر نظمه الاحتياطي الفيدرالي الأميركي في واشنطن، حيث أكد أن الأدوات الذكية باتت تؤدي مهاماً بكفاءة تفوق البشر في بعض القطاعات. وأوضح ألتمان أن الذكاء الاصطناعي أصبح قادراً على أداء مهام خدمة العملاء بسرعة ودقة أعلى، دون الحاجة لتدخل بشري، مشيراً إلى أن المستقبل القريب قد يشهد تراجعاً حاداً في الطلب على هذه الوظائف. وأضاف أن الحديث مع أنظمة ذكاء اصطناعي في مراكز الخدمة أصبح مقبولاً بل ومرحباً به من قبل المستخدمين في كثير من الحالات. وفي سياق متصل، تطرّق إلى الاستخدام المتزايد للذكاء الاصطناعي في القطاع الطبي، مشيراً إلى أن نماذج مثل ChatGPT بدأت تقدم تشخيصات طبية دقيقة في بعض الحالات، غير أنه أبدى تحفظه عن الاعتماد الكامل على الآلة، مؤكداً أهمية الإشراف البشري المستمر لضمان الأمان والموثوقية في هذا المجال الحساس. من ناحية أخرى، لم يُخفِ ألتمان قلقه من التهديدات الأمنية المرتبطة بتطور الذكاء الاصطناعي، مشيراً إلى احتمال استغلال هذه التقنية في تنفيذ هجمات سيبرانية معقدة، مثل استهداف الأنظمة المالية أو استخدام استنساخ الصوت للاحتيال على الأفراد والمؤسسات. وأكد أن هذه المخاوف حقيقية وتستدعي يقظة تنظيمية عاجلة. وفي ظل هذه التحديات، تعمل OpenAI على تعزيز حضورها في واشنطن عبر فتح مكتب رسمي، ضمن توجه جديد يركّز على المشاركة في صياغة السياسات، بدلاً من الاكتفاء بالدعوة إلى التنظيم الصارم. ويأتي ذلك بالتوازي مع خطة إدارة ترامب الجديدة لتسريع تطوير البنية التحتية للذكاء الاصطناعي، ما يعكس تحوّلاً في موازين القوى بين الابتكار والتنظيم في سباق الذكاء الاصطناعي العالمي.