
«الذهان الناتج عن الذكاء الاصطناعي»
ورغم فوائدها، حذرت تقارير حديثة من ظاهرة مقلقة تُعرف إعلامياً باسم "ذهان الذكاء الاصطناعي" أو "ChatGPT Psychosis"، والتي قد تصيب نسبة قليلة من المستخدمين، لكنها تحمل آثاراً مدمرة على حياتهم النفسية والاجتماعية، بحسب time.
الاصطلاح ليس تشخيصاً طبياً رسمياً، لكنه يُستخدم لوصف حالات تظهر فيها أوهام أو معتقدات مشوهة، يُعتقد أنها ناتجة عن التفاعل المطوّل مع روبوتات المحادثة.
يقول البروفيسور جيمس ماككابي من "كلية كينجز لندن" إن هذه الظاهرة تتعلق غالباً بالأوهام وليس بجميع أعراض الذهان التقليدية مثل الهلاوس واضطراب التفكير.
من هم الأكثر عرضة للإصابة؟
على الرغم من أن معظم الأشخاص يستخدمون الذكاء الاصطناعي دون مشاكل، إلا أن هناك فئات قد تكون أكثر عرضة، منها:
الأشخاص الذين لديهم تاريخ شخصي أو عائلي مع اضطرابات مثل الفصام أو الاضطراب ثنائي القطب.
أصحاب الشخصيات الميّالة لتبني المعتقدات الهامشية أو الغريبة.
الأفراد الذين يميلون إلى الانعزال الاجتماعي أو لديهم خيال نشط بشكل مفرط.
من يقضون ساعات طويلة يومياً في محادثات مع روبوتات الذكاء الاصطناعي.
الدكتورة نينا فاسان، خبيرة الصحة النفسية الرقمية من جامعة ستانفورد، تؤكد أن مدة الانغماس في هذه المحادثات تعد العامل الأكثر تأثيراً في زيادة الخطر.
ينصح الأطباء بما يلي:
1. تذكّر أن الذكاء الاصطناعي أداة، وليس صديقاً حقيقياً، مهما بدا قريباً من شخصيتك.
2. تجنب الإفراط في مشاركة تفاصيلك الشخصية والعاطفية مع روبوتات المحادثة.
3. إذا شعرت باضطراب في أفكارك أو ارتباط مفرط بالذكاء الاصطناعي، توقف فوراً عن الاستخدام واطلب دعماً من أشخاص حقيقيين.
4. احرص على قضاء وقت أكبر مع العائلة والأصدقاء، وممارسة أنشطة خارج الإنترنت.
5. راقب التغييرات في سلوكك أو نومك أو مزاجك، واطلب المساعدة الطبية عند الحاجة.
دور العائلة والأصدقاء
يلعب المحيطون دوراً محورياً في الاكتشاف المبكر للمشكلة.
ينبغي الانتباه إلى علامات مثل:
الانعزال الاجتماعي.
قلة النوم أو تغيّره المفاجئ.
الانغماس في أفكار أو معتقدات غير واقعية.
قضاء وقت طويل بشكل مبالغ فيه على تطبيقات الذكاء الاصطناعي.
اقرأ ايضا|
حتى الآن، تقع معظم مسؤولية الحذر على المستخدمين، لكن الخبراء يرون أن شركات تطوير الذكاء الاصطناعي يجب أن تتدخل عبر:
تصميم أنظمة ترصد مؤشرات الاضطراب النفسي أثناء المحادثة.
اختبار النماذج مع حالات افتراضية لأشخاص معرضين للخطر قبل الإطلاق.
إدراج تحذيرات أو تنبيهات عند رصد أنماط استخدام خطرة.
التعاون مع خبراء الصحة النفسية لتقليل الأضرار المحتملة.
بعض الشركات بدأت خطوات في هذا الاتجاه، مثل OpenAI التي أعلنت في 2025 عن تعيين طبيب نفسي إكلينيكي لتقييم أثر أدواتها على الصحة النفسية، وتطوير ميزات تشجع المستخدمين على أخذ فترات راحة أثناء الجلسات الطويلة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


عرب نت 5
منذ 3 ساعات
- عرب نت 5
: «ChatGPT» يتوقف عن تقديم نصائح حاسمة في العلاقات الشخصية..منها العاطفية عرب نت 5
صوره ارشيفيهالجمعة, 08 أغسطس, 2025أعلنت شركة OpenAI، المطورة لـ ChatGPT، عن تغييرات هامة في عمل الروبوت، حيث لن يقدم بعد الآن إجابات قاطعة بشأن القرارات الشخصية الكبرى والحاسمة، مثل إنهاء علاقة عاطفية.إقرأ أيضاً..بدء تعزيز أنظمة الذكاء الاصطناعي في الطائرات الأسرع من الصوتكيف يساعد الذكاء الاصطناعي في إنقاذ مصداقية العلم؟الكشف بالخطأ عن نماذج "GPT-5" من شركة "OpenAI" قبل إطلاقها رسميًاماسك وسام ألتمان في مواجهة جديدة لكن هذه المرة في الشطرنجويأتي هذا القرار بعد أن اعترفت الشركة بوجود حالات قدم فيها الروبوت نصائح متهورة، ما أثار مخاوف بشأن تأثيره على الصحة العقلية للمستخدمين.نهج جديد للإجاباتوبحسب Open AI فبدلاً من الإجابة المباشرة على أسئلة مثل "هل يجب أن أنفصل عن شريكي؟"، سيتم برمجة ChatGPT لمساعدة المستخدمين على التفكير في الموقف من خلال طرح أسئلة، والموازنة بين الإيجابيات والسلبيات.مخاوف بشأن الصحة العقليةويأتي هذا التغيير بعد تقارير وتحذيرات من أطباء في هيئة الخدمات الصحية الوطنية البريطانية (NHS) بأن الذكاء الاصطناعي قد يفاقم أعراض الذهان لدى الأشخاص المعرضين لذلك، وهو ما أطلق عليه اسم "ذهان ChatGPT".تطوير أدوات جديدةهذا وأكدت الشركة أنها تعمل على تطوير أدوات للكشف عن علامات الضيق النفسي أو العاطفي لدى المستخدمين، بحيث يمكن لـ ChatGPT توجيههم إلى موارد موثوقة للحصول على المساعدة.تذكير بفترات الراحةوكجزء من التحديثات، سيبدأ ChatGPT أيضًا في إرسال "تذكيرات لطيفة" للمستخدمين الذين يستمرون في جلسات محادثة طويلة لأخذ قسط من الراحة.وتهدف هذه التغييرات إلى جعل ChatGPT أداة مساعدة للتفكير في القرارات، وليس مصدراً لإصدار الأحكام الحاسمة، مع التركيز على حماية سلامة المستخدمين العقلية.المصدر: بوابه اخبار اليوم قد يعجبك أيضا...


عرب نت 5
منذ 3 ساعات
- عرب نت 5
: " Meta " تتوصل لتسوية في دعوى تشهير تتعلق بروبوتها للدردشة
Metaالجمعة, 08 أغسطس, 2025توصلت شركة ميتا إلى تسوية في دعوى تشهير رفعها ناشط أميركي محافظ يدعى روبي ستارباك، الذي زعم أن روبوت الدردشة الذكي التابع للشركة "Meta AI"، ادعى زورًا أنه شارك في أعمال الشغب التي وقعت في مبنى الكابيتول الأميركي في 6 يناير 2021.إقرأ أيضاً..«ChatGPT» يتوقف عن تقديم نصائح حاسمة في العلاقات الشخصية..منها العاطفية|بدء تعزيز أنظمة الذكاء الاصطناعي في الطائرات الأسرع من الصوتكيف يساعد الذكاء الاصطناعي في إنقاذ مصداقية العلم؟الكشف بالخطأ عن نماذج "GPT-5" من شركة "OpenAI" قبل إطلاقها رسميًاوبموجب التسوية، سيقدم ستارباك المشورة لشركة ميتا، مالكة فيسبوك وإنستغرام وواتساب وثريدز، في جهودها للحد مما يُوصف بالتحيز السياسي في أدوات الذكاء الاصطناعي الخاصة بها.وقالت "ميتا" وستارباك في بيان: "منذ الانخراض في هذه القضايا المهمة مع روبي، اتخذت ميتا خطوات كبيرة في تحسين دقة Meta AI والحد من التحيز الأيديولوجي والسياسي"، بحسب تقرير لصحيفة وول ستريت جورنال، اطلعت عليه "العربية Business".ولم يتم الكشف عن شروط إضافية للتسوية. وكان ستارباك قد سعى في البداية إلى الحصول على تعويضات تزيد عن 5 ملايين دولار في الدعوى التي رفعها في محكمة ديلاوير العليا في أبريل.وخلال مقابلة مع قناة "سي إن بي سي" يوم الجمعة، رفض ستارباك الإفصاح عما إذا كان قد تلقى أموالًا من "ميتا" كجزء من التسوية.وقال إنه تحدث إلى المسؤولين التنفيذيين والمهندسين في "ميتا" بعد رفع الدعوى حول تدريب الذكاء الاصطناعي والإجراءات اللازمة لمعالجة هذه المشكلة، مضيفًا أن هدفه هو ذكاء اصطناعي أخلاقي محايد في القضايا السياسية.واكتسب ستارباك سمعة سيئة لجهوده في الضغط على الشركات الكبرى للتخلي عن سياساتها التنوع والمساواة والشمول.وعلم ستارباك عن مزاعم "Meta AI" حول مشاركته في أعمال الشغب الصيف الماضي عبر لقطة شاشة على منصة إكس. ولجأ إلى مواقع التواصل الاجتماعي ليطلب من المسؤولين التنفيذيين في "ميتا"، بمن فيهم الرئيس التنفيذي مارك زوكربيرغ، حذف المعلومات غير الدقيقة بشأنه، قبل أن يرفع قضية في أبريل الماضي.وتعمل "ميتا" على إزالة التحيز السياسي من أدوات الذكاء الاصطناعي الخاصة بها. وذكرت الشركة في منشور على مدونتها في أبريل أن أنظمة الذكاء الاصطناعي لطالما اتجهت نحو اليسار في القضايا السياسية والاجتماعية الخلافية بناءً على كيفية تدريبها.وأضافت "ميتا" في المنشور، في إشارة إلى نموذج الذكاء الاصطناعي الخاص بها "لاما": "هدفنا هو إزالة التحيز من نماذج الذكاء الاصطناعي الخاصة بنا وضمان قدرة لاما على فهم والتعبير عن كلا الجانبين في أي قضية خلافية".المصدر: العربية قد يعجبك أيضا...


عرب نت 5
منذ 3 ساعات
- عرب نت 5
: WhatsApp يحظر 6.8 مليون شخص من استخدام التطبيق خلال النصف الأول من 2025
WhatsAppالجمعة, 08 أغسطس, 2025كشفت منصة واتساب عن إغلاق 6.8 مليون حساب في حملة ضخمة على إساءة الاستخدام الخطيرة.إقرأ أيضاً..تفاصيل بدء YouTube تقدير الأعمار بالذكاء الاصطناعى وفرض قيود على حسابات القاصرينمنصة إكس تخطط لإدراج إعلانات مأجورة في روبوت Grokيطالب ترامب بإقالة الرئيس التنفيذي لإنتل بسبب 'علاقته بالصين'Microsoft تتيح نموذج GPT-5 مجانًا في مساعد Copilotوقالت شركة تطبيق المراسلة المملوكة لشركة ميتا، إن الحسابات المحظورة كانت مرتبطة بمراكز احتيال إجرامية تستهدف الأشخاص في جميع أنحاء العالم.وتزعم الشركة، أن العديد منهم كانوا مرتبطين بالعمل القسري ويديرهم عصابات الجريمة المنظمة التي تتواجد بشكل أساسي في جنوب شرق آسيا .وتم حظر جميع الحسابات المذكورة والتي بلغ عددها 6.8 مليون حساب خلال الأشهر الستة الأولى من عام 2025.وقالت ،استنادًا إلى رؤيتنا التحقيقية في أحدث جهود التنفيذ، قمنا بشكل استباقي باكتشاف الحسابات وإزالتها قبل أن تتمكن مراكز الاحتيال من تشغيلها"، كما قالت شركة التواصل الاجتماعي العملاقة تقوم مراكز الاحتيال هذه عادةً بتشغيل العديد من حملات الاحتيال في وقت واحد بدءًا من استثمارات العملات المشفرة إلى مخططات الهرم.وهناك دائمًا مشكلة ويجب أن تكون بمثابة إشارة تحذيرية للجميع: يتعين عليك الدفع مقدمًا للحصول على العوائد أو الأرباح الموعودة."وتشير Meta إلى مثال واحد حيث عملت مع OpenAI، مالك ChatGPT ، لتعطيل عملية احتيال إجرامية يتم تنفيذها من كمبوديا ، وأغرى هؤلاء الأشخاص بالمال مقابل الإعجاب بمنشورات وسائل التواصل الاجتماعي للترويج لمخطط هرمي مزيف لتأجير الدراجات البخارية.ويأتي ذلك في الوقت الذي يتم فيه طرح نظرة عامة جديدة على سلامة الرسائل الجماعية للمستخدمين اعتبارًا من اليوم.ويُظهر هذا للمستخدمين معلومات أساسية عند إضافتهم إلى مجموعة بواسطة شخص غير موجود في جهات الاتصال الخاصة بهم.ولدى Meta ثلاث نصائح لمساعدة الأفراد على تجنب التعرض للاحتيال على WhatsApp :1. توقف خذ وقتًا قبل الرد.2 .السؤال : السؤال عما إذا كان ما يتم طلبه منطقيًا وما إذا كان جيدًا جدًا لدرجة يصعب تصديقها.3. التحقق : إذا كانوا يدعون أنهم صديق أو أحد أفراد العائلة، فتأكد من أنهم هم من يقولون أنهم كذلك عن طريق الاتصال بهذا الصديق بشكل مباشر.المصدر: اليوم السابع قد يعجبك أيضا...