logo
#

أحدث الأخبار مع #الدعم_العاطفي

هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟
هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟

الغد

timeمنذ 15 ساعات

  • صحة
  • الغد

هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟

في زمن تتشابك فيه الضغوط اليومية مع العزلة الرقمية، أصبح الإنسان أكثر حاجة إلى من يصغي له، حتى لو كان ذلك "المستمع" مجرّد تطبيق. منذ إطلاقه في نهاية 2022، فرض تشات جي بي تي وغيره من روبوتات المحادثة المدعومة بالذكاء الاصطناعي وجوده كـرفيق رقمي يتسلّل إلى تفاصيل الحياة اليومية لملايين المستخدمين حول العالم. اضافة اعلان من اختيار الكلمات في رسالة اعتذار، إلى المواساة عند الوحدة، أصبحت هذه الأدوات الذكية بمثابة ملاذٍ نفسي لدى البعض، ووسيلة فضفضة لدى آخرين. فهل نحن أمام ثورة في أدوات الدعم العاطفي؟ أم مجرد بديل مؤقت في غياب الأذن البشرية؟ وقد شهدت السنوات الأخيرة انتشاراً لافتاً لاستخدام روبوتات المحادثة ذات الأغراض العامة والتطبيقات الرقمية المتخصصة بالعلاج النفسي كأدوات دعم عاطفي. وبينما توفّر هذه الحلول الذكية متنفساً فورياً وطريقة سهلة للحصول على الأجوبة، يطرح استخدامها أسئلة جوهرية حول فعاليتها الحقيقية، وقدرتها على التعامل مع الحالات المعقدة، وحدودها الأخلاقية والعملية، فضلاً عن مخاطر الخصوصية. ما أسباب استخدام روبوتات المحادثة للحصول على الدعم النفسي؟ أصبح استخدام روبوتات المحادثة ذات الأغراض العامة مثل "تشات جي بي تي" و"ديب سيك" و"جميناي" وغيرها شائعاً بشكل متزايد كوسائل للحصول على الدعم العاطفي، رغم أنها لم تُصمَّم لهذا الغرض أساساً. وغالباً ما يلجأ المستخدمون إلى هذه المنصات لطلب النصيحة أو للتخفيف من التوتر أو لمجرد الفضفضة عند الشعور بالقلق أو الوحدة، بالأخص في حال صعوبة الوصول إلى خدمات الصحة النفسية التقليدية، أو في المجتمعات حيث لا تزال الصحة النفسية محاطة بوصمة اجتماعية. قدرة روبوتات الدردشة على تقديم المساعدة على مدار الساعة يتيح للأشخاص التواصل في أي وقت ومن أي مكان. وهو ما يُعتبر تحوّلاً جذرياً للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبة في الوصول إلى مراكز العلاج النفسي التقليدية. ما مخاطر استخدام روبوتات المحادثة العامة للدعم النفسي؟ رغم أن هذه الأدوات قد تمنح راحة مؤقتة، فهي ليست مؤهلة دائماً لتشخيص الحالات النفسية أو التعامل معها. فقد تخطئ في فهم السياق، أو تقدّم نصائح غير ملائمة، أو تعجز عن اكتشاف الحالات الحرجة مثل التفكير الانتحاري. كما لا تمتلك التطبيقات الحس الإنساني، فتفتقر إلى التعاطف الفعلي والقدرة على قراءة السياقات النفسية الدقيقة. ونظراً لاعتمادها على بيانات تدريبية واسعة، قد تكون متحيزة في بعض الأحيان، بالأخص ضد المجموعات المهمشة. إلى ذلك، تفتقر هذه المنصات إلى الإشراف المهني ولا تخضع لأي تنظيم طبي أو نفسي. وقد يؤدي الاعتماد المفرط على هذه الأدوات إلى عزوف المستخدمين عن طلب الدعم النفسي الفعلي، لأن الشعور الزائف بالاطمئنان قد يدفع الشخص الذي يعاني من اضطرابات إلى صرف النظر عن زيارة معالج نفسي مختص. ماذا عن التطبيقات المخصصة للصحة النفسية؟ تتفوق هذه التطبيقات المتخصصة مثل مثل "ويسا" (Wysa) و"ثيرابوت" (Therabot)، وغيرهما على روبوتات الدردشة العامة عند استخدامها للدعم النفسي، إذ صُمّمت بمراعاة المبادئ العلاجية ويشرف على تطويرها فرق من المتخصصين، ما يجعلها أكثر أماناً وفعالية في التعامل مع القضايا النفسية الحساسة. تسهم هذه التطبيقات في سد الفجوات في خدمات الصحة النفسية، من خلال توفير دعم يسير الكلفة ومتاح على مدار الساعة، لاسيما في المناطق التي تفتقر لخدمات الرعاية النفسية. وتشير بعض الدراسات إلى أنها قد تخفف أحياناً الأعراض النفسية بمستوى مماثل للعلاج التقليدي، كما توفّر مساحة آمنة للمستخدمين لمشاركة مشاعرهم الحساسة. وتؤدي أيضاً دوراً داعماً بين الجلسات العلاجية. ومع ذلك، يرى بعض الخبراء أن هذه الروبوتات تفتقر إلى التعاطف البشري، وقد تقدّم نصائح غير مناسبة، كما تثير مخاوف تتعلق بالخصوصية. لذا، ينصحون باستخدامها كأداة مساندة لا بديلاً عن الرعاية النفسية المتخصصة. كيف تتعامل هذه التطبيقات مع قضايا الخصوصية والأمان؟ يثير استخدام روبوتات المحادثة العامة للحصول على الدعم النفسي مخاوف تتعلق بالخصوصية والأمان. إذ يحذّر خبراء من أن البيانات الحساسة التي يشاركها المستخدمون قد تُخزَّن أو يُعاد استخدامها أو تتعرض للتسريب. ورغم أن شركات مثل "أوبن إيه أي" و"جوجل" طرحت أدوات للتحكم بالخصوصية، مثل خيار إلغاء حفظ البيانات، يرى منتقدون أن هذه الإجراءات غير كافية. وقد فتحت هيئات تنظيمية في أوروبا والولايات المتحدة تحقيقات وأرجأت إطلاق بعض هذه الخدمات بسبب المخاوف المتعلقة بالبيانات. هل يمكن للذكاء الاصطناعي أن يحلّ مكان المعالجين النفسيين؟ على الرغم من قدرة روبوتات المحادثة على تقديم دعم فوري ومنخفض التكلفة وخال من الوصمة الاجتماعية لمن يعانون من القلق أو الاكتئاب أو التوتر، فإنها تفتقر إلى العمق العاطفي، والحسّ الأخلاقي، والفهم الدقيق الذي يتمتع به الأطباء النفسيون البشر. وتعتمد هذه البرمجيات على ردود معدّة مسبقاً أو مستخلصة عبر نماذج تعلم آلي، ما يجعلها عاجزة عن إظهار التعاطف الحقيقي أو بناء علاقة علاجية أو التعامل مع الحالات النفسية المعقدة بمرونة. يقول الخبراء هذه الأدوات قد تُستخدم كحلول داعمة لسد الثغرات في خدمات الرعاية النفسية، خصوصاً في المناطق التي تفتقر لخدمات الصحة النفسية، لكنها ليست بديلاً عن المتخصصين المؤهلين لتشخيص الاضطرابات النفسية وعلاجها. ما السبيل الآمن لاستخدام الذكاء الاصطناعي في الصحة النفسية؟ مع ازدياد دمج الذكاء الاصطناعي في الرعاية النفسية، فإن النماذج الهجينة التي تجمع بين الدعم البشري والتقني قد تكون الحلّ الأمثل.يمكن لهذه التطبيقات أن تشكل نقطة دخول أو تشخيص أولي، على أن يتابع المستخدمون العلاج مع مختصين مرخصين. لكن نجاح هذه المبادرات يتوقف على رفع الوعي العام، وتنظيم القطاع، وتعزيز الثقافة الرقمية، بحسب موقع بلومبرغ. ما رأي الذكاء الاصطناعي في هذا الموضوع؟ طرحنا سؤالاً: "هل من الآمن استخدام الذكاء الاصطناعي للحصول على الدعم النفسي؟" على روبوت دردشة وأجاب بأن ذلك يمكن أن يكون أداة مساعدة لجوانب معينة من الدعم النفسي، لكن لا ينبغي أن يحل محل الاتصال البشري والمتخصصين في مجال الصحة النفسية. تضمنت الإجابة عدة جوانب إيجابية وأخرى سلبية، أبرزها: - الوصول السريع والمريح: يمكن للذكاء الاصطناعي أن يوفر مساعدة فورية في أي وقت، مما يجعله مفيداً للحصول على الدعم في اللحظات الحرجة أو عندما يصعب الوصول إلى الدعم البشري. - سرية المعلومات: قد يشعر بعض الأشخاص براحة أكبر في مشاركة مشاعرهم وأفكارهم مع نظام ذكاء اصطناعي مقارنة بمشاركة هذه المعلومات مع شخص حقيقي. - الدقة والتخصيص: يعتمد الأمان والفعالية على جودة النظام المستخدم. بعض البرمجيات المتطورة يمكن أن تقدم نصائح مبنية على البيانات والأبحاث الحديثة، في حين أن الأنظمة الأقل جودة قد تقدم نصائح غير دقيقة أو غير مناسبة. - القدرة على الفهم والتعاطف: يفتقر الذكاء الاصطناعي إلى القدرة على التعاطف والفهم العميق للحالة الإنسانية. قد يكون محدوداً في تقديم الدعم العاطفي المطلوب في الحالات المعقدة. - الأزمات النفسية الخطيرة: لا ينبغي الاعتماد على الذكاء الاصطناعي في حالات الأزمات النفسية الخطيرة أو التفكير الانتحاري. في مثل هذه الحالات، يجب التوجه إلى محترفين مؤهلين مثل الأطباء النفسيين أو المرشدين. - المخاوف الأمنية: يجب التأكد من أن أي منصة ذكاء اصطناعي تُستخدم للحفاظ على سلامة البيانات الشخصية وتطبيق سياسات الخصوصية. اقرأ أيضا: هل يمكن للذكاء الاصطناعي أن يكون معالجا نفسيا؟.. خبراء يجيبون

أخصائيات يحذّرن: «شات جي بي تي» ليس بديلاً للعلاج النفسي
أخصائيات يحذّرن: «شات جي بي تي» ليس بديلاً للعلاج النفسي

البيان

time١٢-٠٥-٢٠٢٥

  • صحة
  • البيان

أخصائيات يحذّرن: «شات جي بي تي» ليس بديلاً للعلاج النفسي

وأشرن إلى أن هذه الظاهرة أصبحت شائعة بين الأفراد، وخاصةً المراهقين، الذين يتأثرون بشكل كبير بما يُطرح على وسائل التواصل الاجتماعي، مما يدفعهم إلى استخدام ميزات مثل التحدث الصوتي في تطبيقات مثل «شات جي بي تي» للبحث عن الدعم العاطفي، وهو ما قد يعرّضهم لمخاطر نفسية نتيجة غياب التقييم المهني المتخصص. موضحةً أن العلاج النفسي يتطلب خبرة سريرية وعمقاً في فهم السلوكيات والأنماط النفسية التي لا يمكن للذكاء الاصطناعي الوصول إليها، وأشارت إلى عدة أسباب تجعل اللجوء إلى معالج نفسي ضرورياً، من أبرزها أهمية العلاقة الإنسانية التي تنشأ بين المريض والمعالج، حيث يُعد هذا التفاعل الشخصي عنصراً أساسياً في عملية الشفاء النفسي. وشددت على أن الأخصائيين النفسيين يعتمدون على أساليب علاجية معتمدة مثل العلاج السلوكي المعرفي والجدلي وغيرها من المناهج التي تساعد على فهم أعمق للأفكار والمشاعر والسلوكيات وتعديلها بطريقة آمنة وفعّالة. لكنه لا يمكن أن يحل محل الأخصائي النفسي بالنسبة للأفراد في التقييم الشامل للحالات المعقدة، وأوضحت أن الذكاء الاصطناعي يفتقر إلى الحس الإكلينيكي والقدرة على فهم الحالة النفسية ضمن سياقها الاجتماعي والنفسي المتكامل، مما يجعل دور الطبيب النفسي أساسياً ولا غنى عنه. وفي ما يتعلق بالتشخيص الذاتي أشارت إلى أهمية التأكد من موثوقية الأنظمة المستخدمة ومدى اعتمادها من الجهات الصحية الرسمية لضمان سلامة البيانات ودقتها، مع ضرورة الالتزام بمعايير الخصوصية لحماية المعلومات الشخصية للمرضى. كما شددت على ضرورة توخي الحذر عند الاعتماد على الذكاء الاصطناعي في الحالات النفسية المعقدة، حيث قد تؤدي الأخطاء إلى مضاعفات خطيرة. مشيرةً إلى أن الجلسات تتضمن مناقشة التجارب السابقة، فهم أنماط التفكير، وتعلم استراتيجيات جديدة للتعامل مع التحديات النفسية. وذكرت المدربة ميرة محمد، المتخصصة في جلسات التفريغ العاطفي وتنظيف الصدمات، أن بعض الأفراد يلجأون إلى تطبيق «شات جي بي تي» للتعبير عن مشاعرهم والتفريغ العاطفي. مشيرةً إلى أن هذه الأدوات قد تكون مفيدة في بعض الحالات، لكنها لا تستطيع تقديم الدعم الكافي للأشخاص الذين يعانون صدمات نفسية أو تجارب مؤلمة معقدة. مؤكدةً أن هذه الحالات تتطلب تدخلاً إكلينيكياً متخصصاً يقوم على فهم شامل للحالة وتطوير خطة علاجية مخصصة، وحذرت من أن الاعتماد على الذكاء الاصطناعي في هذه الحالات قد يكون مضيعة للوقت ووهماً مؤقتاً للأشخاص الذين هم بالفعل في حاجة ماسة إلى دعم حقيقي.

ثورة زوكربيرغ العاطفية.. هل يسرق الذكاء الاصطناعي قلوبنا؟
ثورة زوكربيرغ العاطفية.. هل يسرق الذكاء الاصطناعي قلوبنا؟

البيان

time١٠-٠٥-٢٠٢٥

  • علوم
  • البيان

ثورة زوكربيرغ العاطفية.. هل يسرق الذكاء الاصطناعي قلوبنا؟

أثار الملياردير الأمريكي مارك زوكربيرغ، الرئيس التنفيذي لشركة "ميتا"، جدلا جديدا بعد حديثه عن دور الذكاء الاصطناعي في تعويض النقص العاطفي والاجتماعي لدى الأفراد، معتبرا أن هذه التكنولوجيا يمكن أن تملأ فراغ العلاقات البشرية. وفي مقابلة أجراها في أبريل الماضي عبر بودكاست "Dwarkesh"، قال زوكربيرغ إن "متوسط عدد الأصدقاء المقربين لدى الفرد الأمريكي لا يتجاوز ثلاثة"، مشيرا إلى أن الاحتياج الفعلي يصل إلى نحو 15 علاقة اجتماعية، وفقا لـ cnbc. وأضاف: "أعتقد أنه مع الوقت، سنطوّر لغة مجتمعية تساعدنا على فهم قيمة هذه العلاقات مع الذكاء الاصطناعي". لكن خبراء في علم النفس أبدوا تحفظهم الشديد على هذه التصريحات، وعلّق البروفيسور عمري جيلات، أستاذ علم النفس في جامعة كانساس، قائلاً إن الأبحاث لا تدعم إمكانية استبدال العلاقات الإنسانية بالذكاء الاصطناعي، موضحا أن ثلاثة أو أربعة أصدقاء مقربين غالبا ما يكونون كافيين لمعظم الناس. جيلات أوضح أن التفاعل مع روبوتات المحادثة أو "أصدقاء" الذكاء الاصطناعي قد يمنح شعورا مؤقتا بالدعم أو الراحة، لكنه يفتقر إلى العناصر الأساسية للعلاقات الحقيقية، مثل الدعم المتبادل، والتواصل الروحي، والتفاعل الاجتماعي الواقعي. وأضاف: "الذكاء الاصطناعي لا يمكنه أن يقدّمك لأشخاص آخرين، أو يشاركك في النشاطات، أو يمنحك حضنا دافئا". كما حذّر من الانخداع بعلاقات رقمية تبدو واقعية، مشيرا إلى حالات عاطفية مع نموذج ذكاء اصطناعي مثل ChatGPT، وأكد أن مثل هذه العلاقات وهمية، لأنها تفتقر للمشاعر والتفاعل الحقيقي من الطرف الآخر. وتطرّق جيلات إلى الجانب النفسي، محذرا من تأثير الاعتماد المفرط على الذكاء الاصطناعي، خاصة على الأطفال والمراهقين. وقال إن الدراسات أظهرت ارتباطا بين استخدام الذكاء الاصطناعي وارتفاع مستويات القلق والاكتئاب، إلى جانب ضعف في تنمية المهارات الاجتماعية. وشدد في ختام حديثه على ضرورة استخدام الذكاء الاصطناعي كأداة مساعدة فقط، وليس كبديل عن التفاعل البشري. ونصح الأشخاص الراغبين في بناء علاقات حقيقية بالانخراط في أنشطة اجتماعية وممارسة مهارات التواصل الفعّال. وأضاف: "علينا أن نتذكّر أن هذه الشركات تروّج للفوائد التكنولوجية بدوافع ربحية في المقام الأول".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store