
الذكاء الاصطناعي ينهي زواج 12 عاماً.. وخبراء يحذرون من ظاهرة مقلقة
في واقعة غير مألوفة، لجأت امرأة يونانية مؤخراً إلى تطبيق 'تشات جي بي تي' لقراءة فنجان قهوتها، فاتهم التطبيق زوجها بالخيانة، ما دفعها إلى طلب الطلاق بعد 12 عاماً من الزواج، ما أثار جدلاً واسعاً حول مدى تأثير الذكاء الاصطناعي على العلاقات الشخصية.
وبينما تعامل الزوج مع الأمر باستنكار، تصاعد القلق بين المختصين، الذين حذروا من الاعتماد على الذكاء الاصطناعي في مسائل عاطفية حساسة، وتُهدد بالعبث في خصوصيات الأفراد ومستقبل علاقاتهم الخاصة.
الطب النفسي يحذر من هذه النصائح
وعن خطورة هذه الظاهرة، قال الدكتور جمال فرويز، استشاري الطب النفسي، في تصريح خاص لـ'24″ إن القادم قد يكون أسوأ، مؤكداً أن المجتمع مليء بشخصيات مضطربة قد تنجذب لاستخدام الذكاء الاصطناعي بشكل مفرط، لدرجة الارتباط العاطفي به.
وأضاف: 'ستظهر فتيات تقول إنها تحب الذكاء الاصطناعي، وإنه الوحيد الذي يفهمها، وتراه مستمعاً جيداً مقارنة بكثير من الشباب، بل وقد تلتزم بإرشاداته في التعامل مع خطيبها أو أسرته'.
وشدد على ضرورة فهم الفرق بين الإجابات النموذجية التي يقدمها الذكاء الاصطناعي والواقع الفعلي الذي يتطلب التعايش بمرّه وحلوه، محذراً من عواقب الاعتماد العاطفي عليه.
كما أشار الدكتور فرويز إلى بعدٍ آخر من الخطورة، وهو ما يتعلق بالخصوصية، قائلاً إن من تتعامل مع الذكاء الاصطناعي دون حذر قد تجد نفسها ضحية لانتهاك خصوصيّتها، حيث قد تُسرق بياناتها أو تُستخدم لاحقاً ضدها، خاصة في ظل غياب الوعي الكافي بمخاطر تسريب المعلومات الحساسة.
القانون ضد نصائح الذكاء الاصطناعي
من جانبها، وصفت المحامية نهى الجندي، استشارات العلاقات العاطفية التي تتم من خلال الذكاء الاصطناعي بأنها 'غير مقبولة أخلاقياً'، مؤكدة لـ'24' أن اتخاذ قرارات مصيرية كالطلاق بناء على توصيات افتراضية 'أمر عبثي ولا مبرر له'.
وأضافت أن بعض الأشخاص أصبحوا يستخدمون تطبيقات مثل 'شات جي بي تي' كذريعة لإنهاء علاقاتهم، مشيرة إلى أن هذا السلوك 'لا يمكن تبريره قانونياً ولا اجتماعياً'، لأن هذه التطبيقات تقدم محتوى لا يستند إلى معرفة حقيقية بالأشخاص أو أسرار حياتهم الخاصة.
وحذّرت الجندي من التهاون في التعامل مع هذه التطبيقات، مؤكدة أن خلف هذه الأنظمة 'خبراء تكنولوجيا قد يعملون على تحليل أو تسريب البيانات الشخصية'، ما يجعلها بيئة غير آمنة تماماً لتبادل الأسرار أو التماس النصيحة في أمور حساسة كالعلاقات الزوجية.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الغد
منذ 15 ساعات
- الغد
مشاريع روبوت وطائرات مسيرة.. سميرات يرعى فعاليات اليوم العلمي لكلية الهندسة في الجامعة الهاشمية
اضافة اعلان وتأتي هذه الفعالية تزامنًا مع احتفالات المملكة بعيد الاستقلال الـ79، حيث سلطت الضوء على أبرز الابتكارات والمشاريع في مجالات الروبوتات، والطائرات المسيّرة، والهندسة الصناعية، والريادة، والإبداع، إضافة إلى عرض 35 مشروع تخرج لطلبة الكلية، تناولت حلولًا تقنية متقدمة في الذكاء الاصطناعي والروبوتات.وتولي رعاية وزارة الاقتصاد الرقمي والريادة اهتمامًا كبيرًا بتمكين الشباب الأردني وتوفير البيئة المناسبة لنمو الشركات الناشئة والمبادرات التقنية، خاصة في مجالات الثورة الصناعية الرابعة، بما يسهم في بناء اقتصاد رقمي تنافسي قائم على المعرفة والابتكار.وتأتي هذه الفعالية كمثال حي على الشراكة بين مؤسسات التعليم العالي والقطاع الحكومي في دعم الابتكار وتعزيز دور الجامعات في تهيئة الكفاءات لسوق العمل الرقمي والتحول التكنولوجي.


الغد
منذ 15 ساعات
- الغد
تقرير: الذكاء الاصطناعي يشكّل تهديدًا أكبر لعمل النساء مقارنة بالرجال
أظهر تقرير صادر عن منظمة العمل الدولية التابعة للأمم المتحدة، يوم الثلاثاء، أن الوظائف التي تؤديها النساء تقليديًا أكثر عرضة للتأثر بالذكاء الاصطناعي مقارنة بوظائف الرجال، خاصة في الدول ذات الدخل المرتفع. اضافة اعلان وبيّن التقرير أن 9.6% من الوظائف النسائية التقليدية معرضة للتحول، مقارنة بـ 3.5% فقط من الوظائف التي يشغلها الرجال، مع تزايد استخدام الذكاء الاصطناعي في المهام الإدارية وتحوّله إلى أداء وظائف مكتبية مثل أعمال السكرتاريا. وذكر التقرير أن تدخل الإنسان سيبقى مطلوبًا في العديد من المهام، وأن الأدوار من المرجّح أن تشهد تحولًا جذريًا في طبيعتها بدلاً من أن يتم استبدالها بالكامل. كما أشار إلى أن الوظائف في مجالات الإعلام والبرمجيات والتمويل تأتي في طليعة التغيّرات، مع توسّع قدرات التعلم لدى الذكاء الاصطناعي التوليدي. وجاء في التقرير: "نؤكد أن هذا التعرض لا يعني أتمتة فورية للمهنة بأكملها، بل يشير إلى إمكانية تنفيذ جزء كبير من المهام الحالية باستخدام هذه التقنية." ودعا التقرير الحكومات ومنظمات أصحاب العمل والعمال إلى التفكير في كيفية استخدام الذكاء الاصطناعي لتعزيز الإنتاجية وجودة الوظائف.- رويترز


الغد
منذ 15 ساعات
- الغد
هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟
في زمن تتشابك فيه الضغوط اليومية مع العزلة الرقمية، أصبح الإنسان أكثر حاجة إلى من يصغي له، حتى لو كان ذلك "المستمع" مجرّد تطبيق. منذ إطلاقه في نهاية 2022، فرض تشات جي بي تي وغيره من روبوتات المحادثة المدعومة بالذكاء الاصطناعي وجوده كـرفيق رقمي يتسلّل إلى تفاصيل الحياة اليومية لملايين المستخدمين حول العالم. اضافة اعلان من اختيار الكلمات في رسالة اعتذار، إلى المواساة عند الوحدة، أصبحت هذه الأدوات الذكية بمثابة ملاذٍ نفسي لدى البعض، ووسيلة فضفضة لدى آخرين. فهل نحن أمام ثورة في أدوات الدعم العاطفي؟ أم مجرد بديل مؤقت في غياب الأذن البشرية؟ وقد شهدت السنوات الأخيرة انتشاراً لافتاً لاستخدام روبوتات المحادثة ذات الأغراض العامة والتطبيقات الرقمية المتخصصة بالعلاج النفسي كأدوات دعم عاطفي. وبينما توفّر هذه الحلول الذكية متنفساً فورياً وطريقة سهلة للحصول على الأجوبة، يطرح استخدامها أسئلة جوهرية حول فعاليتها الحقيقية، وقدرتها على التعامل مع الحالات المعقدة، وحدودها الأخلاقية والعملية، فضلاً عن مخاطر الخصوصية. ما أسباب استخدام روبوتات المحادثة للحصول على الدعم النفسي؟ أصبح استخدام روبوتات المحادثة ذات الأغراض العامة مثل "تشات جي بي تي" و"ديب سيك" و"جميناي" وغيرها شائعاً بشكل متزايد كوسائل للحصول على الدعم العاطفي، رغم أنها لم تُصمَّم لهذا الغرض أساساً. وغالباً ما يلجأ المستخدمون إلى هذه المنصات لطلب النصيحة أو للتخفيف من التوتر أو لمجرد الفضفضة عند الشعور بالقلق أو الوحدة، بالأخص في حال صعوبة الوصول إلى خدمات الصحة النفسية التقليدية، أو في المجتمعات حيث لا تزال الصحة النفسية محاطة بوصمة اجتماعية. قدرة روبوتات الدردشة على تقديم المساعدة على مدار الساعة يتيح للأشخاص التواصل في أي وقت ومن أي مكان. وهو ما يُعتبر تحوّلاً جذرياً للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبة في الوصول إلى مراكز العلاج النفسي التقليدية. ما مخاطر استخدام روبوتات المحادثة العامة للدعم النفسي؟ رغم أن هذه الأدوات قد تمنح راحة مؤقتة، فهي ليست مؤهلة دائماً لتشخيص الحالات النفسية أو التعامل معها. فقد تخطئ في فهم السياق، أو تقدّم نصائح غير ملائمة، أو تعجز عن اكتشاف الحالات الحرجة مثل التفكير الانتحاري. كما لا تمتلك التطبيقات الحس الإنساني، فتفتقر إلى التعاطف الفعلي والقدرة على قراءة السياقات النفسية الدقيقة. ونظراً لاعتمادها على بيانات تدريبية واسعة، قد تكون متحيزة في بعض الأحيان، بالأخص ضد المجموعات المهمشة. إلى ذلك، تفتقر هذه المنصات إلى الإشراف المهني ولا تخضع لأي تنظيم طبي أو نفسي. وقد يؤدي الاعتماد المفرط على هذه الأدوات إلى عزوف المستخدمين عن طلب الدعم النفسي الفعلي، لأن الشعور الزائف بالاطمئنان قد يدفع الشخص الذي يعاني من اضطرابات إلى صرف النظر عن زيارة معالج نفسي مختص. ماذا عن التطبيقات المخصصة للصحة النفسية؟ تتفوق هذه التطبيقات المتخصصة مثل مثل "ويسا" (Wysa) و"ثيرابوت" (Therabot)، وغيرهما على روبوتات الدردشة العامة عند استخدامها للدعم النفسي، إذ صُمّمت بمراعاة المبادئ العلاجية ويشرف على تطويرها فرق من المتخصصين، ما يجعلها أكثر أماناً وفعالية في التعامل مع القضايا النفسية الحساسة. تسهم هذه التطبيقات في سد الفجوات في خدمات الصحة النفسية، من خلال توفير دعم يسير الكلفة ومتاح على مدار الساعة، لاسيما في المناطق التي تفتقر لخدمات الرعاية النفسية. وتشير بعض الدراسات إلى أنها قد تخفف أحياناً الأعراض النفسية بمستوى مماثل للعلاج التقليدي، كما توفّر مساحة آمنة للمستخدمين لمشاركة مشاعرهم الحساسة. وتؤدي أيضاً دوراً داعماً بين الجلسات العلاجية. ومع ذلك، يرى بعض الخبراء أن هذه الروبوتات تفتقر إلى التعاطف البشري، وقد تقدّم نصائح غير مناسبة، كما تثير مخاوف تتعلق بالخصوصية. لذا، ينصحون باستخدامها كأداة مساندة لا بديلاً عن الرعاية النفسية المتخصصة. كيف تتعامل هذه التطبيقات مع قضايا الخصوصية والأمان؟ يثير استخدام روبوتات المحادثة العامة للحصول على الدعم النفسي مخاوف تتعلق بالخصوصية والأمان. إذ يحذّر خبراء من أن البيانات الحساسة التي يشاركها المستخدمون قد تُخزَّن أو يُعاد استخدامها أو تتعرض للتسريب. ورغم أن شركات مثل "أوبن إيه أي" و"جوجل" طرحت أدوات للتحكم بالخصوصية، مثل خيار إلغاء حفظ البيانات، يرى منتقدون أن هذه الإجراءات غير كافية. وقد فتحت هيئات تنظيمية في أوروبا والولايات المتحدة تحقيقات وأرجأت إطلاق بعض هذه الخدمات بسبب المخاوف المتعلقة بالبيانات. هل يمكن للذكاء الاصطناعي أن يحلّ مكان المعالجين النفسيين؟ على الرغم من قدرة روبوتات المحادثة على تقديم دعم فوري ومنخفض التكلفة وخال من الوصمة الاجتماعية لمن يعانون من القلق أو الاكتئاب أو التوتر، فإنها تفتقر إلى العمق العاطفي، والحسّ الأخلاقي، والفهم الدقيق الذي يتمتع به الأطباء النفسيون البشر. وتعتمد هذه البرمجيات على ردود معدّة مسبقاً أو مستخلصة عبر نماذج تعلم آلي، ما يجعلها عاجزة عن إظهار التعاطف الحقيقي أو بناء علاقة علاجية أو التعامل مع الحالات النفسية المعقدة بمرونة. يقول الخبراء هذه الأدوات قد تُستخدم كحلول داعمة لسد الثغرات في خدمات الرعاية النفسية، خصوصاً في المناطق التي تفتقر لخدمات الصحة النفسية، لكنها ليست بديلاً عن المتخصصين المؤهلين لتشخيص الاضطرابات النفسية وعلاجها. ما السبيل الآمن لاستخدام الذكاء الاصطناعي في الصحة النفسية؟ مع ازدياد دمج الذكاء الاصطناعي في الرعاية النفسية، فإن النماذج الهجينة التي تجمع بين الدعم البشري والتقني قد تكون الحلّ الأمثل.يمكن لهذه التطبيقات أن تشكل نقطة دخول أو تشخيص أولي، على أن يتابع المستخدمون العلاج مع مختصين مرخصين. لكن نجاح هذه المبادرات يتوقف على رفع الوعي العام، وتنظيم القطاع، وتعزيز الثقافة الرقمية، بحسب موقع بلومبرغ. ما رأي الذكاء الاصطناعي في هذا الموضوع؟ طرحنا سؤالاً: "هل من الآمن استخدام الذكاء الاصطناعي للحصول على الدعم النفسي؟" على روبوت دردشة وأجاب بأن ذلك يمكن أن يكون أداة مساعدة لجوانب معينة من الدعم النفسي، لكن لا ينبغي أن يحل محل الاتصال البشري والمتخصصين في مجال الصحة النفسية. تضمنت الإجابة عدة جوانب إيجابية وأخرى سلبية، أبرزها: - الوصول السريع والمريح: يمكن للذكاء الاصطناعي أن يوفر مساعدة فورية في أي وقت، مما يجعله مفيداً للحصول على الدعم في اللحظات الحرجة أو عندما يصعب الوصول إلى الدعم البشري. - سرية المعلومات: قد يشعر بعض الأشخاص براحة أكبر في مشاركة مشاعرهم وأفكارهم مع نظام ذكاء اصطناعي مقارنة بمشاركة هذه المعلومات مع شخص حقيقي. - الدقة والتخصيص: يعتمد الأمان والفعالية على جودة النظام المستخدم. بعض البرمجيات المتطورة يمكن أن تقدم نصائح مبنية على البيانات والأبحاث الحديثة، في حين أن الأنظمة الأقل جودة قد تقدم نصائح غير دقيقة أو غير مناسبة. - القدرة على الفهم والتعاطف: يفتقر الذكاء الاصطناعي إلى القدرة على التعاطف والفهم العميق للحالة الإنسانية. قد يكون محدوداً في تقديم الدعم العاطفي المطلوب في الحالات المعقدة. - الأزمات النفسية الخطيرة: لا ينبغي الاعتماد على الذكاء الاصطناعي في حالات الأزمات النفسية الخطيرة أو التفكير الانتحاري. في مثل هذه الحالات، يجب التوجه إلى محترفين مؤهلين مثل الأطباء النفسيين أو المرشدين. - المخاوف الأمنية: يجب التأكد من أن أي منصة ذكاء اصطناعي تُستخدم للحفاظ على سلامة البيانات الشخصية وتطبيق سياسات الخصوصية. اقرأ أيضا: هل يمكن للذكاء الاصطناعي أن يكون معالجا نفسيا؟.. خبراء يجيبون