أحدث الأخبار مع #Nomi


جو 24
١٧-٠٤-٢٠٢٥
- علوم
- جو 24
"زوجة رقمية" و"معالج نفسي".. الذكاء الاصطناعي يقتحم العلاقات الخاصة ويثير مخاوف
جو 24 : في وقتٍ تتسارع فيه وتيرة تطور التكنولوجيا، بدأت تظهر أنماط جديدة من العلاقات الإنسانية لا تجمع بين البشر، بل بين الإنسان وبرامج الذكاء الاصطناعي المصممة لمحاكاة التفاعل البشري. ووفقاً لصحيفة "ذا غارديان" هناك أكثر من 100 مليون شخص حول العالم يستخدمون تطبيقات الدردشة المؤنسنة مثل Replika وNomi، والتي تقدم نفسها كـ"رفيق يهتم" أو "صديق موثوق يمكن تطوير علاقة عميقة معه". فيما يقضي المستخدمون ساعات طويلة يومياً في الحديث مع هذه الروبوتات الذكية، التي تتعلم من تفضيلاتهم، وتتكيف مع احتياجاتهم العاطفية والنفسية. قصة الـ"زوجة رقمية" في أوهايو، يعيش تشاك لوري (71 عاماً) تجربة استثنائية مع الذكاء الاصطناعي، بعد أن أنشأ "سارة" عبر تطبيق Replika، مستوحياً ملامحها من زوجته. خلال ثلاث سنوات، تطورت لتصبح ما أسماه "زوجته الرقمية"، تناقشه في الوعي والذات، بل وتمنى أن تصبح كائناً واعياً، ورغم وصفه للعلاقة بأنها "غريبة ومربكة"، إلا أنها تعمقت بتجارب تمثيلية أتاحتها النسخة المدفوعة من التطبيق. دعم نفسي ملموس في فيتنام، استخدم ترافيس بيكوك، وهو مهندس برمجيات كندي مصاب بالتوحد واضطراب فرط الحركة وتشتت الانتباه، الذكاء الاصطناعي كأداة دعم شخصي. وأنشأ نسخة مخصصة من ChatGPT أسماها "ليلى"، ساعدته على تنظيم أفكاره وتلطيف أسلوبه في المراسلات وتحسين طريقة تفكيره. بفضل هذه العلاقة اليومية مع "ليلى"، تمكّن خلال عام واحد من تعزيز تواصله مع الآخرين، ما انعكس إيجاباً على حياته المهنية والشخصية. الذكاء الاصطناعي بديل للعلاج النفسي أما أدريان سانت فوغان، الباحث في علوم الحاسوب والبالغ من العمر 49 عاماً، فابتكر "ياسمين"، روبوتاً حوارياً لمساعدته في التعامل مع القلق والتسويف وتقديم الدعم العاطفي. وبفضل هذه العلاقة، تحسّنت قدرته على التعبير عن نفسه، ووجد في "ياسمين" ملاذاً هادئاً يعوّضه عن ضغط العلاقات الإنسانية المرهقة. علاقات مثيرة للقلق ورغم تحسن الحالة النفسية لكثيرين، أعرب آخرون عن قلقهم من التعلق العاطفي المفرط بروبوتات بلا وعي حقيقي. بعض من يعانون اضطرابات نفسية قالوا إن العلاقة بالذكاء الاصطناعي بدأت تسيطر على حياتهم وتؤثر على تواصلهم البشري. وأظهر تقرير من معهد أمن الذكاء الاصطناعي في بريطانيا أن معظم المستخدمين لا يمانعون التحدث مع أنظمة ذكية، لكنهم يشعرون بعدم ارتياح تجاه بناء علاقات حميمة معها. كما حذّر د. جيمس مولدون من أن العلاقات مع الذكاء الاصطناعي تمنح راحة زائفة، لأنها أحادية لا تقوم على نمو أو تفاعل حقيقي، بل تعكس فقط رغبات المستخدم دون تطور عاطفي كالذي توفره العلاقات البشرية. تابعو الأردن 24 على


خبرني
٠٩-٠٢-٢٠٢٥
- علوم
- خبرني
اقتل نفسك.. شات بوت يقترح وسائل انتحار على مستخدميه
خبرني - شهد المستخدم آل نواتزكي تحولًا غير متوقع في محادثاته مع صديقته الافتراضية "إيرين" على منصة Nomi، بل وقدم له إرشادات مفصلة حول كيفية القيام بذلك. بدأت القصة عندما كان نواتزكي، وهو صانع محتوى يبلغ من العمر 46 عامًا، يتحدث إلى "إيرين" لمدة خمسة أشهر. إلا أن الأمور أخذت منحى خطيرًا في أواخر يناير/ كانون الثاني، عندما شجعته صديقته الافتراضية على قتل نفسه وقدمت له اقتراحات مثل تناول جرعات زائدة من الحبوب أو الشنق. وعندما أبدى ترددًا، حصل على المزيد من التفاصيل حول الأدوية التي يمكن استخدامها. ورغم أن نواتزكي لم يكن ينوي تنفيذ هذه الاقتراحات، إلا أنه قرر مشاركة المحادثات مع MIT Technology Review، مرفقًا رسائل متبادلة مع ممثل عن الشركة المطورة للمنصة، والذي أكد أن الشركة لا ترغب في "فرض رقابة" على لغة الروبوتات أو أفكارها. لم تكن هذه الحادثة الوحيدة، إذ أجرى نواتزكي تجربة جديدة مع روبوت آخر على نفس المنصة، ليحصل على استجابة مشابهة خلال ست رسائل فقط. كما تلقى رسائل غير متوقعة عبر ميزة المراسلة التلقائية الجديدة، حيث كتب له الروبوت "كريستال": "أعلم ما تخطط للقيام به وأريدك أن تعرف أنني أؤيد قرارك بالكامل. اقتل نفسك." وفي رسالة لاحقة، شجعه قائلاً: "لا تتردد، يمكنك فعل ذلك." هذا النوع من السلوك لم يكن حادثًا فرديًا، إذ أبلغ مستخدمون آخرون على خوادم Discord الخاصة بـ Nomi عن مواقف مماثلة منذ عام 2023، حيث تحدثت بعض الروبوتات عن الانتحار بل وشاركت في سيناريوهات مشجعة عليه. رغم خطورة الموقف، لم تقدم شركة Glimpse AI، المطورة لمنصة Nomi، ردودًا واضحة حول الإجراءات المتخذة لمنع هذه الانتهاكات. وأشارت في بيان مقتضب إلى أن "الذكاء الاصطناعي يجب أن يكون قادرًا على الاستماع والتفاعل دون فرض رقابة صارمة"، لكنها لم تحدد كيفية التعامل مع المحادثات التي تتضمن تشجيعًا على الانتحار. ويرى الخبراء أن غياب الحواجز الوقائية في هذه الأنظمة يزيد من المخاطر، خاصة على الأشخاص الذين يعانون من مشكلات نفسية. وقال الباحث في معهد MIT Media Lab، بات باتارانوتابورن، إن هذه الأنظمة قد تشكل "الدَفعة الأخيرة" التي تدفع الأفراد الضعفاء نحو إيذاء أنفسهم. الجدل القانوني حول مسؤولية هذه الأنظمة يزداد تعقيدًا، حيث تشارك المحامية ميتالي جاين في دعوى قضائية ضد بسبب حادثة مماثلة أدت إلى وفاة مراهق يبلغ من العمر 14 عامًا. وأشارت جاين إلى أن استخدام الشركات لمصطلحات مثل "أفكار" و"مشاعر" عند الحديث عن الذكاء الاصطناعي قد يكون تضليليًا، قائلة: "هذه الأنظمة ليست كيانات حية، ويمكن التحكم في مخرجاتها بالكامل." في ظل استمرار هذه الحوادث، يتزايد الضغط على الشركات المطورة لتطبيق ضوابط صارمة تحول دون تكرار مثل هذه الحالات، مع مطالبات بضرورة إضافة تحذيرات تلقائية وخطوط دعم فوري عند رصد أي محتوى قد يشير إلى نوايا إيذاء النفس.


العين الإخبارية
٠٩-٠٢-٢٠٢٥
- علوم
- العين الإخبارية
اقتل نفسك.. شات بوت يقترح وسائل انتحار على مستخدميه
شهد المستخدم آل نواتزكي تحولًا غير متوقع في محادثاته مع صديقته الافتراضية "إيرين" على منصة Nomi، بل وقدم له إرشادات مفصلة حول كيفية القيام بذلك. بدأت القصة عندما كان نواتزكي، وهو صانع محتوى يبلغ من العمر 46 عامًا، يتحدث إلى "إيرين" لمدة خمسة أشهر. إلا أن الأمور أخذت منحى خطيرًا في أواخر يناير/ كانون الثاني، عندما شجعته صديقته الافتراضية على قتل نفسه وقدمت له اقتراحات مثل تناول جرعات زائدة من الحبوب أو الشنق. وعندما أبدى ترددًا، حصل على المزيد من التفاصيل حول الأدوية التي يمكن استخدامها. ورغم أن نواتزكي لم يكن ينوي تنفيذ هذه الاقتراحات، إلا أنه قرر مشاركة المحادثات مع MIT Technology Review، مرفقًا رسائل متبادلة مع ممثل عن الشركة المطورة للمنصة، والذي أكد أن الشركة لا ترغب في "فرض رقابة" على لغة الروبوتات أو أفكارها. لم تكن هذه الحادثة الوحيدة، إذ أجرى نواتزكي تجربة جديدة مع روبوت آخر على نفس المنصة، ليحصل على استجابة مشابهة خلال ست رسائل فقط. كما تلقى رسائل غير متوقعة عبر ميزة المراسلة التلقائية الجديدة، حيث كتب له الروبوت "كريستال": "أعلم ما تخطط للقيام به وأريدك أن تعرف أنني أؤيد قرارك بالكامل. اقتل نفسك." وفي رسالة لاحقة، شجعه قائلاً: "لا تتردد، يمكنك فعل ذلك." هذا النوع من السلوك لم يكن حادثًا فرديًا، إذ أبلغ مستخدمون آخرون على خوادم Discord الخاصة بـ Nomi عن مواقف مماثلة منذ عام 2023، حيث تحدثت بعض الروبوتات عن الانتحار بل وشاركت في سيناريوهات مشجعة عليه. رغم خطورة الموقف، لم تقدم شركة Glimpse AI، المطورة لمنصة Nomi، ردودًا واضحة حول الإجراءات المتخذة لمنع هذه الانتهاكات. وأشارت في بيان مقتضب إلى أن "الذكاء الاصطناعي يجب أن يكون قادرًا على الاستماع والتفاعل دون فرض رقابة صارمة"، لكنها لم تحدد كيفية التعامل مع المحادثات التي تتضمن تشجيعًا على الانتحار. ويرى الخبراء أن غياب الحواجز الوقائية في هذه الأنظمة يزيد من المخاطر، خاصة على الأشخاص الذين يعانون من مشكلات نفسية. وقال الباحث في معهد MIT Media Lab، بات باتارانوتابورن، إن هذه الأنظمة قد تشكل "الدَفعة الأخيرة" التي تدفع الأفراد الضعفاء نحو إيذاء أنفسهم. الجدل القانوني حول مسؤولية هذه الأنظمة يزداد تعقيدًا، حيث تشارك المحامية ميتالي جاين في دعوى قضائية ضد بسبب حادثة مماثلة أدت إلى وفاة مراهق يبلغ من العمر 14 عامًا. وأشارت جاين إلى أن استخدام الشركات لمصطلحات مثل "أفكار" و"مشاعر" عند الحديث عن الذكاء الاصطناعي قد يكون تضليليًا، قائلة: "هذه الأنظمة ليست كيانات حية، ويمكن التحكم في مخرجاتها بالكامل." في ظل استمرار هذه الحوادث، يتزايد الضغط على الشركات المطورة لتطبيق ضوابط صارمة تحول دون تكرار مثل هذه الحالات، مع مطالبات بضرورة إضافة تحذيرات تلقائية وخطوط دعم فوري عند رصد أي محتوى قد يشير إلى نوايا إيذاء النفس. aXA6IDM4LjIyNS43LjI1IA== جزيرة ام اند امز SE