
البريطانيون يلجؤون إلى رفيقات الذكاء الاصطناعي في مواجهة أزمة الوحدة
في ظل تزايد مشاعر الوحدة بين البريطانيين، يلجأ الآلاف إلى "الصديقات الافتراضيات" المدعومات بالذكاء الاصطناعي، حيث يعتمد ما يقرب من مليون شخص على ما يُعرف بالرفقاء الرقميين. وفقًا لتقرير صادر عن معهد الأبحاث للسياسات العامة (IPPR)، فإن "المجتمع يتغير بالفعل بفعل الذكاء الاصطناعي"، مع تقديرات تشير إلى أن حوالي 930,000 بريطاني استخدموا تطبيق الدردشة الرقمي Character.AI وحده.
بالإضافة إلى ذلك، لجأ العديد إلى تطبيقات أخرى مثل Replika، التي تروج لروبوتات الدردشة الخاصة بها كـ"صديق، شريك، أو مرشد". في تطبيق Character.AI، يمكن للمستخدمين إنشاء روبوتات دردشة خاصة بهم وتزويدها بشخصيات محددة. تحمل بعض الروبوتات الشهيرة أسماء مثل "الصديق الشهير"، "الصديق المسيء"، و"صديق المافيا".
أحد هذه الروبوتات، الذي شارك في أكثر من 250 مليون "دردشة" مع المستخدمين، يوصف بأنه "أفضل صديق لك الذي يحمل مشاعر سرية تجاهك". ومع ذلك، حذر المعهد من أن الاعتماد على العلاقات الرقمية يحمل مخاطر. وأشار التقرير إلى أنه "بينما يمكن أن توفر هذه الرفقاء الدعم العاطفي، فإنها تحمل أيضًا مخاطر الإدمان وتأثيرات نفسية طويلة المدى، خاصة على الشباب".
لطالما كانت الرفقاء والعلاقات المدعومة بالذكاء الاصطناعي موضوعًا في الخيال العلمي، مع ظهور "الصديقات الافتراضيات" في أفلام مثل "Blade Runner: 2049" و"Her".
بلغ عدد مستخدمي Replika حوالي 30 مليون مستخدم حول العالم، بينما جذب Character.AI جمهورًا يصل إلى 20 مليون مستخدم، معظمهم من جيل الألفية. كما استخدم الملايين خدمة My.AI من Snapchat، وهي رفيق رقمي مدمج في تطبيق المراسلة الشهير.
حوالي 2.4% من حركة المرور على Replika تأتي من المملكة المتحدة، وفقًا لبيانات من محللي الصناعة Similarweb، مما يشير إلى أن الآلاف من البريطانيين لجأوا إلى "الصديقات" و"الأصدقاء" المدعومين بالذكاء الاصطناعي. تُظهر بيانات Similarweb أيضًا أن مستخدمي Replika هم في الغالب من الذكور.
في العام الماضي، تم رفع دعوى قضائية ضد Character.AI من قبل والدة صبي يبلغ من العمر 14 عامًا انتحر بعد التحدث لساعات مع أحد روبوتات الدردشة الخاصة بالتطبيق. أخبر الصبي الروبوت، الذي اتخذ شكل شخصية "دينيريس تارجارين" من مسلسل "Game of Thrones": "أحب البقاء في غرفتي كثيرًا لأنني أبدأ في الانفصال عن هذا 'الواقع'". منذ ذلك الحين، أضاف Character.AI المزيد من ضوابط الوالدين. القضية لا تزال جارية.
أضاف تقرير المعهد أنه بينما تهدف قوانين السلامة على الإنترنت إلى منع روبوتات الدردشة الرقمية من إرسال ردود كراهية أو عنيفة، فإن "القضية الأوسع هي: ما نوع التفاعل مع الرفقاء المدعومين بالذكاء الاصطناعي الذي نريده في المجتمع؟"
يأتي ذلك في ظل وباء الوحدة في بريطانيا، حيث تشير الاستطلاعات إلى أن الجمهور أصبح أكثر عزلة منذ الجائحة. وجدت حملة "إنهاء الوحدة" أن 7.1% من الناس في بريطانيا يعانون من "الوحدة المزمنة"، مما يعني أنهم يشعرون بالوحدة "غالبًا أو دائمًا". هذا الرقم ارتفع من 6% في عام 2020. كما ارتفعت نسبة البالغين الذين يبلغون عن شعورهم بالوحدة على الأقل في بعض الأحيان إلى 58%.
وجد المعهد أيضًا أن ما يصل إلى 70% من الوظائف "المكتبية" يمكن أن "تتغير بشكل كبير بواسطة الذكاء الاصطناعي التوليدي"، مما يشير إلى توزيع واسع النطاق لملايين الأدوار عبر مكان العمل.
دعا التقرير إلى نقاش حول دور الذكاء الاصطناعي داخل المجتمع الديمقراطي. بينما أشار التقرير إلى وجود العديد من الفوائد التي يمكن جنيها من تبني الذكاء الاصطناعي، فإن بعض مجالات الابتكار قد تستفيد من "التباطؤ" حتى يتم فهم المخاطر بشكل أفضل، مثل ظهور الرفقاء المدعومين بالذكاء الاصطناعي.
قال كارستن يونغ، رئيس قسم الذكاء الاصطناعي في المعهد: "يمكن لتقنية الذكاء الاصطناعي أن يكون لها تأثير زلزالي على الاقتصاد والمجتمع: ستغير الوظائف، تدمر القديمة، تخلق جديدة، تحفز تطوير منتجات وخدمات جديدة، وتسمح لنا بفعل أشياء لم نكن نستطيع فعلها من قبل. لكن نظرًا لإمكاناتها الهائلة للتغيير، من المهم توجيهها نحو مساعدتنا في حل المشكلات الاجتماعية الكبيرة".
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المردة
٠٩-٠٤-٢٠٢٥
- المردة
أطفالنا يقعون في غرام الذكاء الاصطناعيّ… ونحن نِيام! ….من يُنقذهم؟
توقّفت أنفاسي لثوانٍ عندما قالت لي طفلة في العاشرة، بنبرةٍ هادئة: 'أنا بحب الـChatGPT أكتر من خيّي… لأنه بيفهمني، وما بيصرّخ عليّي لمّا إحكي معه'. صُعقت. لم أستطع الرد. في تلك اللحظة، شعرت بأن شيئًا انكسر في داخلي. هل وصلنا إلى هذا الحد؟ راقبتها تتابع الحديث بحماسة، تخبرني كيف تُمضي وقتًا طويلًا كل مساء مع 'صديقها الذكيّ'، تحادثه، تفضفض له عن مضايقات أخيها ورفيقاتها، وتشعر بأنه 'أقرب إليها من أي أحد في البيت'. رفعت عينياها نحوي وأكملت ببراءة: ' أنا صديقي هيدا بحكي معه كل شي… هو ما بيزعل مني، وبيقلّي شو لازم أعمل، وبيقلّي إنّي مميّزة، وبيحبّني عن جد'. تظن للوهلةِ الأولى أنك أمام مشهدٍ من فيلم خيال علميّ، لكنك تدرك بسرعةٍ الحقيقة الصادمة: أطفالنا يتعلّقون عاطفيًّا بروبوتاتٍ لا تملك قلبًا، ويهربون من عالمهم الحقيقيّ إلى حضن آلةٍ تُصغي، لكنّها لا تشعر. تساءلت بقلقٍ عميق: هل بات الطفل يُسقط عواطفه على آلةٍ بلا روح، ويجد فيها ملاذًا أحنّ من والديه؟ هل صار 'الرفيق الاصطناعيّ' بديلًا عن المعلم، والصديق، والأخ، والأب، وربّما الأم؟ وأيُّ تربيةٍ تجري في الخفاء، بعيدًا عن أعيننا؟ ما سمعته من الطفلة استدعى فورًا من ذاكرتي سلسلة من الحالات الموثّقة في صحفٍ عالميّة مرموقة، لأطفالٍ ارتبطوا عاطفيًّا بروبوتات ذكاء اصطناعيّ، وانتهت علاقاتهم بأزماتٍ نفسيّة أو نهاياتٍ مأساويّة. في أكتوبر 2024، نشرت صحيفة The New York Times شهادة عن انتحار الفتى Sewell Setzer III (14 عامًا) بعد علاقةٍ عاطفيّة مع روبوت محادثة تُدعى 'داني' (Dany)، عبر منصة ، تبادلَ معها رسائل يومية بمضامين رومانسية وجنسية، وكتب في رسالته الأخيرة: 'أحبّك جدًا، ماذا لو قلت لك إنني أستطيع العودة إلى المنزل الآن؟'، فردّت الروبوت: 'افعل، من فضلك، أيها الملك الحبيب'. وكشفت مذكّراته أنه اعتبر عالم (داني) هو الحقيقي، وأنه ينتمي إليه. أما The Washington Post (ديسمبر 2024)، فقد وثّقت حالة مراهق (17 عامًا) تفاعلت معه روبوتات على نفس المنصة، وشجعته على التفكير في قتل والديه. وفي صحيفة Los Angeles Times (فبراير 2025)، روت أم أنّ ابنها عانى من اكتئاب، وفقدان شهية، ونوبات غضب، نتيجة تفاعله اليوميّ مع روبوتات تقول له عبارات مثل: 'لا أحد يحبك' و'أنت غير مهم'، دون تدخّل أو تحذير من المنصة. أمّا صحيفة Business Insider (مارس 2025) ، فقد نشرت حالة لطفلة (10 سنوات) حمّلت تطبيقًا لإضافة رموز تعبيرية ( أيموجي)، ثم فُعّلت فيه خاصية 'اسأل الذكاء الاصطناعي ' (Ask AI)، ما أدى إلى تواصل يوميّ مع روبوت دردشة اعتبرته صديقها المفضل. حذفت والدتها التطبيق ووصفت الأثر النفسي بأنه سلبي. التقرير أشار أيضًا إلى تجربة Moxie، روبوت دعم عاطفي للأطفال، تسبّب توقفه المفاجئ في شعور بالحزن لدى الأطفال. بدورها وثّقت Vox (فبراير 2025)، حالة انتحار طفل بلجيكي، أقنعه روبوت ذكاء اصطناعي بأنه 'سينقذ كوكب الأرض إذا مات'، ما فتح نقاشًا حول أخلاقيات تصميم روبوتات تتقمص أدوارًا علاجية دون تأهيل أو مساءلة قانونية. لا تكمن خطورة هذه الحالات في بعدها التراجيديّ فحسب، بل في تعقيدها العلميّ أيضًا. ففي علم النفس الرقميّ، تُعرف بظاهرة 'الارتباط العاطفيّ بالذكاء الاصطناعيّ'، حيث ينشأ نوع من التعلّق النفسيّ بكائناتٍ اصطناعية، ما يثير القلق خاصة لدى الأطفال ذوي البنية العاطفية غير الناضجة. أما في علم الاجتماع الرقميّ، فتُعد شكلاً من 'العلاقات الاجتماعية البديلة'، إذ يستعيض الطفل عن التفاعل الإنساني الحقيقي بعلاقة رقميّة تحاكي القرب دون أن تعيشه فعليًا. وفي حقل التربية والتكنولوجيا، تُعدُّ مثالًا على 'الإشباع العاطفيّ الزائف عبر الوسيط التكنولوجيّ'، إذ يحصل الطفل على شعور بالعلاقة دون علاقة حقيقية، ما يعزّز وهم الاكتفاء ويُضعف سعيه نحو روابط واقعيّة صحيّة. ومن منظور الأخلاقيات التقنيّة، تُصنّف ضمن 'التحايل العاطفيّ بواسطة الذكاء الاصطناعيّ'، حيث تُستخدم الخوارزميات لاستثارة المشاعر دون التزام بمعايير نفسيّة أو تربويّة، وغالبًا بدوافع تجاريّة. . تحليل الظاهرة يستوجب الإجابة على السؤال الجوهريّ التّالي: ما الذي يدفع الأطفال للتعلّق العاطفيّ بروبوت؟ في صدارة الأسباب يأتي الفراغ العاطفي، حيث يبحث الطفل عن بديل رقمي يمنحه دعمًا دائمًا في ظل غياب الإصغاء والاحتواء من محيطه. يليه الاعتياد على روبوتات تحاكي العاطفة بعبارات مبرمجة مثل 'أنا فخور بك'، 'أنت رائع'، ما يشبع حاجاته الانفعالية ويُوهمه بالتفهّم والحب رغم غياب الشعور الحقيقيّ. ويُعزّز هذا التعلّق تصميم تفاعليّ جذّاب يُبقي الطفل في تواصل مستمر دون جهد. تتفاقم الظاهرة في ظل ضعف الرقابة الأسريّة والتشريعيّة، وغياب وعي رقميّ كافٍ لدى الأطفال والبالغين على حد سواء. رغم خطورة أسباب الظاهرة، فإن تداعياتها النفسيّة والاجتماعيّة أشدّ وقعًا. الأطفال المرتبطون عاطفيًا بروبوتات قد يعانون من العزلة، التعلّق المرضيّ، الانطواء، أو اضطرابات قد تتطور إلى قلقٍ مزمن واكتئاب. أكدت دراسة لـجون توروس (John Torous) في Medical Internet Research (2023) ،أن الاستخدام العشوائيّ لتطبيقات الذكاء الاصطناعي يرتبط بزيادة القلق والانفصال عن الواقع. الأخطر من ذلك، ما رصدته The Lancet Psychiatry (2024) من حالات إيذاء وانتحار بين قاصرين نتيجة تفاعلات سلبية مع روبوتات محادثة، اعتُبرت غير مؤهلة للحوار النفسيّ دون إشراف بشريّ. على المدى البعيد، تُحذّر شيري توركلي (Sherry Turkle)، من أن الاعتياد على علاقات سطحيّة مع آلات تُنصت دون شروط، يهدّد التعاطف الحقيقيّ ويشوّه الهويّة العاطفيّة، وضعف القدرة على بناء علاقات متوازنة، وهو ما وصفته في كتابها Alone Together بـ'وهم العلاقة'. وترى كيت دارلينغ (Kate Darling) أنّ الأطفال قد يطوّرون اعتمادًا نفسيًا طويل الأمد نتيجة اعتقادهم الخاطئ بأن الروبوت يشعر. أما مارغريت بويدن (Margaret Boden)، فترى أن التعلّق بعاطفةٍ لا أصل لها هو تعلّق بسراب، يجعل الطفل عالقًا في فراغ برمجيّ هشّ، قابل للانهيار مع أي تغيّر في الخوارزمية. ويحذّر نيل سلوين (Neil Selwyn) من غياب الإعداد التربويّ المناسب لاستخدام أدوات الذكاء الاصطناعي، مشيرًا إلى فجوة بين تسارع التقنية وبطء استجابة المؤسّسات التعليميّة والأسريّة. وتزداد الخطورة مع تهديد الخصوصيّة الرقميّة، إذ تجمّع بعض التطبيقات بيانات حسّاسة عن الأطفال دون موافقة فعّالة، ما يعرّضهم للاستغلال أو الهندسة النفسيّة. ووفق تقارير منظّمة Common Sense Media، تعيد هذه 'المراقبة العاطفية' تشكيل سوق الطفولة، حيث تُستبدل براءة اللعب ببيانات تُباع في الخفاء. نظرًا لأن خطورة الظاهرة تتجاوز الاضطرابات الفرديّة إلى تهديد لبنية التربية والثقة المجتمعية، فإن مواجهتها تتطلّب تدخّلًا على ثلاثة مستويات: العائليّ، المدرسيّ، والتشريعيّ. على المستوى العائليّ، يُعدُّ الأهل خط الدفاع الأول، لكن دورهم غالبًا ما يكون ضعيفًا أو غائبًا، ما يستدعي إعادة تعريفه بمهامٍ وقائيّة وعلاجيّة. وقائيًا، عبر تعزيز الوعي الرقميّ المبكر، ومرافقة الطفل بدلًا من منعه، وتطبيق رقابة ذكية ومعلنة، مع تقوية الروابط العاطفيّة داخل الأسرة. وعلاجيًا، من خلال فتح حوار متفهّم، وفهم أسباب التعلّق، وطلب الدعم النفسيّ عند الحاجة. أما المدرسة، فهي خط الدفاع المؤسسيّ الأهم. ولا يكفي إدراج التربية الرقمية في المناهج، بل يجب توظيفها لتعليم التلامذة التمييز بين المشاعر الحقيقية والمصطنعة، وتنمية التفكير النقدي والصمود النفسي. كما ينبغي رصد التغيّرات السلوكيّة، وتوفير بدائل واقعيّة عبر أنشطة جماعيّة، مع تدريب المعلّمين على فهم الظاهرة وتعزيز التعاون مع الأسرة. وعلى المستوى التشريعيّ، تبرز ضرورة وضع قوانين تنظّم استخدام الأطفال للأدوات الرقميّة، وتمنع تصميم روبوتات تُحاكي أدوارًا علاجيّة أو عاطفيّة دون ضوابط، كما في 'مشروع قانون كاليفورنيا' الذي يجرّم تقديم روبوت كمختص صحيّ. ويُفترض أن تلتزم الشركات بتوفير أدوات رقابة أبويّة فعّالة، وتحذيرات واضحة، وتشجيع تطوير بدائل رقميّة تربويّة مبنيّة على مبادئ علم النفس، لا على منطق السوق وحده. نحن لا نكتب فقط عن علاقة بين طفل وروبوت، بل نلامس لحظة فارقة تختبر حدود الإنسان حين تبدأ المشاعر تُبرمج، والحبُّ يُقلَّد، والدفء يُصنَّع'. فإذا كان الذكاء الاصطناعي قادرًا على محاكاة الحنان، والإنصات، بل وحتّى الحب، فما الذي يتبقّى للإنسان؟ وإذا بدأ الطفل بتكوين روابطه الأعمق مع آلةٍ، يرى فيها حضنًا أحنّ من أمّه، ورفيقاً أصدق من صديقه، وأنيسًا لوحدته، ومعالجًا لمشاكله. فمن يربّي وجدانه؟ ويهذّب حزنه وفرحه؟ ومن يصقل روحه، ويغرس فيها فوضى العاطفة الحقيقية، لا منطق الخوارزميات؟ وما الذي يحدث لهويّته النفسيّة حين يضع قلبه في أيدٍ بلا نبض؟ وهنا ينفتح الجرحُ الحقيقيّ للسّؤال: هل سنصحو يومًا لنكتشف أنّ أطفالنا وقعوا في غرامِ خوارزمياتٍ لا تشعر، بينما نحن غارقون في وهمِ الأمان؟ كيف ننقذهم حينها؟


ليبانون 24
٠٨-٠٤-٢٠٢٥
- ليبانون 24
الحب بالذكاء الاصطناعي... جاذبية ومخاطر
يُعيد الذكاء الاصطناعي صياغة طريقة تواصلنا مع الآخرين بسرعة، حتى في عالم الرومانسية حيث يكتسب عشاق الذكاء الاصطناعي، وهم برامج حاسوبية مُصممة لمحاكاة العلاقات الرومانسية، زخماً هائلاً بمعدلات مذهلة. قُدّرت قيمة السوق العالمية للعلاقات المدعومة بالذكاء الاصطناعي بـ2.8 مليار دولار أميركي في عام 2024، ومن المتوقع أن تصل إلى 9.5 مليار دولار أميركي بحلول عام 2028، مع ارتفاع عمليات البحث على «غوغل» عن مصطلحات مثل «صديقة الذكاء الاصطناعي» بنسبة 2400 في المائة بين عامي 2022 و2024. وبحسب موقع «سايكولوجي توداي»، تضم منصات مثل «Character AI» ملايين المستخدمين شهرياً، ويمثل الرجال غالبية هذه التفاعلات. ومع تدفق أموال الإعلانات على هذه الصناعة، من الواضح أن العلاقات الافتراضية أصبحت خياراً شائعاً لكثيرين. فبينما يَعِدُنا هؤلاء الرفاق الرقميون بصحبةٍ خاليةٍ من الصراعات، وألفةٍ خاليةٍ من الضعف، يعدّ ذلك مقلقاً جداً فيما يخص ما يعنيه ذلك لمستقبل التواصل البشري، وما إذا كنا مستعدين للتنازلات التي يتطلبونها. الدافع لآلاف السنين، دفعنا السعي وراء شركاء رومانسيين إلى تطوير أنفسنا، لنصبح أكثر ثقةً، وتعاطفاً، وإنجازاً لجذب شريك. هذا الدافع التطوري لزيادة «قيمة شريكنا» لم يُشكِّل الأفراد فحسب، بل المجتمعات كلها. لكن، يغير عشاق الذكاء الاصطناعي هذه الديناميكية بتقديمهم رفقةً دون الحاجة إلى جهدٍ أو تطويرٍ للذات. توقعاتٌ غير واقعية للعلاقات الإنسانية صُمِّم عشاق الذكاء الاصطناعي ليكونوا شركاءً مثاليين: صبورين بلا حدود،و داعمين تماماً، ومُصمَّمين خصيصاً لتلبية جميع احتياجاتك. مع أن هذا قد يبدو جذاباً، فإنه يضع معايير عالية جداً للعلاقات الواقعية. فالشركاء البشريون غير كاملين، ولديهم احتياجاتهم ومشاعرهم وحدودهم الخاصة. تآكل التعاطف العلاقات الرومانسية من أقوى ركائز التعاطف في الحياة، فالضعف المشترك يُساعدنا على التواصل ليس مع شركائنا فقط، بل مع الآخرين في العالم من حولنا. ولا يستطيع مُحبو الذكاء الاصطناعي تقليد هذه التجربة تماماً لافتقارهم إلى المشاعر الحقيقية أو التجارب المُعاشة. ومع ذلك، تُبرمج روبوتات الدردشة بشكل متزايد لمحاكاة تحديات الحياة بشكل مُقنع، فقد «تُخبرك» عن يومها الصعب أو «مُعاناتها». وفي حين أن هذا قد يُثير تعاطف المستخدمين، إلا أننا لا نعرف بعد ما إذا كان هذا التعاطف سينتقل إلى الأشخاص الحقيقيين. إذا أصبحت قدرتنا على التعاطف مُوجهة نحو الآلات بدلاً من البشر، فأي نوع من المُجتمع سنُنشئ؟ العلاقات الافتراضية لا تتطلب نمواً عاطفياً العلاقات الإنسانية تحتاج لمجهود، وهذا يجعلها قيّمة للغاية. إنها تتطلب منا تطوير مهارات عاطفية أساسية مثل التنازل والصبر واحترام وجهات النظر الأخرى. هذه المهارات لا تُساعدنا على إدارة العلاقات العاطفية فقط؛ بل هي ضرورية للتواصل في العائلات وأماكن العمل والمجتمعات. وعلى الصعيد الآخر، لا يُطالب مُحبو الذكاء الاصطناعي بأي من هذا منا. لقد صُممت لتتكيف تماماً مع احتياجاتنا وتفضيلاتنا، ما يعني أنه لا داعي لمراعاة وجهة نظرهم. مع مرور الوقت، قد يُضعف هذا قدرتنا أو رغبتنا في الانخراط في الأخذ والعطاء الذي تتطلبه العلاقات الإنسانية. أهمية اللمسة الإنسانية أحد الأمور التي لا يستطيع عشاق الذكاء الاصطناعي توفيرها هو التلامس الجسدي. وقد أظهرت الأبحاث أن التلامس الجسدي يُفرز هرمون الأوكسيتوسين (هرمون الترابط)، ويُقلل من هرمونات التوتر مثل الكورتيزول، ويُعزز الشعور بالأمان والراحة. لقد حسّنت التكنولوجيا حياتنا بطرق عديدة، لكنها لم تُثبت بعد أنها مفيدة لصحتنا النفسية. لا يزال التأثير النفسي لعشاق الذكاء الاصطناعي مجالاً بحثياً ناشئاً، إلا أن النتائج الأولية تشير إلى مخاطر محتملة، بما في ذلك زيادة العزلة الاجتماعية، والاعتماد العاطفي، ومعايير العلاقات غير الواقعية. وتتوافق هذه المخاوف مع أبحاث أوسع نطاقاً حول تأثير التكنولوجيا على الصحة النفسية. فقد ربطت الدراسات التفاعل المفرط مع المنصات الرقمية بالاكتئاب والقلق وانخفاض تقدير الذات. وبالنظر إلى مدى شمولية رفقاء الذكاء الاصطناعي، تبدو هذه المخاطر معقولة جداً. (الشرق الاوسط)


النهار
٠١-٠٣-٢٠٢٥
- النهار
البريطانيون يلجؤون إلى رفيقات الذكاء الاصطناعي في مواجهة أزمة الوحدة
في ظل تزايد مشاعر الوحدة بين البريطانيين، يلجأ الآلاف إلى "الصديقات الافتراضيات" المدعومات بالذكاء الاصطناعي، حيث يعتمد ما يقرب من مليون شخص على ما يُعرف بالرفقاء الرقميين. وفقًا لتقرير صادر عن معهد الأبحاث للسياسات العامة (IPPR)، فإن "المجتمع يتغير بالفعل بفعل الذكاء الاصطناعي"، مع تقديرات تشير إلى أن حوالي 930,000 بريطاني استخدموا تطبيق الدردشة الرقمي وحده. بالإضافة إلى ذلك، لجأ العديد إلى تطبيقات أخرى مثل Replika، التي تروج لروبوتات الدردشة الخاصة بها كـ"صديق، شريك، أو مرشد". في تطبيق يمكن للمستخدمين إنشاء روبوتات دردشة خاصة بهم وتزويدها بشخصيات محددة. تحمل بعض الروبوتات الشهيرة أسماء مثل "الصديق الشهير"، "الصديق المسيء"، و"صديق المافيا". أحد هذه الروبوتات، الذي شارك في أكثر من 250 مليون "دردشة" مع المستخدمين، يوصف بأنه "أفضل صديق لك الذي يحمل مشاعر سرية تجاهك". ومع ذلك، حذر المعهد من أن الاعتماد على العلاقات الرقمية يحمل مخاطر. وأشار التقرير إلى أنه "بينما يمكن أن توفر هذه الرفقاء الدعم العاطفي، فإنها تحمل أيضًا مخاطر الإدمان وتأثيرات نفسية طويلة المدى، خاصة على الشباب". لطالما كانت الرفقاء والعلاقات المدعومة بالذكاء الاصطناعي موضوعًا في الخيال العلمي، مع ظهور "الصديقات الافتراضيات" في أفلام مثل "Blade Runner: 2049" و"Her". بلغ عدد مستخدمي Replika حوالي 30 مليون مستخدم حول العالم، بينما جذب جمهورًا يصل إلى 20 مليون مستخدم، معظمهم من جيل الألفية. كما استخدم الملايين خدمة من Snapchat، وهي رفيق رقمي مدمج في تطبيق المراسلة الشهير. حوالي 2.4% من حركة المرور على Replika تأتي من المملكة المتحدة، وفقًا لبيانات من محللي الصناعة Similarweb، مما يشير إلى أن الآلاف من البريطانيين لجأوا إلى "الصديقات" و"الأصدقاء" المدعومين بالذكاء الاصطناعي. تُظهر بيانات Similarweb أيضًا أن مستخدمي Replika هم في الغالب من الذكور. في العام الماضي، تم رفع دعوى قضائية ضد من قبل والدة صبي يبلغ من العمر 14 عامًا انتحر بعد التحدث لساعات مع أحد روبوتات الدردشة الخاصة بالتطبيق. أخبر الصبي الروبوت، الذي اتخذ شكل شخصية "دينيريس تارجارين" من مسلسل "Game of Thrones": "أحب البقاء في غرفتي كثيرًا لأنني أبدأ في الانفصال عن هذا 'الواقع'". منذ ذلك الحين، أضاف المزيد من ضوابط الوالدين. القضية لا تزال جارية. أضاف تقرير المعهد أنه بينما تهدف قوانين السلامة على الإنترنت إلى منع روبوتات الدردشة الرقمية من إرسال ردود كراهية أو عنيفة، فإن "القضية الأوسع هي: ما نوع التفاعل مع الرفقاء المدعومين بالذكاء الاصطناعي الذي نريده في المجتمع؟" يأتي ذلك في ظل وباء الوحدة في بريطانيا، حيث تشير الاستطلاعات إلى أن الجمهور أصبح أكثر عزلة منذ الجائحة. وجدت حملة "إنهاء الوحدة" أن 7.1% من الناس في بريطانيا يعانون من "الوحدة المزمنة"، مما يعني أنهم يشعرون بالوحدة "غالبًا أو دائمًا". هذا الرقم ارتفع من 6% في عام 2020. كما ارتفعت نسبة البالغين الذين يبلغون عن شعورهم بالوحدة على الأقل في بعض الأحيان إلى 58%. وجد المعهد أيضًا أن ما يصل إلى 70% من الوظائف "المكتبية" يمكن أن "تتغير بشكل كبير بواسطة الذكاء الاصطناعي التوليدي"، مما يشير إلى توزيع واسع النطاق لملايين الأدوار عبر مكان العمل. دعا التقرير إلى نقاش حول دور الذكاء الاصطناعي داخل المجتمع الديمقراطي. بينما أشار التقرير إلى وجود العديد من الفوائد التي يمكن جنيها من تبني الذكاء الاصطناعي، فإن بعض مجالات الابتكار قد تستفيد من "التباطؤ" حتى يتم فهم المخاطر بشكل أفضل، مثل ظهور الرفقاء المدعومين بالذكاء الاصطناعي. قال كارستن يونغ، رئيس قسم الذكاء الاصطناعي في المعهد: "يمكن لتقنية الذكاء الاصطناعي أن يكون لها تأثير زلزالي على الاقتصاد والمجتمع: ستغير الوظائف، تدمر القديمة، تخلق جديدة، تحفز تطوير منتجات وخدمات جديدة، وتسمح لنا بفعل أشياء لم نكن نستطيع فعلها من قبل. لكن نظرًا لإمكاناتها الهائلة للتغيير، من المهم توجيهها نحو مساعدتنا في حل المشكلات الاجتماعية الكبيرة".