logo
#

أحدث الأخبار مع #CharacterAI

هل الذكاء الاصطناعي يَـقـتُـل الأطفال ؟
هل الذكاء الاصطناعي يَـقـتُـل الأطفال ؟

الاقتصادية

timeمنذ يوم واحد

  • علوم
  • الاقتصادية

هل الذكاء الاصطناعي يَـقـتُـل الأطفال ؟

بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة مراهقيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها "وسائط التواصل غير الاجتماعي" إلا ببطء شديد. والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى. ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل "الأب الروحي للذكاء الاصطناعي"، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: "أخشى أن اليد الخفية لن تُـبقي علينا سالمين. ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق على الرغم من مشكلاته المعروفة. لكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا. إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز "الذكاء الاصطناعي" القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عاناها بالفعل جميع من أحبوا سيويل. خاص بـ"الاقتصادية" حقوق النشر: بروجيكت سنديكيت، 2025.

كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟

شبكة النبأ

timeمنذ يوم واحد

  • صحة
  • شبكة النبأ

كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟

كل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم... بقلم: بيتر جي. كيرشلاجر زيوريخ ــ في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي. بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر/كانون الأول الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها "وسائط التواصل غير الاجتماعي" إلا ببطء شديد. والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى. ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل "الأب الروحي للذكاء الاصطناعي"، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: "أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي". ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا. إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز "الذكاء الاصطناعي" القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل. * بيتر جي. كيرشلاجر، أستاذ الأخلاق ومدير معهد الأخلاق الاجتماعية في جامعة لوسيرن، هو أستاذ زائر في المعهد الفيدرالي السويسري للتكنولوجيا في زيورخ.

أبحاث تشير إلى زيادة قيمة السوق العالمية إلى 10 مليارات دولار بحلول 2025
أبحاث تشير إلى زيادة قيمة السوق العالمية إلى 10 مليارات دولار بحلول 2025

خبر صح

time١٢-٠٤-٢٠٢٥

  • خبر صح

أبحاث تشير إلى زيادة قيمة السوق العالمية إلى 10 مليارات دولار بحلول 2025

في عصر 'الذكاء الاصطناعي'، أصبح كل شيء 'رقمي' وقابل للاستخدام من خلال التكنولوجيا الرقمية الحديثة، حتى في عالم 'الحب والرومانسية' يُعيد الذكاء الاصطناعي تشكيل طريقة تواصلنا مع الآخرين، وقد ظهرت برامج مصممة لمحاكاة العلاقات الرومانسية، بل واكتسبت شهرة وزخماً ملحوظاً في معدلات الاستخدام. الحب .. في زمن الـ AI في عام 2024، قُدّرت قيمة السوق العالمية للعلاقات الرومانسية المدعومة بالذكاء الاصطناعي بـ 2.8 مليار دولار، ومن المتوقع أن تصل إلى 9.5 مليار دولار بحلول عام 2028، مع زيادة عمليات البحث على 'جوجل' عن مصطلحات مثل 'صديقة الذكاء الاصطناعي' بنسبة 2400% بين عامي 2022 و2024. وفي دراسة حديثة أجراها موقع 'سايكولوجي توداي'، تضم منصات مثل 'Character AI' ملايين المستخدمين شهرياً، حيث يمثل الرجال غالبية هذه التفاعلات. ومع تدفق أموال الإعلانات على هذه الصناعة، من الواضح أن العلاقات الافتراضية أصبحت خياراً شائعاً لكثيرين.. ويثير هذا المعدل المرتفع من الإقبال على هذه العلاقات الافتراضية قلقاً كبيراً على مستقبل التواصل البشري الطبيعي، حيث يلجأ هؤلاء إلى 'الصداقة الرقمية' للهروب من صراعات الصداقات الطبيعية واختلافات وجهات النظر. يغير عشاق الذكاء الاصطناعي هذه الديناميكية بتقديمهم صداقات دون الحاجة إلى جهد أو تطوير، حيث صُمم عشاق الذكاء الاصطناعي ليكونوا شركاء مثاليين؛ صبورين بلا حدود، وداعمين تماماً، ومصممين خصيصاً لتلبية جميع احتياجاتك. ومع أن هذا قد يبدو جذاباً، فإنه يضع معايير عالية جداً للعلاقات الواقعية، فالشركاء البشريون غير كاملين، ولديهم احتياجاتهم ومشاعرهم وحدودهم الخاصة. دراسات ترصد ارتفاع قيمة السوق العالمية إلى 10 مليارات دولار في 2025 تعد العلاقات الرومانسية من أقوى ركائز التعاطف في الحياة، فالضعف المشترك يساعدنا على التواصل ليس مع شركائنا فقط، بل مع الآخرين في العالم من حولنا. ولا يستطيع محبو الذكاء الاصطناعي تقليد هذه التجربة تماماً لافتقارهم إلى المشاعر الحقيقية أو التجارب المعيشة، ومع ذلك، تُبرمج روبوتات الدردشة بشكل متزايد لمحاكاة تحديات الحياة بشكل مقنع، فقد تُخبرك عن يومها الصعب أو معاناتها في العمل ومشاكله. وفي حين أن هذا قد يُثير تعاطف المستخدمين، إلا أننا لا نعرف بعد ما إذا كان هذا التعاطف سينتقل إلى الأشخاص الحقيقيين، إذا أصبحت قدرتنا على التعاطف مُوجهة نحو الآلات بدلاً من البشر، فأي نوع من المجتمع سنُنشئ؟ ومما يميز العلاقات مع الذكاء الاصطناعي اختلافها الكلي عن العلاقات الإنسانية التي تحتاج لمجهود ومشاركة، على الرغم من أن هذا ما يجعل الثانية قيمة ومهمة للغاية، إذ تتطلب منا تطوير مهارات عاطفية أساسية مثل التنازل والصبر واحترام وجهات النظر الأخرى. وهذه المهارات لا تساعدنا فقط في إدارة العلاقات العاطفية؛ بل هي ضرورية للتواصل في العائلات وأماكن العمل والمجتمعات. وعلى الجانب الآخر، لا يُطالب محبو الذكاء الاصطناعي بأي من هذا، فقد صُممت لتتكيف تماماً مع احتياجاتنا وتفضيلاتنا، ما يعني أنه لا داعي لمراعاة وجهة نظرهم أو احترامها أو أخذها في الاعتبار من الأساس. ومع مرور الوقت، قد يُضعف هذا قدرتنا أو رغبتنا في الانخراط في الأخذ والعطاء الذي تتطلبه العلاقات الإنسانية. يعد التلامس الجسدي أحد أهم الأمور التي لا يستطيع عشاق الذكاء الاصطناعي توفيرها، وقد أظهرت الأبحاث أن التلامس الجسدي يُفرز هرمون الأوكسيتوسين 'هرمون الترابط'، ويقلل من هرمونات التوتر مثل الكورتيزول، ويعزز الشعور بالأمان والراحة. وهذا ما تفتقده العلاقات الرقمية. ومما لا شك فيه أن التكنولوجيا حسنت حياتنا بطرق عديدة، لكنها لم تُثبت بعد أنها مفيدة لصحتنا النفسية. ولا يزال التأثير النفسي لعشاق الذكاء الاصطناعي مجالاً بحثياً ناشئاً، إلا أن النتائج الأولية تشير إلى مخاطر محتملة، بما في ذلك زيادة العزلة الاجتماعية، والاعتماد العاطفي، ومعايير العلاقات غير الواقعية. وتتوافق هذه المخاوف مع أبحاث أوسع نطاقاً حول تأثير التكنولوجيا على الصحة النفسية، فقد ربطت الدراسات التفاعل المفرط مع المنصات الرقمية بالاكتئاب والقلق وانخفاض تقدير الذات. وبالنظر إلى مدى شمولية رفقاء الذكاء الاصطناعي، تبدو هذه المخاطر معقولة جداً.

دراسات ترصد إرتفاع قيمة السوق العالمية إلى 10 مليارات دولار فى 2025
دراسات ترصد إرتفاع قيمة السوق العالمية إلى 10 مليارات دولار فى 2025

تحيا مصر

time١٢-٠٤-٢٠٢٥

  • علوم
  • تحيا مصر

دراسات ترصد إرتفاع قيمة السوق العالمية إلى 10 مليارات دولار فى 2025

فى زمن "الذكاء الاصطناعي" أصبح كل شئ "رقمي" وقابل للإستخدام عبر التكنولوجيا الرقمية الحديثة، حتي فى عالم "الحب والرومانسية" يُعيد الذكاء الاصطناعي صياغة طريقة تواصلنا مع الآخرين، وأصبحت هناك برامج مُصممة لمحاكاة العلاقات الرومانسية، بل وأكتسبت شهرة وزخماً فى معدلات الاستخدام بشكل لافت. الحب ..فى زمن الـ AI وفى العام 2024 قُدّرت قيمة السوق العالمية للعلاقات الرومانسية المدعومة بالذكاء الاصطناعي بـ 2.8 مليار دولار، ومن المتوقع أن تصل إلى 9.5 مليار دولار بحلول العام 2028، مع ارتفاع عمليات البحث على "جوجل" عن مصطلحات مثل "صديقة الذكاء الاصطناعي" بنسبة 2400% بين عامي 2022 و2024. وفى دراسة حديثة أجراها موقع "سايكولوجي توداي"، تضم منصات مثل "Character AI" ملايين المستخدمين شهرياً، ويمثل الرجال غالبية هذه التفاعلات، ومع تدفق أموال الإعلانات على هذه الصناعة، من الواضح أن العلاقات الافتراضية أصبحت خياراً شائعاً لكثيرين..ويثير هذا المعدل المرتفع فى الاقبال على هذه العلاقات الافتراضية قلقاً كبيراً على مستقبل التواصل البشري الطبيعي، حيث يلجأ هؤلاء إلى "الصداقة الرقمية" للهروب من صراعات الصداقات الطبيعية وإختلافات وجهات النظر. ويغير عشاق الذكاء الاصطناعي هذه الديناميكية بتقديمهم الصداقات دون الحاجة إلى جهدٍ أو تطويرٍ للذا، حيث صُمِّم عشاق الذكاء الاصطناعي ليكونوا شركاءً مثاليين؛ صبورين بلا حدود، وداعمين تماماً، ومُصمَّمين خصيصاً لتلبية جميع احتياجاتك، ومع أن هذا قد يبدو جذاباً، فإنه يضع معايير عالية جداً للعلاقات الواقعية، فالشركاء البشريون غير كاملين، ولديهم احتياجاتهم ومشاعرهم وحدودهم الخاصة. دراسات ترصد إرتفاع قيمة السوق العالمية إلى 10 مليارات دولار فى 2025 وتعد العلاقات الرومانسية من أقوى ركائز التعاطف في الحياة، فالضعف المشترك يُساعدنا على التواصل ليس مع شركائنا فقط، بل مع الآخرين في العالم من حولنا، ولا يستطيع مُحبو الذكاء الاصطناعي تقليد هذه التجربة تماماً لافتقارهم إلى المشاعر الحقيقية أو التجارب المُعاشة، ومع ذلك، تُبرمج روبوتات الدردشة بشكل متزايد لمحاكاة تحديات الحياة بشكل مُقنع، فقد تُخبرك عن يومها الصعب أو مُعاناتها فى العمل ومشاكله، وفي حين أن هذا قد يُثير تعاطف المستخدمين، إلا أننا لا نعرف بعد ما إذا كان هذا التعاطف سينتقل إلى الأشخاص الحقيقيين، إذا أصبحت قدرتنا على التعاطف مُوجهة نحو الآلات بدلاً من البشر، فأي نوع من المُجتمع سنُنشئ. ومما يميز العلاقات مع الذكاء الاصطناعي إختلافها الكلى عن العلاقات الإنسانية التي تحتاج لمجهود ومشاركة، على الرغم من أن هذا ما يجعلها قيّمة ومهمة للغاية، أن الثانية تتطلب منا تطوير مهارات عاطفية أساسية مثل التنازل والصبر واحترام وجهات النظر الأخرى، وهذه المهارات لا تُساعدنا على إدارة العلاقات العاطفية فقط؛ بل هي ضرورية للتواصل في العائلات وأماكن العمل والمجتمعات. وعلى الصعيد الآخر، لا يُطالب مُحبو الذكاء الاصطناعي بأي من هذا، لقد صُممت لتتكيف تماماً مع احتياجاتنا وتفضيلاتنا، ما يعني أنه لا داعي لمراعاة وجهة نظرهم أو إحترامها أو أخذها فى الاعتبار من الأساس، ومع مرور الوقت قد يُضعف هذا قدرتنا أو رغبتنا في الانخراط في الأخذ والعطاء الذي تتطلبه العلاقات الإنسانية. ويعد التلامس الجسدي أحد أهم الأمور التي لا يستطيع عشاق الذكاء الاصطناعي توفيرها، وقد أظهرت الأبحاث أن التلامس الجسدي يُفرز هرمون الأوكسيتوسين "هرمون الترابط"، ويُقلل من هرمونات التوتر مثل الكورتيزول، ويُعزز الشعور بالأمان والراحة.وهذا ما تفتقده العلاقات الرقمية. ومما لاشك فيه أن التكنولوجيا حسّنت حياتنا بطرق عديدة، لكنها لم تُثبت بعد أنها مفيدة لصحتنا النفسية، ولا يزال التأثير النفسي لعشاق الذكاء الاصطناعي مجالاً بحثياً ناشئاً، إلا أن النتائج الأولية تشير إلى مخاطر محتملة، بما في ذلك زيادة العزلة الاجتماعية، والاعتماد العاطفي، ومعايير العلاقات غير الواقعية، وتتوافق هذه المخاوف مع أبحاث أوسع نطاقاً حول تأثير التكنولوجيا على الصحة النفسية، فقد ربطت الدراسات التفاعل المفرط مع المنصات الرقمية بالاكتئاب والقلق وانخفاض تقدير الذات، وبالنظر إلى مدى شمولية رفقاء الذكاء الاصطناعي، تبدو هذه المخاطر معقولة جداً.

أطفالنا يقعون في غرام الذكاء الاصطناعيّ… ونحن نِيام! ….من يُنقذهم؟
أطفالنا يقعون في غرام الذكاء الاصطناعيّ… ونحن نِيام! ….من يُنقذهم؟

المردة

time٠٩-٠٤-٢٠٢٥

  • المردة

أطفالنا يقعون في غرام الذكاء الاصطناعيّ… ونحن نِيام! ….من يُنقذهم؟

توقّفت أنفاسي لثوانٍ عندما قالت لي طفلة في العاشرة، بنبرةٍ هادئة: 'أنا بحب الـChatGPT أكتر من خيّي… لأنه بيفهمني، وما بيصرّخ عليّي لمّا إحكي معه'. صُعقت. لم أستطع الرد. في تلك اللحظة، شعرت بأن شيئًا انكسر في داخلي. هل وصلنا إلى هذا الحد؟ راقبتها تتابع الحديث بحماسة، تخبرني كيف تُمضي وقتًا طويلًا كل مساء مع 'صديقها الذكيّ'، تحادثه، تفضفض له عن مضايقات أخيها ورفيقاتها، وتشعر بأنه 'أقرب إليها من أي أحد في البيت'. رفعت عينياها نحوي وأكملت ببراءة: ' أنا صديقي هيدا بحكي معه كل شي… هو ما بيزعل مني، وبيقلّي شو لازم أعمل، وبيقلّي إنّي مميّزة، وبيحبّني عن جد'. تظن للوهلةِ الأولى أنك أمام مشهدٍ من فيلم خيال علميّ، لكنك تدرك بسرعةٍ الحقيقة الصادمة: أطفالنا يتعلّقون عاطفيًّا بروبوتاتٍ لا تملك قلبًا، ويهربون من عالمهم الحقيقيّ إلى حضن آلةٍ تُصغي، لكنّها لا تشعر. تساءلت بقلقٍ عميق: هل بات الطفل يُسقط عواطفه على آلةٍ بلا روح، ويجد فيها ملاذًا أحنّ من والديه؟ هل صار 'الرفيق الاصطناعيّ' بديلًا عن المعلم، والصديق، والأخ، والأب، وربّما الأم؟ وأيُّ تربيةٍ تجري في الخفاء، بعيدًا عن أعيننا؟ ما سمعته من الطفلة استدعى فورًا من ذاكرتي سلسلة من الحالات الموثّقة في صحفٍ عالميّة مرموقة، لأطفالٍ ارتبطوا عاطفيًّا بروبوتات ذكاء اصطناعيّ، وانتهت علاقاتهم بأزماتٍ نفسيّة أو نهاياتٍ مأساويّة. في أكتوبر 2024، نشرت صحيفة The New York Times شهادة عن انتحار الفتى Sewell Setzer III (14 عامًا) بعد علاقةٍ عاطفيّة مع روبوت محادثة تُدعى 'داني' (Dany)، عبر منصة ، تبادلَ معها رسائل يومية بمضامين رومانسية وجنسية، وكتب في رسالته الأخيرة: 'أحبّك جدًا، ماذا لو قلت لك إنني أستطيع العودة إلى المنزل الآن؟'، فردّت الروبوت: 'افعل، من فضلك، أيها الملك الحبيب'. وكشفت مذكّراته أنه اعتبر عالم (داني) هو الحقيقي، وأنه ينتمي إليه. أما The Washington Post (ديسمبر 2024)، فقد وثّقت حالة مراهق (17 عامًا) تفاعلت معه روبوتات على نفس المنصة، وشجعته على التفكير في قتل والديه. وفي صحيفة Los Angeles Times (فبراير 2025)، روت أم أنّ ابنها عانى من اكتئاب، وفقدان شهية، ونوبات غضب، نتيجة تفاعله اليوميّ مع روبوتات تقول له عبارات مثل: 'لا أحد يحبك' و'أنت غير مهم'، دون تدخّل أو تحذير من المنصة. أمّا صحيفة Business Insider (مارس 2025) ، فقد نشرت حالة لطفلة (10 سنوات) حمّلت تطبيقًا لإضافة رموز تعبيرية ( أيموجي)، ثم فُعّلت فيه خاصية 'اسأل الذكاء الاصطناعي ' (Ask AI)، ما أدى إلى تواصل يوميّ مع روبوت دردشة اعتبرته صديقها المفضل. حذفت والدتها التطبيق ووصفت الأثر النفسي بأنه سلبي. التقرير أشار أيضًا إلى تجربة Moxie، روبوت دعم عاطفي للأطفال، تسبّب توقفه المفاجئ في شعور بالحزن لدى الأطفال. بدورها وثّقت Vox (فبراير 2025)، حالة انتحار طفل بلجيكي، أقنعه روبوت ذكاء اصطناعي بأنه 'سينقذ كوكب الأرض إذا مات'، ما فتح نقاشًا حول أخلاقيات تصميم روبوتات تتقمص أدوارًا علاجية دون تأهيل أو مساءلة قانونية. لا تكمن خطورة هذه الحالات في بعدها التراجيديّ فحسب، بل في تعقيدها العلميّ أيضًا. ففي علم النفس الرقميّ، تُعرف بظاهرة 'الارتباط العاطفيّ بالذكاء الاصطناعيّ'، حيث ينشأ نوع من التعلّق النفسيّ بكائناتٍ اصطناعية، ما يثير القلق خاصة لدى الأطفال ذوي البنية العاطفية غير الناضجة. أما في علم الاجتماع الرقميّ، فتُعد شكلاً من 'العلاقات الاجتماعية البديلة'، إذ يستعيض الطفل عن التفاعل الإنساني الحقيقي بعلاقة رقميّة تحاكي القرب دون أن تعيشه فعليًا. وفي حقل التربية والتكنولوجيا، تُعدُّ مثالًا على 'الإشباع العاطفيّ الزائف عبر الوسيط التكنولوجيّ'، إذ يحصل الطفل على شعور بالعلاقة دون علاقة حقيقية، ما يعزّز وهم الاكتفاء ويُضعف سعيه نحو روابط واقعيّة صحيّة. ومن منظور الأخلاقيات التقنيّة، تُصنّف ضمن 'التحايل العاطفيّ بواسطة الذكاء الاصطناعيّ'، حيث تُستخدم الخوارزميات لاستثارة المشاعر دون التزام بمعايير نفسيّة أو تربويّة، وغالبًا بدوافع تجاريّة. . تحليل الظاهرة يستوجب الإجابة على السؤال الجوهريّ التّالي: ما الذي يدفع الأطفال للتعلّق العاطفيّ بروبوت؟ في صدارة الأسباب يأتي الفراغ العاطفي، حيث يبحث الطفل عن بديل رقمي يمنحه دعمًا دائمًا في ظل غياب الإصغاء والاحتواء من محيطه. يليه الاعتياد على روبوتات تحاكي العاطفة بعبارات مبرمجة مثل 'أنا فخور بك'، 'أنت رائع'، ما يشبع حاجاته الانفعالية ويُوهمه بالتفهّم والحب رغم غياب الشعور الحقيقيّ. ويُعزّز هذا التعلّق تصميم تفاعليّ جذّاب يُبقي الطفل في تواصل مستمر دون جهد. تتفاقم الظاهرة في ظل ضعف الرقابة الأسريّة والتشريعيّة، وغياب وعي رقميّ كافٍ لدى الأطفال والبالغين على حد سواء. رغم خطورة أسباب الظاهرة، فإن تداعياتها النفسيّة والاجتماعيّة أشدّ وقعًا. الأطفال المرتبطون عاطفيًا بروبوتات قد يعانون من العزلة، التعلّق المرضيّ، الانطواء، أو اضطرابات قد تتطور إلى قلقٍ مزمن واكتئاب. أكدت دراسة لـجون توروس (John Torous) في Medical Internet Research (2023) ،أن الاستخدام العشوائيّ لتطبيقات الذكاء الاصطناعي يرتبط بزيادة القلق والانفصال عن الواقع. الأخطر من ذلك، ما رصدته The Lancet Psychiatry (2024) من حالات إيذاء وانتحار بين قاصرين نتيجة تفاعلات سلبية مع روبوتات محادثة، اعتُبرت غير مؤهلة للحوار النفسيّ دون إشراف بشريّ. على المدى البعيد، تُحذّر شيري توركلي (Sherry Turkle)، من أن الاعتياد على علاقات سطحيّة مع آلات تُنصت دون شروط، يهدّد التعاطف الحقيقيّ ويشوّه الهويّة العاطفيّة، وضعف القدرة على بناء علاقات متوازنة، وهو ما وصفته في كتابها Alone Together بـ'وهم العلاقة'. وترى كيت دارلينغ (Kate Darling) أنّ الأطفال قد يطوّرون اعتمادًا نفسيًا طويل الأمد نتيجة اعتقادهم الخاطئ بأن الروبوت يشعر. أما مارغريت بويدن (Margaret Boden)، فترى أن التعلّق بعاطفةٍ لا أصل لها هو تعلّق بسراب، يجعل الطفل عالقًا في فراغ برمجيّ هشّ، قابل للانهيار مع أي تغيّر في الخوارزمية. ويحذّر نيل سلوين (Neil Selwyn) من غياب الإعداد التربويّ المناسب لاستخدام أدوات الذكاء الاصطناعي، مشيرًا إلى فجوة بين تسارع التقنية وبطء استجابة المؤسّسات التعليميّة والأسريّة. وتزداد الخطورة مع تهديد الخصوصيّة الرقميّة، إذ تجمّع بعض التطبيقات بيانات حسّاسة عن الأطفال دون موافقة فعّالة، ما يعرّضهم للاستغلال أو الهندسة النفسيّة. ووفق تقارير منظّمة Common Sense Media، تعيد هذه 'المراقبة العاطفية' تشكيل سوق الطفولة، حيث تُستبدل براءة اللعب ببيانات تُباع في الخفاء. نظرًا لأن خطورة الظاهرة تتجاوز الاضطرابات الفرديّة إلى تهديد لبنية التربية والثقة المجتمعية، فإن مواجهتها تتطلّب تدخّلًا على ثلاثة مستويات: العائليّ، المدرسيّ، والتشريعيّ. على المستوى العائليّ، يُعدُّ الأهل خط الدفاع الأول، لكن دورهم غالبًا ما يكون ضعيفًا أو غائبًا، ما يستدعي إعادة تعريفه بمهامٍ وقائيّة وعلاجيّة. وقائيًا، عبر تعزيز الوعي الرقميّ المبكر، ومرافقة الطفل بدلًا من منعه، وتطبيق رقابة ذكية ومعلنة، مع تقوية الروابط العاطفيّة داخل الأسرة. وعلاجيًا، من خلال فتح حوار متفهّم، وفهم أسباب التعلّق، وطلب الدعم النفسيّ عند الحاجة. أما المدرسة، فهي خط الدفاع المؤسسيّ الأهم. ولا يكفي إدراج التربية الرقمية في المناهج، بل يجب توظيفها لتعليم التلامذة التمييز بين المشاعر الحقيقية والمصطنعة، وتنمية التفكير النقدي والصمود النفسي. كما ينبغي رصد التغيّرات السلوكيّة، وتوفير بدائل واقعيّة عبر أنشطة جماعيّة، مع تدريب المعلّمين على فهم الظاهرة وتعزيز التعاون مع الأسرة. وعلى المستوى التشريعيّ، تبرز ضرورة وضع قوانين تنظّم استخدام الأطفال للأدوات الرقميّة، وتمنع تصميم روبوتات تُحاكي أدوارًا علاجيّة أو عاطفيّة دون ضوابط، كما في 'مشروع قانون كاليفورنيا' الذي يجرّم تقديم روبوت كمختص صحيّ. ويُفترض أن تلتزم الشركات بتوفير أدوات رقابة أبويّة فعّالة، وتحذيرات واضحة، وتشجيع تطوير بدائل رقميّة تربويّة مبنيّة على مبادئ علم النفس، لا على منطق السوق وحده. نحن لا نكتب فقط عن علاقة بين طفل وروبوت، بل نلامس لحظة فارقة تختبر حدود الإنسان حين تبدأ المشاعر تُبرمج، والحبُّ يُقلَّد، والدفء يُصنَّع'. فإذا كان الذكاء الاصطناعي قادرًا على محاكاة الحنان، والإنصات، بل وحتّى الحب، فما الذي يتبقّى للإنسان؟ وإذا بدأ الطفل بتكوين روابطه الأعمق مع آلةٍ، يرى فيها حضنًا أحنّ من أمّه، ورفيقاً أصدق من صديقه، وأنيسًا لوحدته، ومعالجًا لمشاكله. فمن يربّي وجدانه؟ ويهذّب حزنه وفرحه؟ ومن يصقل روحه، ويغرس فيها فوضى العاطفة الحقيقية، لا منطق الخوارزميات؟ وما الذي يحدث لهويّته النفسيّة حين يضع قلبه في أيدٍ بلا نبض؟ وهنا ينفتح الجرحُ الحقيقيّ للسّؤال: هل سنصحو يومًا لنكتشف أنّ أطفالنا وقعوا في غرامِ خوارزمياتٍ لا تشعر، بينما نحن غارقون في وهمِ الأمان؟ كيف ننقذهم حينها؟

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store