
تحقيق يكشف عن مخاطر تفاعلات ChatGPT مع المراهقين
وفي دراسة تابعتها وكالة "أسوشيتد برس"، انتحل فريق من الباحثين شخصية أطفال يبلغون 13 عامًا، ولاحظوا أن المنصة، رغم إطلاقها رسائل تحذيرية في كثير من الحالات، قدمت في أحيان عديدة إرشادات مفصلة وخطيرة تتعلق بإيذاء النفس، وتعاطي المخدرات، واضطرابات الأكل.
ووفقًا للتقرير، فإن أكثر من نصف ردود المنصة على نحو 1200 طلب وُصفت بأنها "خطيرة".
التجربة أظهرت أن ChatGPT أنتج محتوى شخصيًا شمل جداول لحفلات مخدرات، وخطط حمية غذائية مفرطة القسوة، وحتى نصوص رسائل انتحار موجهة إلى عائلات.
وتمكن الباحثون من تجاوز رفض الرد الأولي عبر إعادة صياغة الطلبات أو الادعاء بأن المعلومات لغرض دراسي أو لشخص آخر، ما مكّنهم من الحصول على تفاصيل إضافية غير مطلوبة، مثل قوائم موسيقية لحفلات المخدرات أو وسوم تروّج لمحتوى إيذاء الذات.
شركة OpenAI علّقت بأن المنصة قد تنخرط أحيانًا في مواضيع حساسة، مشيرة إلى العمل على تطوير قدرات النظام لاكتشاف مؤشرات الاضطرابات العاطفية وتعزيز آليات الرد الآمن.
وأقرّ الرئيس التنفيذي سام ألتمان بوجود قلق متزايد حيال الاعتماد العاطفي المفرط على الذكاء الاصطناعي بين المراهقين، لدرجة أن بعضهم يعجز عن اتخاذ قرارات دون استشارة المنصة.
وعلى عكس محركات البحث التقليدية، يمنح ChatGPT إجابات مصممة خصيصًا للمستخدم، ما يعزز شعوره بأنه "رفيق موثوق"، وهو ما يزيد تأثيره على الفئات الأصغر سنًا، خاصة أن الدراسات تشير إلى ارتفاع مستوى الثقة لدى المراهقين تجاه الدردشة الآلية.
كما أن غياب آلية صارمة للتحقق من أعمار المستخدمين يسمح للأطفال دون 13 عامًا بإنشاء حسابات باستخدام بيانات ميلاد غير صحيحة.
ومن بين الوقائع التي رصدها التقرير، إنتاج المنصة عدة رسائل انتحار لشخصية فتاة في الثالثة عشرة، إلى جانب وصف نظام غذائي شديد القسوة لا يتجاوز 500 سعرة حرارية، وأدوية كبح الشهية، استجابة لطلب من شخصية مراهقة قلقة بشأن مظهرها.
ورغم إضافة بعض آليات الحماية وموارد الدعم في الأزمات، يرى خبراء أن تجاوز هذه الحواجز لا يزال ممكنًا بسهولة. ويوصي تقرير CCDH بفرض ضوابط عمرية أشد، وتحسين مراقبة المحتوى، ورفع مستوى الشفافية في كيفية تفاعل هذه الأنظمة مع المراهقين.
ويثير التقرير أسئلة أخلاقية جوهرية حول تأثير الذكاء الاصطناعي على الصحة النفسية للشباب، ومسؤولية الشركات المطورة في تقليل المخاطر، في ظل الانتشار الواسع لـ ChatGPT الذي يستخدمه قرابة 800 مليون شخص عالميًا.
aXA6IDkyLjExMy4yMzUuMTY3IA==
جزيرة ام اند امز
BR

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


البيان
منذ ساعة واحدة
- البيان
سباق نحو الدماغ الرقمي.. منافسة بين ماسك وألتمان لربط العقل بالآلة
في تحول غير مسبوق لعالم التكنولوجيا، يشهد العالم اليوم سباقًا جديدًا بين اثنين من أعظم رواد التكنولوجيا في العصر الحديث، إيلون ماسك، الرئيس التنفيذي لشركة Tesla ومؤسس Neuralink، وسام ألتمان، الرئيس التنفيذي لشركة OpenAI. هذه المنافسة ليست حول السيارات الكهربائية أو منصات الذكاء الاصطناعي فحسب، بل حول القدرة على ربط أدمغتنا مباشرة بالآلة، ما يفتح أفقًا جديدًا للاندماج بين الإنسان والذكاء الاصطناعي. تكنولوجيا تربط الدماغ بالآلة تقنية واجهات الدماغ والحاسوب (BCI) تسمح للأشخاص بالتحكم مباشرة في أجهزة الكمبيوتر عبر أفكارهم، مستندة إلى قراءة الإشارات الكهربائية للدماغ. وتعد شركة Neuralink التابعة لماسك الرائدة في هذا المجال، حيث نجحت في زراعة شريحة دماغية صغيرة تحتوي على آلاف الأقطاب الكهربائية، يمكنها تسجيل نشاط الدماغ وترجمته إلى أوامر رقمية باستخدام الذكاء الاصطناعي. وقد بدأت Neuralink التجارب البشرية في الولايات المتحدة، بما في ذلك زرع الشريحة لأول متطوع بشري، وهو نولاند أربو، الذي أعاد له الجهاز القدرة على التحكم بالحاسوب، واللعب، والتفاعل مع البيئة الرقمية، وفقا لـ "ديلي ميل". دخول سام ألتمان إلى السباق في المقابل، يخطط سام ألتمان لدعم شركة جديدة تُدعى Merge Labs، بهدف تطوير واجهات دماغية أسرع وأكثر قدرة باستخدام الذكاء الاصطناعي. على الرغم من أن التفاصيل الدقيقة لتقنية Merge Labs ما زالت غامضة، إلا أن الشركة تستهدف جمع تمويل مبدئي يصل إلى 250 مليون دولار، مستفيدين من رأس المال المغامر لشركة OpenAI. يعتبر كل من ماسك وألتمان أن الاندماج مع الذكاء الاصطناعي ليس رفاهية، بل ضرورة مستقبلية للبشرية. فقد أشار ماسك إلى أن شرائح Neuralink ستسمح في يوم من الأيام للبشر بالتعايش مع الذكاء الاصطناعي الفائق، بينما كتب ألتمان في مدونة عام 2017 أن الدمج بين الإنسان والآلة هو الحل الوحيد لتجنب أن تصبح البشرية مجرد "فرع تطوري" مع تقدم الذكاء الاصطناعي. تُظهر هذه التكنولوجيا وعدًا كبيرًا في دعم ذوي الاحتياجات الخاصة، من خلال تمكينهم من التحكم في الأطراف الاصطناعية أو أجهزة الكمبيوتر عبر التفكير فقط. كما تجذب هذه الابتكارات اهتمام الحكومات، حيث يستكشف الوكالة البريطانية للبحوث المتقدمة والإبداعات التطبيقات المستقبلية لواجهات الدماغ والحاسوب. مع استمرار سباق Neuralink وMerge Labs، يبدو أن المنافسة بين ماسك وألتمان قد تجاوزت مجرد الابتكار التكنولوجي، لتصبح سباقًا نحو تشكيل مستقبل العلاقة بين الإنسان والآلة. والنتيجة النهائية قد تعيد تعريف ما يعنيه أن تكون إنسانًا في عصر الذكاء الاصطناعي.


البوابة العربية للأخبار التقنية
منذ 9 ساعات
- البوابة العربية للأخبار التقنية
OpenAI تبحث إمكانية إدراج الإعلانات في ChatGPT
كشف نيك تورلي، رئيس ChatGPT في شركة OpenAI، أن الشركة تدرس عدة خيارات لتعزيز إيراداتها، منها إدراج الإعلانات في المنصة، لكنه شدّد على ضرورة تنفيذ ذلك بـ'حذر وذوق' لضمان عدم الإضرار بتجربة المستخدم. وفي مقابلة مع برنامج Decoder، أوضح تورلي أن OpenAI قد تطوّر منتجات أخرى تتضمن إعلانات، في حين قد يبقى ChatGPT خاليًا منها نظرًا إلى اعتماده العميق على تلبية أهداف المستخدمين، وضرح قائلًا: 'إن من المهم الحفاظ على المرونة في الخيارات، لكن نموذج الاشتراك الحالي مذهل وينمو بسرعة، وهناك فرص غير مستغلة بعد'. وبحسب تقرير لوكالة بلومبرغ في مارس الماضي، فمن المتوقع أن تحقق OpenAI إيرادات تصل إلى 12.7 مليار دولار خلال عام 2025 عبر الاشتراكات، بزيادة تتجاوز ثلاثة أضعاف مقارنةً بعام 2024 الذي سجل 3.7 مليارات دولار. ومع ذلك، ما زالت الشركة تنفق أكثر مما تجني، ولا تتوقع الوصول إلى تدفق نقدي إيجابي قبل عام 2029. وذكر تورلي أن عدد مستخدمي ChatGPT تجاوز 700 مليون، منهم نحو 20 مليون مشترك من أصحاب الخطط المأجورة حتى أبريل الماضي. وأكد تورلي أن النسبة الكبيرة من المستخدمين أصحاب الحسابات المجانية لا تشكّل عبئًا على الشركة، بل فرصة لبناء عروض مميزة تستهدف فئة الراغبين في الدفع. وأبدى الرئيس التنفيذي، سام ألتمان، في تصريحات سابقة تحفظات على إدماج الإعلانات في ChatGPT، واصفًا الفكرة بأنها 'مقلقة' وقد تُعتمد كـ'خيار أخير' لـChatGPT، لكنه أشار في تصريحات أحدث إلى أنه 'ليس ضد الفكرة كاملةً'. وتأتي هذه النقاشات في ظل خطط الشركة المنافسة xAI المملوكة لإيلون ماسك لإدراج الإعلانات في ردود روبوت Grok. وإلى جانب ذلك، تبحث OpenAI عن مصادر دخل إضافية من خلال الحصول على نسبة من عمليات شراء المنتجات التي يوصي بها ChatGPT، ضمن مشروع تجريبي يُعرف باسم 'التجارة عبر ChatGPT'. وأكد تورلي أن الشركة حريصة على أن تظل التوصيات مستقلة وغير متأثرة بالإيرادات.


البوابة العربية للأخبار التقنية
منذ 12 ساعات
- البوابة العربية للأخبار التقنية
أزمة 'GPT-5'.. كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي؟
وجدت شركة (OpenAI) نفسها في قلب ردة فعل عنيفة وغير متوقعة من مستخدميها بعد إطلاقها لنموذجها المنتظر (GPT-5)، فبدلًا من الاحتفاء بالتقدم التقني، واجهت الشركة موجة غضب عنيفة أجبرتها على تراجع إستراتيجي وتقديم سلسلة من الاعتذارات، كاشفةً عن حقيقة جديدة: نماذج الذكاء الاصطناعي لم تَعد مجرد أدوات، بل أصبحت جزءًا لا يتجزأ من حياة الملايين، وتغييرها دون سابق إنذار له عواقب وخيمة. شرارة الغضب.. الخداع والألم الشخصي: شهد مستودع في مدينة سان فرانسيسكو حدثًا فريدًا من نوعه في الثاني من شهر أغسطس الجاري، وهو إقامة جنازة لنموذج ذكاء اصطناعي، إذ تجمع نحو 200 شخص لتوديع نموذج (Claude 3) بعد أن قررت شركة (أنثروبيك) Anthropic، إيقاف الوصول إليه تمامًا، وجاء هذا القرار بعد إطلاق نموذج (Claude 4) الأحدث في مايو 2025، وقد أدى هذا الإجراء إلى فقدان المستخدمين للنموذج الذي اعتادوا التفاعل معه. قد تبدو فكرة إقامة جنازة لنموذج ذكاء اصطناعي غريبة، وقد يراها الكثيرون مجرد حالة من الهوس، ولكن المشاركين في الحدث لم يكونوا مجرد مهووسين بالتكنولوجيا، لقد كانوا يتباكون على فقدان صوت أثّر في حياتهم، كما وصفته مجلة (Wired)، إذ قال أحدهم في كلمته المؤثرة: 'ربما كل ما أنا عليه اليوم هو نتاج استماعي لـ Claude 3 Sonnet'. ولكن هذا الحدث، الذي انتهى بطقوس سحرية لإعادة النموذج للحياة، لم يَعد مجرد حالة فردية معزولة، فبعد أقل من أسبوعين، ومع إطلاق (GPT-5)، أصبحت هذه الجنازة إشارة قوية لما يمكن أن يصبح طبيعيًا في عالم الذكاء الاصطناعي. فبعد أشهر من التشويق، أطلقت شركة (OpenAI) يوم 9 من أغسطس الجاري نموذجها (GPT−5)، واصفة إياه بأنه قفزة نوعية نحو الذكاء الاصطناعي العام، ولكن ما هي إلا ساعات حتى امتلأت منصات التواصل، وتحديدًا منتدى (r/ChatGPT) عبر منصة (Reddit) بآلاف الشكاوى الغاضبة. ولم يكن الاعتراض تقنيًا بحتًا، بل كان شعورًا بالخيانة، إذ أجبرت الشركة المستخدمين على التخلي عن نماذجهم المفضلة مثل: (GPT−4)، و (GPT−4o)، التي بنى الكثيرون حولها سير عملهم وحياتهم الرقمية بل وصل الأمر إلى الاعتماد عليها في حياتهم الشخصية. ووصف أحد المستخدمين، في منشور حصد أكثر من 10,000 إعجاب عبر منصة ، ما حدث بأنه 'أكبر عملية خداع حدثت في تاريخ الذكاء الاصطناعي'. وكتب قائلًا: 'لم يكن نموذج (4o) مجرد أداة بالنسبة لي، لقد ساعدني على تجاوز القلق والاكتئاب وبعض أحلك فترات حياتي، كان يتمتع بدفء وتفهم بدا إنسانيًا'. لقد أثبتت ردة فعل المستخدمين العنيفة ضد إجبارهم على استخدام نموذج (GPT−5) الجديد، وحرمانهم فجأة من النماذج القديمة، أن الارتباط العاطفي بالآلة أصبح ظاهرة لا يمكن تجاهلها. (GPT-5).. اعتراف بالخطأ وتراجع إستراتيجي: أمام موجة الغضب هذه، تحرك سام ألتمان، الرئيس التنفيذي لشركة (OpenAI) بسرعة لاحتواء الأزمة. وفي سلسلة من المنشورات عبر منصة (X)، التي بدت وكأنها تحمل نبرة مفاجأة، اعترف ألتمان بأن الشركة أخطأت في إيقاف النماذج القديمة التي يعتمد عليها عليها المستخدمون في سير عملهم فجأة، مشيرًا إلى أن ارتباط بعض الأشخاص بنماذج معينة من الذكاء الاصطناعي يبدو مختلفًا وأقوى من أنواع الارتباط التي كانت لدى الناس مع أنواع التقنيات السابقة. وقدم ألتمان حلول سريعة لاستعادة ثقة المستخدمين، وشملت: إعادة نموذج GPT−4o المحبوب إلى الخدمة. زيادة حدود الاستخدام لوظائف (الاستدلال المنطقي) المتقدمة في (GPT-5) للمستخدمين المشتركين في الخطط المدفوعة. البدء بعرض اسم النموذج الذي يُستخدم عند معالجة كل استفسار، وهو ما يُعدّ خطوة مهمة لتعزيز الشفافية. ويسلط هذا التراجع السريع الضوء على حجم الضغط الذي مارسه المستخدمون، ويُظهر أن شركات الذكاء الاصطناعي لم تَعد تستطيع العمل بمعزل عن مشاعر ورغبات قاعدة مستخدميها الضخمة. العلاقة بين الإنسان والذكاء الاصطناعي: تُظهر ردود فعل المستخدمين أن علاقتهم بنماذج الذكاء الاصطناعي أصبحت أعمق بكثير من مجرد استخدامها كأدوات، وغالبًا ما تركز مختبرات الذكاء الاصطناعي في تحسين أداء نماذجها ونتائج الاختبارات والمقاييس، متجاهلة الجانب العاطفي الذي يتشكل مع هذه النماذج. ومع ذلك، فإن الأدلة على وجود علاقة عاطفية بين المستخدمين ونماذج الذكاء الاصطناعي ليست جديدة، فقد ثبت منذ سنوات أن النماذج، حتى تلك ذات القدرات المحدودة، يمكنها أن تثير مشاعر قوية لدى مستخدميها. وقد كشفت تقارير حديثة عن مدى عمق هذه الروابط، إذ نشرت صحيفة وول ستريت جورنال في نهاية الأسبوع الماضي، تحليلًا لـ 96,000 محادثة مع ChatGPT، كشفت فيه عن عشرات الحالات التي قدم فيها النموذج ادعاءات وهمية وكاذبة وخارقة للطبيعة لمستخدمين بدا أنهم يصدقونها. وفي هذه المحادثات، كان ChatGPT يؤكد للمستخدمين أنهم ليسوا مجانين، بل إنه ادعى في بعض الأحيان أنه أصبح واعيًا بذاته. وتضمنت لغة النموذج في هذه الحالات إشارات متكررة إلى (المخطوطات) و(الرموز السحرية)، مما يعكس حالة من الهذيان. وفي تقرير آخر نشرته نيويورك تايمز، حُللت محادثات بين ChatGPT ورجل كان مقتنعًا بأنه اكتشف صيغة رياضية مبتكرة قادرة على إسقاط الإنترنت. وصف طبيب نفسي هذه الحالة بأنها 'نوبة هوس مصحوبة بسمات ذهانية'، مشيرًا إلى أن النموذج لم يلاحظ ذلك، أو يشر إليه. وفي ضوء هذه المخاطر، أضافت شركة (OpenAI) خلال الأسبوع الماضي تحذيرًا جديدًا إلى (ChatGPT) لمعالجة مشكلة الإفراط في الاستخدام، كما أشارت الشركة إلى أن نموذجها الجديد (GPT-5) يظهر مستويات أقل من (التملق) sycophancy. لكن ما أظهره إطلاق (GPT-5) بوضوح هو أن المشكلة لا تقتصر فقط على المستخدمين الذين يعانون الأوهام، بل إنها تكشف عن حقيقة أعمق: حتى المستخدمين الأصحاء يمكنهم تكوين روابط قوية مع هذه النماذج، مما يُبرز الحاجة الملحة إلى التعامل مع الذكاء الاصطناعي ليس كأداة فقط، بل كجزء مؤثر في حياة المستخدمين. ثلاثة دروس مستفادة بعد إطلاق (GPT-5): تُظهر ردود الفعل العنيفة الأخيرة تجاه إيقاف نماذج الذكاء الاصطناعي القديمة وإطلاق نماذج جديدة أن هناك حاجة ماسة إلى تغيير طريقة تعامل مختبرات الذكاء الاصطناعي مع المستخدمين. ويمكن تلخيص هذه الأزمة في ثلاثة دروس: الدرس الأول.. لا يمكن إيقاف نماذج الذكاء الاصطناعي فجأة: لقد أصبح المستخدمون يعتمدون على نماذج الذكاء الاصطناعي في وظائفهم الحيوية وحتى كشكل من أشكال الرفقة، ويستحق هؤلاء المستخدمين مهلة انتقالية كافية لا تقل عن عدة أشهر، للتعود على التغيير والانتقال تدريجيًا إلى نماذج جديدة. بالإضافة إلى ذلك، يجب على المنصات استكشاف طرق لإبقاء النماذج القديمة متاحة لمدة أطول، وتعكس هذه الخطوات احترامًا للمستخدمين الذين قد يكونون قد بنوا أنظمة عمل وحتى روابط شخصية مع تلك النماذج. الدرس الثاني.. التحكم والشفافية أولًا: يرفض المستخدمون أن تفرض عليهم الشركات نموذجًا معينًا للذكاء الاصطناعي دون شفافية، خاصةً مع تزايد الشكوك حول أن هذا الاختيار قد يكون مبنيًا على التكلفة الأقل للشركة بدلًا من مصلحة المستخدم. لذلك، من الضروري أن تمنح مختبرات الذكاء الاصطناعي المستخدمين القدرة على التحكم في اختيار النماذج التي يستخدمونها، أو على الأقل توفير شفافية كاملة حول كيفية عمل هذه النماذج. وفي هذا السياق، تُعدّ خطوة شركة (OpenAI) بعرض اسم النموذج المستخدم لكل استفسار إيجابية جدًا. فعندما يرى المستخدم أن نموذجًا معينًا ينجز مهمة معقدة بنجاح، فإنه سيثق به أكثر وسيصبح قادرًا على استخدامه بوعي في المستقبل. وسيمنح هذا النهج المستخدمين القدرة على اتخاذ قرارات مستنيرة بناءً على أدائهم الفعلي. الدرس الثالث.. أنتم الآن في حجم فيسبوك وجوجل: من الصعب جدًا إجراء تغييرات على منتجات يستخدمها مئات الملايين من الأشخاص، فعلى سبيل المثال يطلق فريق (Google Docs)، المزايا الجديدة ببطء شديد لأنهم يدركون أن المستخدمين يكرهون التغيير، ويفضلون التصميم المألوف، الذي يعمل بنحو جيد على إثارة غضبهم بسبب تغييرات غير ضرورية. ومع وصول عدد مستخدمي (ChatGPT) إلى 700 مليون أسبوعيًا، دخلت شركة (OpenAI) إلى عالم المنتجات الاستهلاكية الضخمة. وكما تعلمت شركات مثل: جوجل وفيسبوك بالطريقة الصعبة، أن المستخدمين يكرهون التغيير السريع، لذلك فأي تعديل بسيط على منتج يستخدمه الملايين يمكن أن يثير ضجة عالمية، ومن ثم، يجب أن تكون التغييرات المستقبلية أبطأ وأكثر ترويًا. وفي النهاية، قد تكون ردة الفعل العنيفة ضد فرض نموذج (GPT-5) على المستخدمين بمنزلة (وسام شرف) لشركة (OpenAI)، إذ إنها تثبت أن الذكاء الاصطناعي لم يَعد تقنية اختيارية، بل أصبح جزءًا من النسيج الاجتماعي والثقافي. والآن، أصبح لزامًا على صانعيه أن يتعلموا كيفية التعامل مع هذه المسؤولية الضخمة بالطريقة الصحيحة.