
أزمة 'GPT-5'.. كيف غيّر المستخدمون قواعد لعبة الذكاء الاصطناعي؟
شرارة الغضب.. الخداع والألم الشخصي:
شهد مستودع في مدينة سان فرانسيسكو حدثًا فريدًا من نوعه في الثاني من شهر أغسطس الجاري، وهو إقامة جنازة لنموذج ذكاء اصطناعي، إذ تجمع نحو 200 شخص لتوديع نموذج (Claude 3) بعد أن قررت شركة (أنثروبيك) Anthropic، إيقاف الوصول إليه تمامًا، وجاء هذا القرار بعد إطلاق نموذج (Claude 4) الأحدث في مايو 2025، وقد أدى هذا الإجراء إلى فقدان المستخدمين للنموذج الذي اعتادوا التفاعل معه.
قد تبدو فكرة إقامة جنازة لنموذج ذكاء اصطناعي غريبة، وقد يراها الكثيرون مجرد حالة من الهوس، ولكن المشاركين في الحدث لم يكونوا مجرد مهووسين بالتكنولوجيا، لقد كانوا يتباكون على فقدان صوت أثّر في حياتهم، كما وصفته مجلة (Wired)، إذ قال أحدهم في كلمته المؤثرة: 'ربما كل ما أنا عليه اليوم هو نتاج استماعي لـ Claude 3 Sonnet'.
ولكن هذا الحدث، الذي انتهى بطقوس سحرية لإعادة النموذج للحياة، لم يَعد مجرد حالة فردية معزولة، فبعد أقل من أسبوعين، ومع إطلاق (GPT-5)، أصبحت هذه الجنازة إشارة قوية لما يمكن أن يصبح طبيعيًا في عالم الذكاء الاصطناعي.
فبعد أشهر من التشويق، أطلقت شركة (OpenAI) يوم 9 من أغسطس الجاري نموذجها (GPT−5)، واصفة إياه بأنه قفزة نوعية نحو الذكاء الاصطناعي العام، ولكن ما هي إلا ساعات حتى امتلأت منصات التواصل، وتحديدًا منتدى (r/ChatGPT) عبر منصة (Reddit) بآلاف الشكاوى الغاضبة.
ولم يكن الاعتراض تقنيًا بحتًا، بل كان شعورًا بالخيانة، إذ أجبرت الشركة المستخدمين على التخلي عن نماذجهم المفضلة مثل: (GPT−4)، و (GPT−4o)، التي بنى الكثيرون حولها سير عملهم وحياتهم الرقمية بل وصل الأمر إلى الاعتماد عليها في حياتهم الشخصية.
ووصف أحد المستخدمين، في منشور حصد أكثر من 10,000 إعجاب عبر منصة ، ما حدث بأنه 'أكبر عملية خداع حدثت في تاريخ الذكاء الاصطناعي'. وكتب قائلًا: 'لم يكن نموذج (4o) مجرد أداة بالنسبة لي، لقد ساعدني على تجاوز القلق والاكتئاب وبعض أحلك فترات حياتي، كان يتمتع بدفء وتفهم بدا إنسانيًا'.
لقد أثبتت ردة فعل المستخدمين العنيفة ضد إجبارهم على استخدام نموذج (GPT−5) الجديد، وحرمانهم فجأة من النماذج القديمة، أن الارتباط العاطفي بالآلة أصبح ظاهرة لا يمكن تجاهلها.
(GPT-5).. اعتراف بالخطأ وتراجع إستراتيجي:
أمام موجة الغضب هذه، تحرك سام ألتمان، الرئيس التنفيذي لشركة (OpenAI) بسرعة لاحتواء الأزمة. وفي سلسلة من المنشورات عبر منصة (X)، التي بدت وكأنها تحمل نبرة مفاجأة، اعترف ألتمان بأن الشركة أخطأت في إيقاف النماذج القديمة التي يعتمد عليها عليها المستخدمون في سير عملهم فجأة، مشيرًا إلى أن ارتباط بعض الأشخاص بنماذج معينة من الذكاء الاصطناعي يبدو مختلفًا وأقوى من أنواع الارتباط التي كانت لدى الناس مع أنواع التقنيات السابقة.
وقدم ألتمان حلول سريعة لاستعادة ثقة المستخدمين، وشملت:
إعادة نموذج GPT−4o المحبوب إلى الخدمة.
زيادة حدود الاستخدام لوظائف (الاستدلال المنطقي) المتقدمة في (GPT-5) للمستخدمين المشتركين في الخطط المدفوعة.
البدء بعرض اسم النموذج الذي يُستخدم عند معالجة كل استفسار، وهو ما يُعدّ خطوة مهمة لتعزيز الشفافية.
ويسلط هذا التراجع السريع الضوء على حجم الضغط الذي مارسه المستخدمون، ويُظهر أن شركات الذكاء الاصطناعي لم تَعد تستطيع العمل بمعزل عن مشاعر ورغبات قاعدة مستخدميها الضخمة.
العلاقة بين الإنسان والذكاء الاصطناعي:
تُظهر ردود فعل المستخدمين أن علاقتهم بنماذج الذكاء الاصطناعي أصبحت أعمق بكثير من مجرد استخدامها كأدوات، وغالبًا ما تركز مختبرات الذكاء الاصطناعي في تحسين أداء نماذجها ونتائج الاختبارات والمقاييس، متجاهلة الجانب العاطفي الذي يتشكل مع هذه النماذج. ومع ذلك، فإن الأدلة على وجود علاقة عاطفية بين المستخدمين ونماذج الذكاء الاصطناعي ليست جديدة، فقد ثبت منذ سنوات أن النماذج، حتى تلك ذات القدرات المحدودة، يمكنها أن تثير مشاعر قوية لدى مستخدميها.
وقد كشفت تقارير حديثة عن مدى عمق هذه الروابط، إذ نشرت صحيفة وول ستريت جورنال في نهاية الأسبوع الماضي، تحليلًا لـ 96,000 محادثة مع ChatGPT، كشفت فيه عن عشرات الحالات التي قدم فيها النموذج ادعاءات وهمية وكاذبة وخارقة للطبيعة لمستخدمين بدا أنهم يصدقونها.
وفي هذه المحادثات، كان ChatGPT يؤكد للمستخدمين أنهم ليسوا مجانين، بل إنه ادعى في بعض الأحيان أنه أصبح واعيًا بذاته. وتضمنت لغة النموذج في هذه الحالات إشارات متكررة إلى (المخطوطات) و(الرموز السحرية)، مما يعكس حالة من الهذيان.
وفي تقرير آخر نشرته نيويورك تايمز، حُللت محادثات بين ChatGPT ورجل كان مقتنعًا بأنه اكتشف صيغة رياضية مبتكرة قادرة على إسقاط الإنترنت. وصف طبيب نفسي هذه الحالة بأنها 'نوبة هوس مصحوبة بسمات ذهانية'، مشيرًا إلى أن النموذج لم يلاحظ ذلك، أو يشر إليه.
وفي ضوء هذه المخاطر، أضافت شركة (OpenAI) خلال الأسبوع الماضي تحذيرًا جديدًا إلى (ChatGPT) لمعالجة مشكلة الإفراط في الاستخدام، كما أشارت الشركة إلى أن نموذجها الجديد (GPT-5) يظهر مستويات أقل من (التملق) sycophancy.
لكن ما أظهره إطلاق (GPT-5) بوضوح هو أن المشكلة لا تقتصر فقط على المستخدمين الذين يعانون الأوهام، بل إنها تكشف عن حقيقة أعمق: حتى المستخدمين الأصحاء يمكنهم تكوين روابط قوية مع هذه النماذج، مما يُبرز الحاجة الملحة إلى التعامل مع الذكاء الاصطناعي ليس كأداة فقط، بل كجزء مؤثر في حياة المستخدمين.
ثلاثة دروس مستفادة بعد إطلاق (GPT-5):
تُظهر ردود الفعل العنيفة الأخيرة تجاه إيقاف نماذج الذكاء الاصطناعي القديمة وإطلاق نماذج جديدة أن هناك حاجة ماسة إلى تغيير طريقة تعامل مختبرات الذكاء الاصطناعي مع المستخدمين. ويمكن تلخيص هذه الأزمة في ثلاثة دروس:
الدرس الأول.. لا يمكن إيقاف نماذج الذكاء الاصطناعي فجأة:
لقد أصبح المستخدمون يعتمدون على نماذج الذكاء الاصطناعي في وظائفهم الحيوية وحتى كشكل من أشكال الرفقة، ويستحق هؤلاء المستخدمين مهلة انتقالية كافية لا تقل عن عدة أشهر، للتعود على التغيير والانتقال تدريجيًا إلى نماذج جديدة.
بالإضافة إلى ذلك، يجب على المنصات استكشاف طرق لإبقاء النماذج القديمة متاحة لمدة أطول، وتعكس هذه الخطوات احترامًا للمستخدمين الذين قد يكونون قد بنوا أنظمة عمل وحتى روابط شخصية مع تلك النماذج.
الدرس الثاني.. التحكم والشفافية أولًا:
يرفض المستخدمون أن تفرض عليهم الشركات نموذجًا معينًا للذكاء الاصطناعي دون شفافية، خاصةً مع تزايد الشكوك حول أن هذا الاختيار قد يكون مبنيًا على التكلفة الأقل للشركة بدلًا من مصلحة المستخدم. لذلك، من الضروري أن تمنح مختبرات الذكاء الاصطناعي المستخدمين القدرة على التحكم في اختيار النماذج التي يستخدمونها، أو على الأقل توفير شفافية كاملة حول كيفية عمل هذه النماذج.
وفي هذا السياق، تُعدّ خطوة شركة (OpenAI) بعرض اسم النموذج المستخدم لكل استفسار إيجابية جدًا. فعندما يرى المستخدم أن نموذجًا معينًا ينجز مهمة معقدة بنجاح، فإنه سيثق به أكثر وسيصبح قادرًا على استخدامه بوعي في المستقبل. وسيمنح هذا النهج المستخدمين القدرة على اتخاذ قرارات مستنيرة بناءً على أدائهم الفعلي.
الدرس الثالث.. أنتم الآن في حجم فيسبوك وجوجل:
من الصعب جدًا إجراء تغييرات على منتجات يستخدمها مئات الملايين من الأشخاص، فعلى سبيل المثال يطلق فريق (Google Docs)، المزايا الجديدة ببطء شديد لأنهم يدركون أن المستخدمين يكرهون التغيير، ويفضلون التصميم المألوف، الذي يعمل بنحو جيد على إثارة غضبهم بسبب تغييرات غير ضرورية.
ومع وصول عدد مستخدمي (ChatGPT) إلى 700 مليون أسبوعيًا، دخلت شركة (OpenAI) إلى عالم المنتجات الاستهلاكية الضخمة. وكما تعلمت شركات مثل: جوجل وفيسبوك بالطريقة الصعبة، أن المستخدمين يكرهون التغيير السريع، لذلك فأي تعديل بسيط على منتج يستخدمه الملايين يمكن أن يثير ضجة عالمية، ومن ثم، يجب أن تكون التغييرات المستقبلية أبطأ وأكثر ترويًا.
وفي النهاية، قد تكون ردة الفعل العنيفة ضد فرض نموذج (GPT-5) على المستخدمين بمنزلة (وسام شرف) لشركة (OpenAI)، إذ إنها تثبت أن الذكاء الاصطناعي لم يَعد تقنية اختيارية، بل أصبح جزءًا من النسيج الاجتماعي والثقافي. والآن، أصبح لزامًا على صانعيه أن يتعلموا كيفية التعامل مع هذه المسؤولية الضخمة بالطريقة الصحيحة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


البوابة العربية للأخبار التقنية
منذ ساعة واحدة
- البوابة العربية للأخبار التقنية
أنثروبيك تتيح وضع 'التعلّم' في Claude لكافة المستخدمين
أعلنت شركة أنثروبيك توسيع ميزة وضع التعلّم في روبوت الدردشة الذكي Claude لتصبح متاحة لكافة المستخدمين والمطورين، بعد أن كانت مقتصرة منذ إطلاقها في أبريل الماضي على خطة Claude for Education. وتشبه هذه الخطوة ما فعلته OpenAI سابقًا بإتاحة ميزة وضع الدراسة Study Mode في منصتها. ويتيح وضع التعلّم للمستخدمين التفاعل مع Claude بأسلوب سقراطي، إذ يوجّه الروبوت المستخدم لاكتشاف الإجابة بنفسه بدلًا من تقديمها مباشرة، مع إمكانية تعطيل الميزة في أي وقت. ويمكن تفعيل الخيار الجديد من قائمة 'الأنماط' في منصة وأضافت الشركة الميزة إلى قسم Claude Code الموجه للمبرمجين، مع وضعين مختلفين: الأول هو الوضع التفسيري، إذ يعرض Claude ملخصات لآلية اتخاذ قراراته في أثناء العمل، مما يساعد المستخدمين في فهم خطواته. وأما الثاني فهو نسخة مخصصة من وضع التعلّم، إذ يتوقف Claude أحيانًا عن كتابة الكود، ويضع تعليقًا '#TODO' ليحث المستخدم على إكمال جزء من الشفرة بنفسه، في محاولة لتعزيز المهارات العملية. وأوضح درو بنت، رئيس قسم التعليم في أنثروبيك، أن الفكرة جاءت استجابة لملاحظات طلاب جامعيين أعربوا عن قلقهم من ظاهرة أسموها 'ضمور العقل' نتيجة نسخ المحتوى من روبوتات الدردشة دون فهمه. وأضاف بنت أن الهدف من وضع التعلّم هو مساعدة المستخدمين، سواء كانوا مبتدئين أو ذوي خبرة، على تطوير قدراتهم وتحليل الأكواد بنحو أعمق، ليصبحوا أشبه بمديري هندسة برمجيات قادرين على تقييم جودة المشاريع البرمجية.


البوابة العربية للأخبار التقنية
منذ ساعة واحدة
- البوابة العربية للأخبار التقنية
فقاعة الذكاء الاصطناعي تكبر.. سام ألتمان يدق ناقوس الخطر
اعترف الرئيس التنفيذي لشركة OpenAI سام ألتمان، بأن سوق الذكاء الاصطناعي يشهد حاليًا حالة من المبالغة في التقييم، مؤكدًا أن العالم يعيش 'فقاعة' استثمارية في هذا المجال. وجاء ذلك خلال مقابلة حديثة مطوّلة مع عدد من وسائل الإعلام، إذ قال: 'هل نحن في مرحلة يبالغ فيها المستثمرون بحماسهم تجاه الذكاء الاصطناعي؟ رأيي هو نعم'. وقارن ألتمان الوضع الحالي بما حدث في فقاعة الإنترنت خلال تسعينيات القرن الماضي، حين شهدت شركات ناشئة مرتبطة بظهور الإنترنت وانتشاره قفزات هائلة في قيمتها السوقية قبل أن تنهار عام 2000، مشيرًا إلى أن معظم الفقاعات الاقتصادية في التاريخ انطلقت من 'نواة حقيقة' ثم تضخمت بسبب الحماس الزائد. ووصف ألتمان الأمر بـ'غير العقلاني'، موضحًا أن بعض الشركات الناشئة في مجال الذكاء الاصطناعي، التي لا تضم سوى ثلاثة أشخاص وفكرة، تحصل على تمويلات بمليارات الدولارات، محذرًا من أن 'أحدًا ما سيتكبد خسائر فادحة' في تلك السوق. يُذكر أن العام الماضي شهد ظهور شركات ناشئة عدة، مثل شركة Safe Superintelligence التي يقودها المؤسس المشارك لـ OpenAI إيليا سوتسكيفر، و Thinking Machines التي أسستها المديرة التقنية السابقة للشركة ميرا موراتي، وقد نجحت تلك الشركات في جمع تمويلات بمبالغ ضخمة. ومع هذه التحذيرات، أبدى ألتمان تفاؤله بأن هذه الفقاعة قد تترك أثرًا إيجابيًا في الاقتصاد العالمي، قائلًا: 'إن شخص ما سيخسر أموالًا طائلة، وآخرون سيحققون أرباحًا هائلة، لكنني أعتقد أن النتيجة الصافية ستكون انتصارًا كبيرًا للاقتصاد'. وختم ألتمان بالإشارة إلى أن OpenAI تستعد لإنفاق تريليونات الدولارات على إنشاء مراكز بيانات في المستقبل القريب، متوقعًا أن يثير ذلك قلق خبراء الاقتصاد.


عرب هاردوير
منذ 5 ساعات
- عرب هاردوير
تصريحات مثيرة في عشاء خاص: حوار مفتوح مع رئيس OpenAI
كشف سام ألتمان الرئيس التنفيذي لشركة OpenAI خلال لقاء على العشاء مع مجموعة من الصحفيين في سان فرانسيسكو عن تفاصيل مثيرة حول أزمة إطلاق GPT-5. أقر ألتمان بأن الشركة أخطأت في بعض جوانب الإطلاق، لكنه أشار في الوقت ذاته إلى أن حركة استخدام واجهة البرمجة تضاعفت خلال 48 ساعة وأن عدد مستخدمي ChatGPT وصل إلى مستويات قياسية يومية. وأكد أنه كان صاحب القرار في إعادة نموذج 4o كخيار متاح للمشتركين المدفوعين بعد احتجاجات واسعة على المنصات الاجتماعية. الجدل حول علاقة المستخدمين بالذكاء الاصطناعي أوضح ألتمان أن نسبة المستخدمين الذين لديهم علاقة غير صحية مع ChatGPT لا تتجاوز واحد في المئة، لكنه اعترف بأن الشركة تعقد اجتماعات كثيرة لمناقشة هذه الظاهرة. وفرق بين من طوروا علاقة شخصية مع الذكاء الاصطناعي ومن اعتادوا على طريقة معينة في الردود والدعم العاطفي التي يقدمها. كما أكد رفضه الاتجاه نحو تطوير تطبيقات ذات محتوى غير أخلاقي أو استغلال حالات نفسية هشة، في إشارة إلى بعض المنافسين الذين يسلكون هذا المسار. الحياد في المواقف السياسية شدد ألتمان على أن منتجات OpenAI يجب ألا تميل نحو أيديولوجية معينة، بل أن تظل في المنتصف، مع منح المستخدم حرية توجيه النموذج نحو الميول الفكرية التي يرغب بها. وأوضح أن المستخدم إذا أراد أن يكون الذكاء الاصطناعي محافظًا أو ليبراليًا، فعليه أن يضبطه على ذلك. كما أعلن ألتمان أن قاعدة مستخدمي ChatGPT الأسبوعية تضاعفت أربع مرات خلال عام، لتصل إلى أكثر من 700 مليون مستخدم، مع توقعات ببلوغ المليارات يوميًا. وأشار إلى أن المنصة تحتل الآن المرتبة الخامسة عالميًا من حيث عدد الزوار، مع خطة للتفوق على إنستغرام وفيسبوك، رغم صعوبة تجاوز جوجل. تقييم فقاعة الذكاء الاصطناعي أقر سام ألتمان بأن سوق الذكاء الاصطناعي يعيش حاليًا حالة من التضخم الاستثماري تشبه إلى حد كبير ما يُعرف بالفقاعة الاقتصادية، حيث يتدفق رأس المال بكثافة مدفوعًا بموجة من التوقعات المفرطة والتصورات المتفائلة حول مستقبل التقنية. لكنه في الوقت نفسه شدد على أن هذه الموجة، رغم مبالغاتها، تستند إلى حقيقة أساسية لا يمكن إنكارها، وهي أن الذكاء الاصطناعي يمثل نقلة نوعية في عالم التكنولوجيا، تمامًا كما كان الحال مع الإنترنت خلال فقاعة مطلع الألفية. وأوضح أن التاريخ يثبت أن الفقاعات غالبًا ما تنشأ حول أفكار أو تقنيات ذات قيمة جوهرية، وأن الحماس الزائد لا يلغي أهمية الابتكار نفسه. وبالنسبة له، فإن الذكاء الاصطناعي يعد أعظم تطور تقني شهدته البشرية منذ عقود، حتى وإن كانت وتيرة الاستثمار فيه اليوم أكبر مما قد تبرره المرحلة الحالية من نضج هذه الصناعة. إنشاء مراكز بيانات جديدة أبرز ألتمان أن OpenAI تعاني من نقص حاد في وحدات معالجة الرسوميات، ما يحد من قدرتها على توفير النماذج الأكثر تطورًا. وأعلن أن الشركة تستعد لإنفاق تريليونات الدولارات على بناء مراكز بيانات خلال المستقبل القريب، لتتمكن من تلبية الطلب المتزايد ودعم منتجات وخدمات جديدة. وقد أكد ألتمان خطط OpenAI لدخول مجال واجهات الدماغ الحاسوبية لمنافسة مشروع Neuralink لإيلون ماسك، موضحًا أنه يرغب في التواصل مع ChatGPT بمجرد التفكير فقط. كما ألمح إلى اهتمامه بتطوير تجارب اجتماعية جديدة مدعومة بالذكاء الاصطناعي، ولمح إلى احتمال الاستحواذ على متصفح كروم إذا اضطرت جوجل لبيعه. نظرة على جهاز OpenAI المرتقب تحدث ألتمان عن الجهاز الذي تطوره الشركة بالتعاون مع المصمم الشهير جوني آيف، مؤكدًا أن المنتج سيشكل نقلة نوعية في عالم الحوسبة، رغم أن تطويره سيستغرق وقتًا. ويرى أن التحولات الكبرى في طرق الحوسبة نادرة، لذا يجب أن يستمتع الجمهور بانتظار هذه التجربة الجديدة. توقع ألتمان أن يقل اعتماد المستخدمين على زيارة المواقع التقليدية، مع زيادة قيمة المحتوى الذي يصنعه البشر ويوافقون عليه ويدققونه. ويرى أن هذا النوع من المحتوى سيكتسب أهمية متزايدة في ظل انتشار المحتوى المولد بالذكاء الاصطناعي. مفهوم الذكاء الاصطناعي العام أوضح ألتمان أن الوصول إلى مرحلة الذكاء الاصطناعي العام قد لا يكون انتقالًا فجائيًا، بل عملية تدريجية يحصل فيها الباحثون على دعم متزايد من الأنظمة الذكية حتى تحل محل معظم الأبحاث البشرية. وأضاف أن الشركة كانت ستحقق المزيد من الأرباح لولا تكاليف تدريب النماذج. اعترف ألتمان بأنه لا يستخدم جوجل منذ فترة طويلة، كما لمح إلى أنه قد لا يستمر كرئيس تنفيذي على المدى البعيد، مشيرًا بسخرية إلى أن الذكاء الاصطناعي قد يتولى هذا الدور خلال ثلاث سنوات. وبينما تتوسع OpenAI في مشاريعها، تظل عينه على تحقيق توازن بين الابتكار السريع وحماية المستخدمين من المخاطر النفسية أو الاستغلال التجاري المفرط.