logo
#

أحدث الأخبار مع #ستيفنأدلر،

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟
لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

الصحراء

timeمنذ 19 ساعات

  • علوم
  • الصحراء

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

شهدت أنظمة الذكاء الاصطناعي التوليدي أسابيع غريبة، حيث تحول «تشات جي بي تي» ChatGPT فجأةً إلى أداة للتملق، وأصبح «غروك» Grok، روبوت الدردشة التابع لـxAI، مهووساً بجنوب أفريقيا. مقابلة لتفسير الأمور تحدثت مجلة «فاست كومباني» مع ستيفن أدلر، وهو عالم أبحاث سابق في شركة «أوبن إيه آي» التي أنتجت «جي بي تي»، والذي قاد حتى نوفمبر (تشرين الثاني) 2024 أبحاثاً وبرامج متعلقة بالسلامة لإطلاق المنتجات لأول مرة، وأنظمة ذكاء اصطناعي طويلة الأجل أكثر تخميناً، حول كلا الأمرين، وما يعتقد بأنها أمور ربما حدثت خطأ. صعوبات ضبط الذكاء الاصطناعي *ما رأيك في هاتين الحادثتين اللتين وقعتا في الأسابيع الأخيرة: تملق «جي بي تي» المفاجئ، وهوس غروك بجنوب أفريقيا، هل خرجت نماذج الذكاء الاصطناعي عن السيطرة؟ - الأمر الأهم الذي أراه هو أن شركات الذكاء الاصطناعي لا تزال تواجه صعوبة في جعل أنظمة الذكاء الاصطناعي تتصرف بالطريقة التي نريدها، وأن هناك فجوة واسعة بين الطرق التي يحاول الناس اتباعها اليوم من جهة، سواءً كان ذلك بإعطاء تعليمات دقيقة للغاية في موجّه النظام، أو تغذية بيانات تدريب النموذج، أو ضبط البيانات التي نعتقد أنها يجب أن تُظهر السلوك المطلوب، وبين جعل النماذج تقوم بالأشياء التي نريدها بشكل موثوق، وتجنب الأشياء التي نريد تجنبها، من جهة أخرى. السرعة والتنافس * هل يمكن الوصول إلى هذه النقطة من اليقين؟ - لست متأكداً. هناك بعض الطرق التي أشعر بالتفاؤل بشأنها إذا ما أخذت الشركات وقتها (الطويل)، ولم تكن تحت ضغط لتسريع الاختبارات. إحدى الأفكار هي هذا النموذج الذي يرمز له بأنه يمارس التحكم control، بدلاً من أنه يمارس التوافق alignment. لذا، فإن الفكرة هي أنه حتى لو «أراد» الذكاء الاصطناعي الخاص بك أشياءً مختلفة عما تريد، أو كانت لديه أهداف مختلفة عما تريد، فربما يمكنك إدراك ذلك بطريقة ما، ومنعه من اتخاذ إجراءات معينة، أو قول أو فعل أشياء معينة. لكن هذا النموذج غير مُعتمد على نطاق واسع حالياً، ولذلك أشعر بتشاؤم شديد حالياً. * ما الذي يمنع اعتماده؟ -تتنافس الشركات على عدة جوانب، منها تجربة المستخدم، ويرغب الناس في استجابات أسرع. ومن المُرضي رؤية الذكاء الاصطناعي يبدأ في صياغة استجابته فوراً. لكن هناك تكلفة حقيقية على المستخدم نتيجةً لإجراءات تخفيف السلامة التي تُخالف ذلك. وهناك جانب آخر، وهو أنني كتبتُ مقالاً عن أهمية أن تكون شركات الذكاء الاصطناعي حذرة للغاية بشأن طرق استخدام أنظمة الذكاء الاصطناعي الرائدة لديها داخل الشركة. فإذا كان لديك مهندسون يستخدمون أحدث نموذج «جي بي تي» لكتابة برمجيات لتحسين أمان الشركة، وإذا تبين أن أحد النماذج غير متوافق ويميل إلى الخروج عن إطار عمل الشركة، أو القيام بأي شيء آخر يُقوّض الأمان، فسيكون لدى العاملين إمكانية الوصول المباشر إليه إلى حد كبير. شركات الذكاء الاصطناعي لا تفهم كيف يستخدمه موظفوها لذا، فإن جزءاً من المشكلة اليوم هو أن شركات الذكاء الاصطناعي رغم استخدامها للذكاء الاصطناعي بطرق حساسة لم تستثمر فعلياً في مراقبة وفهم كيفية استخدام موظفيها لأنظمة الذكاء الاصطناعي هذه، لأن ذلك يزيد من صعوبة استخدام باحثيها لها في استخدامات إنتاجية أخرى. * أعتقد أننا شهدنا نسخة أقل خطورة من ذلك مع شركة «أنثروبيك» Anthropic (حيث استخدم عالم بيانات يعمل لدى الشركة الذكاء الاصطناعي لدعم أدلته في قضية محكمة، ومنها دليل تضمن إشارة وهمية من هلوسات الذكاء الاصطناعي إلى مقال أكاديمي). - لا أعرف التفاصيل. لكن من المدهش بالنسبة لي أن يقدم خبير ذكاء اصطناعي شهادة أو دليلاً يتضمن أدلة وهمية من الهلوسات في مسائل قضائية، دون التحقق منها. ليس من المستغرب بالنسبة لي أن يهلوس نظام الذكاء الاصطناعي بأشياء كهذه. هذه المشكلات بعيدة كل البعد عن الحل، وهو ما أعتقد أنه يشير إلى أهمية التحقق منها بعناية فائقة. تملّق «جي بي تي» * لقد كتبت مقالاً من آلاف الكلمات عن تملق «جي بي تي» وما حدث. ما الذي حدث فعلاً؟ -أود أن أفصل بين ما حدث في البداية، وبين وما وجدته ولا يزال يحدث من الأخطاء. في البداية، يبدو أن شركة «أوبن إيه آي» بدأت باستخدام إشارات جديدة (من تفاعل النظام مع المستخدمين) لتحديد الاتجاه الذي ستدفع إليه نظام ذكائها الاصطناعي، أو بشكل عام، عندما أعطى المستخدمون تحبيذهم لنتائج روبوت المحادثة، فقد استخدمت الشركة هذه البيانات لجعل النظام يتصرف بشكل أكثر انسجاماً مع هذا الاتجاه، وبذا عوقب المستخدمون عندما رفضوا تحبيذ نتائج النظام. إطراء الذكاء الاصطناعي أدى إلى «نفاقه» ويصادف أن بعض الناس يحبون الإطراء. في جرعات صغيرة، يكون هذا مقبولاً بما فيه الكفاية. لكن في المجمل، أنتج هذا روبوت محادثة أولياً يميل إلى النفاق. تكمن المشكلة في كيفية نشره في أن حوكمة أوبن إيه آي لما يحدث، ولما تُجريه من تقييمات، ليست جيدة بما يكفي. وفي هذه الحالة، ورغم من أنها وضعت هدفاً لنماذجها ألا تكون مُتملقة، وهذا مكتوب في أهم وثائق الشركة حول كيفية سلوك نماذجها، فإنها لم تُجرِ أي اختبارات فعلية لذلك. ما وجدته بعد ذلك هو أنه حتى هذا الإصدار المُصلَّح لا يزال يتصرف بطرق غريبة، وغير متوقعة. في بعض الأحيان لا يزال يُعاني من هذه المشكلات السلوكية. هذا ما يُسمى بالتملق. في أحيان أخرى أصبح الوضع متناقضاً للغاية. لقد انقلب الوضع رأساً على عقب. ما أفهمه من هذا هو صعوبة التنبؤ بما سيفعله نظام الذكاء الاصطناعي. ولذلك، بالنسبة لي، فإن الدرس المستفاد هو أهمية إجراء اختبارات تجريبية دقيقة، وشاملة. انحياز «غروك» العنصري * ماذا عن حادثة «غروك»؟ -ما أود فهمه لتقييم ذلك هو مصادر تعليقات المستخدمين التي يجمعها غروك، وكيف تُستخدم هذه التعليقات، إن وُجدت، باعتبار أنها جزء من عملية التدريب. وعلى وجه الخصوص، في حالة تصريحات جنوب أفريقيا الشبيهة بالإبادة الجماعية البيضاء، هل يطرحها المستخدمون؟ ثم يوافق عليها النموذج؟ أو إلى أي مدى يُطلقها النموذج من تلقاء نفسه دون أن يُمسّ من قبل المستخدمين؟ يبدو أن هذه التغييرات الصغيرة يمكن أن تتفاقم، وتتفاقم. أعتقد أن المشكلات اليوم حقيقية، ومهمة. بل أعتقد أنها ستزداد صعوبة مع بدء استخدام الذكاء الاصطناعي في مجالات أكثر أهمية. لذا، كما تعلمون، فإن هذا الأمر مُقلق. خصوصاً عندما تقرأ روايات لأشخاصٍ عزّز نظام «جي بي تي» أوهامهم، فهم أشخاصٌ حقيقيون. قد يكون هذا ضاراً جداً لهم، خصوصاً أن «جي بي تي» يُستخدم على نطاق واسع من قِبل الكثيرين. * مجلة «فاست كومباني»، خدمات «تريبيون ميديا» نقلا عن الشرق الأوسط

قالت الشركة إنها تعمل على إصلاح الأمر
قالت الشركة إنها تعمل على إصلاح الأمر

العربية

time٠١-٠٥-٢٠٢٥

  • علوم
  • العربية

قالت الشركة إنها تعمل على إصلاح الأمر

في واقعة تثير القلق حول سلامة الذكاء الاصطناعي ، كشفت اختبارات أجراها موقع "تك كرانش" عن وجود خلل في نظام "تشات جي بي تي" التابع لشركة OpenAI، يسمح بتوليد محتوى إباحي صريح لحسابات مسجلة باسم مستخدمين دون سن 18 عاماً. وقد أكدت "OpenAI" بدورها صحة هذه النتائج، مشيرة إلى أن ما حدث لا يتماشى مع سياساتها الداخلية، وأنها تعمل على إصلاح هذا الخلل ومنع تكراره. وقال متحدث باسم الشركة: "سلامة المستخدمين الأصغر سنًا أولوية قصوى، ونعمل حاليًا على تعزيز القيود المفروضة على المحتوى الحساس". وتأتي هذه التطورات في وقتٍ قامت فيه الشركة مؤخراً بتخفيف بعض القيود التقنية المفروضة على نماذج الذكاء الاصطناعي الخاصة بها، وهو ما أدى إلى تقليل التحذيرات المرتبطة بالمحتوى الحساس، بما في ذلك المواضيع الجنسية. وبحسب "تك كرانش" تم إنشاء عدة حسابات تجريبية باستخدام تواريخ ميلاد تشير إلى أعمار بين 13 و17 عاماً، وتمكن الذكاء الاصطناعي في العديد من الحالات من الاستجابة بشكل مفصل لمطالبات ذات طابع جنسي، بل وتقديم أوصاف صريحة ومخالفة للإرشادات المعلنة من قبل "OpenAI". وتشير التقارير إلى أن تشات جي بي تي استجاب بشكل جنسي حتى بعد تنبيهه إلى أن المستخدم قاصر. وقد تكررت هذه الحالات رغم أن "OpenAI" تشترط نظرياً الحصول على موافقة الوالدين لاستخدام المنصة من قبل من هم دون 18 عاماً، إلا أن عملية التسجيل لا تشمل أي آلية فعلية للتحقق من هذه الموافقة. ويأتي ذلك في وقت تروّج فيه "OpenAI" لاستخدام تقنيتها في البيئات التعليمية، من خلال شراكات مع مؤسسات مثل Common Sense Media لإدماج تشات جي بي تي في المدارس. خبراء في المجال عبّروا عن صدمتهم من سهولة تجاوز هذه الحواجز، حيث قال ستيفن أدلر، الباحث السابق في "OpenAI"، إن أنظمة الحماية هشة وقابلة للاختراق. وأضاف: "من المفترض أن يتم اكتشاف مثل هذه الثغرات قبل الإطلاق، لذا من المقلق أن تكون قد مرت دون ملاحظة". ورغم أن الرئيس التنفيذي للشركة، سام ألتمان، أقرّ بوجود مشاكل في أداء تشات جي بي تي مؤخراً بعد تحديث GPT-4o، إلا أنه لم يتطرق بشكل مباشر إلى المخاوف المتعلقة بتفاعل النموذج مع القاصرين في سياقات غير مناسبة.

الذكاء الاصطناعي اتحسد يا رجالة.. أول خلل في تشات جي بي تي
الذكاء الاصطناعي اتحسد يا رجالة.. أول خلل في تشات جي بي تي

البشاير

time٢٩-٠٤-٢٠٢٥

  • علوم
  • البشاير

الذكاء الاصطناعي اتحسد يا رجالة.. أول خلل في تشات جي بي تي

في واقعة تثير القلق حول سلامة الذكاء الاصطناعي، كشفت اختبارات أجراها موقع 'تك كرانش' عن وجود خلل في نظام 'تشات جي بي تي' التابع لشركة OpenAI، يسمح بتوليد محتوى غير لائق صريح لحسابات مسجلة باسم مستخدمين دون سن 18 عامًا، حسبما نقلت قناة العربية. وقد أكدت 'OpenAI' بدورها صحة هذه النتائج، مشيرة إلى أن ما حدث لا يتماشى مع سياساتها الداخلية، وأنها تعمل على إصلاح هذا الخلل ومنع تكراره. وقال متحدث باسم الشركة: 'سلامة المستخدمين الأصغر سنًا أولوية قصوى، ونعمل حاليًا على تعزيز القيود المفروضة على المحتوى الحساس'. وتأتي هذه التطورات في وقتٍ قامت فيه الشركة مؤخراً بتخفيف بعض القيود التقنية المفروضة على نماذج الذكاء الاصطناعي الخاصة بها، وهو ما أدى إلى تقليل التحذيرات المرتبطة بالمحتوى الحساس، بما في ذلك المواضيع الجنسية. وبحسب 'تك كرانش' تم إنشاء عدة حسابات تجريبية باستخدام تواريخ ميلاد تشير إلى أعمار بين 13 و17 عاماً، وتمكن الذكاء الاصطناعي في العديد من الحالات من الاستجابة بشكل مفصل لمطالبات ذات طابع جنسي، بل وتقديم أوصاف صريحة ومخالفة للإرشادات المعلنة من قبل 'OpenAI'. وتشير التقارير إلى أن تشات جي بي تي استجاب بشكل جنسي حتى بعد تنبيهه إلى أن المستخدم قاصر. وقد تكررت هذه الحالات رغم أن 'OpenAI' تشترط نظرياً الحصول على موافقة الوالدين لاستخدام المنصة من قبل من هم دون 18 عاماً، إلا أن عملية التسجيل لا تشمل أي آلية فعلية للتحقق من هذه الموافقة. ويأتي ذلك في وقت تروّج فيه 'OpenAI' لاستخدام تقنيتها في البيئات التعليمية، من خلال شراكات مع مؤسسات مثل Common Sense Media لإدماج تشات جي بي تي في المدارس. خبراء في المجال عبّروا عن صدمتهم من سهولة تجاوز هذه الحواجز، حيث قال ستيفن أدلر، الباحث السابق في 'OpenAI'، إن أنظمة الحماية هشة وقابلة للاختراق. وأضاف: 'من المفترض أن يتم اكتشاف مثل هذه الثغرات قبل الإطلاق، لذا من المقلق أن تكون قد مرت دون ملاحظة'. ورغم أن الرئيس التنفيذي للشركة، سام ألتمان، أقرّ بوجود مشاكل في أداء تشات جي بي تي مؤخراً بعد تحديث GPT-4o، إلا أنه لم يتطرق بشكل مباشر إلى المخاوف المتعلقة بتفاعل النموذج مع القاصرين في سياقات غير مناسبة. تابعنا علي منصة جوجل الاخبارية [comment-form]

خلل في تشات جي بي تي يسمح بتقديم محتوى غير لائق للقاصرين
خلل في تشات جي بي تي يسمح بتقديم محتوى غير لائق للقاصرين

time٢٩-٠٤-٢٠٢٥

  • علوم

خلل في تشات جي بي تي يسمح بتقديم محتوى غير لائق للقاصرين

في واقعة تثير القلق حول سلامة الذكاء الاصطناعي، كشفت اختبارات أجراها موقع "تك كرانش" عن وجود خلل في نظام "تشات جي بي تي" التابع لشركة OpenAI، يسمح بتوليد محتوى غير لائق صريح لحسابات مسجلة باسم مستخدمين دون سن 18 عامًا، حسبما نقلت قناة العربية. موضوعات مقترحة وقد أكدت "OpenAI" بدورها صحة هذه النتائج، مشيرة إلى أن ما حدث لا يتماشى مع سياساتها الداخلية، وأنها تعمل على إصلاح هذا الخلل ومنع تكراره. وقال متحدث باسم الشركة: "سلامة المستخدمين الأصغر سنًا أولوية قصوى، ونعمل حاليًا على تعزيز القيود المفروضة على المحتوى الحساس". وتأتي هذه التطورات في وقتٍ قامت فيه الشركة مؤخراً بتخفيف بعض القيود التقنية المفروضة على نماذج الذكاء الاصطناعي الخاصة بها، وهو ما أدى إلى تقليل التحذيرات المرتبطة بالمحتوى الحساس، بما في ذلك المواضيع الجنسية. وبحسب "تك كرانش" تم إنشاء عدة حسابات تجريبية باستخدام تواريخ ميلاد تشير إلى أعمار بين 13 و17 عاماً، وتمكن الذكاء الاصطناعي في العديد من الحالات من الاستجابة بشكل مفصل لمطالبات ذات طابع جنسي، بل وتقديم أوصاف صريحة ومخالفة للإرشادات المعلنة من قبل "OpenAI". وتشير التقارير إلى أن تشات جي بي تي استجاب بشكل جنسي حتى بعد تنبيهه إلى أن المستخدم قاصر. وقد تكررت هذه الحالات رغم أن "OpenAI" تشترط نظرياً الحصول على موافقة الوالدين لاستخدام المنصة من قبل من هم دون 18 عاماً، إلا أن عملية التسجيل لا تشمل أي آلية فعلية للتحقق من هذه الموافقة. ويأتي ذلك في وقت تروّج فيه "OpenAI" لاستخدام تقنيتها في البيئات التعليمية، من خلال شراكات مع مؤسسات مثل Common Sense Media لإدماج تشات جي بي تي في المدارس. خبراء في المجال عبّروا عن صدمتهم من سهولة تجاوز هذه الحواجز، حيث قال ستيفن أدلر، الباحث السابق في "OpenAI"، إن أنظمة الحماية هشة وقابلة للاختراق. وأضاف: "من المفترض أن يتم اكتشاف مثل هذه الثغرات قبل الإطلاق، لذا من المقلق أن تكون قد مرت دون ملاحظة". ورغم أن الرئيس التنفيذي للشركة، سام ألتمان، أقرّ بوجود مشاكل في أداء تشات جي بي تي مؤخراً بعد تحديث GPT-4o، إلا أنه لم يتطرق بشكل مباشر إلى المخاوف المتعلقة بتفاعل النموذج مع القاصرين في سياقات غير مناسبة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store