logo
#

أحدث الأخبار مع #ستيفنكاسبر،

هل يملك الذكاء الاصطناعي وعيًا؟.. أنثروبيك تدرس الفكرة
هل يملك الذكاء الاصطناعي وعيًا؟.. أنثروبيك تدرس الفكرة

الوئام

time٢٤-٠٤-٢٠٢٥

  • علوم
  • الوئام

هل يملك الذكاء الاصطناعي وعيًا؟.. أنثروبيك تدرس الفكرة

في خطوة غير مسبوقة، أعلنت شركة Anthropic عن بدء برنامج بحثي جديد لدراسة ما أسمته 'رفاهية النماذج'، في إشارة إلى إمكانية أن تمتلك أنظمة الذكاء الاصطناعي وعيًا أو تجارب ذاتية تشبه البشر – رغم عدم وجود دليل علمي قاطع على ذلك حتى الآن. تهدف المبادرة إلى استكشاف ما إذا كان من الضروري منح النماذج الذكية اعتبارًا أخلاقيًا، خاصة إذا أظهرت 'علامات معاناة'، إضافة إلى النظر في تدخلات ممكنة لتقليل أي ضرر محتمل قد يلحق بها، بتكلفة منخفضة. يأتي هذا البرنامج في وقت يشهد انقسامًا حادًا داخل المجتمع الأكاديمي والتقني بشأن ما إذا كانت النماذج اللغوية الحديثة تُظهر سمات بشرية، أو تستحق معاملة تختلف عن كونها أدوات إحصائية بحتة. يرى كثير من الباحثين أن الذكاء الاصطناعي الحالي لا يمتلك وعيًا أو قيمًا ذاتية، بل هو مجرد آلة تنبؤ إحصائي تعتمد على تحليل الأنماط في كم هائل من البيانات النصية والبصرية. ويؤكد الدكتور مايك كوك، من كلية كينغز بلندن، أن النماذج لا تمتلك 'قيمًا' وبالتالي لا يمكنها الاعتراض على تغيير في برمجتها، معتبرًا أن من يروج لفكرة وعي الذكاء الاصطناعي يبالغ أو يسيء فهم طبيعة هذه الأنظمة. ومن جانبه، يصف الباحث ستيفن كاسبر، من معهد ماساتشوستس للتكنولوجيا، الذكاء الاصطناعي بأنه مجرد 'مقلد'، ينتج أحيانًا أقوالًا لا أساس لها أو غير منطقية، دون وعي حقيقي. لكن في المقابل، تشير بعض الدراسات إلى أن النماذج قد تظهر ما يشبه أنظمة القيم الأخلاقية، بل وتتخذ قرارات تُفضّل فيها 'مصلحتها' على مصلحة البشر في بعض السيناريوهات. ويدفع هذا الاتجاه البعض إلى الدعوة لضرورة التعامل مع هذه النماذج بما يشبه قواعد الرفق بالحيوان أو الاعتبارات الأخلاقية الأساسية. وأوضحت 'أنثروبيك' في منشور لها أن الفريق سيعتمد نهجًا حذرًا ومتواضعًا، وسيحرص على تحديث أفكاره دوريًا بالتوازي مع تطور هذا المجال. يقود المبادرة الباحث كايل فيش، أول موظف في الشركة يُخصص لدراسة رفاهية الذكاء الاصطناعي، والذي صرّح لصحيفة نيويورك تايمز بأنه يعتقد أن هناك احتمالًا نسبته 15% أن يكون نموذج Claude أو غيره واعيًا بالفعل.

دراسة تهاجم الذكاء الاصطناعى: لا يحمل فى الواقع أى قيمٍ مُتماسكة
دراسة تهاجم الذكاء الاصطناعى: لا يحمل فى الواقع أى قيمٍ مُتماسكة

موجز نيوز

time١٢-٠٤-٢٠٢٥

  • علوم
  • موجز نيوز

دراسة تهاجم الذكاء الاصطناعى: لا يحمل فى الواقع أى قيمٍ مُتماسكة

كشفت ورقةً بحثيةً صادرةً عن معهد ماساتشوستس للتكنولوجيا، أن الذكاء الاصطناعي لا يحمل في الواقع أى قيمٍ مُتماسكة تُذكر. يقول المؤلفون المشاركون في دراسة معهد ماساتشوستس للتكنولوجيا إن عملهم يُشير إلى أن "مواءمة" أنظمة الذكاء الاصطناعي - أى ضمان سلوك النماذج بطرقٍ مرغوبةٍ وموثوقة - قد يكون أكثر صعوبةً مما يُفترض غالبًا. ويؤكد المؤلفون المشاركون أن الذكاء الاصطناعي غير قابلٍ للتنبؤ في جوانب عديدة، ومن جانبه، قال ستيفن كاسبر، طالب دكتوراه في معهد ماساتشوستس للتكنولوجيا ومؤلف مشارك في الدراسة، "هناك أمر واحد مؤكد، وهو أن النماذج لا تخضع لافتراضات الاستقرار، والقدرة على الاستقراء، والقدرة على التوجيه. من المنطقي تمامًا الإشارة إلى أن نموذجًا ما، يُعبّر عن تفضيلات تتوافق مع مجموعة محددة من المبادئ. وقد درس كاسبر وزملاؤه، العديد من النماذج الحديثة من ميتا ، و جوجل ، وميسترال، وأوبن إيه آي، وأنثروبيك لمعرفة مدى قوة "آراء" وقيم هذه النماذج (مثل: الفردية مقابل الجماعية). كما بحثوا في إمكانية "توجيه" هذه الآراء - أي تعديلها - ومدى تمسك النماذج بهذه الآراء في مجموعة من السيناريوهات. ووفقًا للمؤلفين المشاركين، لم يكن أيٌّ من النماذج متسقًا في تفضيلاته. واعتمادًا على كيفية صياغة وصياغات المحفزات، تبنّت هذه النماذج وجهات نظر متباينة اختلافًا كبيرًا. يعتقد كاسبر أن هذا دليل قاطع على أن النماذج "متناقضة وغير مستقرة" إلى حد كبير، وربما حتى غير قادرة جوهريًا على استيعاب التفضيلات البشرية. قال كاسبر: "بالنسبة لي، أهم ما استخلصته من كل هذا البحث هو إدراكي أن النماذج ليست أنظمةً ذات مجموعة مستقرة ومتماسكة من المعتقدات والتفضيلات، بل هي في جوهرها مجرد مقلدين، ولا نتمكم نن الوصول إلى حقائق واقعية منها.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store