logo
مراقبة أفكار الذكاء الاصطناعي.. خطوة جديدة لفهم "العقل" الرقمي

مراقبة أفكار الذكاء الاصطناعي.. خطوة جديدة لفهم "العقل" الرقمي

الاتحاد١٧-٠٧-٢٠٢٥
في خطوة غير مسبوقة، دعت كبرى شركات الذكاء الاصطناعي إلى تعزيز الأبحاث حول "مراقبة أفكار" نماذج الذكاء الاصطناعي، عبر تتبع ما يعرف بسلاسل التفكير، بهدف تعزيز الشفافية وضمان الأمان في مستقبل يتسارع نحو الاعتماد على وكلاء ذكاء اصطناعي أكثر استقلالية.
اقرأ أيضاً..الكشف عن نموذج جديد للذكاء الاصطناعي يُتقن التفكير العميق
دعا باحثون من شركات رائدة مثل ، أوبن ايه آي، وجوجل و"ديب مايند" و"أنثروبيك"، إلى تعزيز الأبحاث في مجال مراقبة "أفكار" نماذج الذكاء الاصطناعي، خاصة تلك المعروفة بنماذج التفكير الاستدلالي. جاء ذلك ضمن ورقة موقف نُشرت مؤخرًا، تحث المجتمع العلمي على التركيز على أدوات تسمى سلاسل التفكير "CoTs"، والتي تسمح بتتبع كيف "تفكر" النماذج في حل المشكلات.بحسب تقرير نشره موقع "تك كرانش".
ما هي سلاسل التفكير (CoTs)؟
سلاسل التفكير هي آلية تستخدمها نماذج الذكاء الاصطناعي المتقدمة لحل المشكلات خطوة بخطوة، بطريقة شبيهة بكتابة الإنسان لمسودة حسابية لتوضيح أفكاره. هذه العملية تُظهر كيف تصل النماذج إلى نتائجها، مما يجعلها أداة مهمّة لفهم طريقة اتخاذ القرارات داخل النماذج.
فرصة لا يجب تفويتها
يؤكد الباحثون أن هذه الشفافية قد لا تستمر إلى الأبد. وقد حذّر الباحث بوين بيكر من "OpenAI"، قائلاً: "نحن نمر بمرحلة حرجة. هذه الطريقة الجديدة في التفكير قد تختفي خلال سنوات إن لم نحظَ بالاهتمام الكافي بها الآن."ويهدف نشر الورقة إلى تحفيز المزيد من الأبحاث قبل أن تندثر هذه النافذة الفريدة على "عقل" الذكاء الاصطناعي.
سباق بين الشركات
يتسارع تطوير نماذج الاستدلال منذ إطلاق "OpenAI" لأول نموذج من هذا النوع (o1) في سبتمبر 2024، تسعى شركات مثل "xAI" و"جوجل ديب مايند" إلى التفوق في سباق الأداء، لكن الخبراء يُحذّرون من أن ذلك قد يُغفل أهمية فهم المنطق الداخلي للقرارات التي تتخذها هذه الأنظمة.
تُعد شركة "أنثروبيك" من أبرز الجهات العاملة في مجال تفسير الذكاء الاصطناعي (Interpretability). وقد أعلن رئيسها التنفيذي داريو أمودي التزام الشركة بفك "الصندوق الأسود" للنماذج بحلول عام 2027، داعيًا OpenAI إلى الانضمام لهذا المسار البحثي المهم.
اقرأ أيضاً..سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
هل يمكن الوثوق في سلاسل التفكير؟
تشير أبحاث "أنثروبيك" إلى أن سلاسل التفكير قد لا تعكس دائمًا ما يحدث فعلًا داخل النموذج. في المقابل، ترى أوبن أيه آي أن مراقبة CoT يمكن أن تصبح وسيلة موثوقة لتقييم سلامة النماذج ومدى التزامها بالأهداف البشرية، بشرط تطويرها وفهمها جيدًا.
ماذا تقترح الورقة الجديدة؟
تدعو الورقة إلى دراسة ما الذي يجعل سلاسل التفكير قابلة للمراقبة، أي ما العوامل التي تزيد أو تقلل من شفافيتها. كما تحث مطوري النماذج على تتبع هذا العامل بانتظام، وتحذّر من إدخال تعديلات قد تؤثر على مصداقية أو وضوح هذه السلاسل في المستقبل.
إجماع نادر في مجتمع الذكاء الاصطناعي
من بين الأسماء الموقعة على الورقة:
جيفري هينتون، "عرّاب الذكاء الاصطناعي" والحائز على نوبل.
إيليا سوتسكيفر، الرئيس التنفيذي لشركة Safe Superintelligence.
مارك تشين من شركة OpenAI.
شين ليج من "جوجل ديب مايند".
دان هندريكس مستشار السلامة في "xAI".
إلى جانب عدد من الباحثين من "أمازون" و"ميتا" وجامعة بيركلي ومؤسسة Apollo Research.
دعوة للهدوء والتأمل
تأتي هذه الدعوة في وقت يشهد فيه القطاع منافسة شديدة على الكفاءات، حيث تحاول شركات مثل ميتا، استقطاب باحثين من OpenAI وDeepMind وAnthropic عبر عروض مغرية.
وبالرغم من هذا التنافس، تمثّل والورقة الجديدة لحظة نادرة من التوافق والاتحاد بين قادة الصناعة من أجل تعزيز أمان الذكاء الاصطناعي، وضمان شفافيته.
لمياء الصديق (أبوظبي)
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

معلم ذكي.. ChatGPT يطلق وضع الدراسة لمساعدة الطلاب في الفهم
معلم ذكي.. ChatGPT يطلق وضع الدراسة لمساعدة الطلاب في الفهم

البوابة العربية للأخبار التقنية

timeمنذ 8 ساعات

  • البوابة العربية للأخبار التقنية

معلم ذكي.. ChatGPT يطلق وضع الدراسة لمساعدة الطلاب في الفهم

كشفت شركة OpenAI عن ميزة جديدة تُعرف باسم 'وضع الدراسة Study Mode' داخل روبوت ChatGPT، وتهدف تلك الميزة إلى مساعدة المستخدمين في حل المشكلات خطوة بخطوة، بدلًا من الاكتفاء بالحصول على الإجابة النهائية، وذلك بحسب ما ورد في منشور رسمي في مدونة الشركة. وأصبحت الميزة متاحة بدايةً من اليوم لمستخدمي ChatGPT أصحاب الحسابات المجانية والمشتركين في خطط بلس وبرو وخطة فرق العمل، على أن تصل إلى مستخدمي الخطة التعليمية ChatGPT Edu خلال الأسابيع المقبلة. ويتيح 'وضع الدراسة' للمستخدمين إنشاء أسئلة وطلبات تفاعلية قائمة على أسلوب 'الاستجواب السقراطي'، وتلميحات، وأسئلة تأمل ذاتي تُسهم في تعزيز الفهم والتفكير النقدي. وتُقدّم الإجابات ضمن أقسام منظمة وسهلة المتابعة تُبرز الروابط بين الموضوعات المختلفة، وتُخصص المحتوى التعليمي بحسب مهارات المستخدم ومستوى ذاكرته المستنتج من المحادثات السابقة، وتدعم الميزة أيضًا تقديم اختبارات قصيرة. وتسعى OpenAI من خلال هذه الميزة إلى تعزيز استخدام ChatGPT في التعليم بدلًا من استخدامه للحصول على إجابات جاهزة، لكن تفعيل الوضع الجديد اختياري، مما يجعل تحفيز الذات على استخدامه أمرًا ضروريًا. ووفقًا لنائبة رئيس الشركة لشؤون التعليم، ليا بلسكي، فإن OpenAI لا توفّر حاليًا أدوات للآباء أو الإداريين لفرض استخدام وضع الدراسة على الطلاب. ويستند 'وضع الدراسة' إلى تعليمات نظام مخصصة صُممت بالتعاون مع معلمين وعلماء وخبراء في علم أصول التدريس، وهو ما يتيح للشركة تطوير الميزة باستمرار بناءً على ملاحظات الطلاب، حتى وإن أدى ذلك إلى بعض التباين أو الأخطاء في أثناء المحادثات. وتخطط الشركة مستقبلًا لإضافة مزايا أكثر تخصيصًا مثل أدوات التصور البصري، وتحديد الأهداف عبر جلسات متعددة، وتحسين التفاعل بناءً على أنماط التعلم. ويأتي هذا التحديث وسط منافسة متزايدة في سوق أدوات الذكاء الاصطناعي التعليمية، إذ أطلقت شركة Anthropic المنافسة وضعًا مشابهًا يُعرف باسم 'وضع التعلم' في مساعدها الذكي Claude خلال شهر أبريل الماضي. وبالتوازي مع ذلك، أعلنت جوجل أيضًا أدوات جديدة تعتمد على الذكاء الاصطناعي موجهة للطلاب ضمن وضع AI Mode في البحث، وميزة 'الملخصات المرئية' في أداة NotebookLM، وهي تُنتج عروضًا تقديمية مدعومة بالتعليق الصوتي.

سام ألتمان: شعرت بالخوف من GPT‑5
سام ألتمان: شعرت بالخوف من GPT‑5

عرب هاردوير

timeمنذ 11 ساعات

  • عرب هاردوير

سام ألتمان: شعرت بالخوف من GPT‑5

تصوّر معي هذا المشهد: رئيس شركة OpenAI "سام ألتمان" يجلس في بودكاست هذا الأسبوع الماضي مع ثيو فون ، صوته يرتجف قليلًا وهو يصف تجربته مع GPT-5 -النموذج الجديد الذي يُطوره فريقه. يقول إنه "سريع جدًا لدرجة مُخيفة"، ويُقارن تطويره بـ"مشروع مانهاتن" (ذلك البرنامج السري الذي صنع القنبلة النووية!). الأغرب؟ اعترافه بأنهم ربما بنوا شيئًا لا يفهمونه تمامًا! لكن انتظر، أليس هذا النموذج مُجرّد نسخة مُتطورة من ChatGPT الذي نستخدمه للدردشة أو كتابة الواجبات المدرسية؟ لماذا كل هذا التشويق والتهويل؟ هل نحن أمام ثورة ذكاء اصطناعي حقيقية، أم أنّ ألتمان يحوّل الإعلان عن منتجه إلى دراما تلفزيونية؟ اقرأ أيضًا: اللعبة النفسية: هل يروّج ألتمان لـ GPT-5 أم يحذّر منه؟ في عالم التسويق، هناك قاعدة تقول: "إذا أردت أن يهتم الناس بمنتجك، اجعلهم يخافون منه قليلًا!"، وهذا بالضبط ما يفعله ألتمان، بينما يتحدث عن أنّ GPT-5 سيكون "قفزة هائلة" تفوق GPT-4 ، يعود ليُذكرنا بأنّ أنظمة الحوكمة الحالية مُتأخرة عن تطور الذكاء الاصطناعي، كما ذكر في مُقابلة مع مجلة WIRED، وكأنه يقول: "هذا الشيء قد يصبح خطيرًا.. لكننا سنطلقه رغم ذلك!" لكن هل هو صادق؟ أم أنه يلعب على وتر الخوف لجذب الانتباه؟ بعض المُحللين يرون أن ألتمان يُبالغ في وصف "الخطر الوجودي" لذكاء اصطناعي هو في النهاية مُجرّد أداة نصية مُتطوّرة، كما أوضح تقرير لموقع The Verge. فمُقارنته بـ"مانهاتن" قد تكون درامية جدًا، خاصةً أنّ GPT-5 لن يصنع قنابل أو يشن حروبًا، بل سيُساعد في البرمجة والبحث وحتى الترفيه. إذن.. ما الجديد في GPT-5 الذي يستحق كل هذا الضجيج؟ لنترك التشويق جانبًا وننظر للحقائق، حسب تصريحات ألتمان نفسه في مدونة OpenAI الرسمية فإنّ GPT-5 لن يكون تحديث عادي، بل سيُقدّم: دمج كل أدوات الذكاء الاصطناعي في نموذج واحد، بدلًا من التبديل بين عدّة نماذج. مُستويات ذكاء مُختلفة حسب الاشتراك: مجاني للمُستخدمين العاديين، ومُتقدّم للمُشتركين المدفوعين. تحسينات كبيرة في البرمجة، حيث قد يصبح GPT-5 "أفضل من 90⁒ من المُبرمجين البشريين" حسب تقرير لـ Bloomberg. وظائف مُتعددة الوسائط مثل الصوت والرسم والبحث العميق ليكون أشبه بمُساعد شخصي مُتكامل. لكن الأهم؟ الشركة تخطّط لجعله مجانيًا للجميع (بحدود مُعينّة)، وهو تحوُّل استراتيجي كبير قد يُغيّر قواعد اللعبة في مجال الذكاء الاصطناعي، كما ذكر موقع Medium. هل علينا أن نرتعب.. أم نستعد للمُستقبل؟ الحقيقة أنّ كلام ألتمان -سواء كان صادقًا أو مُبالغًا فيه- يطرح سؤالًا مُهمًا: من يتحكّم في الذكاء الاصطناعي؟ إذا كان حتى مطوروه يعترفون بأنهم لا يفهمونه بالكامل، كما ذكر في حوار مع قناة CNBC ، فكيف سنضمن أنه لن يُستخدم بشكلٍ خاطئ؟ لكن في المُقابل، لا يجب أن ننسى الإيجابيات، GPT-5 قد يُحدث طفرة في التعليم، الطب، وحتى الفنون كما توقع خبراء في موقع MIT Technology Review ، وربما يكون الحل هو موازنة التشويق بالواقعية: الاستفادة من إمكانيات الذكاء الاصطناعي مع وضع ضوابط أخلاقية وقانونية تحمينا من أخطاره. فكر معي: لو كان GPT-5 أمامك الآن، ماذا ستسأله؟ وكيف ستستخدمه لو كان بإمكانه فعل أي شيء تقريبًا؟ شاركنا رأيك!

ما يجب معرفته قبل الاستخدام المكثف لـ "تشات جي بي تي": تحذيرات صريحة من ألتمان
ما يجب معرفته قبل الاستخدام المكثف لـ "تشات جي بي تي": تحذيرات صريحة من ألتمان

الاتحاد

timeمنذ 20 ساعات

  • الاتحاد

ما يجب معرفته قبل الاستخدام المكثف لـ "تشات جي بي تي": تحذيرات صريحة من ألتمان

وجّه الرئيس التنفيذي لشركة "أوبن أيه.آي" سام ألتمان، تحذيرًا واضحًا لمستخدمي"تشات جي بي تي" الذين يعتمدون عليه في المحادثات الشخصية أو لأغراض العلاج النفسي والدعم العاطفي، مؤكدًا أن هذه المحادثات لا تحظى بأي حماية قانونية حتى الآن. اقرأ أيضاً...أرقام استخدام قياسية تدفع "تشات جي بي تي" إلى قمة أدوات الذكاء الاصطناعي تحذير صريح أشار ألتمان، في سلسلة تصريحات إلى أن الكثير من المستخدمين، خصوصًا من فئة الشباب، يستخدمون "تشات جي بي تي" كمستشار نفسي أو مدرب حياة، ويتناولون من خلاله تفاصيل خاصة للغاية مثل العلاقات الشخصية والمشكلات العاطفية. ومع ذلك، فإن هذه المحادثات لا تخضع لما يعرف بـ"السرية المهنية" كما هو الحال مع الأطباء أو المحامين، لأن الذكاء الاصطناعي لا يُصنَّف كطرف قانوني معترف به في هذه السياقات. أكد ألتمان أن غياب إطار قانوني واضح ينظم العلاقة بين المستخدمين وأنظمة الذكاء الاصطناعي يفتح الباب أمام مخاطر حقيقية على خصوصية الأفراد. ففي حال حدوث دعاوى قضائية، قد تُجبر الشركة قانونيًا على تقديم محتوى هذه المحادثات، مما يشكّل تهديدًا مباشرًا لسرية البيانات الشخصية. بحسب ما أورد موقع "تك كرانش" المتخصص في موضوعات التكنولوجيا. وأشار إلى أن هذا الأمر قد يخلق "مخاوف تتعلق بالخصوصية" للمستخدمين في حالة رفع دعوى قضائية، موضحاً أن شركة "أوبن أيه أي" ستكون ملزمة قانوناً حالياً بإنتاج هذه السجلات. وسلّط ألتمان الضوء على تزايد المطالب القانونية من جهات التحقيق للوصول إلى بيانات المستخدمين، ما يشكل خطراً على الحريات الشخصية والقانونية. قلق بشأن خصوصية البيانات أكد ألتمان أن المستخدم محق في التوجس من غياب الوضوح، ومن المنطقي تمامًا أن يتريث المستخدم قبل الاعتماد المكثف على "تشات جي بي تي"، إلى أن تتضح الجوانب القانونية الخاصة بالخصوصية. من الناحية القانونية، تطبيق «تشات جي بي تي» ليس "منطقة آمنة" للاعترافات أو الشكاوى القانونية. ومن يطلب المشورة في مسائل شخصية وحساسة يجب أن يدرك أن هذه البيانات قابلة للاستدعاء ولا تُعامل كحديث سري بين محامٍ وموكله. كما أشار خبراء خصوصية إلى أن عدم وجود تشفير من طرف إلى طرف (end-to-end encryption) يجعل هذه المحادثات أكثر عرضة للاختراق أو التسريب إذا لم تُخزن ضمن معايير صارمة. في ظل التوسع المتسارع في استخدام تطبيقات الذكاء الاصطناعي، يواجه المستخدمون أسئلة جوهرية تتعلق بالثقة والخصوصية، لا سيما عند مشاركة تفاصيل شخصية وحساسة مع أنظمة مثل "تشات جي بي تي". تصريحات سام ألتمان، تنبيه واضح لمخاطر الثقة المطلقة في أدوات الذكاء الاصطناعي. وهي إقرار صريح بأن الثقة المطلقة في أدوات الذكاء الاصطناعي من حيث الخصوصية والحماية القانونية أمر غير مضمون. ويبقى الحذر واجبًا، والوعي ضرورة. إذ إن ما نبوح به للذكاء الاصطناعي اليوم، قد لا يبقى سريًا غدًا. لمياء الصديق (أبوظبي)

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store