
ميزة جديدة في "شات جي بي تي" تجعله قنبلة موقوتة و"OpenAI" تحاول كبحها
ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية.
ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن.
ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا.
وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".
وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها".
تدابير وقائية
قالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة.
وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال.
وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام.
وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية.
وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة.
وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية".
وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".
تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي.
وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام.
وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ يوم واحد
- أخبارنا
OpenAI تطلق "وضع الدراسة" لتعزيز التفكير النقدي في المدارس
أعلنت شركة OpenAI عن ميزة جديدة في منصة ChatGPT تحت اسم "وضع الدراسة" (Study Mode)، تهدف إلى تعزيز مهارات التفكير النقدي لدى الطلاب، من خلال تشجيع التفاعل التعليمي بدلاً من تقديم إجابات جاهزة. وتأتي هذه الخطوة في إطار تطوير استخدام الذكاء الاصطناعي كأداة تعليمية مسؤولة وفعالة. وبدأت الميزة بالوصول إلى المستخدمين ضمن الخطط المجانية والمدفوعة لخدمة ChatGPT (Free، Plus، Pro، Team)، حيث تعتمد على تقديم أسئلة موجهة لاختبار الفهم، وفي بعض الحالات، يمتنع ChatGPT عن الإجابة ما لم يظهر الطالب تفاعلاً حقيقياً. ومن المنتظر إتاحتها قريبًا لمشتركي ChatGPT Edu المخصص للمدارس التي تعتمد تراخيص جماعية. ويُعد إطلاق هذه الميزة استجابةً للتحديات التي ظهرت مع استخدام الطلاب لـ ChatGPT، إذ كشفت دراسة نُشرت في يونيو أن الاعتماد الكامل عليه قد يضعف النشاط الدماغي مقارنة باستخدام أدوات مثل Google أو الكتابة الذاتية، ما دفع OpenAI إلى التفكير بأدوات تشجع على الفهم العميق بدلاً من نسخ الأجوبة. ورغم الترحيب بهذه المبادرة التعليمية، أقرّت OpenAI بوجود بعض التحديات، أبرزها إمكانية تجاوز "وضع الدراسة" بسهولة بالرجوع إلى الوضع العادي، وغياب أدوات الرقابة التي تتيح للآباء أو المعلمين فرض استخدامه. مع ذلك، ألمحت نائبة رئيس OpenAI لشؤون التعليم، ليا بيلسكي، إلى نية الشركة تطوير أدوات إشراف مستقبلية لضمان فاعلية أكبر. وتؤكد OpenAI أن هذه المبادرة ليست سوى بداية التزام طويل الأمد لتقديم الذكاء الاصطناعي كأداة تعليمية تفاعلية، تركز على تنمية الفهم والتفكير المستقل لدى الطلاب، في خطوة نحو مستقبل تعليمي أكثر توازناً بين التقنية والتعلم الذاتي.


أخبارنا
منذ يوم واحد
- أخبارنا
NotebookLM من غوغل يتفوّق على شات جي بي تي في دعم العمل الجماعي والبحث التعاوني
في وقت قياسي، أصبح برنامج "NotebookLM" من غوغل منافسًا قويًا في عالم أدوات الذكاء الاصطناعي، حيث تفوّق على "شات جي بي تي" في عدد من الميزات التي جعلته الخيار المفضل للكثير من المستخدمين، خاصةً في مجالات البحث، إدارة الملفات، والتعاون الجماعي. وبخلاف "شات جي بي تي" الذي يعتمد على بيانات تدريب عامة قد تؤدي إلى إنتاج معلومات غير دقيقة، فإن "NotebookLM" يستند إلى ملفات المستخدم نفسها، ما يمنحه موثوقية عالية في استخراج الملخصات، وإنشاء خرائط ذهنية دقيقة، والرد على الأسئلة بناءً على مصادر موثقة وخاصة. ويدعم البرنامج الآن دفاتر ملاحظات عامة تتيح العمل التشاركي دون الحاجة إلى حسابات أو تسجيل دخول، ويمكن من خلالها إنشاء ملخصات ومقاطع صوتية بأكثر من 50 لغة، وتصديرها بجودة عالية حتى دون اتصال بالإنترنت. كما يمتلك القدرة على تحويل الملفات والمستندات الطويلة إلى خرائط ذهنية تفاعلية تسهّل فهم المواضيع المعقّدة. وما يميّز "NotebookLM" أكثر هو توفيره لمكتبة دفاتر ملاحظات جاهزة من إعداد خبراء ومنصات معروفة مثل The Atlantic وThe Economist، إلى جانب إطلاق تطبيق مخصص للهاتف المحمول يعمل بكفاءة دون اتصال، ويجري حاليًا اختبار أدوات فيديو تفاعلية لزيادة مرونة المشاركة. اللافت أيضًا أن كل هذه الإمكانيات تُقدَّم مجانًا بالكامل، بخلاف "شات جي بي تي" الذي يتطلب اشتراكًا مدفوعًا للحصول على الميزات المتقدمة، مما يجعل "NotebookLM" خيارًا مثاليًا للطلاب والفرق ذات الميزانية المحدودة، والباحثين الذين يحتاجون إلى أدوات موثوقة ومنسقة تسهّل إنتاج المعرفة وتبادلها بكفاءة.


مراكش الآن
منذ يوم واحد
- مراكش الآن
خبراء في الأمن السيبراني يحذرون من مخاطر مشاركة البيانات الحساسة مع روبوتات الدردشة
في خضم الانتشار الواسع لروبوتات الدردشة كـ'ChatGPT'، حذر خبراء في الأمن السيبراني، من من مخاطر مشاركة البيانات الحساسة مع هذه الروبوتات لاحتمالية تعرضها للاختراق أو الاحتيال، لاسيما مع تسجيل تسريبات سابقة طالت أكثر من 100 ألف حساب وفق ما أوردته مواقع متخصصة في الأمن الرقمي. وركز الخبراء على خمس معلومات يجب عدم مشاركتها: مثل البيانات الشخصية (كالإسم والعنوان)، والمعلومات البنكية، كلمات المرور، والأسرار العاطفية، والملكية الفكرية مثل أفكار المشاريع أو أكواد البرمجة. وأوضحوا أن بعض روبوتات الدردشة قد تحتفظ بالمحادثات لأغراض تدريبية رغم حذفها من خانة نتائج البحث، داعين المستخدمين إلى تفعيل وضع الخصوصية، ومسح المحادثات الحساسة. وفي هذا الصدد حذر أيضا سام ألتمان المدير التنفيذي لشركة 'OpenAI' خلال ظهوره الأخير في بودكاست 'This Past Weekend' من التحدث مع 'شات جي بي تي' كصديق مُقرب وكشف أسرار شخصية لغياب الخصوصية والحماية القانونية قائلا: 'يتحدث الناس عن الكثير من الأمور الشخصية مع شات جي بي بيتي، خاصة فئة الشباب، إذ يوظفونه كمعالج نفسي ومدربا للحياة ويسألونه ماذا يجب أن أفعل' وأضاف ألتمان أن المحادثات باستخدام أداة الذكاء الاصطناعي، على عكس المحادثات مع المعالج النفسي أو الطبيب أو المحامي، لا تتمتع بسرية قانونية، موضحا أن الضمانات القانونية نفسها لا تحمي المحادثات الشخصية في البيئة المهنية ولا تنطبق على الذكاء الاصطناعي. وأن 'OpenAI' ستكون ملزمة بقوة القانون الإفصاح عن المحادثات في حال طلب منها ذلك. وكانت شركة شركة OpenAI قد طعنت في أمر قضائي بخصوص قضية حقوق نشر رفعتها صحيفة نيويورك تايمز، يُلزمها بالحفاظ على بيانات مخرجات ChatGPT لأجل غير مسمى، بحجة أن الأمر يتعارض مع التزاماتها المتعلقة بالخصوصية تجاه المستخدمين. ويأتي هذا التحذير في وقت شهد الاعتماد على الذكاء الاصطناعي ارتفاعا هائلا خلال السنوات الماضية، مع تزايد دمج الشركات والأفراد للأدوات المدعومة به في حياتهم اليومية. إذ سجلت سنة 2024 نحو 314 مليون مستخدم، مع احتمال وصول العدد إلى نحو 729 مليونا بحلول سنة 2030