
ميزة جديدة في "شات جي بي تي" تجعله قنبلة موقوتة
ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية.
ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business".
ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا.
وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".
وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها".
تدابير وقائيةقالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة.
وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال.
وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام.
وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية.
وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة.
وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية".
وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".
تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي.
وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام.
وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ليبانون 24
منذ 16 ساعات
- ليبانون 24
الذكاء الاصطناعي يخترق سوق العمل.. وظائف ستزول نهائيًا!
أثار الرئيس التنفيذي لشركة OpenAI، سام ألتمان ، موجة جديدة من الجدل خلال مشاركته في مؤتمر مصرفي في واشنطن ، حين أطلق تحذيراً صريحاً بشأن مستقبل الوظائف في عصر الذكاء الاصطناعي التوليدي، مؤكدًا أن فئات وظيفية كاملة مهددة بالاختفاء، وعلى رأسها وظائف دعم العملاء. وقال ألتمان إن وكلاء الذكاء الاصطناعي باتوا قادرين على أداء مهام موظفي خدمة العملاء بكفاءة أعلى، دون الحاجة إلى تحويلات أو إجراءات معقدة، مشيراً إلى أن هذه "الآلات الذكية" لا تتعب، لا تخطئ، ولا تتأثر بالمشاعر، ما يجعل أداءها فائق السرعة والدقة. ورغم إقراره بأن التقنية لا تزال بحاجة إلى تحسينات، إلا أنه أشار إلى أن القدرات الحالية، مثل تلك الموجودة في ChatGPT، باتت تتفوق أحيانًا على البشر، حتى في مجالات معقدة مثل الطب. لكنه استدرك قائلاً: "أنا شخصياً لا أريد أن أُسلم مصيري الطبي لروبوت دون وجود طبيب بشري مشارك". وأبدى ألتمان قلقه من الاستخدامات الخبيثة المحتملة للذكاء الاصطناعي، خصوصاً في ما يتعلق بالأمن المالي. فبحسب رأيه، يمكن لدول معادية استخدام الذكاء الاصطناعي لمهاجمة النظام المالي الأميركي، كما أن قدرة هذه التقنيات على استنساخ الأصوات بدقة، تفتح الباب أمام عمليات احتيال وانتحال هوية واسعة النطاق. وفيما يرى ألتمان أن الذكاء الاصطناعي سيحوّل جذريًا طبيعة سوق العمل، يؤكد أن العالم لم يشهد بعد التأثير الكامل لهذه التكنولوجيا. ويبدو أنه ليس الوحيد الذي يُطلق هذا التحذير، فعدد من كبار المديرين التنفيذيين – من أمازون وفورد وسبوتيفاي إلى أنثروبيك وموديرنا – يشاركونه الرؤية القاتمة، معتبرين أن نصف الوظائف الإدارية قد تختفي خلال خمس سنوات. لكن المفارقة أن بعض الشركات التي سارعت إلى استبدال موظفيها بروبوتات، مثل "كلارنا"، عادت مؤخراً إلى توظيف البشر بعد انخفاض جودة الخدمات. ما يُشير إلى أن الذكاء الاصطناعي، رغم تطوره، لم يبلغ بعد مستوى يُمكّنه من التفوق المطلق على العنصر البشري ، على الأقل في جميع المجالات.

القناة الثالثة والعشرون
منذ 17 ساعات
- القناة الثالثة والعشرون
وداعًا للخصوصية.. مراسلاتك مع ChatGPT ليست سرية
يلجأ المزيد من الناس إلى ChatGPT لطلب المعالجة النفسية، ولكن ذلك قد لا يكون آمنًا. فقد أفاد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الناس يستخدمون ChatGPT بشكل متزايد للعلاج النفسي والاستشارات الشخصية. وعلى عكس المعالجين النفسيين الحقيقيين، أكد ألتمان أن هذه المحادثات قد لا تبقى سرية في حال رفع دعوى قضائية ضد OpenAI. وقال سام ألتمان، إن هذه المحادثات التي تشبه جلسات العلاج النفسي لا تتمتع بنفس الحماية القانونية التي تتمتع بها المحادثات مع معالج نفسي حقيقي. وصرح: "أنك إذا تحدثت إلى ChatGPT حول أكثر أمورك حساسية، ثم تم رفع دعوى قضائية أو ما شابه، فقد تطلب المحكمة بتقديم محادثات الدردشة، و هذا أمر مريع". وأضاف: "حاليًا، إذا تحدثت إلى معالج نفسي أو محام أو طبيب حول هذه المشاكل، فهناك ما يشبه امتيازًا قانونيًا وسرية بين الطبيب والمريض". وأكد على ضرورة أن يكون هناك نفس مفهوم الخصوصية لمحادثاتك مع الذكاء الاصطناعي. وكشف عن أن المزيد من المستخدمين، وخاصة الشباب، يستخدمون ChatGPT كمعالجين نفسيين، أو مدربين حياتيين، أو يستشيرونه للحصول على نصائح في العلاقات. يشار إلى أنه على عكس محادثات خدمات المراسلة المشفرة مثل واتساب، من الممكن لـ OpenAI قراءة المحادثات بين المستخدمين وChatGPT . ويشمل ذلك استخدام الموظفين للمحادثات لضبط نموذج الذكاء الاصطناعي ورصد سوء الاستخدام. ووفقًا لسياسات الاحتفاظ بالبيانات الخاصة بشركة OpenAI، يتم حذف الدردشات على إصدارات ChatGPT نهائيًا خلال 30 يومًا ما لم تلزم الشركة بالاحتفاظ بها لأسباب قانونية أو أمنية. انضم إلى قناتنا الإخبارية على واتساب تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة. انضم الآن شاركنا رأيك في التعليقات تابعونا على وسائل التواصل Twitter Youtube WhatsApp Google News


صدى البلد
منذ يوم واحد
- صدى البلد
تهديدات الرئيس التنفيذي لشركة OpenAI من ChatGPT.. فما القصة؟
منذ أن سيطر الذكاء الاصطناعي على الإنترنت، لجأ ملايين الأشخاص، بمن فيهم الأطفال ، إلى روبوتات الدردشة الذكية مثل ChatGPT للعلاج والدعم النفسي. والآن، حذّر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أن قطاع التكنولوجيا لم يكتشف بعد كيفية الحفاظ على سرية بيانات المستخدمين في المحادثات الحساسة. كارثة ChatGPT في حلقة حديثة من برنامج This Past Weekend، وهو بودكاست يقدمه ثيو فون على يوتيوب، عندما سُئل ألتمان عن كيفية عمل الذكاء الاصطناعي مع النظام القانوني الحالي، قال إنه نظرًا لعدم وجود إطار قانوني أو سياسي للتكنولوجيا حاليًا، فلا ينبغي للمستخدمين توقع أي سرية قانونية لمحادثاتهم مع ChatGPT. يتحدث الناس مع ChatGPT عن أكثر الأمور الشخصية في حياتهم. يستخدمه الناس - الشباب تحديدًا - كمعالجين نفسيين، أو مدربين حياتيين؛ يواجهون مشاكل في علاقاتهم ويتساءلون: ماذا أفعل؟ والآن، إذا تحدثتَ مع معالج نفسي أو محامٍ أو طبيب عن هذه المشاكل، فهناك امتياز قانوني لذلك. هناك سرية بين الطبيب والمريض، وسرية قانونية، وما إلى ذلك. ولم نكتشف ذلك بعد عند التحدث مع ChatGPT. بعد فضيحة التقبيل عبر الكاميرا، استعانت شركة Astronomer بزوجتها السابقة غوينيث بالترو، مغني فرقة Coldplay كريس مارتن، كمتحدثة باسمها، وتفاعل المعجبون: "هذه الخطوة تستحق أن تكون في قاعة المشاهير" وأضاف ألتمان أنه ينبغي معالجة مفهوم السرية والخصوصية في المحادثات مع الذكاء الاصطناعي بشكل عاجل. وأضاف: "إذا تحدثتَ إلى ChatGPT بشأن أكثر أمورك حساسية، ثم رُفعت دعوى قضائية أو ما شابه، فقد نُلزم بتقديمها، وأعتقد أن هذا أمرٌ مُريع". عرض احتفالي على الجانب الآخر هذا يعني أن محادثاتك مع ChatGPT، سواءً كانت تتعلق بالصحة النفسية أو النصائح العاطفية أو الرفقة، لن تكون سرية، ويمكن إحالتها إلى المحكمة أو مشاركتها مع الآخرين في حال رفع دعوى قضائية. بخلاف التطبيقات المشفرة من طرف إلى طرف مثل WhatsApp وSignal، والتي تمنع أي طرف ثالث من قراءة محادثاتك أو الوصول إليها، يستطيع OpenAI قراءة جميع المحادثات بين المستخدمين وChatGPT. ويمكن لموظفي الشركة استخدام هذه البيانات لتحسين نموذج الذكاء الاصطناعي ومراقبة محادثاتك لتجنب إساءة الاستخدام. بينما تُصرّح OpenAI بحذف المحادثات على نسخة ChatGPT المجانية خلال 30 يومًا، إلا أنها تُخزّنها أحيانًا لأسباب قانونية وأمنية. ومما يزيد من مخاوف الخصوصية، أن OpenAI حاليًا في خضمّ دعوى قضائية مع صحيفة نيويورك تايمز، تُلزم الشركة بحفظ محادثات المستخدمين مع ملايين مستخدمي ChatGPT، باستثناء عملاء المؤسسات.