
ميزة جديدة في "شات جي بي تي" تجعله قنبلة موقوتة
ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية.
ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business".
ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا.
وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".
وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها".
تدابير وقائيةقالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة.
وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال.
وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام.
وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية.
وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة.
وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية".
وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".
تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي.
وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام.
وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الجمهورية
منذ 5 ساعات
- الجمهورية
كيف يستدلّ الذكاء الاصطناعي؟
في شهر أيلول، كشفت شركة OpenAI عن نسخة جديدة من ChatGPT مصمّمة للاستدلال عبر المهام التي تنطوي على الرياضيات والعلوم وبرمجة الحاسوب. بخلاف النسخ السابقة من روبوت الدردشة، فإنّ هذه التقنية الجديدة يمكنها أن تقضي وقتاً في «التفكير» في المشكلات المعقّدة قبل أن تستقر على إجابة. وسرعان ما أعلنت الشركة أنّ تقنيتها الجديدة في الاستدلال قد تفوّقت على الأنظمة الرائدة في المجال في سلسلة من الاختبارات التي تتبع تقدّم الذكاء الاصطناعي. والآن، تقدّم شركات أخرى مثل Google وAnthropic وDeepSeek الصينية تقنيات مماثلة. لكن هل يمكن للذكاء الاصطناعي أن يستدل فعلاً مثل الإنسان؟ ماذا يعني أن «يُفكِّر» الحاسوب؟ وهل تقترب هذه الأنظمة حقاً من الذكاء الحقيقي؟ ماذا يعني عندما يستدلّ نظام ذكاء اصطناعي؟ الاستدلال يعني ببساطة أنّ روبوت الدردشة يقضي وقتاً إضافياً في العمل على حل المشكلة. وأوضح دان كلاين، أستاذ علوم الحاسوب في جامعة كاليفورنيا، بيركلي، والرئيس التنفيذي للتكنولوجيا في شركة الذكاء الاصطناعي الناشئة Scaled Cognition، أنّ «الاستدلال هو عندما يقوم النظام بعمل إضافي بعد طرح السؤال». قد يُقسِّم المشكلة إلى خطوات فردية أو يحاول حلّها عبر التجربة والخطأ. كان الإصدار الأصلي من ChatGPT يُجيب عن الأسئلة فوراً. أمّا أنظمة الاستدلال الجديدة، فيمكنها أن تعمل على المشكلة لعدة ثوانٍ، أو حتى دقائق، قبل تقديم الإجابة. هل يمكنك أن تكون أكثر تحديداً؟ في بعض الحالات، يصقل نظام الاستدلال نهجه تجاه السؤال، محاولاً مراراً تحسين الطريقة التي اختارها. وأحياناً، قد يُجرِّب عدة طرق مختلفة لمعالجة المشكلة قبل أن يستقر على إحداها. أو قد يعود ويتحقق من عمل أنجزه قبل بضع ثوانٍ، فقط ليرى ما إذا كان صحيحاً. ببساطة، يحاول النظام كل ما في وسعه للإجابة عن سؤالك. ويشبه هذا نوعاً ما الطالب في المدرسة الابتدائية الذي يكافح لإيجاد طريقة لحل مسألة رياضية ويخربش عدة خيارات مختلفة على ورقة. مبدئياً، يمكنه أن يستدلّ حول أي شيء. لكنّ الاستدلال يكون أكثر فاعلية عند طرح أسئلة تتعلّق بالرياضيات أو العلوم أو برمجة الحاسوب. كيف يختلف روبوت الدردشة القائم على الاستدلال عن الروبوتات السابقة؟ كان بإمكانك أن تطلب من روبوتات الدردشة السابقة أن توضّح كيف توصّلت إلى إجابة معيّنة أو أن تتحقق من عملها الخاص. وبما أنّ النسخة الأصلية من ChatGPT تعلّمت من نصوص الإنترنت، حيث يُظهر الناس كيف توصّلوا إلى إجابات أو تحققوا من حلولهم، فقد كانت قادرة على نوع من هذا التفكير الذاتي أيضاً. لكنّ نظام الاستدلال يذهب أبعد من ذلك. يمكنه أن ينجز الأمور من دون أن يُطلب منه. كما يمكنه القيام بها بطرق أوسع وأكثر تعقيداً. وتسمّيه الشركات نظام استدلال لأنّه يبدو وكأنّه يعمل مثل شخص يُفكِّر في مشكلة صعبة. لماذا يعدّ استدلال الذكاء الاصطناعي مهمّاً الآن؟ تعتقد شركات مثل OpenAI أنّها أفضل طريقة لتحسين روبوتات الدردشة الخاصة بها. ولعدة سنوات، اعتمدت هذه الشركات على مفهوم بسيط: كلما ضخّت المزيد من بيانات الإنترنت في روبوتات الدردشة، كان أداء هذه الأنظمة أفضل. لكنّ في عام 2024، استهلكت تقريباً كل النصوص الموجودة على الإنترنت. وهذا يعني أنّها احتاجت إلى طريقة جديدة لتحسين روبوتات الدردشة. فبدأت ببناء أنظمة استدلال. كيف تبني نظام استدلال؟ في العام الماضي، بدأت شركات مثل OpenAI بالاعتماد بشكل كبير على تقنية تُعرف باسم «التعلم بالتعزيز». ومن خلال هذه العملية، التي يمكن أن تمتد لأشهر، يمكن لنظام الذكاء الاصطناعي أن يتعلّم السلوك الصحيح من خلال التجربة والخطأ المكثفة. فمثلاً، عبر العمل على آلاف المسائل الرياضية، يمكنه أن يتعلّم أي أساليب تؤدّي إلى الإجابة الصحيحة وأيّها لا. وصمّم الباحثون آليات تغذية مراجعة معقّدة، تُظهر للنظام متى قام بعمل صحيح ومتى أخطأ. ويصف جيري تورك، الباحث في OpenAI الأمر بأنّه «يشبه تدريب كلب بعض الشيء. إذا قام النظام بعمل جيد، تعطيه قطعة بسكويت. وإذا لم يقم بذلك، تقول له: كلب سيّئ». هل يعمل التعلّم بالتعزيز؟ يعمل بشكل جيد في مجالات معيّنة، مثل الرياضيات والعلوم وبرمجة الحاسوب. وهي مجالات يمكن فيها تحديد السلوك الجيد والسيّئ بوضوح. فالمسائل الرياضية لها أجوبة محدّدة. أمّا في مجالات مثل الكتابة الإبداعية والفلسفة والأخلاق، فلا يعمل التعلم بالتعزيز بالكفاءة عينها، إذ يصعب التمييز فيها بين الجيّد والسيّئ. ويعتقد الباحثون أنّ العملية يمكن أن تحسّن أداء نظام الذكاء الاصطناعي عموماً، حتى عندما يجيب عن أسئلة خارج نطاق الرياضيات والعلوم. وكشف جاريد كابلان، كبير العلماء في شركة Anthropic: «أنّه يتعلّم تدريجاً أنماط الاستدلال التي تقوده في الاتجاه الصحيح وتلك التي لا تفعل». ينقسم خبراء الذكاء الاصطناعي حول هذا السؤال. فهذه الأساليب لا تزال جديدة نسبياً، ولا يزال الباحثون يحاولون فهم حدودها. وفي مجال الذكاء الاصطناعي، غالباً ما تتطوّر الأساليب الجديدة بسرعة في البداية، ثم تتباطأ لاحقاً.


صدى البلد
منذ 12 ساعات
- صدى البلد
سام ألتمان يحذر: لا تتركوا قرارات حياتكم لـ ChatGPT هذا الاستخدام مقلق
أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن قلقه المتزايد إزاء الطريقة التي بات بها الشباب يعتمدون عاطفيا على ChatGPT بشكل مفرط. جاء هذا التحذير خلال حديثه في مؤتمر لمجلس الاحتياطي الفيدرالي هذا الأسبوع، حيث أشار إلى أن العديد من المستخدمين، لا سيما من الجيل الشاب، يلجأون إلى روبوت الدردشة الذكي ChatGPT لاتخاذ قرارات حياتية كبيرة، متجاوزين الاستخدام العرضي أو العادي للأداة. وقال ألتمان: 'الناس يبالغون في الاعتماد على ChatGPT' هناك شباب يقولون: 'لا أستطيع اتخاذ أي قرار في حياتي من دون إخبار ChatGPT بكل ما يحدث معي، هو يعرفني ويعرف أصدقائي، وسأتبع كل ما يقوله"، هذا أمر يزعجني بشدة'. ووصف هذه الظاهرة بأنها 'شائعة جدا' بين المستخدمين الشباب، محذرا من أن الإفراط في الاعتماد على الذكاء الاصطناعي بهذا الشكل قد يكون ضارا نفسيا وسلوكيا. وتأتي تصريحات سام ألتمان وسط نقاش أوسع حول حدود الثقة التي يمكن أن يضعها البشر في أنظمة الذكاء الاصطناعي. فيما أشار جيفري هينتون، أحد أبرز العلماء في هذا المجال والملقب بـ"عراب الذكاء الاصطناعي"، في مقابلة مع قناة CBS مؤخرا إلى أنه يستخدم نموذج GPT-4 بانتظام، وغالبا ما يصدق إجاباته حتى عندما يعلم أنها قد تكون خاطئة. اعترف هينتون، الذي طالما حذر من مخاطر الذكاء الاصطناعي الفائق الذكاء، بما في ذلك خطر التلاعب ونشر المعلومات المضللة، قائلا: 'ما زلت أجد نفسي أصدق ما يقوله أكثر مما ينبغي'. ورغم أن أدوات الذكاء الاصطناعي مثل ChatGPT تساعد الملايين في مهام الكتابة والتلخيص والبرمجة، إلا أنها ليست معصومة من الخطأ. ففي أحد اختبارات هينتون، فشل GPT-4 في حل لغز منطقي بسيط، ومع ذلك، أكد هينتون أن سهولة استخدامه وسرعته تجعله يعود إليه باستمرار. ولم تقتصر تحذيرات ألتمان على الجانب العاطفي والنفسي فقط، بل شملت كذلك الاستخدامات الخبيثة للذكاء الاصطناعي، خصوصا في القطاع المالي. وقال: "الذكاء الاصطناعي يقدم للناس مساعدات مذهلة، لكن ليست كلها بنوايا حسنة"، ودعا ألتمان البنوك والمؤسسات المالية إلى أن تكون 'أذكى من أذكى نموذج ذكاء اصطناعي'، لمواجهة تهديدات متزايدة مثل انتحال الصوت والفيديو المزيف العميق Deepfakes. وأضاف محذرا: 'أمر مرعب حقا أن هناك مؤسسات مالية ما زالت تعتمد على بصمة الصوت كوسيلة للتحقق، هذا أمر جنوني في ظل قدرات الذكاء الاصطناعي الحالية، التي تفوقت بالفعل على معظم أنظمة المصادقة التقليدية'. وأوضح أن تقنيات تقليد الصوت باتت متقدمة لدرجة أنها تستطيع تقليد الأشخاص بدقة شبه تامة، ما يجعل من التحقق الصوتي وسيلة غير موثوقة، كما توقع أن يكون الخطر القادم في مجال التزييف هو الفيديو، مما قد يهدد أنظمة التعرف على الوجه. واختتم سام ألتمان بقوله: 'أنا قلق للغاية من أننا نقترب من أزمة احتيال واسعة، حاليا التهديد في مكالمة صوتية، ولكن قرييا، سيكون في مكالمة فيديو يصعب تمييزها عن الواقع'.


صدى البلد
منذ 12 ساعات
- صدى البلد
أمازون تستحوذ على Bee الناشئة لتطوير سوار ذكي يعمل بالذكاء الاصطناعي
أعلنت شركة أمازون عن توصلها لاتفاق لشراء شركة Bee الناشئة، ومقرها سان فرانسيسكو، والمتخصصة في تطوير سوار ذكي مدعوم بالذكاء الاصطناعي يمكنه الاستماع إلى المحادثات وتفريغها تلقائيا. يتميز سوار أمازون، الذي يباع بسعر 50 دولارا، بقدرته على تحليل ما يسجله وتحويله إلى ملخصات أو قوائم مهام أو غيرها من المهام اليومية. وقد أكدت أمازون الصفقة يوم الثلاثاء الماضي، عقب منشور نشرته الرئيسة التنفيذية والمؤسسة المشاركة لشركة Bee، ماريا دي لورديس زولو، على حسابها في لينكدإن. ورغم الإعلان، لم تغلق الصفقة بعد، ورفضت أمازون الإفصاح عن تفاصيلها المالية. لكن متحدثا باسم الشركة أوضح أن أمازون ستعمل مع Bee على منح المستخدمين تحكما أكبر في الخصوصية، حيث أن الأجهزة مصممة لتفريغ الصوت تلقائيا، لكنها تتضمن خيار الكتم. وفي منشورها، قالت زولو: "تخيلنا عالما يكون فيه الذكاء الاصطناعي شخصيا بحق، حيث تفهم حياتك وتحسن بواسطة تقنية تتعلم معك". ولم تصدر زولو تعليقا فوريا على طلب استفسار إضافي. وتأتي هذه الصفقة في إطار عودة أمازون إلى سوق الأجهزة القابلة للارتداء، بعد أن كانت قد أوقفت في عام 2023 مشروع Halo، وهو خط إنتاج سابق لأساور صحية ذكية. كما تملك الشركة نظارات ذكية مزودة بمساعدها الصوتي أليكسا تحت علامة Echo. وتسير هذه الصفقة أيضا على خطى شركات تقنية أخرى دخلت عالم الأجهزة المدعومة بالذكاء الاصطناعي، مثل استحواذ OpenAI على شركة io التي أسسها المصمم الشهير جوني آيف – المصمم السابق في آبل – في صفقة بلغت قيمتها نحو 6.5 مليار دولار. وألمحت زولو في منشورها إلى أن فريق Bee سينضم إلى مجموعة الأجهزة بقيادة بانوس باناي، أحد كبار التنفيذيين في أمازون، عند إتمام الصفقة. وتجدر الإشارة إلى أن معظم جهود تطوير الذكاء الاصطناعي في أمازون تتركز داخل وحدة Amazon Web Services. جدير بالذكر أن شركة أمازون تعمل حاليا على تطوير برنامج ذكاء اصطناعي مخصص لتشغيل روبوتات بشرية humanoid robots، قد تستخدم مستقبلا في أداء مهام توصيل الطرود، وهو ما قد يؤدي إلى استبدال بعض وظائف عمال التوصيل.