تحذير عاجل من "OpenAI"... ما القصة؟
أصدرت شركة "OpenAI"، المطورة لتطبيق "ChatGPT"، تحذيراً بشأن احتمالية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة.
وأوضحت الشركة في منشور حديث على مدونتها الرسمية أن التقدم السريع في قدرات الذكاء الاصطناعي في مجال علم الأحياء قد يؤدي إلى إنتاج معلومات ضارة قد تُستغل من قبل "جهات ماهرة" لتطوير أسلحة بيولوجية. وأضافت أن الوصول الفعلي إلى المختبرات والمواد الحساسة لا يزال يشكل حاجزاً، لكنه ليس حاجزاً مطلقاً يمكن استبعاده.
وفي مشهد أثار جدلاً واسعاً، ظهر أحد طلاب الدراسات العليا في جامعة كاليفورنيا بلوس أنجلوس (UCLA) خلال حفل تخرجه وهو يعرض بفخر على حاسوبه المحمول واجهة برنامج ChatGPT، الأداة التي اتُهم سابقاً باستخدامها لإنهاء مشاريعه الدراسية.
وشدّدت "OpenAI" على أنها لا تعتبر من المقبول انتظار وقوع كارثة بيولوجية لتقرر متى تُطبق الضوابط الوقائية اللازمة، مشيرةّ إلى أنها تعمل بالفعل مع خبراء في الأمن البيولوجي والإرهاب البيولوجي لضمان سلامة استخدام "شات جي بي تي".
ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة.
وشبّه هايديكه مستوى الأمان المطلوب بـ"الإتقان التام"، قائلاً: "هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة".
انضم إلى قناتنا الإخبارية على واتساب
تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.
انضم الآن
شاركنا رأيك في التعليقات
تابعونا على وسائل التواصل Twitter Youtube WhatsApp Google News
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الديار
منذ 4 ساعات
- الديار
هل يدفع الكوكب ثمن أسئلتنا لـ"شات جي بي تي"؟
اشترك مجانا بقناة الديار على يوتيوب باتت أدوات الذكاء الاصطناعي جزءا من حياتنا اليومية، سواء في مساعدتنا في كتابة المقالات والرسائل الإلكترونية أو شرح النظريات العلمية المعقدة. لكن ما يغيب عنا غالبا هو الثمن غير المرئي لهذه "المعجزات التقنية"، ثمن تدفعه الأرض من طاقتها ومناخها ومواردها. ففي كل مرة نوجه فيها سؤالا إلى روبوت ذكاء اصطناعي مثل "شات جي بي تي"، تبدأ عملية معقدة خلف الكواليس داخل مراكز بيانات ضخمة، أحيانا بحجم ملعب كرة قدم، تعتمد في تشغيلها على محطات تعمل بالفحم أو الغاز، تُحوّل كلماتنا إلى "مُعرِّفات رمزية"، وهي أرقام تستخدم لمعالجة الطلب، ثم تُمرر إلى آلاف أجهزة الحواسيب الفائقة الأداء، وفق تقرير لشبكة "سي إن إن" الأميركية. وباستخدام تلك الحواسيب الفائقة، تُوّلد الإجابة من خلال عمليات حسابية كثيفة تستهلك طاقة تعادل 10 أضعاف ما يتطلبه بحث بسيط على غوغل، بحسب تقدير لمعهد أبحاث الطاقة الكهربائية الأميركي. كيف تتأثر البيئة؟ ولمعرفة أثر ذلك على البيئة، أجرى باحثون في ألمانيا اختبارا شمل 14 نظام ذكاء اصطناعي يعمل بنماذج لغوية ضخمة "إل إل إم إس" (LLMs)، وطرحوا عليها أسئلة متنوعة. وكانت النتيجة واضحة: كلما زاد تعقيد الإجابة، زادت انبعاثات ثاني أكسيد الكربون. فالإجابات التفصيلية أو ذات الطابع التحليلي كانت مسؤولة عن انبعاثات تصل إلى 6 أضعاف ما تولّده الإجابات المختصرة. أما النماذج "الأذكى" التي تتمتع بقدرة استنتاجية أعلى كتلك المصممة للإجابة على أسئلة قانونية معقدة، فقد ولّدت انبعاثات تزيد بمقدار 50 ضعفا عن نظيراتها الأبسط. ويشرح ماكسيميليان دونر طالب الدكتوراه في جامعة ميونخ للعلوم التطبيقية والمؤلف الرئيسي للدراسة، التي نُشرت في مجلة "آفاق الاتصالات"، هذا التفاوت قائلا "كلما زادت دقة النموذج وقدرته على التفكير، زاد استهلاكه للطاقة". ويضيف أن هذه النماذج المتقدمة تحتوي على عشرات المليارات مما تسمى "المعلمات" الإضافية، وهي التحيزات التي تساعد النظام على تفسير الرموز ومعالجتها، الأمر الذي يجعلها أكثر قدرة على التحليل، ولكن أيضا أكثر استهلاكا للطاقة. لكن ما يجعل تقدير الأثر البيئي الفعلي للذكاء الاصطناعي أمرا صعبا هو اختلاف العوامل المؤثرة، مثل نوع الجهاز المستخدم والموقع الجغرافي ومصدر الطاقة في المنطقة. لذلك، فضل الباحثون استخدام نطاقات تقديرية لانبعاثات الكربون بدلا من أرقام دقيقة، بحسب "سي إن إن". وتضيف الشبكة الأميركية أن غياب الشفافية يزيد صعوبة تقدير الأثر البيئي الحقيقي، شارحة أن معظم شركات الذكاء الاصطناعي الكبرى لا تشارك بيانات دقيقة حول استهلاك الطاقة أو حجم خوادمها أو تقنيات التحسين التي تستخدمها، مما يُصعِّب على الباحثين والمستهلكين على حد سواء فهم التكلفة البيئية الحقيقية. ويؤكد شاولي رين أستاذ الهندسة الكهربائية والحاسوبية بجامعة كاليفورنيا أن كل نموذج ذكاء اصطناعي يستهلك الموارد بطريقة مختلفة، ويجب تقييمه حسب نوع المهمة التي يُستخدم فيها. لكن في وقت تندفع فيه الشركات لإدخال أدوات الذكاء الاصطناعي في كل تطبيق وموقع ومنصة، قد لا يكون للمستخدمين الكلمة الفصل في مدى أو توقيت استخدام هذه التقنيات، وفق "سي إن إن". كيف نخفف الأثر؟ ورغم أن خيارات المستخدمين قد تصبح محدودة مع سعي الشركات لربط الذكاء الاصطناعي بكل التطبيقات، فإن الباحثين يقترحون خيارات لتقليل الأثر البيئي من استخدام نماذج الذكاء الاصطناعي. ويقول رين إن على المستخدمين "أن يختاروا بحكمة"، ويوافقه في ذلك دونر الذي يقول إن على المستخدم البحث عن النموذج الذي يلائم حاجاته بدقة دون استهلاك موارد ضخمة بلا سبب. ويشرح دونر "لنفترض أنك مهندس برمجيات يتعامل مع مشكلات معقدة يوميًا، عندها قد يكون استخدام نموذج ذكاء اصطناعي متقدّم خيارًا منطقيا. أما إن كنت طالبا في المرحلة الثانوية تبحث عن مساعدة في حل واجب منزلي بسيط، فإن اللجوء إلى هذه النماذج القوية يُشبه استخدام آلة حاسبة نووية لإجراء عملية جمع بسيطة". ويضيف، في مقابلته مع "سي إن إن": لو كان الناس أكثر وعيا بمتوسط التكلفة البيئية لتوليد استجابة لربما بدؤوا يفكرون: هل من الضروري أن أحول نفسي إلى دمية متحركة لمجرد أنني أشعر بالملل؟

القناة الثالثة والعشرون
منذ 7 ساعات
- القناة الثالثة والعشرون
تطبيق روسي.. بوتين ينوي الإطاحة بواتساب وتليغرام
انضم الى اخبار القناة الثالثة والعشرون عبر خدمة واتساب... انضم الى اخبار القناة الثالثة والعشرون عبر خدمة واتساب... وقع الرئيس الروسي فلاديمير بوتين، الثلاثاء، قانوناً يسمح بتطوير تطبيق مراسلة مدعوم من الدولة ومرتبط بالخدمات الحكومية في وقت تسعى فيه موسكو إلى تقليل اعتمادها على منصات مثل واتساب وتليغرام. يأتي ذلك فيما سعت روسيا منذ فترة إلى ترسيخ ما تسميه "السيادة الرقمية" من خلال تعزيز خدمات محلية، وفق رويترز. وأصبح سعيها لاستبدال المنصات التقنية الأجنبية أكثر إلحاحاً مع انسحاب بعض الشركات الغربية من السوق الروسية عقب العملية العسكرية في أوكرانيا والتي بدأت في فبراير 2022. كما يقول نوب روس إن التطبيق الحكومي سيحتوي على خصائص لا تتوفر في منصات مثل تليغرام وواتساب. فيما يرى منتقدون أن سيطرة روسيا عليه "تشكل خطراً على الخصوصية والحريات الشخصية". يذكر أن ميخائيل كليماريف، مدير جمعية حماية الإنترنت، وهي منظمة روسية تدافع عن الحقوق الرقمية، كان قال بوقت سابق من الشهر الحالي إنه يتوقع أن تعمل روسيا على خفض سرعة واتساب وتليغرام لتشجيع الناس على التحول إلى التطبيق الجديد. انضم إلى قناتنا الإخبارية على واتساب تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة. انضم الآن شاركنا رأيك في التعليقات تابعونا على وسائل التواصل Twitter Youtube WhatsApp Google News

القناة الثالثة والعشرون
منذ 8 ساعات
- القناة الثالثة والعشرون
تحذير عاجل من "OpenAI"... ما القصة؟
أصدرت شركة "OpenAI"، المطورة لتطبيق "ChatGPT"، تحذيراً بشأن احتمالية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة. وأوضحت الشركة في منشور حديث على مدونتها الرسمية أن التقدم السريع في قدرات الذكاء الاصطناعي في مجال علم الأحياء قد يؤدي إلى إنتاج معلومات ضارة قد تُستغل من قبل "جهات ماهرة" لتطوير أسلحة بيولوجية. وأضافت أن الوصول الفعلي إلى المختبرات والمواد الحساسة لا يزال يشكل حاجزاً، لكنه ليس حاجزاً مطلقاً يمكن استبعاده. وفي مشهد أثار جدلاً واسعاً، ظهر أحد طلاب الدراسات العليا في جامعة كاليفورنيا بلوس أنجلوس (UCLA) خلال حفل تخرجه وهو يعرض بفخر على حاسوبه المحمول واجهة برنامج ChatGPT، الأداة التي اتُهم سابقاً باستخدامها لإنهاء مشاريعه الدراسية. وشدّدت "OpenAI" على أنها لا تعتبر من المقبول انتظار وقوع كارثة بيولوجية لتقرر متى تُطبق الضوابط الوقائية اللازمة، مشيرةّ إلى أنها تعمل بالفعل مع خبراء في الأمن البيولوجي والإرهاب البيولوجي لضمان سلامة استخدام "شات جي بي تي". ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة. وشبّه هايديكه مستوى الأمان المطلوب بـ"الإتقان التام"، قائلاً: "هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة". انضم إلى قناتنا الإخبارية على واتساب تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة. انضم الآن شاركنا رأيك في التعليقات تابعونا على وسائل التواصل Twitter Youtube WhatsApp Google News