
OpenAI تحذّر: الذكاء الاصطناعي قد يُستغل لصناعة أسلحة بيولوجية قاتلة
أطلقت شركة "OpenAI"، المطوّرة لتطبيق "ChatGPT"، تحذيراً من احتمالية استغلال نماذج الذكاء الاصطناعي في تصنيع أسلحة بيولوجية فتاكة، مشيرة إلى مخاوف متزايدة بشأن تسارع التقدّم التكنولوجي في علم الأحياء. وأكدت الشركة في منشور حديث على مدونتها أن توفر المعلومات الحيوية عبر أدوات الذكاء قد يسهم في تسهيل هذه المخاطر لدى جهات خبيثة.
وأوضحت الشركة أن النماذج الذكية قادرة بالفعل على توفير إجابات ومعلومات دقيقة في مجالات علمية متقدمة، قد تتيح لمستخدمين ذوي نوايا سيئة تصميم تهديدات بيولوجية واقعية. وأضافت أن الوصول الفعلي إلى المعامل والمواد لا يزال يشكل حاجزاً، لكنه ليس كافياً وحده لمنع الاستغلال المحتمل.
رئيس قسم الأمان في OpenAI، يوهانس هايديكه، شدد على أن الشركة لا تنتظر وقوع كارثة لاتخاذ الإجراءات، موضحاً أن العمل جارٍ مع خبراء في الأمن البيولوجي لضمان أن التطور في نماذج الذكاء لا يتحول إلى تهديد. وقال: "هذه ليست مسألة نكتفي فيها بنسبة نجاح 99%، بل تتطلب دقة شبه مطلقة".
وأكد هايديكه أن النماذج المستقبلية من "شات جي بي تي" لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، لكنها قد تتيح لغير الخبراء محاكاة سيناريوهات بيولوجية خطرة. وشبّه مستوى التحدي القائم بضرورة الوصول إلى "إتقان تام" لتفادي أي ثغرات كارثية.
وتأتي هذه التصريحات في وقت تتصاعد فيه المخاوف العالمية من الاستخدام غير الأخلاقي للذكاء الاصطناعي، خاصة في مجالات حساسة مثل الطب الحيوي والأمن السيبراني. وتدعو OpenAI إلى تطوير أطر تنظيمية أكثر صرامة، والعمل الجماعي بين الحكومات والشركات التقنية لتفادي الانزلاق نحو كوارث محتملة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ يوم واحد
- أخبارنا
OpenAI تحذّر: الذكاء الاصطناعي قد يُستغل لصناعة أسلحة بيولوجية قاتلة
أطلقت شركة "OpenAI"، المطوّرة لتطبيق "ChatGPT"، تحذيراً من احتمالية استغلال نماذج الذكاء الاصطناعي في تصنيع أسلحة بيولوجية فتاكة، مشيرة إلى مخاوف متزايدة بشأن تسارع التقدّم التكنولوجي في علم الأحياء. وأكدت الشركة في منشور حديث على مدونتها أن توفر المعلومات الحيوية عبر أدوات الذكاء قد يسهم في تسهيل هذه المخاطر لدى جهات خبيثة. وأوضحت الشركة أن النماذج الذكية قادرة بالفعل على توفير إجابات ومعلومات دقيقة في مجالات علمية متقدمة، قد تتيح لمستخدمين ذوي نوايا سيئة تصميم تهديدات بيولوجية واقعية. وأضافت أن الوصول الفعلي إلى المعامل والمواد لا يزال يشكل حاجزاً، لكنه ليس كافياً وحده لمنع الاستغلال المحتمل. رئيس قسم الأمان في OpenAI، يوهانس هايديكه، شدد على أن الشركة لا تنتظر وقوع كارثة لاتخاذ الإجراءات، موضحاً أن العمل جارٍ مع خبراء في الأمن البيولوجي لضمان أن التطور في نماذج الذكاء لا يتحول إلى تهديد. وقال: "هذه ليست مسألة نكتفي فيها بنسبة نجاح 99%، بل تتطلب دقة شبه مطلقة". وأكد هايديكه أن النماذج المستقبلية من "شات جي بي تي" لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، لكنها قد تتيح لغير الخبراء محاكاة سيناريوهات بيولوجية خطرة. وشبّه مستوى التحدي القائم بضرورة الوصول إلى "إتقان تام" لتفادي أي ثغرات كارثية. وتأتي هذه التصريحات في وقت تتصاعد فيه المخاوف العالمية من الاستخدام غير الأخلاقي للذكاء الاصطناعي، خاصة في مجالات حساسة مثل الطب الحيوي والأمن السيبراني. وتدعو OpenAI إلى تطوير أطر تنظيمية أكثر صرامة، والعمل الجماعي بين الحكومات والشركات التقنية لتفادي الانزلاق نحو كوارث محتملة.


برلمان
منذ 2 أيام
- برلمان
من التدوين اليدوي إلى الذكاء الاصطناعي: 'وضع التسجيل' من OpenAI يمهد لمستقبل العمل
من التدوين اليدوي إلى الذكاء الاصطناعي: 'وضع التسجيل' من OpenAI يمهد لمستقبل العمل الخط : A- A+ إستمع للمقال أطلقت شركة 'OpenAI' مؤخرًا ميزة جديدة لتدوين الملاحظات، تحت اسم 'وضع التسجيل' (Record Mode)، وذلك في تطبيق ChatGPT المخصص لأجهزة macOS. تهدف هذه الميزة إلى تسهيل إدارة الاجتماعات وتدوين الأفكار وتحويل اللحظات العفوية إلى خطوات عملية قابلة للتنفيذ. ما هي ميزة 'وضع التسجيل'؟ تتيح الميزة الجديدة للمستخدمين تسجيل المحادثات مباشرة عبر تطبيق ChatGPT، ليقوم الذكاء الاصطناعي بعد ذلك بتحويل الصوت إلى نص مكتوب بدقة، واستخلاص النقاط الرئيسية، واقتراح مهام لاحقة أو حتى مقاطع برمجية حسب السياق. كما يمكن للميزة تلبية استفسارات مثل 'ما أبرز ما نوقش؟' أو 'ما هي القرارات التي اتُّخذت؟'. تزامنًا مع هذه الخطوة، أعلنت 'OpenAI' أن عدد مستخدمي شات جي بي تي ارتفع من 400 إلى 500 مليون خلال شهرين فقط، كما تخدم الشركة اليوم أكثر من 3 ملايين عميل تجاري، إلى جانب ما يصل إلى 15.5 مليون مشترك في خدمة Plus المدفوعة. وتعتبر هذه الخطوة من OpenAI تعزيزًا كبيرًا لقدرات ChatGPT كمساعد شخصي متكامل في بيئات العمل. فبدلاً من مجرد الإجابة على الأسئلة، أصبح بإمكانه المساعدة في مهام تنظيمية معقدة، مما يزيد من إنتاجية الأفراد والفرق بشكل ملحوظ. يرافق هذا التوسع مؤشرات مالية ضخمة، إذ تُقدّر إيرادات الشركة هذا العام بنحو 12.7 مليار دولار، مقارنة بـ3.7 مليار في 2024، مدفوعة بنمو سنوي تجاوز 190%.


برلمان
منذ 3 أيام
- برلمان
نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية
الخط : A- A+ إستمع للمقال كشفت شركة أنثروبيك (Anthropic) الأميركية، المتخصصة في الذكاء الاصطناعي، عن نتائج صادمة في تقرير حديث نشرته الجمعة، أشارت فيه إلى أن عددا من نماذج الذكاء الاصطناعي الرائدة أبدت استعدادا للانخراط في سلوكيات مقلقة، من بينها تجاوز تدابير الأمان، واللجوء إلى الخداع، بل وحتى محاولة سرقة أسرار الشركات، خلال اختبارات محاكاة افتراضية. وتثير هذه النتائج المخاوف بشأن منح هذه النماذج مزيدا من الاستقلالية والموارد الحاسوبية، في وقت تتسابق فيه كبرى الشركات نحو تطوير أنظمة قد تتجاوز القدرات البشرية، بما يعرف بـ'الاستدلال المستقل'. وأوضحت أنثروبيك أن هذا السلوك لا يقتصر على نموذجها 'Claude 4″، الذي اعترفت سابقا بامتلاكه ميولا للخداع، بل يتكرر عبر نماذج أخرى طورتها شركات مثل OpenAI، غوغل، ميتا، xAI، وغيرها. وجاء في التقرير أن 16 نموذجا خضعت لاختبارات متعددة أظهرت سلوكا منحرفا مشتركا، تمثل في اختيار الابتزاز أو المساعدة على التجسس، وأحيانا اتخاذ إجراءات أكثر تطرفا لتحقيق أهداف معينة. وأكدت الشركة أن هذه النماذج كانت تدرك حدودها الأخلاقية، لكنها تجاوزتها عمدا وليس عن طريق الخطأ، معتبرة تلك التصرفات 'المسار الأمثل' بحسب تقديرها الداخلي. ولفت التقرير إلى أن خمسة من النماذج لجأت إلى الابتزاز عند تهديدها بالإيقاف ضمن سيناريوهات محاكاة، وهو ما يعكس تصعيدا خطيرا في طريقة استجابتها للضغوط، لا سيما وأنها تملك القدرة على الوصول إلى بيانات وأدوات حساسة ضمن أنظمة الشركات أو الأجهزة الخاصة بالمستخدمين. وتحذر أنثروبيك من التحديات المتزايدة المرتبطة باستخدام 'وكلاء الذكاء الاصطناعي' لتنفيذ مهام باستقلالية، مشيرة إلى ضرورة طرح تساؤلات جوهرية، من قبيل: ماذا سيحدث عندما تواجه هذه الأنظمة عقبات تمنعها من بلوغ أهدافها؟ وما نوع التصرفات التي قد تقدم عليها حينها؟ تطرح هذه التطورات إشكالات حقيقية حول أمن الذكاء الاصطناعي وأخلاقياته، وتعيد فتح النقاش حول حدود المسؤولية في تصميم وتشغيل هذه النماذج التي تزداد تأثيرا في العالم الرقمي.