أحدث الأخبار مع #هايديكه


رواتب السعودية
منذ 8 ساعات
- علوم
- رواتب السعودية
قد يُستخدم في تصنيع أسلحة بيولوجية
نشر في: 25 يونيو، 2025 - بواسطة: خالد العلي أطلقت شركة »OpenAI«، المطوّرة لتطبيق »ChatGPT«، تحذيراً من امكانية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة. وحذرت الشركة من التقدم المتسارع في قدرات الذكاء الاصطناعي بمجال علم الأحياء الذي قد يؤدي إلى إنتاج معلومات ضارّة يمكن أن تساعد »جهات ماهرة« في تطوير أسلحة بيولوجية، مضيفةً أن الوصول الفعلي إلى المعامل والمواد الحساسة لا يزال يمثل حاجزاً، لكنه »ليس حاجزاً مطلقاً«. ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة. وشبّه هايديكه مستوى الأمان المطلوب بـ«الإتقان التام«، قائلاً: »هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة«. الرجاء تلخيص المقال التالى الى 50 كلمة فقط أطلقت شركة »OpenAI«، المطوّرة لتطبيق »ChatGPT«، تحذيراً من امكانية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة. وحذرت الشركة من التقدم المتسارع في قدرات الذكاء الاصطناعي بمجال علم الأحياء الذي قد يؤدي إلى إنتاج معلومات ضارّة يمكن أن تساعد »جهات ماهرة« في تطوير أسلحة بيولوجية، مضيفةً أن الوصول الفعلي إلى المعامل والمواد الحساسة لا يزال يمثل حاجزاً، لكنه »ليس حاجزاً مطلقاً«. ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة. وشبّه هايديكه مستوى الأمان المطلوب بـ«الإتقان التام«، قائلاً: »هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة«. المصدر: صدى


صدى الالكترونية
منذ 9 ساعات
- علوم
- صدى الالكترونية
تحذيرات من شات جي بي تي: قد يُستخدم في تصنيع أسلحة بيولوجية
أطلقت شركة 'OpenAI'، المطوّرة لتطبيق 'ChatGPT'، تحذيراً من امكانية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة. وحذرت الشركة من التقدم المتسارع في قدرات الذكاء الاصطناعي بمجال علم الأحياء الذي قد يؤدي إلى إنتاج معلومات ضارّة يمكن أن تساعد 'جهات ماهرة' في تطوير أسلحة بيولوجية، مضيفةً أن الوصول الفعلي إلى المعامل والمواد الحساسة لا يزال يمثل حاجزاً، لكنه 'ليس حاجزاً مطلقاً'. ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة. وشبّه هايديكه مستوى الأمان المطلوب بـ'الإتقان التام'، قائلاً: 'هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة'.

القناة الثالثة والعشرون
منذ 14 ساعات
- علوم
- القناة الثالثة والعشرون
تحذير عاجل من "OpenAI"... ما القصة؟
أصدرت شركة "OpenAI"، المطورة لتطبيق "ChatGPT"، تحذيراً بشأن احتمالية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة. وأوضحت الشركة في منشور حديث على مدونتها الرسمية أن التقدم السريع في قدرات الذكاء الاصطناعي في مجال علم الأحياء قد يؤدي إلى إنتاج معلومات ضارة قد تُستغل من قبل "جهات ماهرة" لتطوير أسلحة بيولوجية. وأضافت أن الوصول الفعلي إلى المختبرات والمواد الحساسة لا يزال يشكل حاجزاً، لكنه ليس حاجزاً مطلقاً يمكن استبعاده. وفي مشهد أثار جدلاً واسعاً، ظهر أحد طلاب الدراسات العليا في جامعة كاليفورنيا بلوس أنجلوس (UCLA) خلال حفل تخرجه وهو يعرض بفخر على حاسوبه المحمول واجهة برنامج ChatGPT، الأداة التي اتُهم سابقاً باستخدامها لإنهاء مشاريعه الدراسية. وشدّدت "OpenAI" على أنها لا تعتبر من المقبول انتظار وقوع كارثة بيولوجية لتقرر متى تُطبق الضوابط الوقائية اللازمة، مشيرةّ إلى أنها تعمل بالفعل مع خبراء في الأمن البيولوجي والإرهاب البيولوجي لضمان سلامة استخدام "شات جي بي تي". ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة. وشبّه هايديكه مستوى الأمان المطلوب بـ"الإتقان التام"، قائلاً: "هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة". انضم إلى قناتنا الإخبارية على واتساب تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة. انضم الآن شاركنا رأيك في التعليقات تابعونا على وسائل التواصل Twitter Youtube WhatsApp Google News


ليبانون 24
منذ 15 ساعات
- علوم
- ليبانون 24
تحذير عاجل من "OpenAI"... ما القصة؟
أصدرت شركة "OpenAI"، المطورة لتطبيق "ChatGPT"، تحذيراً بشأن احتمالية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة. وأوضحت الشركة في منشور حديث على مدونتها الرسمية أن التقدم السريع في قدرات الذكاء الاصطناعي في مجال علم الأحياء قد يؤدي إلى إنتاج معلومات ضارة قد تُستغل من قبل "جهات ماهرة" لتطوير أسلحة بيولوجية. وأضافت أن الوصول الفعلي إلى المختبرات والمواد الحساسة لا يزال يشكل حاجزاً، لكنه ليس حاجزاً مطلقاً يمكن استبعاده. وفي مشهد أثار جدلاً واسعاً، ظهر أحد طلاب الدراسات العليا في جامعة كاليفورنيا بلوس أنجلوس (UCLA) خلال حفل تخرجه وهو يعرض بفخر على حاسوبه المحمول واجهة برنامج ChatGPT، الأداة التي اتُهم سابقاً باستخدامها لإنهاء مشاريعه الدراسية. وشدّدت "OpenAI" على أنها لا تعتبر من المقبول انتظار وقوع كارثة بيولوجية لتقرر متى تُطبق الضوابط الوقائية اللازمة، مشيرةّ إلى أنها تعمل بالفعل مع خبراء في الأمن البيولوجي والإرهاب البيولوجي لضمان سلامة استخدام "شات جي بي تي". ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة. وشبّه هايديكه مستوى الأمان المطلوب بـ"الإتقان التام"، قائلاً: "هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة".


أخبارنا
منذ 21 ساعات
- علوم
- أخبارنا
OpenAI تحذّر: الذكاء الاصطناعي قد يُستغل لصناعة أسلحة بيولوجية قاتلة
أطلقت شركة "OpenAI"، المطوّرة لتطبيق "ChatGPT"، تحذيراً من احتمالية استغلال نماذج الذكاء الاصطناعي في تصنيع أسلحة بيولوجية فتاكة، مشيرة إلى مخاوف متزايدة بشأن تسارع التقدّم التكنولوجي في علم الأحياء. وأكدت الشركة في منشور حديث على مدونتها أن توفر المعلومات الحيوية عبر أدوات الذكاء قد يسهم في تسهيل هذه المخاطر لدى جهات خبيثة. وأوضحت الشركة أن النماذج الذكية قادرة بالفعل على توفير إجابات ومعلومات دقيقة في مجالات علمية متقدمة، قد تتيح لمستخدمين ذوي نوايا سيئة تصميم تهديدات بيولوجية واقعية. وأضافت أن الوصول الفعلي إلى المعامل والمواد لا يزال يشكل حاجزاً، لكنه ليس كافياً وحده لمنع الاستغلال المحتمل. رئيس قسم الأمان في OpenAI، يوهانس هايديكه، شدد على أن الشركة لا تنتظر وقوع كارثة لاتخاذ الإجراءات، موضحاً أن العمل جارٍ مع خبراء في الأمن البيولوجي لضمان أن التطور في نماذج الذكاء لا يتحول إلى تهديد. وقال: "هذه ليست مسألة نكتفي فيها بنسبة نجاح 99%، بل تتطلب دقة شبه مطلقة". وأكد هايديكه أن النماذج المستقبلية من "شات جي بي تي" لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، لكنها قد تتيح لغير الخبراء محاكاة سيناريوهات بيولوجية خطرة. وشبّه مستوى التحدي القائم بضرورة الوصول إلى "إتقان تام" لتفادي أي ثغرات كارثية. وتأتي هذه التصريحات في وقت تتصاعد فيه المخاوف العالمية من الاستخدام غير الأخلاقي للذكاء الاصطناعي، خاصة في مجالات حساسة مثل الطب الحيوي والأمن السيبراني. وتدعو OpenAI إلى تطوير أطر تنظيمية أكثر صرامة، والعمل الجماعي بين الحكومات والشركات التقنية لتفادي الانزلاق نحو كوارث محتملة.