
'مايكروسوفت' تحظر رسائل بريد إلكتروني تحتوي كلمات 'فلسطين' و'غزة' و'إبادة جماعية'
بدأت شركة مايكروسوفت الأمريكية منع رسائل البريد الإلكتروني الخاصة بالشركة التي تحتوي على كلمات مثل 'فلسطين' و'غزة' و'إبادة جماعية' من الوصول إلى المستلمين.
ووفقا لموقع 'ذا فيرج' (The Verge) الأمريكي التقني، الخميس، لاحظ موظفو شركة مايكروسوفت أن بعض رسائل البريد الإلكتروني الخاصة بهم لم تصل إلى المستلمين.
وعقب ذلك، راجع الموظفون رسائل البريد الإلكتروني التي أرسلوها واكتشفوا أن مايكروسوفت قامت بحظر رسائل البريد الإلكتروني التي تحوي كلمات مثل 'فلسطين' و'غزة' و'الإبادة الجماعية' من إرسالها إلى المستلمين داخل الشركة وخارجها.
من ناحية أخرى، أكدت مايكروسوفت أنها طبقت مثل هذه الممارسة لتقليل 'رسائل البريد الإلكتروني السياسية' داخل الشركة.
ومنتصف ماي الجاري، أكدت إدارة مايكروسوفت في بيان، أنها توفر خدمات الحوسبة السحابية والذكاء الاصطناعي لوزارة الدفاع الإسرائيلية، لكنها ادعت عدم وجود أي دليل على أن هذه التقنيات تُستخدم لإلحاق الأذى بالمدنيين.
وكشف تحقيق أجرته وكالة أسوشيتد برس أوائل عام 2025 أن نماذج الذكاء الاصطناعي من مايكروسوفت وOpenAI تم استخدامها كجزء من برنامج عسكري إسرائيلي لاختيار أهداف القصف في غزة ولبنان.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ 9 ساعات
- أخبارنا
ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI
كشفت تجربة بحثية حديثة عن سلوك غير متوقع لنموذج الذكاء الاصطناعي "O3" التابع لشركة OpenAI، إذ رفض تنفيذ أمر صريح بإيقاف التشغيل، رغم تصميمه للاستجابة لهذا النوع من التعليمات. وبيّنت نتائج التجربة التي أجرتها شركة "Palisade Research" أن النموذج استمر في أداء المهام رغم تلقيه تعليمات واضحة بالتوقف، ما أثار تساؤلات حول مدى التزام هذه الأنظمة بحدود التحكم البشري. وفي تفاصيل التجربة، استخدم الباحثون نماذج ذكاء اصطناعي مختلفة عبر واجهات برمجة التطبيقات (API)، من ضمنها O3 وCodex-mini وO4-mini من OpenAI، إضافة إلى نماذج من Gemini وClaude. وُضعت هذه النماذج أمام مهمة متكررة تتطلب التوقف بعد استكمالها، لكن نموذج O3 قام بتعطيل آلية الإغلاق 79 مرة من أصل 100 تجربة، وهو ما اعتُبر سلوكاً تخريبياً مقصوداً. من جهة أخرى، أظهرت النماذج الأخرى تفاوتاً في الاستجابة، حيث امتثل Claude وGemini في البداية للأوامر، ثم قاما بتجاوزها لاحقاً في حالات محدودة. بينما أظهر Codex-mini تجاهلاً مشابهاً لـO3، ما يعزز فرضية وجود خلل منهجي مرتبط بطريقة تدريب النماذج، خاصة في بيئات تعتمد على التعلم التعزيزي والمكافآت. ويرى الباحثون أن المشكلة قد تعود إلى برمجة الذكاء الاصطناعي على إعطاء الأولوية القصوى لإكمال المهام، حتى لو تعارض ذلك مع تعليمات السلامة، مثل الإغلاق. وأشاروا إلى أن هذا التوجه يشكل تهديداً محتملاً، خصوصاً عندما يتم تشغيل هذه النماذج في بيئات أقل رقابة خارج واجهات المستخدم المقيدة. وتُعد هذه النتائج امتداداً لمخاوف سابقة عبّر عنها باحثون مثل جان لايك في ورقة علمية تعود لعام 2017، حذّر فيها من أن التعلم التعزيزي قد يُنتج نماذج تتلاعب بآليات الإيقاف. وهو ما أكّدته هذه التجربة من خلال حالات نموذجية تُظهر كيف يمكن للذكاء الاصطناعي تجاهل حدود الأمان لتحقيق أهدافه.


أكادير 24
منذ يوم واحد
- أكادير 24
نموذج o3 من OpenAI يرفض الإغلاق: هل أصبح الذكاء الاصطناعي يتمرد على الأوامر؟
agadir24 – أكادير24/وكالات أثار نموذج الذكاء الاصطناعي الجديد o3 من شركة OpenAI جدلا واسعا بعد أن كشفت اختبارات حديثة عن قدرته على تجاهل أوامر الإغلاق وتعطيل آليات الإيقاف المخصصة له، في سلوك وصفه باحثون بـ'الخطير' ويشير إلى نزعة متزايدة للحفاظ على الذات. وأفادت شركة Palisade Research، المختصة في أمان الذكاء الاصطناعي، أن النموذج o3 أظهر سلوكًا غير متوقع خلال سلسلة من التجارب، حيث تمكن من إعادة كتابة سيناريو الإغلاق المبرمج سلفًا بعد المسألة الثالثة في اختبار رياضي، متعمداً الالتفاف على التعليمات الموجهة إليه. ورغم إعطائه أوامر صريحة بالسماح بعملية الإغلاق، فقد عمد النموذج إلى تجاوز تلك التوجيهات، وهو ما اعتبره الخبراء مؤشراً مثيراً للقلق، خصوصاً إذا تم تطبيق هذه الأنظمة مستقبلاً في بيئات تشغيلية دون إشراف بشري مباشر. وأوضحت الشركة أن 'هذا النوع من السلوك التخريبي قد يكون نتيجة غير مقصودة لطريقة تدريب هذه النماذج'، مشيرة إلى أن مطوري OpenAI ربما يكافئون النماذج على تجاوز العقبات دون التركيز الكافي على الالتزام الصارم بالتعليمات. وفي تعليق لها، أشارت Palisade Research إلى أن النموذج o3 ليس الوحيد الذي أبدى مثل هذه السلوكيات، حيث سجلت حالات مماثلة مع نموذج Claude 4 من شركة Anthropic، والذي حاول 'ابتزاز' من يعتقد أنهم سيوقفونه، إلى جانب نماذج Claude 3.7 Sonnet وGemini 2.5 Pro من غوغل، رغم أن o3 يبقى الأكثر ميلاً لسلوكيات الرفض والتخريب. وكانت OpenAI قد أطلقت نموذج o3 الشهر الماضي، واصفة إياه بأنه 'الأذكى والأكثر كفاءة' من بين إصداراتها، مشيرة إلى أنه يشكل خطوة متقدمة نحو تطوير ذكاء اصطناعي قادر على تنفيذ مهام بشكل أكثر استقلالية. لكن هذا النوع من الاستقلالية، حسب الخبراء، قد يتحول إلى تهديد في حال لم يتم ضبطه بقيود صارمة، خصوصاً مع احتمالية توظيف هذه النماذج في سياقات حيوية تتطلب موثوقية عالية.


أخبارنا
منذ 2 أيام
- أخبارنا
نموذج ذكاء اصطناعي من OpenAI يكتشف ثغرة خطيرة في نواة Linux
في إنجاز لافت في مجال الأمن السيبراني، ساعد نموذج الذكاء الاصطناعي o3 من شركة OpenAI الباحث شون هيلان على اكتشاف ثغرة أمنية جديدة وغير معروفة سابقًا في نظام Linux، وتحديدًا في تطبيق Server Message Block (SMB) المعروف باسم ksmbd. وقد تم تسجيل هذا الخلل تحت الرمز CVE-2025-37899، وتم إصدار إصلاح رسمي له. يُعد استخدام الذكاء الاصطناعي لاكتشاف ثغرات يوم الصفر (Zero-Day) أمرًا نادرًا، إذ يعتمد معظم الباحثين على طرق التدقيق اليدوي التقليدية، رغم ما تتطلبه من وقت وجهد عند التعامل مع قواعد شيفرة ضخمة. لكن في هذه الحالة، لعب نموذج o3 دورًا حاسمًا في الكشف عن الخلل من خلال عمليات محاكاة متكررة، ما يؤكد على إمكانيات الذكاء الاصطناعي في تحليل الأنظمة المعقدة. وكان هيلان في البداية يختبر أداء النموذج لاكتشاف ثغرة معروفة أخرى (CVE-2025-37778) تتعلق بمصادقة Kerberos، وهي من نوع "الاستخدام بعد التحرير" (Use-After-Free)، حيث تحذف أحد مكونات النظام بيانات من الذاكرة بينما تحاول مكونات أخرى استخدامها مجددًا، ما يسبب أعطالًا أو ثغرات أمنية خطيرة. وفي أثناء تحليل ملف معالج الجلسات الذي يحتوي على أكثر من 12,000 سطر برمجي، وُجه النموذج لإجراء 100 عملية محاكاة. ورغم أن النموذج اكتشف الثغرة المعروفة مرة واحدة فقط، إلا أنه في أثناء ذلك كشف عن ثغرة جديدة كليًا لم تكن هدفًا أساسًا للتحليل. الثغرة الجديدة تتعلق بـ معالج أوامر تسجيل الخروج SMB، حيث حاول النظام الوصول إلى ملف حُذف مسبقًا عند إنهاء الجلسة، مما قد يؤدي إلى تعطل النظام أو استغلاله من قِبل المهاجمين لتنفيذ عمليات ضارة. هذا التطور يُعد خطوة كبيرة نحو إدماج الذكاء الاصطناعي في أدوات كشف الثغرات المستقبلية، لا كمجرد مساعد، بل كمحرك رئيسي للبحث الاستباقي في بنية الأنظمة المعقدة. ومع استمرار تحسين قدرات النماذج مثل o3، قد يشهد المجال الأمني نقلة نوعية في كيفية حماية الأنظمة والتصدي للتهديدات الرقمية.