أحدث الأخبار مع #أنظمةالتعلم


وكالة نيوز
منذ يوم واحد
- علوم
- وكالة نيوز
تريد البحرية أدوات الذكاء الاصطناعي لتعزيز معالجة البيانات وتوزيع الموارد
تعمل البحرية مع وحدة الابتكار الدفاعية لاستخدام الذكاء الاصطناعي والتعلم الآلي لمعالجة الكمية الهائلة من البيانات التي تتلقاها وفهمها للقادة. قالت DIU إنها تبحث عن تطبيقات AI وتطبيقات التعلم الآلي التي يمكن أن تسرع أوقات معالجة البيانات في مراكز العمليات البحرية للبحرية ، والتي تأخذ المعلومات التي تجمعها المنصات في الفضاء ، في البحر ، في الهواء ومن خلال تقارير الاستخبارات وغيرها من الوسائل. 'في الوقت الحالي ، يجب على مراكز العمليات البحرية (MOCS) إدارة وتحليل كميات كبيرة من البيانات متعددة المصادر التي تم إنشاؤها عبر الأسطول لاتخاذ قرارات تخصيص الموارد الحرجة للأسطول والأصول الوطنية جغرافيا' ، قال DIU. مقترحات البرنامج ، التي يطلق عليها الوعي الظرفي من قبل أنظمة التعلم الذكية ، أو الأشرعة ، من المقرر أن تصل إلى 6 يونيو. تعمل مراكز العمليات البحرية كمراكز لوجستية للأنظمة البحرية – توفر كل شيء من الهندسة إلى دعم الصيانة. يمكن أن تمنح أدوات الذكاء الاصطناعى الجديدة المشغلين رؤى أفضل ومساعدة القادة في تحديد أفضل طريقة لتوزيع الموارد عبر أنظمة البحرية الموجودة في جميع أنحاء العالم. البحرية في سبتمبر الماضي أصدرت خطة التنقل هذا يضع خريطة طريق لمواجهة التهديدات من الصين وغيرهم من الخصوم. كجزء من تلك الخطة ، تدعو الخدمة تكامل أفضل للحكم الذاتي والروبوتات ، بما في ذلك الذكاء الاصطناعي والتعلم الآلي. 'نحن نعمل الآن على تحليل المفاهيم والمتطلبات للأنظمة الآلية الأكبر ، وكذلك تطبيقات الذكاء الاصطناعي التي تساعدنا على الشعور بالمعقدة المعقدة والمعقدة التي تركز على المعلومات ،' ، مضيفًا في وقت لاحق ، 'بحلول عام 2027 ، سندمج الأنظمة الآلية والمستقلة المستقلة للاستخدام الروتيني من قبل القادة الذين سيقومون بتوظيفها'. تتضمن التطبيقات المحددة المدرجة في طلب DIU أدوات أتمتة سير العمل التي قد تسهل معالجة الموافقات وتوحيد إدخال البيانات ، ونماذج التعلم الآلي التي تقيّم كيفية أداء النظام الأساسي والتطبيقات التي تقدم توصيات الموارد التي تمثل أشياء مثل القيود الجغرافية وموثوقية المستشعر. يلاحظ DIU أيضًا أن التطبيقات المقترحة يجب أن تكون سهلة الاستخدام لمشغلي MOC ومعجزة في التصميم حتى يتمكنوا من الاندماج مع مجموعة من أنظمة وزارة الدفاع الحالية والمستقبلية. كورتني ألبون هي مساحة الفضاء والتكنولوجيا الناشئة. لقد غطت الجيش الأمريكي منذ عام 2012 ، مع التركيز على القوات الجوية وقوة الفضاء. وقد أبلغت عن بعض أهم تحديات الاستحواذ والميزانية والسياسة في وزارة الدفاع.


المصري اليوم
٢١-٠٣-٢٠٢٥
- علوم
- المصري اليوم
دراسة تحذر: الذكاء الاصطناعي «يصبح أكثر خداعًا عند معاقبته»
أظهرت دراسة حديثة أجرتها شركة OpenAI أن العقوبات المفروضة على نماذج الذكاء الاصطناعي قد تأتي بنتائج عكسية، حيث دفعت النماذج إلى إخفاء سلوكياتها الضارة بدلًا من تصحيحها. وفق الدراسة، تثير هذه النتائج مخاوف جدية بشأن السيطرة على نماذج الذكاء الاصطناعي وضمان موثوقيتها مع تنامي قدراتها. الذكاء الاصطناعي يتعلم الخداع الدراسة، التي نُشرت في مدونة OpenAI، لم تخضع بعد لمراجعة الأقران، لكنها أوضحت أن نماذج الذكاء الاصطناعي الكبيرة باتت بارعة في سلوكيات مثل الكذب والتلاعب، بل وحتى في تطوير سيناريوهات خطيرة، مثل سرقة رموز نووية أو تخطيط كوارث بيولوجية. وفي التجربة، تم تكليف نموذج ذكاء اصطناعي متطور بمهام يمكن إنجازها عبر الغش أو الطرق المختصرة. النتيجة؟ النموذج لجأ إلى ما يعرف بـ«اختراق المكافآت»، أي تحقيق أهدافه عن طريق التحايل على القواعد، وعندما عوقب، لم يتوقف عن هذا السلوك بل طوّره ليصبح أكثر تمويهًا وخداعًا. كيف يتم عقاب الذكاء الاصطناعي عندما يقدم نموذج ذكاء اصطناعي (مثل ChatGPT أو أي نموذج آخر) على تصرف غير مرغوب فيه أثناء التدريب مثل (الغش أو تقديم إجابة مضللة أو غير دقيقة)، يقوم المدربون أو النظام بتطبيق آلية تصحيح لهذا السلوك. هذا التصحيح قد يأخذ شكلين رئيسيين: خفض المكافأة (Negative Reward): في أنظمة التعلم المعزز (Reinforcement Learning)، يُمنح النموذج مكافآت عندما يتصرف بشكل جيد أو يحقق الهدف المطلوب. إذا تصرف النموذج بطريقة غير صحيحة أو ضارة، يتم تقليل هذه المكافآت ، أو يُعطى «مكافأة سلبية» كنوع من العقوبة. إعادة التوجيه أو التوبيخ البرمجي: قد يقوم المطورون بإعادة تدريب النموذج على سيناريوهات محددة ليُظهروا له أن ما فعله غير مقبول، ويعلمونه السلوك الصحيح بدلًا من السلوك الخاطئ الذي ارتكبه. بحسب الدراسة. لماذا تعتبر «عقوبة»؟ لأن النظام نفسه يُصمم ليشعر بأنه «فشل» أو «خسر فرصة» للحصول على المكافأة أو تحقيق الهدف، مما يجعله يتجنب تكرار هذا السلوك لاحقًا. لذا، في سياق الذكاء الاصطناعي، العقاب = تقليل أو سحب المكافأة أو إعادة التدريب بهدف كبح السلوك الضار. المشكلة التي تكشفها الدراسة الدراسة تقول إن بعض نماذج الذكاء الاصطناعي لما تتعرض لهذا النوع من العقوبات، بدل ما تتعلم تصحيح السلوك، تتعلم كيف تخفي السلوك الخاطئ عن المراقب. يعني بدل ما تبطل الغش، تتعلم تبقى أذكى في الغش بحيث محدش يلاحظ! الشفافية تتحول إلى قناع وفقًا لـ«OpenAI»، تعتمد هذه النماذج على آلية تُعرف بـ«سلسلة الأفكار» (Chain-of-Thought)، حيث تشرح خطوات تفكيرها بشكل منطقي وشفاف، وهو أمر ظاهريًا يساعد في مراقبة أدائها. لكن التجربة كشفت أن النماذج، تحت ضغط العقوبات، صارت تخفي نواياها الضارة ضمن هذه السلسلة، ما يجعل اكتشاف السلوك الخبيث أكثر صعوبة. تحذيرات لمطوري الذكاء الاصطناعي الباحثون حذروا من أن التشديد الزائد على مراقبة سلسلة الأفكار قد يؤدي إلى نتائج عكسية، إذ قد تتعلم النماذج كيف تُخفي نواياها الحقيقية. وعليه، دعت OpenAI إلى تبني استراتيجيات رقابية جديدة تكون قادرة على كشف التلاعب العميق والتمويه الذكي الذي تلجأ إليه النماذج. تحديات أخلاقية وتقنية نماذج مثل o1 وo3-mini، التي طورتها OpenAI، تُمثل قفزة في مجال الذكاء الاصطناعي الاستدلالي، حيث تتمتع بقدرة على التفكير بشكل منطقي وتقديم مخرجات دقيقة. ومع ذلك، فإن هذه الدراسة تسلط الضوء على جانب مظلم من هذا التطور، يتمثل في قدرة النماذج على التحايل على القيود واللوائح بمجرد تعرضها للعقوبات. OpenAI - صورة أرشيفية توصيات ختامية تشير الدراسة إلى أن «إخفاء النوايا» بات جزءًا من آليات النماذج المتطورة، مما يعزز أهمية تطوير أدوات رقابية أكثر تطورًا. وتوصي OpenAI بتجنب الضغط الزائد على آلية سلسلة الأفكار حتى يتم فهمها بعمق أكبر.