logo
#

أحدث الأخبار مع #Maven

تهدف وكالة التكتيل الجغرافي المكاني للحصول على المزيد من موارد الذكاء الاصطناعي في عام 2025
تهدف وكالة التكتيل الجغرافي المكاني للحصول على المزيد من موارد الذكاء الاصطناعي في عام 2025

وكالة نيوز

time١٠-٠٣-٢٠٢٥

  • علوم
  • وكالة نيوز

تهدف وكالة التكتيل الجغرافي المكاني للحصول على المزيد من موارد الذكاء الاصطناعي في عام 2025

تبذل الوكالة الوطنية للتكتيل الجغرافي المكاني جهودًا متضافرة لتسريع جهودها الذكية الاصطناعية على مدار العام المقبل ، مما يخلق أدوارًا قيادية جديدة منظمة العفو الدولية ودفع المزيد من الموارد نحو بنيتها التحتية الحاسوبية. مهمة NGA هي الدوران بيانات من الأقمار الصناعية ، الرادار والمصادر الأخرى في الذكاء القابل للاستخدام لصانعي القرار العسكري والمشغلين. بالنظر إلى تلك المهمة ودورها القيادي في وزارة الدفاع نظام بيانات Maven ونظام معالجة الصور رفيع المستوى ، منذ فترة طويلة من الذكاء الاصطناعى جزء من تركيز NGA. لكن نائب مدير الأدميرال في NGA قال هذا الأسبوع إنه يريد أن يلتزم NGA بمزيد من التمويل لجهود الذكاء الاصطناعى وإنشاء معايير جديدة وأدوار قيادية تسمح لها بالاستفادة من التكنولوجيا بشكل أفضل. قال ويتوورث يوم الاثنين في مؤتمر الأقمار الصناعية في واشنطن ، وهو أحد أكبر احتياجات NGA في هذا المجال ، وهو تمويل لقوة الحوسبة المطلوبة لتشغيل نماذج AI على نطاق واسع. وقال: 'نحتاج إلى التأكد من أننا مع حصولنا على نماذج إضافية ونشغل الاستدلال على تلك النماذج التي لدينا حساب ضروري للقيام بذلك' ، مشيرًا دون دعم البنية التحتية ، قد تبدأ معدلات معالجة البيانات في NGA. تحتاج الوكالة أيضًا إلى الاستثمار أكثر في وضع العلامات على البيانات ، وهي عملية وصف أو فهرسة البيانات الأولية لتدريس وتحسين أداء نماذج الذكاء الاصطناعي. قال ويتوورث إنه يجري مناقشات جيدة مع وزارة الدفاع ومدير الاستخبارات الوطنية حول التمويل ، وأنه 'واثق' سيحصل NGA على الموارد التي يحتاجها. أيضا في الجزء العلوي من قائمة أهداف ويتوورث لهذا العام ، تنشئ قيادة منظمة العفو الدولية أقوى داخل NGA. على هذا المنوال ، أنشأت الوكالة وظيفتين جديدتين للمدير للإشراف على معايير وبرامج الذكاء الاصطناعي ومدير تنفيذي سيقود عمليات الذكاء الاصطناعي. يريد Whitworth أيضًا من NGA إحراز تقدم في إنشاء إطار حكومي موحد لتقييم المخاطر داخل نماذج الذكاء الاصطناعى ، وبناء الثقة بين المحللين وأنظمة الذكاء الاصطناعي التي يعملون فيها وتحسين قدرتها على مراقبة نشاط الخصم. كورتني ألبون هي مساحة الفضاء والتكنولوجيا الناشئة. لقد غطت الجيش الأمريكي منذ عام 2012 ، مع التركيز على القوات الجوية وقوة الفضاء. وقد أبلغت عن بعض أهم تحديات الاستحواذ والميزانية والسياسة في وزارة الدفاع.

جوجل تحذف تعهدها بعدم تطوير تقنيات الذكاء الاصطناعي للأسلحة
جوجل تحذف تعهدها بعدم تطوير تقنيات الذكاء الاصطناعي للأسلحة

صدى البلد

time٠٧-٠٢-٢٠٢٥

  • صدى البلد

جوجل تحذف تعهدها بعدم تطوير تقنيات الذكاء الاصطناعي للأسلحة

في خطوة أثارت جدلًا واسعًا في الأوساط التقنية والسياسية، أزالت شركة جوجل تعهدها السابق بعدم تطوير تقنيات الذكاء الاصطناعي للاستخدامات العسكرية، وخاصة في مجال الأسلحة. ويأتي هذا التغيير وسط تصاعد الاهتمام العالمي بتطبيقات الذكاء الاصطناعي في المجالات الدفاعية، ومع سعي الحكومات والشركات الكبرى لتعزيز قدراتها التكنولوجية في هذا المجال. تحول استراتيجي في سياسات جوجل كان موقف جوجل تجاه استخدام الذكاء الاصطناعي في التطبيقات العسكرية واضحًا منذ عام 2018، عندما تعهدت الشركة بعدم تطوير تقنيات يمكن استخدامها في الأسلحة، وذلك بعد احتجاجات داخلية من موظفيها على مشروع Maven، الذي كان يهدف إلى استخدام الذكاء الاصطناعي في تحليل بيانات الطائرات المسيرة لصالح وزارة الدفاع الأمريكية. ووفقًا لتقارير حديثة، أزالت جوجل- بهدوء- هذا التعهد من سياساتها، مما يفتح الباب أمام احتمالية انخراطها مجددًا في مشاريع عسكرية تعتمد على الذكاء الاصطناعي. لماذا هذا التغيير الآن؟ هناك عدة عوامل قد تكون وراء هذا التحول في موقف جوجل، أبرزها: السباق التكنولوجي العالمي: مع تصاعد التوترات الجيوسياسية، تسعى الحكومات الغربية إلى تعزيز شراكاتها مع كبرى شركات التكنولوجيا لتطوير أنظمة ذكاء اصطناعي متقدمة للأغراض الدفاعية. ضغط المنافسة مع مايكروسوفت وأمازون: تمتلك مايكروسوفت وأمازون عقودًا ضخمة مع وزارة الدفاع الأمريكية، وتعملان على تطوير تقنيات ذكاء اصطناعي للجيش، مما قد يكون دفع جوجل إلى مراجعة موقفها. التوسع في قطاع الدفاع والأمن السيبراني: الذكاء الاصطناعي أصبح عنصرًا أساسيًا في الأمن السيبراني والاستخبارات العسكرية، وهو سوق ضخم قد ترغب جوجل في الاستفادة منه. ردود الفعل والانتقادات لم يمر هذا التغيير دون ردود فعل غاضبة، حيث أعرب العديد من الناشطين في مجال أخلاقيات الذكاء الاصطناعي عن قلقهم من أن تسهم جوجل في تطوير تقنيات يمكن استخدامها في النزاعات المسلحة. كما أن بعض موظفي الشركة قد يعيدون إحياء موجة الاحتجاجات التي اندلعت سابقًا بسبب مشروع Maven. ما التالي لجوجل؟ رغم عدم وجود إعلان رسمي عن مشاريع عسكرية جديدة، فإن حذف التعهد يشير إلى أن جوجل لم تعد تستبعد العمل في هذا المجال. ومع تصاعد الاستثمارات في الذكاء الاصطناعي العسكري عالميًا، قد يكون هذا القرار جزءًا من إعادة تموضع استراتيجي للشركة في سوق التكنولوجيا الدفاعية.

غوغل تسحب تعهدها بعدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة
غوغل تسحب تعهدها بعدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة

الجزيرة

time٠٧-٠٢-٢٠٢٥

  • الجزيرة

غوغل تسحب تعهدها بعدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة

تراجعت شركة غوغل عن تعهدها الذي كان يقضي بعدم استخدام الذكاء الاصطناعي لأغراض خطيرة مثل تطوير الأسلحة وأدوات المراقبة، إذ حدثت مبادئها الأخلاقية المتعلقة بالذكاء الاصطناعي وأعلنت أنها لم تعد تُلزم نفسها بتجنب تطوير التقنيات التي يُحتمل أن تُسبب ضررا عاما، وفقا لموقع "سي إن بي سي". وقد كانت النسخة السابقة من مبادئ الذكاء الاصطناعي للشركة تنص على أن غوغل لن تسعى إلى تسخير الذكاء الاصطناعي في تطوير أسلحة أو تقنيات أخرى قد تُلحق أذى بالناس أكان بطريقة مباشرة أو غير مباشرة، ولن تستخدم تقنيات جمع المعلومات لأغراض المراقبة. وفي منشور مدونة كتب ديميس هاسابيس الرئيس التنفيذي لشركة "غوغل ديب مايند" (Google DeepMind) "يشهد العالم منافسة كبيرة من أجل القيادة في مجال الذكاء الاصطناعي ضمن مشهد جيوسياسي معقد"، ونحن نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدين بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان". وأضاف الرئيس التنفيذي لشركة "غوغل ديب مايند"، "إن مبادئ الذكاء الاصطناعي كانت تخضع لتحديث في عالم متغير وهذه التقنية يجب أن تحمي الأمن القومي". وتعكس المبادئ المحدثة للشركة طموحات غوغل المتزايدة لتقديم تقنياتها وخدماتها في مجال الذكاء الاصطناعي لمزيد من المستخدمين والعملاء بما في ذلك الحكومات، إذ إن هذا التغيير يتماشى مع التصريحات المتزايدة من قادة وادي السيليكون حول سباق الذكاء الاصطناعي بين الولايات المتحدة والصين. وقال شيام سانكار كبير مسؤولي التكنولوجيا في "بالانتير" (Palantir) "سيكون الأمر بمثابة جهد وطني يمتد إلى ما هو أبعد من وزارة الدفاع لكي نحقق النصر". وذكرت غوغل أنها ستظل متماشية مع مبادئ القانون الدولي وحقوق الإنسان المعتمدة عالميا، وأنها ستحرص أن تكون أعمالها في قطاع الذكاء الاصطناعي ذات فائدة أكبر وضرر أقل. وقد أصدرت غوغل مبادئها الخاصة بالذكاء الاصطناعي في عام 2018 بعد رفضها تجديد عقد حكومي يُعرف بمشروع "مافن" (Maven)، والذي ساعد الحكومة على تحليل وتفسير مقاطع فيديو الطائرات دون طيار باستخدام الذكاء الاصطناعي. وقبل إنهاء الصفقة وقّع آلاف الموظفين على عريضة ضد هذا المشروع واستقال العشرات، ومن جهة أخرى انسحبت الشركة من مزايدة على عقد بقيمة 10 مليارات دولار مع البنتاغون لأنها لم تكن متأكدة من أنه سيتوافق مع مبادئ الذكاء الاصطناعي الخاصة بها. ومن الواضح أن شركة غوغل تروج لتقنياتها في مجال الذكاء الاصطناعي للعملاء، وقد سعى فريق القيادة برئاسة بيتشاي بشكل قوي للحصول على عقود مع الحكومة الفدرالية، مما أدى إلى حصول تصادمات واعتراضات داخل الشركة مع بعض القوى العاملة الرافضة لهذه السياسات. وفي العام الماضي، سرّحت غوغل أكثر من 50 موظفا بعد سلسلة من الاحتجاجات ضد مشروع "نيمبوس" (Nimbus)، وهو عقد مشترك بقيمة 1.2 مليار دولار مع أمازون يوفر للحكومة والجيش الإسرائيلي خدمات الحوسبة السحابية وخدمات الذكاء الاصطناعي، وقد أكد مديرو الشركة أن العقد لا ينتهك مبادئ الذكاء الاصطناعي الخاصة بغوغل. ومع ذلك أظهرت وثائق وتقارير أن اتفاق الشركة يسمح بتزويد إسرائيل بأدوات ذكاء اصطناعي تتضمن تصنيف الصور وتتبع الكائنات. وقد أفادت صحيفة نيويورك تايمز في ديسمبر/كانون الأول الماضي بأن مسؤولي غوغل عبّروا عن قلقهم، قبل 4 أشهر من توقيع عقد "نيمبوس"، من أن الصفقة ستضر بسمعتها وأن خدمات "غوغل كلاود" يمكن استخدامها في أمور قد تنتهك حقوق الإنسان، وفي الوقت نفسه كانت الشركة تعاني من اضطرابات داخلية بسبب النزاعات الجيوسياسية مثل حرب غزة. وفي سبتمبر/أيلول العام الماضي أعلنت غوغل عن تحديث إرشادات منتداها الداخلي "ميمجين" (Memegen) والتي قيدت المناقشات السياسية حول المحتوى الجيوسياسي والعلاقات الدولية والصراعات العسكرية والإجراءات الاقتصادية والنزاعات الإقليمية، بحسب "سي إن بي سي".

قطرات Google تعهد بعدم استخدام الذكاء الاصطناعي للأسلحة والمراقبة
قطرات Google تعهد بعدم استخدام الذكاء الاصطناعي للأسلحة والمراقبة

وكالة نيوز

time٠٥-٠٢-٢٠٢٥

  • علوم
  • وكالة نيوز

قطرات Google تعهد بعدم استخدام الذكاء الاصطناعي للأسلحة والمراقبة

يقول عملاق التكنولوجيا في سياسة الأخلاقيات المحدثة أنها ستستخدم الذكاء الاصطناعي بما يتماشى مع 'القانون الدولي وحقوق الإنسان'. أسقطت Google تعهدًا بعدم استخدام الذكاء الاصطناعي للأسلحة أو المراقبة في سياسة الأخلاق المحدثة بشأن التكنولوجيا القوية. في نسخته السابقة من 'مبادئ الذكاء الاصطناعى' ، تضمنت عملاق الإنترنت الذي يتخذ من كاليفورنيا مقراً له التزامًا بعدم متابعة تقنيات الذكاء الاصطناعى التي 'تسبب أو من المحتمل أن تسبب ضررًا بشكل عام' ، بما في ذلك الأسلحة والمراقبة التي تنتهك 'المعايير المقبولة دوليًا'. أعلنت سياسة Google المنقحة يوم الثلاثاء أن الشركة تتابع الذكاء الاصطناعي 'بشكل مسؤول' وتمشيا مع 'مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع ، ولكنها لا تشمل اللغة السابقة حول الأسلحة أو المراقبة. وقال كبير نائب الرئيس جيمس مانيكا ، كبير نائب الرئيس البارز في شركة Google Deepmind ، 'نعتقد أن الديمقراطيات يجب أن تقود في تنمية الذكاء الاصطناعي ، وتسترشد بالقيم الأساسية مثل الحرية والمساواة واحترام حقوق الإنسان'. 'ونحن نعتقد أن الشركات والحكومات والمنظمات التي تشارك هذه القيم يجب أن تعمل معًا لإنشاء الذكاء الاصطناعي الذي يحمي الناس ، ويعزز النمو العالمي ، ويدعم الأمن القومي.' لم ترد Google على الفور على طلب الجزيرة للتعليق. نشرت Google لأول مرة قائمة مبادئ الذكاء الاصطناعي في عام 2018 بعد أن احتج الموظفون على مشاركة الشركة في مشروع Maven التابع لوزارة الدفاع بالولايات المتحدة ، والذي فحص استخدام الذكاء الاصطناعي لمساعدة الجيش على تحديد أهداف لإضرابات الطائرات بدون طيار. اختارت Google عدم تجديد عقدها مع البنتاغون بعد رد الفعل العكسي ، الذي شهد استقالة عدد من الموظفين وتوقيع آلاف الآخرين على عريضة تشرب مشاركة الشركة في المشروع. أعلنت شركة التكنولوجيا العملاقة في وقت لاحق من ذلك العام أنها لن تتنافس بعد الآن عقد حوسبة سحابية بقيمة 10 مليارات دولار مع البنتاغون لأنه 'لا يمكن أن يضمن' أنه سيتماشى مع مبادئ الذكاء الاصطناعي. تأتي سياسة الأخلاقيات المحدثة من Google بعد أن انضم الرئيس التنفيذي للشركة الأم Alphabet Inc ، Sundar Pichai ، إلى قادة التكنولوجيا ، بمن فيهم مؤسس Amazon Jeff Bezos ورئيس Meta Mark Zuckerberg ، في حضور افتتاح الرئيس الأمريكي دونالد ترامب في 20 يناير. بعد ساعات من توليه منصبه ، ألغى ترامب أمرًا تنفيذيًا من قبل الرئيس الأمريكي السابق جو بايدن والذي أنشأ بعض الدرابزين للتكنولوجيا النامية بسرعة. يتطلب أمر بايدن من الشركات التي تقوم بتطوير منظمة العفو الدولية مشاركة نتائج اختبارات السلامة مع الحكومة قبل إصدار تقنيات جديدة للجمهور.

جوجل تزيل الحظر على استخدام ذكائها الاصطناعي في تطوير الأسلحة
جوجل تزيل الحظر على استخدام ذكائها الاصطناعي في تطوير الأسلحة

سرايا الإخبارية

time٠٥-٠٢-٢٠٢٥

  • علوم
  • سرايا الإخبارية

جوجل تزيل الحظر على استخدام ذكائها الاصطناعي في تطوير الأسلحة

سرايا - أجرت جوجل أكبر تعديل على مبادئها الخاصة بالذكاء الاصطناعي منذ إعلانها أول مرة في عام 2018، إذ أزالت الشركة تعهداتها السابقة بعدم تصميم تقنيات الذكاء الاصطناعي أو توظيفها للاستخدام في تطوير الأسلحة أو أنظمة المراقبة. ووفقًا لصحيفة واشنطن بوست، فلم تعد المبادئ المُحدّثة تتضمن قسم 'التطبيقات التي لن نسعى إليها'، الذي كان ينص صراحةً على عدم تطوير أدوات ذكاء اصطناعي للأسلحة أو التقنيات التي تنتهك المعايير الدولية للمراقبة. وبدلًا من ذلك، أدخلت الشركة جزءًا جديدًا تحت عنوان 'التطوير والتوظيف المسؤول'، وتؤكد فيه على ضرورة وجود 'إشراف بشري مناسب، وإجراءات تقييم، وآليات مراجعة لضمان توافق التكنولوجيا مع أهداف المستخدمين والمبادئ المقبولة عالميًا'. وحتى الشهر الماضي، كانت سياسة جوجل تنص بوضوح على أنها لن تطوّر الذكاء الاصطناعي للاستخدام في الأسلحة أو في التقنيات المُصممة بنحو أساسي لإلحاق الضرر بالناس، وأكّدت أنها لن تعمل على أنظمة مراقبة تنتهك القوانين والمعايير الدولية، لكن مع التحديث الجديد، لم تعد هذه الالتزامات موجودة، مما يفتح المجال أمام استخدام أوسع للذكاء الاصطناعي في التطبيقات العسكرية والأمنية. وعند الاستفسار عن هذا التغيير، أشارت جوجل إلى منشور رسمي كتبه كل من ديميس هاسابيس، الرئيس التنفيذي لشركة ديب مايند، وجيمس مانيكا، نائب الرئيس الأول للأبحاث والتكنولوجيا والمجتمع في جوجل. وأوضح المنشور أن ظهور الذكاء الاصطناعي كتكنولوجيا عامة يتطلب تغيير السياسات، مؤكدين أن الشركات والحكومات التي تشترك في قيم مثل الحرية والمساواة واحترام حقوق الإنسان يجب أن تعمل معًا لتطوير ذكاء اصطناعي يضمن الحماية، ويدعم الأمن القومي، ويسهم في النمو العالمي، وهي مبررات عامة وغير قابلة للقياس، وفقًا لآراء المنتقدين. ويأتي هذا التغيير بعد تاريخ طويل من الجدل داخل جوجل حول علاقتها بالمؤسسات العسكرية. ففي 2018، وبعد احتجاجات واسعة من موظفي الشركة، قررت جوجل عدم تجديد عقدها مع وزارة الدفاع الأمريكية في مشروع Maven، الذي كان يهدف إلى استخدام الذكاء الاصطناعي لتحليل لقطات الطائرات دون طيار. لكن بحلول 2021، عادت جوجل إلى السعي وراء عقود عسكرية، وقدّمت عرضًا للحصول على عقد آخر من وزارة الدفاع الأمريكية. وفي بداية هذا العام، كشفت واشنطن بوست أن موظفي جوجل عملوا بنحو متكرر مع وزارة الدفاع الإسرائيلية لتوسيع استخدامها تقنيات الذكاء الاصطناعي الخاصة بالشركة في أثناء الحرب الأخيرة على غزة. ومع هذا التعديل، تتجه جوجل نحو دور أكثر نشاطًا في تطوير تقنيات الذكاء الاصطناعي للأغراض العسكرية والأمنية، وهو ما قد يثير مخاوف متزايدة بشأن أخلاقيات تقنيات الذكاء الاصطناعي، وتأثيرها في الحريات والخصوصية.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store