#أحدث الأخبار مع #TheGospelالدستور١٩-٠٤-٢٠٢٥سياسةالدستورالذكاء الاصطناعي الداعم لـ"الإجرام البشري"!أشارت تقارير دولية موثوقة إلى أن إسرائيل استخدمت أنظمة ذكاء اصطناعي في عملياتها العسكرية الأخيرة، لا سيما خلال الحرب على غزة. من أبرز هذه الأنظمة نظام 'الإنجيل' (The Gospel)، الذي يُستخدم لتحليل البيانات وتحديد الأهداف المحتملة للقصف، بالإضافة إلى نظام 'لافندر' (Lavender)، الذي يُستخدم لتصنيف الأفراد المشتبه في انتمائهم إلى حركتي حماس أو الجهاد الإسلامي، استنادًا إلى تحليل سلوكهم الرقمي وبياناتهم الشخصية. ووفقًا لهذه التقارير، تم إدراج عشرات الآلاف من الأشخاص ضمن قوائم الاستهداف، مما أدى إلى تسريع وتيرة الضربات الجوية وتوسيع نطاقها. وقد أثار هذا الاستخدام انتقادات حقوقية ودولية واسعة، نظرًا لارتفاع عدد الضحايا المدنيين، مما يُثير تساؤلات قانونية وأخلاقية حول مدى التزام هذه العمليات بمبادئ القانون الدولي الإنساني، خصوصًا فيما يتعلق بالتمييز والتناسب. وفي هذا السياق، برزت أيضًا واقعة الموظفة المغربية 'إبتهال أبو السعد'، التي أعلنت استقالتها من شركة 'مايكروسوفت' احتجاجًا على بيع الشركة برمجيات وتقنيات متقدمة يُزعم استخدامها من قبل الجيش الإسرائيلي في عملياته. وقد سلطت هذه الحادثة الضوء على الدور الذي تلعبه شركات التكنولوجيا الكبرى في تزويد الجيوش ببرمجيات الذكاء الاصطناعي، ما يعزز من مشروعية المخاوف المتعلقة باستخدام هذه التقنيات لأغراض عسكرية قد تتعارض مع المبادئ القانونية والإنسانية. من الناحية القانونية، لا يوجد حتى الآن حظر دولي شامل يمنع استخدام الذكاء الاصطناعي في النزاعات المسلحة، بشرط ألا يخالف هذا الاستخدام قواعد القانون الدولي الإنساني والاتفاقيات الدولية ذات الصلة. يسمح القانون الدولي للدول بتطوير واستخدام تقنيات الذكاء الاصطناعي لأغراض عسكرية، شريطة الالتزام بمبادئ التمييز بين المدنيين والمقاتلين، والتناسب في استخدام القوة، والامتناع عن تنفيذ عمليات تُصنّف كقتل عشوائي أو استهداف مباشر للبنية التحتية المدنية. ورغم الإقرار النظري بشرعية استخدام الذكاء الاصطناعي في المجال العسكري، إلا أن تطبيقه العملي غير متكافئ. فقط عدد محدود من الدول مثل الولايات المتحدة، الصين، روسيا، وإسرائيل يمتلك القدرات التقنية والعلمية لتطوير هذه الأنظمة، بينما تعتمد معظم الدول الأخرى على استيراد التقنيات أو التعاون مع شركات أجنبية. ويزيد من هذا التفاوت فرض بعض الدول عقوبات تمنع تصدير تقنيات حساسة، كالمعالجات المتقدمة والبرمجيات، مما يحد من قدرة الدول النامية على بناء استقلالية تقنية. تقود الولايات المتحدة حاليًا مجال الذكاء الاصطناعي العسكري، حيث توظفه في أنظمة الطائرات المسيّرة وتحليل البيانات، مع التأكيد على ضرورة الإشراف البشري في اتخاذ القرار. وتتنافس الصين معها من خلال دمج الذكاء الاصطناعي في كافة القطاعات العسكرية، مع التركيز على السرعة والتكامل العملياتي. أما روسيا، فتطوّر أسلحة ذكية وروبوتات قتالية، وتعارض فرض أي حظر دولي عليها. وتبرز إسرائيل بوصفها من الدول الرائدة في الطائرات بدون طيار وأنظمة الدفاع الذكية. في المقابل، تدعو دول أوروبية عديدة إلى وضع إطار قانوني دولي لتنظيم استخدام الذكاء الاصطناعي العسكري، رغم امتلاكها تقنيات متقدمة. كما تعتمد تركيا على الذكاء الاصطناعي بفعالية في طائراتها المسيّرة، فيما تطوّر إيران وكوريا الجنوبية قدرات متفاوتة تركز على الدفاع الذكي. حتى اليوم، لا يوجد قانون دولي موحد وملزم بشكل خاص ينظم استخدام الذكاء الاصطناعي في الحروب، لكن مبادئ القانون الدولي الإنساني لا تزال سارية، وتشمل جميع وسائل وأساليب القتال، بما في ذلك الأنظمة الذكية. وتشمل هذه المبادئ: التمييز بين الأهداف العسكرية والمدنية، التناسب في استخدام القوة، والامتناع عن التسبب في معاناة غير ضرورية. من أبرز القضايا القانونية المثيرة للجدل حاليًا 'الأسلحة الذاتية التشغيل' (LAWs)، وهي أنظمة قادرة على اتخاذ قرارات باستخدام القوة دون تدخل بشري مباشر. وتُناقش هذه القضية ضمن اجتماعات الأمم المتحدة الخاصة باتفاقية الأسلحة التقليدية (CCW)، حيث تنقسم الدول بين من يطالب بحظر شامل لهذه الأسلحة، ومن يدعو إلى تنظيم استخدامها. وقد أطلقت بعض الدول مثل الولايات المتحدة إعلانًا سياسيًا تحت عنوان 'الاستخدام المسؤول للذكاء الاصطناعي العسكري'، والذي يتضمن مجموعة مبادئ تهدف إلى ضبط هذا الاستخدام، ووقّعت عليه أكثر من 50 دولة حتى الآن. تتواصل الجهود الدولية لوضع أطر قانونية جديدة تنظم استخدام الذكاء الاصطناعي في النزاعات، سواء من خلال تطوير بروتوكولات ضمن القانون الدولي الإنساني القائم أو عبر اتفاقيات جديدة تفرض قيودًا على استخدام الذكاء الاصطناعي في القرارات العسكرية. غير أن تحقيق توافق دولي لا يزال صعبًا بسبب تباين الأولويات الأمنية والتكنولوجية بين الدول. يستلزم تطوير الذكاء الاصطناعي العسكري بنية تحتية متقدمة تشمل معالجات عالية الأداء، أنظمة تخزين ضخمة، بيانات دقيقة، وخبرات هندسية وبرمجية متقدمة. ولهذا السبب، يبقى الاستخدام الفعال لهذه التقنية محصورًا في الدول الكبرى. كما أن بعض شركات التكنولوجيا العالمية مثل NVIDIA وIntel وGoogle تفرض قيودًا على تصدير تقنياتها استنادًا إلى سياسات الدول المصدّرة، مما يزيد من صعوبة حصول الدول الأخرى على هذه التقنيات الحساسة. وعلى الرغم من أن استخدام الذكاء الاصطناعي العسكري لا يُعد محظورًا قانونيًا، إلا أن التفاوت التكنولوجي، والضغوط الأخلاقية، والقيود السياسية والاقتصادية، تجعل استخدامه حكرًا على قلة من الدول. وفي ظل هذا الواقع، تبرز الحاجة إلى تطوير إطار قانوني دولي شامل يُنظم استخدام الذكاء الاصطناعي في الحروب، بما يضمن التوازن بين الأمن والتقدم التكنولوجي من جهة، واحترام المبادئ الإنسانية من جهة أخرى. ولا يمكن رفض التكنولوجيا بشكل مطلق، بل يجب توجيه استخدامها ضمن إطار قانوني وأخلاقي صارم، يضمن امتثال الأسلحة الذاتية التشغيل لقواعد استخدام القوة، واحترام حقوق الإنسان، ومبادئ التمييز والتناسب، وتجنب التسبب في أضرار غير مبررة، مع ضرورة التقيّد بروح الاتفاقيات الدولية المنظمة لاستخدام الأسلحة. كما لا تقتصر المسؤولية على الجيوش والحكومات فحسب، بل تمتد إلى العلماء والمطوّرين، الذين يتحملون واجبًا أخلاقيًا يفرض عليهم احترام الكرامة الإنسانية، وتجنّب تجسيد الكائنات الحية أو الانسياق خلف رفاهية علمية قد تنزع السيطرة البشرية على هذه الأنظمة. ولهذا، بات من الضروري فرض إطار أخلاقي ملزم يضمن بقاء الأسلحة الذكية تحت الرقابة البشرية وضمن حدود القانون الدولي.
الدستور١٩-٠٤-٢٠٢٥سياسةالدستورالذكاء الاصطناعي الداعم لـ"الإجرام البشري"!أشارت تقارير دولية موثوقة إلى أن إسرائيل استخدمت أنظمة ذكاء اصطناعي في عملياتها العسكرية الأخيرة، لا سيما خلال الحرب على غزة. من أبرز هذه الأنظمة نظام 'الإنجيل' (The Gospel)، الذي يُستخدم لتحليل البيانات وتحديد الأهداف المحتملة للقصف، بالإضافة إلى نظام 'لافندر' (Lavender)، الذي يُستخدم لتصنيف الأفراد المشتبه في انتمائهم إلى حركتي حماس أو الجهاد الإسلامي، استنادًا إلى تحليل سلوكهم الرقمي وبياناتهم الشخصية. ووفقًا لهذه التقارير، تم إدراج عشرات الآلاف من الأشخاص ضمن قوائم الاستهداف، مما أدى إلى تسريع وتيرة الضربات الجوية وتوسيع نطاقها. وقد أثار هذا الاستخدام انتقادات حقوقية ودولية واسعة، نظرًا لارتفاع عدد الضحايا المدنيين، مما يُثير تساؤلات قانونية وأخلاقية حول مدى التزام هذه العمليات بمبادئ القانون الدولي الإنساني، خصوصًا فيما يتعلق بالتمييز والتناسب. وفي هذا السياق، برزت أيضًا واقعة الموظفة المغربية 'إبتهال أبو السعد'، التي أعلنت استقالتها من شركة 'مايكروسوفت' احتجاجًا على بيع الشركة برمجيات وتقنيات متقدمة يُزعم استخدامها من قبل الجيش الإسرائيلي في عملياته. وقد سلطت هذه الحادثة الضوء على الدور الذي تلعبه شركات التكنولوجيا الكبرى في تزويد الجيوش ببرمجيات الذكاء الاصطناعي، ما يعزز من مشروعية المخاوف المتعلقة باستخدام هذه التقنيات لأغراض عسكرية قد تتعارض مع المبادئ القانونية والإنسانية. من الناحية القانونية، لا يوجد حتى الآن حظر دولي شامل يمنع استخدام الذكاء الاصطناعي في النزاعات المسلحة، بشرط ألا يخالف هذا الاستخدام قواعد القانون الدولي الإنساني والاتفاقيات الدولية ذات الصلة. يسمح القانون الدولي للدول بتطوير واستخدام تقنيات الذكاء الاصطناعي لأغراض عسكرية، شريطة الالتزام بمبادئ التمييز بين المدنيين والمقاتلين، والتناسب في استخدام القوة، والامتناع عن تنفيذ عمليات تُصنّف كقتل عشوائي أو استهداف مباشر للبنية التحتية المدنية. ورغم الإقرار النظري بشرعية استخدام الذكاء الاصطناعي في المجال العسكري، إلا أن تطبيقه العملي غير متكافئ. فقط عدد محدود من الدول مثل الولايات المتحدة، الصين، روسيا، وإسرائيل يمتلك القدرات التقنية والعلمية لتطوير هذه الأنظمة، بينما تعتمد معظم الدول الأخرى على استيراد التقنيات أو التعاون مع شركات أجنبية. ويزيد من هذا التفاوت فرض بعض الدول عقوبات تمنع تصدير تقنيات حساسة، كالمعالجات المتقدمة والبرمجيات، مما يحد من قدرة الدول النامية على بناء استقلالية تقنية. تقود الولايات المتحدة حاليًا مجال الذكاء الاصطناعي العسكري، حيث توظفه في أنظمة الطائرات المسيّرة وتحليل البيانات، مع التأكيد على ضرورة الإشراف البشري في اتخاذ القرار. وتتنافس الصين معها من خلال دمج الذكاء الاصطناعي في كافة القطاعات العسكرية، مع التركيز على السرعة والتكامل العملياتي. أما روسيا، فتطوّر أسلحة ذكية وروبوتات قتالية، وتعارض فرض أي حظر دولي عليها. وتبرز إسرائيل بوصفها من الدول الرائدة في الطائرات بدون طيار وأنظمة الدفاع الذكية. في المقابل، تدعو دول أوروبية عديدة إلى وضع إطار قانوني دولي لتنظيم استخدام الذكاء الاصطناعي العسكري، رغم امتلاكها تقنيات متقدمة. كما تعتمد تركيا على الذكاء الاصطناعي بفعالية في طائراتها المسيّرة، فيما تطوّر إيران وكوريا الجنوبية قدرات متفاوتة تركز على الدفاع الذكي. حتى اليوم، لا يوجد قانون دولي موحد وملزم بشكل خاص ينظم استخدام الذكاء الاصطناعي في الحروب، لكن مبادئ القانون الدولي الإنساني لا تزال سارية، وتشمل جميع وسائل وأساليب القتال، بما في ذلك الأنظمة الذكية. وتشمل هذه المبادئ: التمييز بين الأهداف العسكرية والمدنية، التناسب في استخدام القوة، والامتناع عن التسبب في معاناة غير ضرورية. من أبرز القضايا القانونية المثيرة للجدل حاليًا 'الأسلحة الذاتية التشغيل' (LAWs)، وهي أنظمة قادرة على اتخاذ قرارات باستخدام القوة دون تدخل بشري مباشر. وتُناقش هذه القضية ضمن اجتماعات الأمم المتحدة الخاصة باتفاقية الأسلحة التقليدية (CCW)، حيث تنقسم الدول بين من يطالب بحظر شامل لهذه الأسلحة، ومن يدعو إلى تنظيم استخدامها. وقد أطلقت بعض الدول مثل الولايات المتحدة إعلانًا سياسيًا تحت عنوان 'الاستخدام المسؤول للذكاء الاصطناعي العسكري'، والذي يتضمن مجموعة مبادئ تهدف إلى ضبط هذا الاستخدام، ووقّعت عليه أكثر من 50 دولة حتى الآن. تتواصل الجهود الدولية لوضع أطر قانونية جديدة تنظم استخدام الذكاء الاصطناعي في النزاعات، سواء من خلال تطوير بروتوكولات ضمن القانون الدولي الإنساني القائم أو عبر اتفاقيات جديدة تفرض قيودًا على استخدام الذكاء الاصطناعي في القرارات العسكرية. غير أن تحقيق توافق دولي لا يزال صعبًا بسبب تباين الأولويات الأمنية والتكنولوجية بين الدول. يستلزم تطوير الذكاء الاصطناعي العسكري بنية تحتية متقدمة تشمل معالجات عالية الأداء، أنظمة تخزين ضخمة، بيانات دقيقة، وخبرات هندسية وبرمجية متقدمة. ولهذا السبب، يبقى الاستخدام الفعال لهذه التقنية محصورًا في الدول الكبرى. كما أن بعض شركات التكنولوجيا العالمية مثل NVIDIA وIntel وGoogle تفرض قيودًا على تصدير تقنياتها استنادًا إلى سياسات الدول المصدّرة، مما يزيد من صعوبة حصول الدول الأخرى على هذه التقنيات الحساسة. وعلى الرغم من أن استخدام الذكاء الاصطناعي العسكري لا يُعد محظورًا قانونيًا، إلا أن التفاوت التكنولوجي، والضغوط الأخلاقية، والقيود السياسية والاقتصادية، تجعل استخدامه حكرًا على قلة من الدول. وفي ظل هذا الواقع، تبرز الحاجة إلى تطوير إطار قانوني دولي شامل يُنظم استخدام الذكاء الاصطناعي في الحروب، بما يضمن التوازن بين الأمن والتقدم التكنولوجي من جهة، واحترام المبادئ الإنسانية من جهة أخرى. ولا يمكن رفض التكنولوجيا بشكل مطلق، بل يجب توجيه استخدامها ضمن إطار قانوني وأخلاقي صارم، يضمن امتثال الأسلحة الذاتية التشغيل لقواعد استخدام القوة، واحترام حقوق الإنسان، ومبادئ التمييز والتناسب، وتجنب التسبب في أضرار غير مبررة، مع ضرورة التقيّد بروح الاتفاقيات الدولية المنظمة لاستخدام الأسلحة. كما لا تقتصر المسؤولية على الجيوش والحكومات فحسب، بل تمتد إلى العلماء والمطوّرين، الذين يتحملون واجبًا أخلاقيًا يفرض عليهم احترام الكرامة الإنسانية، وتجنّب تجسيد الكائنات الحية أو الانسياق خلف رفاهية علمية قد تنزع السيطرة البشرية على هذه الأنظمة. ولهذا، بات من الضروري فرض إطار أخلاقي ملزم يضمن بقاء الأسلحة الذكية تحت الرقابة البشرية وضمن حدود القانون الدولي.