logo
#

أحدث الأخبار مع #osE00HBRyB

«ظهور أفيخاي بالذكاء الاصطناعي».. هل تتكتم إسرائيل على «مقتل متحدث جيشها»؟
«ظهور أفيخاي بالذكاء الاصطناعي».. هل تتكتم إسرائيل على «مقتل متحدث جيشها»؟

المصري اليوم

timeمنذ 16 ساعات

  • سياسة
  • المصري اليوم

«ظهور أفيخاي بالذكاء الاصطناعي».. هل تتكتم إسرائيل على «مقتل متحدث جيشها»؟

انتشرت خلال الساعات الماضية على مواقع التواصل الاجتماعي مجموعة من المنشورات تُشكك في صحة أحدث ظهورين للناطق باسم جيش الاحتلال الإسرائيلي، أفيخاي أدرعي ، في مقاطع فيديو بدا فيها بخلفية ثابتة مظلمة. عدد كبير من المتابعين خمنوا أن الفيديوهات قد تم إنتاجها باستخدام الذكاء الاصطناعي، بينما تداول آخرون نظرية أن أدرعي ربما قتل فعلًا، وأن المؤسسة العسكرية تحاول التغطية على غيابه. وتواصلت «المصري اليوم» مع أستاذ هندسة الحاسبات والذكاء الاصطناعي، ماركو ممدوح، الحاصل على دكتوراة من جامعة ستانفورد الأمريكية، والذي قام بتحليل دقيق للفيديوهين المنتشرين، مؤكدًا أن المقطعين «حقيقيان بنسبة 100٪» ولا يحملان أي دلائل تقنية تشير إلى أنهما مزيفان أو من إنتاج برامج التزييف العميق (Deepfake). وأوضح الخبير «ممدوح» أن هناك سمات تقنية معروفة تفصح عادة عن الفيديوهات المُزيفة، أبرزها: عدم تزامن حركات الجسم واليدين والرأس والعينين ، أو ظهورها بصورة آلية وثابتة. غياب الظلال الواقعية ، أو وجود إضاءات غير منطقية في خلفية المشهد. ثبات حركة الرقبة ، إذ تعجز تقنيات الذكاء الاصطناعي حتى الآن عن محاكاة الانسيابية الطبيعية لتحريك الرأس بالكامل. وأشار ماركو إلى أن هذه العلامات لم تظهر في أي من الفيديوهين محل الجدل، مؤكدًا أن تحركات أفيخاي، بما في ذلك حركة العين والرقبة والجسد، بدت تلقائية وطبيعية تمامًا، وتُظهر مؤشرات جسدية لا تزال تقنيات الذكاء الاصطناعي عاجزة عن محاكاتها بدقة. 🔴طهران لم تعد تتمتع بالحصانة والطريق إلى العاصمة الإيرانية بات معبدًا. لقد حققنا حرية عمل جوية من غرب ايران وحتى طهران. حرية العمل هذه ستسمح لنا بالتحرك واحباط التهديدات. الوصول إلى طهران يحمل في طياته اهمية استراتيجية وعملياتية واسعة ونحن نواصل تحقيق أهداف العملية — افيخاي ادرعي (@AvichayAdraee) June 14، 2025 وفيما يتعلق بالشكل العام للفيديو، رجّح الخبير أن يكون سبب انطباع «الفيديو المزيف» لدى الجمهور راجعًا إلى شكل الخلفية، التي بدت كأنها خلفية مُعدلة رقميًا أو ثابتة. لكنه أوضح أن هذه التقنية شائعة الاستخدام في الفيديوهات الرسمية أو المصورة داخل الاستديوهات المغلقة، ولا تعني إطلاقًا أن كامل الفيديو مصنوع بالذكاء الاصطناعي. واختتم الخبير حديثه بالتأكيد أنه «رغم التطور الكبير في أدوات التزييف العميق، لا تزال هناك فجوات واضحة يُمكن رصدها بتحليل بسيط»، مشيرًا إلى أن التكهنات المتداولة «غير مبنية على مؤشرات علمية، بل على مشاعر وتخمينات جماعية».

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store