#أحدث الأخبار مع #نيوهامبشرالاقتصاديةمنذ 7 ساعاتسياسةالاقتصاديةلماذا تنتشر مقاطع «التزييف العميق»؟ وهل يمكن إيقافها؟يعج الأنترنت بمحتوى "التزييف العميق" (deepfakes) - سواء كان صوتاً أو صوراً أو فيديوهات صُنعت باستخدام أدوات الذكاء الاصطناعي- حيث يظهر الأشخاص وكأنهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها، أو يتواجدون في أماكن لم يكونوا فيها، أو يتغير فيها مظهرهم. يتضمن بعضه ما يُعرف بـ"التعري الرقمي"، حيث تُعدَّل الصور لإظهار شخصٍ ما من دون ملابس، وتُستخدم "التزييفات العميقة" الأخرى لخداع المستهلكين، أو للإضرار بسمعة السياسيين وغيرهم من الشخصيات العامة. تقدمُ الذكاء الاصطناعي يُسَهل إنشاء "تزييف عميق" واقعي ببضع نقرات فقط على لوحة المفاتيح. وتُحاول الحكومات القلقة التصدي لهذه الظاهرة، غير أن المعركة تبدو خاسرة، فقد زادت محاولات الاحتيال باستخدام "التزييف العميق" بأكثر من 20 ضعفاً خلال السنوات الثلاث الماضية، وفقاً لبيانات شركة التحقق من الهوية "ساينيكات" (Signicat). ما التدابير المتخذة لمكافحة "التزييف العميق"؟ في 19 مايو، وقّع الرئيس الأمريكي، دونالد ترمب، على قانون "إزالة المحتوى" (Take It Down Act)، الذي يُجرّم المواد الإباحية غير التوافقية المُنتَجة باستخدام الذكاء الاصطناعي، والمعروفة أيضاً باسم "الانتقام الإباحي بالتزييف العميق"، ويُلزم شركات التواصل الاجتماعي بإزالة هذه الصور الجنسية الصريحة عند الطلب. في العام الماضي، جعلت لجنة الاتصالات الفيدرالية الأمريكية استخدام الأصوات المُولّدة بالذكاء الاصطناعي في المكالمات الآلية غير قانوني. وجاء هذا الحظر بعد يومين من إصدار اللجنة أمر "كف وتوقف" ضد الشركة المسؤولة عن "تزييف صوتي عميق" للرئيس جو بايدن. وكان سكان ولاية نيوهامبشر قد تلقوا مكالمة آلية قبل الانتخابات التمهيدية الرئاسية في الولاية، بدا فيها الصوت وكأنه صوت بايدن، يحثهم على البقاء في منازلهم و"الاحتفاظ بأصواتهم لانتخابات نوفمبر". يُلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي المنصات بوضع علامات تُبيّن أن المحتوى هو نتاج "تزييف عميق". وطبّقت الصين تشريعاً مشابهاً في عام 2023، وفي 28 أبريل، دعت مفوضة شؤون الأطفال في إنجلترا الحكومة البريطانية إلى حظر تطبيقات "التعري الرقمي" المنتشرة على نطاق واسع عبر الإنترنت. أين ورد "التزييف العميق" في الأخبار؟ انتشرت صور "تزييف عميق" فاضحة لنجمة البوب، تايلور سويفت، على نطاق واسع عبر وسائل التواصل الاجتماعي في يناير 2024، ما أثار غضب جماهيرها الغفيرة، ودفع البيت الأبيض إلى التعبير عن قلقه. خلال الانتخابات الرئاسية الأمريكية في عام 2024، شارك إيلون ماسك مقطع فيديو دعائياً باستخدام "التزييف العميق" يظهر فيه صوتٌ مُعدّل باستخدام الذكاء الاصطناعي للمرشحة الديمقراطية، كامالا هاريس، دون أن يُصنّف الفيديو على أنه مضلل. وبدت في الفيديو وكأنها تصف الرئيس، جو بايدن، بـ"الخَرِف" وتقول إنها لا "تعرف شيئاً عن إدارة البلاد". وقد حصد الفيديو عشرات الملايين من المشاهدات. ورداً على ذلك، تعهّد حاكم ولاية كاليفورنيا، غافين نيوسوم، بحظر "التزييف العميق" السياسي المُعدّل رقمياً، ووقّع قانوناً بهذا الشأن في سبتمبر. كيف تُصنع مقاطع الفيديو باستخدام "التزييف العميق"؟ غالباً ما تُنتج باستخدام خوارزمية ذكاء اصطناعي مُدرّبة على التعرّف على الأنماط في تسجيلات فيديو حقيقية لشخص معين، وهي عملية تُعرف باسم "التعلّم العميق". ومن ثم يصبح من الممكن استبدال عنصر من فيديو، مثل وجه الشخص، بمحتوى آخر من دون أن يبدو الأمر كمونتاج سطحي. وتكون هذه التعديلات أكثر تضليلاً عند استخدامها مع تقنيات "استنساخ الصوت"، والتي تُحلل مقطعاً صوتياً لشخص يتحدث إلى أجزاء صوتية صغيرة جداً يُعاد تجميعها لتكوين كلمات جديدة يبدو أن المتحدث في الفيديو الأصلي ينطقها. كيف انتشر "التزييف العميق"؟ كانت هذه التقنية في البداية حكراً على الأكاديميين والباحثين. لكن في عام 2017، أفادت منصة "مذر بورد" (Motherboard) التابعة لموقع "فايس" (Vice) أن مستخدماً على "ريديت" يُدعى "ديب فيكس" ابتكر خوارزمية لصناعة مقاطع فيديو مزيفة باستخدام شفرة مفتوحة المصدر. حظرت "ريديت" هذا المستخدم، لكن الممارسة سرعان ما انتشرت. في بداياتها، كانت تقنية التزييف العميق تتطلب وجود فيديو حقيقي وأداءً صوتياً فعلياً، إلى جانب مهارات تحرير متقدمة. أما اليوم، فأنظمة الذكاء الاصطناعي التوليدي الحالية تتيح للمستخدمين إنتاج صور وفيديوهات مقنعة عبر أوامر كتابية بسيطة. اطلب من جهاز كمبيوتر إنشاء فيديو يضع كلمات في فم شخص ما، وسيظهر لك ذلك بالتأكيد. كيف يمكنك التعرّف على "التزييف العميق"؟ أصبحت هذه التزويرات الرقمية أصعب في الاكتشاف، مع استخدام شركات الذكاء الاصطناعي لأدوات جديدة على كم هائل من المواد المتاحة على الإنترنت، من "يوتيوب" إلى مكتبات الصور والفيديوهات المخزنة. في بعض الأحيان، تظهر علامات واضحة تدل على أن صورة أو فيديو ما تم إنشاؤه باستخدام الذكاء الاصطناعي، مثل وجود طرف في غير موضعه أو يد تحتوي على ستة أصابع. وقد يظهر تباين في الألوان بين الأجزاء المُعدلة وغير المُعدلة من الصورة. أحياناً، لا تتطابق حركة الفم مع الكلام في مقاطع "التزييف العميق". وقد يواجه الذكاء الاصطناعي صعوبة في تقديم تفاصيل دقيقة لعناصر مثل الشعر، والفم، والظلال، كما أن حواف الأجسام قد تكون في بعض الأحيان خشنة أو تحتوي على بكسلات ظاهرة. لكن كل هذا قد يتغير مع تحسّن النماذج الأساسية. ما أبرز الأمثلة الأخرى على استخدام تقنية "التزييف العميق"؟ نشر مروّجون صينيون في أغسطس 2023 صوراً مُعدلة لحرائق الغابات في جزيرة ماوي في هاواي، لدعم مزاعم بأن تلك الحرائق ناتجة عن اختبار سلاح "جوي" سري من قبل الولايات المتحدة. وفي مايو 2023، تراجعت الأسهم الأمريكية لفترة وجيزة بعد انتشار صورة على الإنترنت تُظهر البنتاغون وكأنه يحترق. وقال خبراء إن الصورة المُزيفة تحمل سمات إنتاج باستخدام الذكاء الاصطناعي. في فبراير من العام نفسه، ظهر مقطع صوتي مزيف بدا فيه وكأن المرشح الرئاسي النيجيري، أتيكو أبو بكر، يُخطط لتزوير الانتخابات في ذلك الشهر. وفي عام 2021، نُشر على وسائل التواصل الاجتماعي مقطع فيديو مدته دقيقة واحدة يظهر فيه الرئيس الأوكراني، فولوديمير زيلينسكي، وكأنه يدعو جنوده إلى إلقاء السلاح والاستسلام لروسيا. وهناك "تزييفات عميقة" أخرى غير ضارة، مثل تلك التي تُظهر نجم كرة القدم كريستيانو رونالدو وهو يُنشد قصائد عربية. ما الأبعاد الخطيرة المرتبطة بهذه التكنولوجيا؟ الخوف يكمن في أن تصبح مقاطع "التزييف العميق" في نهاية المطاف مقنعة لدرجة تجعل من المستحيل التمييز بين ما هو حقيقي وما هو مزيف. تخيّل محتالين يتلاعبون بأسعار الأسهم من خلال إنتاج فيديوهات مزورة لمديرين تنفيذيين يُصدرون تحديثات تخص شركاتهم، أو مقاطع مزيفة لجنود يرتكبون جرائم حرب. ويُعد السياسيون، وقادة الأعمال، والمشاهير من بين الأكثر عرضة للخطر، نظراً للعدد الكبير من التسجيلات المتوفرة عنهم. سلط تقرير مفوضة شؤون الأطفال في المملكة المتحدة الصادر في أبريل الضوء على تزايد خوف الأطفال من أن يكونوا ضحايا لمحتوى "تزييف عميق" فاضح. ومن المخاوف الإضافية أن يسهل انتشار الوعي بشأن "التزييف العميق" ادعاء الأشخاص الذين يظهرون فعلياً في تسجيلات وهم يقولون أو يفعلون أموراً مرفوضة أو غير قانونية، أن الأدلة ضدهم مزيفة، فقد بدأ بعض الأشخاص بالفعل يستخدمون دفاع "التزييف العميق" أمام المحاكم. ما الإجراءات الأخرى التي يمكن اتخاذها للحد من انتشار "التزييف العميق"؟ يستحيل عكس نوع التعلّم الآلي المستخدم في إنتاج "التزييف العميق" بسهولة من أجل اكتشاف المقاطع المزيفة، لكن عدداً قليلاً من الشركات الناشئة مثل "سينسيتي إيه آي" (Sensity AI) في هولندا، و"سنتينيل" (Sentinel) في إستونيا، تعمل على تطوير تقنيات للكشف عن المقاطع المزيفة، إلى جانب شركات تكنولوجية كبرى عديدة في الولايات المتحدة. وتعهدت شركات من بينها "مايكروسوفت" (Microsoft) بإدراج علامات مائية رقمية في الصور التي تُنتجها باستخدام أدوات الذكاء الاصطناعي الخاصة بها، لتمييزها كمحتوى مزيف. كما طوّرت شركة "أوبن إيه آي" (OpenAI)، مطوّرة "تشات جي بي تي"، تقنيات للكشف عن الصور المنتجة بالذكاء الاصطناعي، فضلاً عن طريقة لإضافة علامات مائية للنصوص، لكن لم تطرح التقنية الأخيرة حتى الآن، جزئياً لأنها ترى أنه يسهل على الجهات السيئة التحايل عليها.
الاقتصاديةمنذ 7 ساعاتسياسةالاقتصاديةلماذا تنتشر مقاطع «التزييف العميق»؟ وهل يمكن إيقافها؟يعج الأنترنت بمحتوى "التزييف العميق" (deepfakes) - سواء كان صوتاً أو صوراً أو فيديوهات صُنعت باستخدام أدوات الذكاء الاصطناعي- حيث يظهر الأشخاص وكأنهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلوها، أو يتواجدون في أماكن لم يكونوا فيها، أو يتغير فيها مظهرهم. يتضمن بعضه ما يُعرف بـ"التعري الرقمي"، حيث تُعدَّل الصور لإظهار شخصٍ ما من دون ملابس، وتُستخدم "التزييفات العميقة" الأخرى لخداع المستهلكين، أو للإضرار بسمعة السياسيين وغيرهم من الشخصيات العامة. تقدمُ الذكاء الاصطناعي يُسَهل إنشاء "تزييف عميق" واقعي ببضع نقرات فقط على لوحة المفاتيح. وتُحاول الحكومات القلقة التصدي لهذه الظاهرة، غير أن المعركة تبدو خاسرة، فقد زادت محاولات الاحتيال باستخدام "التزييف العميق" بأكثر من 20 ضعفاً خلال السنوات الثلاث الماضية، وفقاً لبيانات شركة التحقق من الهوية "ساينيكات" (Signicat). ما التدابير المتخذة لمكافحة "التزييف العميق"؟ في 19 مايو، وقّع الرئيس الأمريكي، دونالد ترمب، على قانون "إزالة المحتوى" (Take It Down Act)، الذي يُجرّم المواد الإباحية غير التوافقية المُنتَجة باستخدام الذكاء الاصطناعي، والمعروفة أيضاً باسم "الانتقام الإباحي بالتزييف العميق"، ويُلزم شركات التواصل الاجتماعي بإزالة هذه الصور الجنسية الصريحة عند الطلب. في العام الماضي، جعلت لجنة الاتصالات الفيدرالية الأمريكية استخدام الأصوات المُولّدة بالذكاء الاصطناعي في المكالمات الآلية غير قانوني. وجاء هذا الحظر بعد يومين من إصدار اللجنة أمر "كف وتوقف" ضد الشركة المسؤولة عن "تزييف صوتي عميق" للرئيس جو بايدن. وكان سكان ولاية نيوهامبشر قد تلقوا مكالمة آلية قبل الانتخابات التمهيدية الرئاسية في الولاية، بدا فيها الصوت وكأنه صوت بايدن، يحثهم على البقاء في منازلهم و"الاحتفاظ بأصواتهم لانتخابات نوفمبر". يُلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي المنصات بوضع علامات تُبيّن أن المحتوى هو نتاج "تزييف عميق". وطبّقت الصين تشريعاً مشابهاً في عام 2023، وفي 28 أبريل، دعت مفوضة شؤون الأطفال في إنجلترا الحكومة البريطانية إلى حظر تطبيقات "التعري الرقمي" المنتشرة على نطاق واسع عبر الإنترنت. أين ورد "التزييف العميق" في الأخبار؟ انتشرت صور "تزييف عميق" فاضحة لنجمة البوب، تايلور سويفت، على نطاق واسع عبر وسائل التواصل الاجتماعي في يناير 2024، ما أثار غضب جماهيرها الغفيرة، ودفع البيت الأبيض إلى التعبير عن قلقه. خلال الانتخابات الرئاسية الأمريكية في عام 2024، شارك إيلون ماسك مقطع فيديو دعائياً باستخدام "التزييف العميق" يظهر فيه صوتٌ مُعدّل باستخدام الذكاء الاصطناعي للمرشحة الديمقراطية، كامالا هاريس، دون أن يُصنّف الفيديو على أنه مضلل. وبدت في الفيديو وكأنها تصف الرئيس، جو بايدن، بـ"الخَرِف" وتقول إنها لا "تعرف شيئاً عن إدارة البلاد". وقد حصد الفيديو عشرات الملايين من المشاهدات. ورداً على ذلك، تعهّد حاكم ولاية كاليفورنيا، غافين نيوسوم، بحظر "التزييف العميق" السياسي المُعدّل رقمياً، ووقّع قانوناً بهذا الشأن في سبتمبر. كيف تُصنع مقاطع الفيديو باستخدام "التزييف العميق"؟ غالباً ما تُنتج باستخدام خوارزمية ذكاء اصطناعي مُدرّبة على التعرّف على الأنماط في تسجيلات فيديو حقيقية لشخص معين، وهي عملية تُعرف باسم "التعلّم العميق". ومن ثم يصبح من الممكن استبدال عنصر من فيديو، مثل وجه الشخص، بمحتوى آخر من دون أن يبدو الأمر كمونتاج سطحي. وتكون هذه التعديلات أكثر تضليلاً عند استخدامها مع تقنيات "استنساخ الصوت"، والتي تُحلل مقطعاً صوتياً لشخص يتحدث إلى أجزاء صوتية صغيرة جداً يُعاد تجميعها لتكوين كلمات جديدة يبدو أن المتحدث في الفيديو الأصلي ينطقها. كيف انتشر "التزييف العميق"؟ كانت هذه التقنية في البداية حكراً على الأكاديميين والباحثين. لكن في عام 2017، أفادت منصة "مذر بورد" (Motherboard) التابعة لموقع "فايس" (Vice) أن مستخدماً على "ريديت" يُدعى "ديب فيكس" ابتكر خوارزمية لصناعة مقاطع فيديو مزيفة باستخدام شفرة مفتوحة المصدر. حظرت "ريديت" هذا المستخدم، لكن الممارسة سرعان ما انتشرت. في بداياتها، كانت تقنية التزييف العميق تتطلب وجود فيديو حقيقي وأداءً صوتياً فعلياً، إلى جانب مهارات تحرير متقدمة. أما اليوم، فأنظمة الذكاء الاصطناعي التوليدي الحالية تتيح للمستخدمين إنتاج صور وفيديوهات مقنعة عبر أوامر كتابية بسيطة. اطلب من جهاز كمبيوتر إنشاء فيديو يضع كلمات في فم شخص ما، وسيظهر لك ذلك بالتأكيد. كيف يمكنك التعرّف على "التزييف العميق"؟ أصبحت هذه التزويرات الرقمية أصعب في الاكتشاف، مع استخدام شركات الذكاء الاصطناعي لأدوات جديدة على كم هائل من المواد المتاحة على الإنترنت، من "يوتيوب" إلى مكتبات الصور والفيديوهات المخزنة. في بعض الأحيان، تظهر علامات واضحة تدل على أن صورة أو فيديو ما تم إنشاؤه باستخدام الذكاء الاصطناعي، مثل وجود طرف في غير موضعه أو يد تحتوي على ستة أصابع. وقد يظهر تباين في الألوان بين الأجزاء المُعدلة وغير المُعدلة من الصورة. أحياناً، لا تتطابق حركة الفم مع الكلام في مقاطع "التزييف العميق". وقد يواجه الذكاء الاصطناعي صعوبة في تقديم تفاصيل دقيقة لعناصر مثل الشعر، والفم، والظلال، كما أن حواف الأجسام قد تكون في بعض الأحيان خشنة أو تحتوي على بكسلات ظاهرة. لكن كل هذا قد يتغير مع تحسّن النماذج الأساسية. ما أبرز الأمثلة الأخرى على استخدام تقنية "التزييف العميق"؟ نشر مروّجون صينيون في أغسطس 2023 صوراً مُعدلة لحرائق الغابات في جزيرة ماوي في هاواي، لدعم مزاعم بأن تلك الحرائق ناتجة عن اختبار سلاح "جوي" سري من قبل الولايات المتحدة. وفي مايو 2023، تراجعت الأسهم الأمريكية لفترة وجيزة بعد انتشار صورة على الإنترنت تُظهر البنتاغون وكأنه يحترق. وقال خبراء إن الصورة المُزيفة تحمل سمات إنتاج باستخدام الذكاء الاصطناعي. في فبراير من العام نفسه، ظهر مقطع صوتي مزيف بدا فيه وكأن المرشح الرئاسي النيجيري، أتيكو أبو بكر، يُخطط لتزوير الانتخابات في ذلك الشهر. وفي عام 2021، نُشر على وسائل التواصل الاجتماعي مقطع فيديو مدته دقيقة واحدة يظهر فيه الرئيس الأوكراني، فولوديمير زيلينسكي، وكأنه يدعو جنوده إلى إلقاء السلاح والاستسلام لروسيا. وهناك "تزييفات عميقة" أخرى غير ضارة، مثل تلك التي تُظهر نجم كرة القدم كريستيانو رونالدو وهو يُنشد قصائد عربية. ما الأبعاد الخطيرة المرتبطة بهذه التكنولوجيا؟ الخوف يكمن في أن تصبح مقاطع "التزييف العميق" في نهاية المطاف مقنعة لدرجة تجعل من المستحيل التمييز بين ما هو حقيقي وما هو مزيف. تخيّل محتالين يتلاعبون بأسعار الأسهم من خلال إنتاج فيديوهات مزورة لمديرين تنفيذيين يُصدرون تحديثات تخص شركاتهم، أو مقاطع مزيفة لجنود يرتكبون جرائم حرب. ويُعد السياسيون، وقادة الأعمال، والمشاهير من بين الأكثر عرضة للخطر، نظراً للعدد الكبير من التسجيلات المتوفرة عنهم. سلط تقرير مفوضة شؤون الأطفال في المملكة المتحدة الصادر في أبريل الضوء على تزايد خوف الأطفال من أن يكونوا ضحايا لمحتوى "تزييف عميق" فاضح. ومن المخاوف الإضافية أن يسهل انتشار الوعي بشأن "التزييف العميق" ادعاء الأشخاص الذين يظهرون فعلياً في تسجيلات وهم يقولون أو يفعلون أموراً مرفوضة أو غير قانونية، أن الأدلة ضدهم مزيفة، فقد بدأ بعض الأشخاص بالفعل يستخدمون دفاع "التزييف العميق" أمام المحاكم. ما الإجراءات الأخرى التي يمكن اتخاذها للحد من انتشار "التزييف العميق"؟ يستحيل عكس نوع التعلّم الآلي المستخدم في إنتاج "التزييف العميق" بسهولة من أجل اكتشاف المقاطع المزيفة، لكن عدداً قليلاً من الشركات الناشئة مثل "سينسيتي إيه آي" (Sensity AI) في هولندا، و"سنتينيل" (Sentinel) في إستونيا، تعمل على تطوير تقنيات للكشف عن المقاطع المزيفة، إلى جانب شركات تكنولوجية كبرى عديدة في الولايات المتحدة. وتعهدت شركات من بينها "مايكروسوفت" (Microsoft) بإدراج علامات مائية رقمية في الصور التي تُنتجها باستخدام أدوات الذكاء الاصطناعي الخاصة بها، لتمييزها كمحتوى مزيف. كما طوّرت شركة "أوبن إيه آي" (OpenAI)، مطوّرة "تشات جي بي تي"، تقنيات للكشف عن الصور المنتجة بالذكاء الاصطناعي، فضلاً عن طريقة لإضافة علامات مائية للنصوص، لكن لم تطرح التقنية الأخيرة حتى الآن، جزئياً لأنها ترى أنه يسهل على الجهات السيئة التحايل عليها.