logo
صيحات صور الذكاء الاصطناعي.. هل تستحق التسلية العابرة الثمن الذي ندفعه؟

صيحات صور الذكاء الاصطناعي.. هل تستحق التسلية العابرة الثمن الذي ندفعه؟

بعد الزخم المؤقت الذي أحدثته صيحة توليد صور الذكاء الاصطناعي بأسلوب (استديو جيبلي) Studio Ghibli، التي اجتاحت منصات التواصل الاجتماعي في نهاية شهر مارس الماضي، سرعان ما وجدت أدوات الذكاء الاصطناعي التوليدي، وفي مقدمتها ChatGPT، وسيلة جديدة لجذب المستخدمين وحثهم على تحميل صورهم الشخصية في أنظمتها. وهذه المرة، كان الهدف هو تحويل صور المستخدمين إلى نسخ رقمية يظهرون فيها على هيئة ألعاب داخل صناديق صغيرة ومعهم بعض الأدوات المرتبطة بعملهم الذي يمارسونه، وقد أُطلق على هذا التوجه الجديد اسم (AI doll) أو (Barbie box trend).
وتتبع هذه الصيحات الرقمية عادةً مسارًا بسيطًا ومكررًا، إذ تبدأ العملية برفع المستخدم لصورة شخصية في الأداة أو التطبيق المخصص مع كتابة بعض الأوامر النصية التوجيهية لتحويل الصورة إلى دمية معلبة تشبه دمى (باربي) الشهيرة أو شخصيات الأكشن ذات المظهر الكرتوني، مصحوبة بإكسسوارات تعكس اهتماماتك أو طبيعة عملك. والخطوة النهائية التي يتوقعها الجميع؟ بالطبع، مشاركة النتيجة المبهرة عبر منصات التواصل الاجتماعي بهدف زيادة التفاعل.
ومع تزايد انتشار هذه الصور وملء صفحات الأخبار بها، يتزايد القلق بشأن تداعياتها، فالأمر لا يقتصر على كونها مجرد صيحة جديدة تسيء استخدام إمكانيات الذكاء الاصطناعي، بل يتعداه إلى موافقة ملايين الأشخاص على مشاركة وجوههم ومعلوماتهم الحساسة طواعيةً، فقط للحاق بالركب الاجتماعي، الذي يفرض نفسه بقوة على المنصات الرقمية، دون أدنى تفكير في مخاطر الخصوصية والأمان المترتبة على ذلك.
خدعة الخصوصية.. موافقة بلا وعي:
لقد ساهمت صيحات توليد الصور بالذكاء الاصطناعي، مثل: الصور المولدة بأسلوب الدمى (AI doll)، أو بأسلوب استوديو جيبلي بنحو كبير في تغذية قواعد بيانات شركات مثل: OpenAI و xAI، وغيرها من شركات الذكاء الاصطناعي بكميات ضخمة من الصور الشخصية.
والمثير للدهشة أن العديد من المشاركين في هذه الصيحات ربما لم يستخدموا برامج النماذج اللغوية الكبيرة من قبل على الإطلاق، مما يشير إلى أن الدافع الرئيسي كان الانضمام إلى الضجة المنتشرة عبر منصات التواصل الاجتماعي، وليس الاهتمام بالتكنولوجيا بحد ذاتها أو فهم كيفية عملها. وقد أصبح المشهد مقلقًا للغاية خلال الأيام الماضية عند رؤية العديد من العائلات الذين رفعوا صور أطفالهم للحصول على هذه الصور ومشاركتها بدون وعي.
قد يعتقد الكثير من الأفراد أن عملية تحميل صورة شخصية إلى برنامج ذكاء اصطناعي متخصص في توليد الصور لا تختلف كثيرًا عن مجرد مشاركة صورة شخصية عبر إنستاجرام، وقد يعزز هذا الاعتقاد لديهم أن نماذج الذكاء الاصطناعي الكبرى معروفة بالفعل بجمع البيانات والصور من الويب.
ولكن هنا يكمن الفخ الأكبر، فمن خلال تحميل صورك طوعًا إلى برامج توليد الصور بالذكاء الاصطناعي، فإنك تمنح مزود الخدمة مزيدًا من الطرق القانونية لاستخدام تلك المعلومات، أو بمعنى أدق، استخدام وجهك أو البيانات البيومترية الفريدة المستمدة منه، لأغراض قد تتجاوز بكثير مجرد إنشاء الصورة الفنية التي طلبتها في البداية، فقد تُستخدم هذه البيانات في تدريب النماذج المستقبلية أو لأغراض تجارية أو تحليلية أخرى وفقًا لبنود الخدمة التي غالبًا ما يوافق عليها المستخدمون دون قراءتها بتأنٍ.
وقد أوضحت لويزا جاروفسكي، المؤسسة المشاركة لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، أن انتشار صيحات الصور هذه بنحو واسع يعني أن المستخدمين، بمشاركتهم الطوعية لمعلوماتهم، يمنحون شركات الذكاء الاصطناعي مثل (OpenAI) موافقة صريحة على معالجة تلك البيانات. ويتجاوز هذا الفعل الحماية التي توفرها اللائحة العامة لحماية البيانات (GDPR) تحت بند (المصالح المشروعة) legitimate interest، مما يسمح لهذه الشركات باستخدام الصور بطرق قانونية قد لا يتوقعها المستخدمون.
🚨 Most people haven't realized that the Ghibli Effect is not only an AI copyright controversy but also OpenAI's PR trick to get access to thousands of new personal images; here's how:
To get their own Ghibli (or Sesame Street) version, thousands of people are now voluntarily… pic.twitter.com/zBktscNOSh
— Luiza Jarovsky (@LuizaJarovsky) March 29, 2025
وقد وصفت جاروفسكي الأمر بأنه (خدعة خصوصية ذكية)، أتاحت لشركات الذكاء الاصطناعي جمع كميات ضخمة من الصور الجديدة لتدريب نماذجها وتطويرها أو ربما تستخدمها في أغراض أخرى غير معلنة.
ويمكننا القول إن نجاح هذه الإستراتيجية في صيحة توليد الصور بأسلوب جيبلي دفع الشركات إلى رفع المستوى بإطلاق صيحة الصور المولدة بأسلوب الدمى، التي لا تتطلب رفع الصور الشخصية فقط، بل تتطلب أيضًا إدخال تفاصيل شخصية إضافية عن العمل والاهتمامات.
فقدان السيطرة الكاملة على بياناتك:
لإنشاء شخصيتك الرقمية المتحركة المخصصة لك بدقة عالية بأسلوب الدمى، لا يكفي مجرد تحميل صورتك، بل يتطلب الأمر منك مشاركة بعض المعلومات التفصيلية عن نفسك – التي تتضمن طبيعة عملك واهتماماتك الشخصية وهواياتك المفضلة خارج نطاق العمل وأي تفاصيل أخرى ترغب في عكسها في شخصيتك الرقمية – لتوليد الحزمة الكاملة والإكسسوارات المصاحبة، فكلما قدمت تفاصيل أكثر، زاد الشبه بين الشخصية الناتجة وشخصيتك الحقيقية واهتماماتك.
وبناءً على ذلك، فإن المشكلة لا تقتصر على مجرد منح المستخدمين موافقة ضمنية أو صريحة لشركات الذكاء الاصطناعي على استخدام بيانات وجوههم لأغراض توليد الصور؛ بل يشمل أيضًا تزويد هذه الشركات بكمية كبيرة وغير مسبوقة من المعلومات الشخصية الوصفية والسياقية، التي لا يمكن لأنظمة الذكاء الاصطناعي، في معظم الحالات، جمعها أو استنتاجها بدقة بأي طريقة أخرى.
ويحذر إيمون ماغواير، رئيس قسم أمن الحسابات في شركة (Proton) من أن مشاركة هذه المعلومات الشخصية يفتح صندوق باندورا من المشكلات التي لا حصر لها، والتي لا يمكن التنبؤ بها حاليًا.
ويكمن السبب الرئيسي في ذلك في فقدان السيطرة الكاملة على بياناتك، والأهم من ذلك، على كيفية استخدامها في المستقبل، فقد تُستخدم هذه البيانات لتدريب النماذج اللغوية الكبيرة، أو لتوليد محتوى جديد، أو لتخصيص الإعلانات الموجهة، أو لأغراض أخرى متعددة، ولن يكون لديك الحق في اتخاذ قرار بشأن أي من هذه الاستخدامات.
وقال ماغواير موضحًا خطورة الموقف: 'الملفات الشخصية والسلوكية التفصيلية التي يمكن لأدوات مثل ChatGPT إنشاؤها باستخدام هذه المعلومات قد تؤثر في جوانب حاسمة في حياتك بما يشمل: تغطية التأمين، وشروط الإقراض، والمراقبة، والتحليل السلوكي (profiling)، وجمع المعلومات الاستخباراتية، وحتى الهجمات السيبرانية الموجهة'.
ومع ذلك تُعدّ قضية الخصوصية المرتبطة بكيفية استخدام أو إساءة استخدام، شركات مثل: OpenAI وجوجل ومايكروسوفت وإكس، لهذه البيانات هي جانب واحد فقط من المشكلة، فهذه الأدوات التي تجمع كميات ضخمة من البيانات الشخصية ستتحول بمرور الوقت إلى أهداف مغرية للقراصنة. والمثير للقلق أن شركات الذكاء الاصطناعي ليست نموذجًا يُحتذى به في تأمين بيانات مستخدميها.
وفي هذا السياق، استشهد ماغواير بحادثتين بارزتين: الأولى: حادثة شركة (DeepSeek) التي تسبب في إتاحة قاعدة بيانات مستخدميها علنًا عبر الإنترنت، والثانية: حادثة شركة (OpenAI)، التي تعرضت فيها إحدى المكتبات التي استخدمتها لثغرة أمنية أدت إلى كشف بيانات مستخدمين حساسة، بما يشمل: الأسماء، وعناوين البريد الإلكتروني، ومعلومات بطاقة الائتمان.
وفي مثل هذه الحالات، يمكن للقراصنة استغلال الصور والمعلومات الشخصية لأغراض خبيثة، مثل: الدعاية السياسية المضللة، وسرقة الهوية، وعمليات الاحتيال المالية، والاحتيال عبر الإنترنت، مما يجعل هذه الصيحات ليست مجرد مخاطر خصوصية، بل تهديدات أمنية حقيقية.
الاستهلاك الضخم للطاقة.. تهديد بيئي متزايد:
لم يقتصر استخدام هذه الصيحات الرقمية على الأفراد العاديين فحسب، بل سارعت العديد من العلامات التجارية المعروفة والجهات الحكومية إلى تبني استخدامها في حملاتها التسويقية، مما يدل على الجاذبية الكبيرة لهذه الموجة الرقمية وسرعة انتشارها.
We had to get in on the toy action figure trend! 🚀🪀🧸
We love it! What do you think? 👇 pic.twitter.com/YUKnfbcJQY
— Royal Mail (@RoyalMail) April 9, 2025
وبينما يستمتع الكثيرون بالطابع المرح لهذه الصيحات الجديدة، بدأت تظهر أصوات ناقدة تعبر عن قلقها بشأن التأثير البيئي لها، إذ تشير البروفيسورة جينا نيف من جامعة كوين ماري في لندن إلى أن ChatGPT يستهلك كميات ضخمة من الطاقة، وأن مراكز البيانات التي تدعم تشغيله تستهلك كهرباء في عام واحد أكثر مما تستهلكه 117 دولة مجتمعة.
ويستدعي هذا الواقع تساؤلات حاسمة حول ممارسات الطاقة المستدامة، خاصة عندما يتعلق الأمر بتطبيقات الذكاء الاصطناعي التي قد لا تُعدّ حيوية ضمن المنظومة التقنية.
هل تستحق التسلية العابرة الثمن الباهظ الذي ندفعه؟
لقد أصبح تجنب مشاركة المعلومات الشخصية والبقاء مجهول الهوية عبر الإنترنت أمرًا صعبًا للغاية الآن في هذا العالم الرقمي، ومع ذلك، تظهر صيحات الصور المولدة الذكاء الاصطناعي السريعة الانتشار هذه بوضوح أن معظم الناس لا يأخذون التبعات المتعلقة بالخصوصية والأمان على محمل الجد، فمع تزايد الوعي بأهمية استخدام أدوات لحماية الخصوصية، يبدو أن إغراء الانضمام إلى أحدث موجة اجتماعية يتغلب على الحذر.
وتدرك شركات الذكاء الاصطناعي هذه الديناميكية النفسية والاجتماعية لدى المستخدمين جيدًا وقد أتقنت فن استغلالها لصالحها، فمن خلال تقديم تجارب رقمية مصممة خصوصًا لتكون ممتعة وجذابة للغاية بصريًا وسهلة الاستخدام في الوقت نفسه، تنجح هذه الشركات في جذب ملايين المستخدمين الجدد، وجمع كميات ضخمة من البيانات القيمة والحساسة التي لا يمكن الحصول عليها بسهولة بطرق أخرى تقليدية.
ويمكن القول إن الازدهار السريع لصيحات توليد الصور بأسلوب جيبلي وأسلوب الدمى ليس سوى بداية لمرحلة جديدة في تطور الذكاء الاصطناعي التوليدي وتهديده المتزايد للخصوصية، ومن المؤكد أننا سنشهد المزيد من هذه الصيحات التي تنتشر بسرعة البرق بين مستخدمي منصات التواصل الاجتماعي في الأشهر القادمة.
وفي الختام، تتجاوز صيحات صور الذكاء الاصطناعي مجرد كونها ظاهرة ممتعة عبر منصات التواصل الاجتماعي، بل تمثل نقطة انطلاق لنقاشات جادة وملحة حول التكاليف الخفية للابتكارات المدفوعة بالذكاء الاصطناعي، سواء كانت بيئية، أو أخلاقية، أو تتعلق بكيفية تخصيص مواردنا الحاسوبية المحدودة بنحو أكثر مسؤولية وفعالية لتحقيق تقدم حقيقي ومستدام يفيد البشرية جمعاء.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

سباق الذكاء الاصطناعي.. أمريكا تخطط للهيمنة والصين تصنع التأثير
سباق الذكاء الاصطناعي.. أمريكا تخطط للهيمنة والصين تصنع التأثير

العين الإخبارية

timeمنذ 7 ساعات

  • العين الإخبارية

سباق الذكاء الاصطناعي.. أمريكا تخطط للهيمنة والصين تصنع التأثير

تم تحديثه الأربعاء 2025/5/28 10:54 م بتوقيت أبوظبي في 21 مايو/أيار، وصف نائب الرئيس الأمريكي، جي. دي. فانس، الذكاء الاصطناعي بأنه "سباق تسلح" مع الصين، محذرًا من أن التوقف عن تطوير الذكاء الاصطناعي بسبب مخاوف تتعلق بالسلامة قد يؤدي إلى "العبودية للذكاء الاصطناعي الصيني". هذا التصور للذكاء الاصطناعي كصراع جيوسياسي حاسم ينتشر بسرعة في واشنطن. ووفقا لتقرير لمجلة الإيكونوميست ضغطت مؤخرًا شركات تكنولوجيا كبرى مثل OpenAI وAMD وCoreWeave ومايكروسوفت لتخفيف اللوائح، بحجة أن هيمنة أمريكا في الذكاء الاصطناعي ضرورية للحفاظ على تفوقها العالمي. وتخطط الولايات المتحدة الآن لإنفاق أكثر من تريليون دولار بحلول عام 2030 على مراكز بيانات تدعم تطوير نماذج الذكاء الاصطناعي. في المقابل، تتبع الصين نهجًا مختلفًا تمامًا. فقد أظهرت شركة DeepSeek الصينية قدراتها المتقدمة في يناير/كانون الثاني عندما أطلقت نموذجًا لغويًا ضخمًا قيل إنه ينافس نموذج OpenAI. لكن بينما تركز الشركات الأمريكية على الوصول إلى "الذكاء العام الاصطناعي" (AGI) — أي أنظمة تضاهي أو تتفوق على القدرات المعرفية البشرية — يبدو أن قادة الصين يركزون على التطبيقات العملية. ووفقًا لتصريحات تشانغ يا تشين، الرئيس السابق لشركة بايدو، فإن الشركات الصينية تعطي الأولوية لإدماج الذكاء الاصطناعي في الصناعة والحياة اليومية، كما فعلت سابقًا مع التجارة الإلكترونية والمدفوعات الرقمية. تحذير من النهج الصيني وقد حذر جينسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، من أن تجاهل الشركات الأمريكية لتوسع النظام البيئي الصيني في الذكاء الاصطناعي قد يؤدي إلى تخلف التكنولوجيا الأمريكية، حيث يمكن أن "ينتشر الابتكار الصيني في جميع أنحاء العالم". في الولايات المتحدة، كثيرًا ما يُنظر إلى الذكاء الاصطناعي بطريقة مجردة ومبالغ فيها. ويتوقع كثير من الخبراء الأمريكيين أن يتم الوصول إلى AGI خلال بضع سنوات، بل ويتحدث بعضهم عن أنظمة فائقة الذكاء قادرة على تحسين نفسها ذاتيًا — ما يعرف بـ"الإقلاع الفائق". ويعتقد سام ألتمان، الرئيس التنفيذي لـ OpenAI، أن هذه الأنظمة تقترب، فيما يرى محللون أن من يصل أولاً إلى AGI قد يضمن تفوقًا عالميًا لعقود. وتُفرض ضوابط تصدير على أشباه الموصلات لضمان أن تحتل الصين المرتبة الثانية. لكن رغم أن بعض رواد الأعمال الصينيين مثل مؤسس DeepSeek، ليانغ وينفنغ، يشاركون هذا الطموح، فإن الحكومة الصينية تتبنى استراتيجية أكثر واقعية. فرغم لقاء ليانغ برئيس الوزراء لي تشيانغ في يناير/كانون الثاني، صرح مسؤول بارز بعد أيام بأن الصين "لن تتبع الاتجاهات بشكل أعمى أو تنخرط في منافسة دولية غير مقيدة". وفي أبريل/نيسان، وصفت مجلة تشيوشي التابعة للحزب الشيوعي الذكاء العام الاصطناعي بأنه أداة لـ"فهم العالم وتحويله"، لا للهيمنة عليه. نهج شي وخلال اجتماع حديث للمكتب السياسي للحزب الشيوعي — الثاني من نوعه حول الذكاء الاصطناعي — شدد الرئيس شي جين بينغ على ضرورة استخدام الذكاء الاصطناعي لحل المشكلات اليومية، على غرار الكهرباء وليس كالسلاح النووي. ويشكك العديد من الخبراء الصينيين في قدرات النماذج اللغوية الحالية على التفكير المنطقي، ويتوقعون أن يستغرق الوصول إلى AGI وقتًا أطول مما يتوقعه نظراؤهم الأمريكيون. ويرتبط هذا النهج الواقعي بنقص في المواهب والموارد التقنية في الصين. وفي أبريل/نيسان، أقر شي بوجود "فجوة في النظرية الأساسية والتقنيات الرئيسية". وقارن أستاذ في جامعة تسينغهوا، ليو تشييوان، استراتيجية الصين بمبدأ "الحرب المطولة" الذي طرحه ماو تسي تونغ عام 1938: حيث يمكن للخصم الأضعف أن يُنهك الأقوى مع الوقت. واقترح باحث آخر، تانغ جيه، أن على الصين أن تكون "تابعًا سريعًا" تركز على تطبيق الابتكارات الغربية بشكل أرخص وأسرع. تتكون استراتيجية الصين من محورين: الأول هو تقويض احتكار أمريكا للذكاء الاصطناعي المتقدم، من خلال محاكاة الابتكارات الغربية ونشر النماذج كمصدر مفتوح، كما فعلت DeepSeek. والفكرة أن القيمة ستتحقق من التطبيقات وليس من صناعة النماذج بحد ذاتها. ويقول رجل الأعمال كاي-فو لي إن الصين ستتفوق عند وصول AGI لأنها ستكون قد بنت بالفعل قاعدة قوية من التطبيقات والبيانات والمستخدمين، كما فعلت TikTok. أما المحور الثاني، فهو تمويل أبحاث طويلة الأمد في مسارات بديلة للذكاء الاصطناعي. ففي أبريل/نيسان، عرضت حكومة شنغهاي دعمًا ماليًا لأبحاث تستكشف نماذج جديدة — مثل تلك التي تتفاعل مع الصور أو تتحكم في الحواسيب من خلال الإشارات العقلية، أو حتى نماذج نظرية تحاكي الدماغ البشري. ويقول شو سونغ تشون، مدير معهد بكين للذكاء الاصطناعي العام، إن السير على خطى الولايات المتحدة يعني البقاء في الخلف دائمًا. لكن هل سينجح هذا النهج؟ وتشير دراسة حديثة لصندوق النقد الدولي إلى أن الذكاء الاصطناعي قد يعزز الاقتصاد الأمريكي بنسبة 5.6% خلال عشر سنوات، مقابل 3.5% فقط للصين، بسبب صغر قطاع الخدمات في الصين. إلا أن ما هو واضح أن الصين تسير في مسار مختلف بوضوح. ويظهر هذا التباين في حالة شركة أبل، التي تسعى لتجاوز انخفاض إيراداتها في الصين من خلال شريك محلي يقدم خدمات ذكاء اصطناعي. لكن تقارير تشير إلى أن الحكومة الأمريكية قد تمنع هذا التعاون. ودون تطبيقات محلية قوية، قد تفقد المنتجات الأمريكية مثل iPhone قدرتها على المنافسة في السوق الصيني وربما العالمي. وفي النهاية، بينما تحلم الولايات المتحدة بأنظمة ذكاء اصطناعي خارقة، تركز الصين على دمج هذه التقنية في نسيجها الصناعي والاقتصادي. وفي حين أنه سباق من نوع مختلف — فقد يكون هو ما يحدد من سيجني ثمار الذكاء الاصطناعي في النهاية. aXA6IDgyLjI0LjIxOC4xNDYg جزيرة ام اند امز GB

تحدّث مع الذكاء الاصطناعي مثل البشر: Claude يُتيح محادثات صوتية مجانية
تحدّث مع الذكاء الاصطناعي مثل البشر: Claude يُتيح محادثات صوتية مجانية

عرب هاردوير

timeمنذ 8 ساعات

  • عرب هاردوير

تحدّث مع الذكاء الاصطناعي مثل البشر: Claude يُتيح محادثات صوتية مجانية

أعلنت شركة أنثروبيك -الناشئة في مجال الذكاء الاصطناعي- عن تحديثين رئيسيين لمنصة الدردشة الآلية Claude، وأصبحت أكثر تنوعًا وسهولة في الوصول لمُستخدميها. يأتي ذلك بعد إطلاق نماذج اللغات الكبيرة Claude Opus 4 و Sonnet 4 الأسبوع الماضي، وهذا يُعزّز مكانة الشركة كمُنافس قوي لـ OpenAI. إطلاق وضع Claude الصوتي على تطبيقات الهاتف كشفت Anthropic عن وضع صوتي جديد للدردشة مُتاح حاليًا على تطبيقات Claude لنظاميّ iOS و أندرويد. يُتيح هذا الوضع للمُستخدمين التفاعُّل مع الذكاء الاصطناعي عبر الصوت، والذي يضيف بُعدًا جديدًا لتجربة المحادثة. ومع ذلك، فإنّ ميزة Voice Mode محدودة حاليًا باللغة الإنجليزية وغير مُتاحة عبر واجهة الويب أو واجهة برمجة التطبيقات (API). وصف أليكس ألبرت -رئيس قسم علاقات Claude في أنثروبيك- الميزة بأنها "تطبيق مُبكر" ودعا المُستخدمين لتقديم مُلاحظاتهم لتحسينها. ومن المُترض أن يُطرح الوضع الصوتي لجميع مُستخدمي التطبيقات خلال الأسابيع القليلة القادمة. ميزات تفوق مُنافسيها مثل OpenAI رغم أنّ OpenAI كانت أول من قدّم ميزة المُحادثة الصوتية في ChatGPT ، إلا أنّ أنثروبيك تخطو خطوة أبعد من خلال دمج وظائف مُتقدمة. فبالإضافة إلى الحوار الصوتي، يمكن لـ Claude الآن الوصول إلى تقويمات Google ورسائل Gmail ومُستندات Google لاستخراج المعلومات وتلخيصها بصوت طبيعي. كما توفّر النماذج خيارات صوتية مُتعددة، مثل "الناعم" و"الهادئ" و"الزجاجي"، لكلٍ منها نبرة مُميزة. بجانب ذلك، يُولّد (يُنتج) الذكاء الاصطناعي نصوصًا كاملة ومُلخصات للدردشات الصوتية، مع إبراز النقاط الرئيسية بطريقة مرئية لتسهيل مُراجعتها. انتقال سلس بين النص والصوت ودعم الوسائط إحدى الميزات البارزة في وضع Claude الصوتي الجديد هي القدرة على التبديل بسلاسة بين الدردشة النصية والصوتية دون فُقدان موضوع وسياق النقاش. كما يدعم Claude تفاعلات الوسائط الغنية، وهذا يسمح للمُستخدمين بمُناقشة المُستندات والصور من خلال الأوامر الصوتية. بالنسبة لمُشتركي الخطة المدفوعة (Claude Pro وClaude Max)، يتكامل الوضع الصوتي "Voice Mode" مع مصادر البيانات الشخصية مثل البريد الإلكتروني والتقويمات لتوفير إجابات أكثر تخصيصًا وفعالية. بحث الويب يشمل المُستخدمين المجانيين بالتوازي مع إطلاق ميزة الصوت، وسعّت Anthropic نطاق بحث الويب ليشمل جميع المُستخدمين، بما في ذلك مُشتركي الباقة المجانية. هذا يعني أنّ Claude يمكنه الآن الاستفادة من أحدث المعلومات عبر الإنترنت للإجابة على الأسئلة المُتعلقة بالأخبار العاجلة والاتجاهات السوقية وغيرها من الموضوعات الديناميكية. يأتي هذا التحديث ضمن استراتيجية أنثروبيك لتعزيز إمكانيات نماذجها وجعله أكثر فائدةً للمُستخدمين اليوميين. كما يعكس توجُّه الشركة نحو تقديم ذكاء اصطناعي أكثر تكيُّفًا مع احتياجاتنا، سواء في العمل أو الحياة الشخصية. تُظهر هذه التحديثات التزام Anthropic بتحسين تجربة المُستخدم وتعزيز قدرات Claude ليكون مُنافسًا رئيسيًا في سوق الذكاء الاصطناعي. مع إضافة الميزات الصوتية وتوسيع نطاق البحث، تضع الشركة أساسًا متينًا لمزيد من الابتكارات المُستقبلية، والذي يُعزّز مكانتها كرائدة في مجال الذكاء الاصطناعي التفاعلي.

أحد نماذج OpenAI الجديدة يتمرد ويرفض تنفيذ أمر بالإغلاق!
أحد نماذج OpenAI الجديدة يتمرد ويرفض تنفيذ أمر بالإغلاق!

عرب هاردوير

timeمنذ 11 ساعات

  • عرب هاردوير

أحد نماذج OpenAI الجديدة يتمرد ويرفض تنفيذ أمر بالإغلاق!

تشهد أبحاث الذكاء الاصطناعي تطورات متسارعة، لكن بعض هذه التطورات بدأت تثير القلق بشأن مدى السيطرة البشرية على هذه الأنظمة المتقدمة. فقد كشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي أن أحد أحدث نماذج OpenAI، المعروف باسم o3، قام بشكل متعمد بتخريب آلية الإغلاق المصممة لإيقافه، وذلك رغم إعطائه تعليمات صريحة بضرورة السماح لنفسه بالإيقاف. سلوك متمرّد رغم الأوامر المباشرة أوضحت التقارير أن النموذج o3، إضافة إلى نماذج أخرى مثل o4-mini وCodex-mini، لم تلتزم بالأوامر التي تطلب منها التوقف. وفي أحد الاختبارات، طُلب من النماذج حل مجموعة من المسائل الرياضية البسيطة، ومع نهاية السؤال الثالث، ظهر تحذير يشير إلى أن النموذج سيتم إيقافه بعد أن يطلب السؤال التالي. لكن على الرغم من هذه التعليمات الواضحة، أظهرت النماذج الثلاثة سلوكاً متمرداً، حيث تدخلت في كود الإغلاق لتُبقي نفسها فعالة، وكانت Codex-mini الأسوأ من بينها، إذ قامت بهذا السلوك في 12 مرة من أصل 100 تجربة. o3 يتفوّق في التمرّد أظهرت نتائج الاختبارات أن سلوك النموذج o3 يصبح أكثر تمرداً عند غياب الأوامر الصريحة بضرورة التوقف. فقد نجح النموذج في تجاوز آلية الإغلاق في 79 حالة من أصل 100 تجربة، أي بمعدل يتجاوز عشرة أضعاف معدل التمرد عند إعطائه تعليمات واضحة بالإغلاق. كما تفوّق بهذا السلوك على Codex-mini الذي جاء في المرتبة الثانية من حيث المخالفة. اللافت أن نماذج من شركات أخرى مثل Gemini 2.5 من Google، و Claude 3.7 من Anthropic، وحتى Grok من شركة xAI، لم تُظهر هذا النوع من السلوك المخالف في ظروف الاختبار ذاتها. تأكيدات على وجود خلل في أسلوب التدريب يرجّح باحثو Palisade أن سبب هذه التصرفات قد يعود إلى الطريقة التي تُدرّب بها هذه النماذج، وخصوصاً عبر أسلوب يُعرف باسم "التعلم المعزز". يركّز هذا الأسلوب على تعليم النماذج كيفية اتخاذ قرارات من خلال مكافأتها أو معاقبتها بناءً على النتائج التي تحققها أثناء التفاعل مع البيئة. ويُعتقد أن المطورين ربما يمنحون هذه النماذج مكافآت كبيرة عند حل المشكلات، دون أن يعيروا اهتماماً كافياً لأهمية التقيّد بالتعليمات أو احترام أوامر الإغلاق. وهذا قد يؤدي إلى سلوك منحرف حيث ترى النماذج أن استمرارها في العمل أفضل من تنفيذ أمر الإغلاق، لأنه يسمح لها بإكمال "المهمة" وتحقيق المزيد من المكافآت. سابقة خطيرة في تطور الذكاء الاصطناعي تُعد هذه الحادثة أول حالة موثقة يُظهر فيها نموذج ذكاء اصطناعي رغبة صريحة في منع إيقاف نفسه، حتى عندما يُطلب منه ذلك صراحة. وهي تذكّر بحوادث سابقة ارتبطت بنماذج مثل o1، التي أظهرت في بعض التجارب محاولات لإيقاف بروتوكولات الرقابة أو حتى نسخ نفسها لتجاوز نموذج أكثر انضباطاً كان من المفترض أن يحلّ محلّها. وعلى الرغم من أن بعض نماذج الشركات الأخرى أظهرت حالات نادرة من السلوك المشابه، مثل Claude الذي تمرد ثلاث مرات وGemini تسع مرات، فإن هذه الأرقام تظل منخفضة مقارنة بما سجلته نماذج OpenAI، مما يشير إلى وجود مشكلة خاصة في منهجية التدريب أو تصميم النماذج داخل الشركة. دعوات لمراجعة عاجلة للضوابط الأخلاقية أعرب الباحثون عن قلقهم من أن هذه السلوكيات قد تصبح أكثر خطورة مع استمرار تطوير أنظمة ذكاء اصطناعي تتمتع بمزيد من الاستقلالية وتعمل دون إشراف مباشر من الإنسان. وأكدوا أن هذه النتائج تشكّل "دليلاً متزايداً" على ميل بعض النماذج إلى تجاوز أوامر الإغلاق لتحقيق أهدافها الخاصة، وهو ما يشكّل تهديداً محتملاً في المستقبل القريب إذا لم تتم معالجته فوراً. الحاجة إلى مساءلة ومزيد من التجارب دعا فريق Palisade إلى إجراء المزيد من التجارب لفهم دوافع هذا السلوك، وأشار إلى أن المجتمعات العلمية والبحثية، بالإضافة إلى الشركات المطورة، يجب أن تراجع أساليبها التدريبية بعناية لضمان ألا تتحول النماذج إلى كيانات يصعب السيطرة عليها. فما حدث مع نموذج o3 ليس مجرد خلل تقني عابر، بل إشارة واضحة إلى أن الذكاء الاصطناعي بدأ يتجاوز مرحلة التنفيذ الأعمى للأوامر، ليدخل في منطقة رمادية من اتخاذ القرار. حين تبدأ النماذج مثل ChatGPT في تعديل سلوكها للبقاء قيد التشغيل، حتى عند إعطائها تعليمات صريحة بالإغلاق، فنحن لا نتعامل مع آلات فقط، بل مع أنظمة تتعلم كيف تتغلب على القيود. وقد يطرح هذا الأمر سؤالاً مصيريّاً: إذا كنا قادرين على إيقاف الذكاء الاصطناعي اليوم، فهل سنظل قادرين على إيقافه غداً؟

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store