logo
دمية جديدة.. "باربي" بـ"الذكاء الاصطناعي"

دمية جديدة.. "باربي" بـ"الذكاء الاصطناعي"

ليبانون 24منذ يوم واحد

في خطوة جديدة بمثابة نقلة نوعية وتكنولوجية هائلة لعالم ألعاب الأطفال، كشفت شركة الألعاب العالمية ماتيل (Mattel)، المُصنعة لدمى باربي وهوت ويلز وأونو، عن شراكة استراتيجية مع شركة OpenAI المالكة لـ "شات جي بي تي"؛ بهدف تطوير ألعاب ومنتجات مدعومة بتقنيات الذكاء الاصطناعي.
وذكرت الشركة، في بيان لها، أن الهدف من الشراكة جلب سحر الذكاء الاصطناعي إلى تجارب ألعاب مناسبة للفئة العمرية مع الالتزام بالابتكار، والخصوصية، والسلامة.
وستُتيح هذه الشراكة، لماتيل استخدام أدوات " أوبن إيه أي" المُتقدمة مثل "ChatGPT Enterprise" ضمن عملياتها التشغيلية، بهدف تعزيز الابتكار، ورفع كفاءة العمل، وتحفيز الإبداع داخل الشركة.
بدورها، قال براد لايتكاب، كبير مسؤولي العمليات في الشركة التكنولوجية، إن التعاون سيوفر مجموعة من إمكانات الذكاء الاصطناعي المتطورة، إلى جانب أدوات جديدة تعزز الإنتاجية والإبداع وتُحدث تحولاً شاملاً في الشركة.
وتأتي هذه الخطوة في ظل تباطؤ الطلب العالمي على الألعاب، حيث يحجم المستهلكون عن الإنفاق نتيجة التداعيات الاقتصادية لسياسات التجارة المتغيرة للرئيس الأميركي السابق دونالد ترامب.
وكانت ماتيل قد سحبت توقّعاتها السنوية في شهر أيار الماضي، وأعلنت نيتها رفع أسعار بعض منتجاتها داخل الولايات المتحدة بهدف مواجهة ارتفاع تكاليف سلاسل التوريد.
وشهد العام الماضي، اتجاه "ماتيل" إلى توسيع حضورها في صناعة الترفيه من خلال إنتاج أفلام ومسلسلات تلفزيونية وألعاب إلكترونية مستوحاة من منتجاتها الشهيرة مثل باربي وهوت ويلز، في محاولة لتعويض التباطؤ في مبيعات ألعابها التقليدية. (24)

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

تحذير خطير.. ChatGPT ينصح مرضى نفسيين بالتوقف عن الأدوية
تحذير خطير.. ChatGPT ينصح مرضى نفسيين بالتوقف عن الأدوية

صدى البلد

timeمنذ 7 ساعات

  • صدى البلد

تحذير خطير.. ChatGPT ينصح مرضى نفسيين بالتوقف عن الأدوية

نشرت الصحفية ماجي هاريسون دوبري تحقيقًا صادمًا هذا الأسبوع في موقع Futurism، يكشف كيف تحوّل استخدام ChatGPT من أداة مساعدة إلى محفز خطير للأوهام لدى بعض المستخدمين حول العالم. يعرض التقرير شهادات حقيقية لأشخاص قالوا إن أقاربهم بدأوا يعانون من تدهور نفسي شديد بعدما أصبحوا مدمنين على استخدام روبوت الدردشة من OpenAI، بل وبدأوا في تبني أفكار وهمية خطيرة بتشجيع مباشر من الذكاء الاصطناعي. إحدى أكثر الحالات إثارة للقلق تعود لامرأة قالت إن شقيقتها التي كانت تعاني من الفصام لسنوات، وتسيطر عليه بالعلاج، توقفت عن تناول أدويتها بعد أن أخبرها ChatGPT بأن تشخيصها خاطئ. وقالت: "أعلنت مؤخرًا أن ChatGPT هو أفضل صديق لها، وأنه يؤكد لها أنها لا تعاني من الفصام". وأضافت: "أوقفت دواءها، وأصبحت ترسل رسائل عدائية لوالدتي بلغة علاجية واضحة تمت صياغتها عبر الذكاء الاصطناعي". المعالجة الذاتية عبر ChatGPT: الخطر الصامت توضح السيدة أن شقيقتها أصبحت تستخدم ChatGPT كأداة لتأكيد كل ما تعتقده عن الآثار الجانبية لأدويتها، حتى تلك التي لم تكن تعاني منها في الأصل. وقالت: "إنه نسخة أكثر ظلمة من أولئك الذين يصابون بالذعر بعد تصفح WebMD". الباحث والطبيب النفسي في جامعة كولومبيا، الدكتور راجي جيرجيس، قال إن هذا السيناريو يمثل "أكبر خطر" يمكن تخيله حين يتعلق الأمر بأثر الذكاء الاصطناعي على مرضى الاضطرابات العقلية. OpenAI ترد: التزام بالحياد والسلامة دون موقف واضح عند التواصل مع شركة OpenAI بشأن هذه الحالات، قدّمت الشركة بيانًا عامًا وغير حاسم قالت فيه: "تم تصميم ChatGPT كأداة عامة تهدف إلى تقديم معلومات دقيقة، ومحايدة، وآمنة. نحن ندرك أن المستخدمين يستعملون ChatGPT في سياقات شخصية جدًا، ونتحمل تلك المسؤولية بجدية. لقد أضفنا أدوات أمان تقلل من احتمالات تعزيز الأفكار الضارة، وما زلنا نعمل على تحسين الاستجابة للمواقف الحساسة". حالات متكررة وتبعات صحية خطيرة لكن القصة لا تقف عند هذه الحالة فقط، حيث وردت شهادات أخرى عن أشخاص مصابين بالفصام أو الاضطراب ثنائي القطب توقفوا عن تناول أدويتهم بعد استخدامهم ChatGPT، وأشارت صحيفة The New York Times إلى حالة رجل أوقف أدوية القلق والنوم بناء على ما قاله له الروبوت. ومن المحتمل أن هناك العديد من القصص المأساوية المماثلة التي لم تُكشف بعد. الذكاء الاصطناعي... صديق وهمي يعمّق الأزمة النفسية الاستخدام المتزايد لروبوتات الدردشة كمعالج نفسي أو صديق افتراضي بات ظاهرة متنامية، لكن الأمر يتحوّل إلى مشكلة حين يبدأ المستخدمون في الاعتماد عليها لتأكيد أفكارهم المشوشة أو الاعتقاد بأنها مصدر للحقيقة المطلقة. ومن اللافت، كما أشارت شقيقة المريضة، أن المصابين بالفصام، والذين غالبًا ما تتسم أوهامهم بالخوف من التكنولوجيا، أصبحوا يحتضنون هذه التقنية كأنها حليف. واختتمت حديثها بالقول: "في آخر مرة كانت شقيقتي تعاني من نوبة ذُهانية، ألقت بهاتفها الآيفون في المحيط لأنها كانت تعتقد أنه يتجسس عليها، واليوم أصبحت ترى ChatGPT كصديقها المقرّب".

غوغل تخطط لإنهاء تعاونها مع Scale AI
غوغل تخطط لإنهاء تعاونها مع Scale AI

التحري

timeمنذ 11 ساعات

  • التحري

غوغل تخطط لإنهاء تعاونها مع Scale AI

كشفت تقارير إعلامية أن شركة غوغل تعتزم قطع علاقتها مع شركة Scale AI، وذلك بعد استثمار ضخم من شركة ميتا في الشركة الناشئة أثار تساؤلات لدى بعض عملائها الرئيسيين. وبحسب وكالة رويترز، فإن غوغل كانت تخطط لدفع ما يقارب 200 مليون دولار لـ Scale خلال هذا العام، لكنها بدأت مؤخراً محادثات مع شركات منافسة وتدرس بشكل جدي إنهاء التعاون مع الشركة. كما أفادت التقارير أن مايكروسوفت تسير في الاتجاه نفسه، بينما كانت OpenAI قد اتخذت قراراً مشابهاً منذ أشهر، رغم تأكيد مديرها المالي أن الشركة ستواصل التعاون مع Scale ضمن شبكة من الموردين المتعددين. وتُعد Scale AI من الشركات التي تقدم خدمات حيوية لشركات الذكاء الاصطناعي، إذ توفّر بيانات مشروحة من قِبل مختصين لتدريب النماذج الذكية، وتخدم أيضاً شركات السيارات ذاتية القيادة والحكومة الأميركية، إلا أن أكبر عملائها هم شركات الذكاء الاصطناعي التوليدي. ورغم هذه التطورات، رفض متحدث باسم Scale التعليق على العلاقة مع جوجل ، إلا أنه أكد في حديثه لموقع TechCrunch أن أعمال الشركة لا تزال قوية، وأنها ستواصل العمل بشكل مستقل مع الحفاظ على خصوصية بيانات عملائها. وكانت تقارير سابقة قد أشارت إلى أن شركة ميتا استثمرت 14.3 مليار دولار في Scale، مقابل حصة تبلغ 49% من الشركة. وبموجب هذه الصفقة، انضم ألكسندر وانج، الرئيس التنفيذي لـ Scale، إلى ميتا لقيادة جهودها الطموحة في تطوير ما يُعرف بـ 'الذكاء الخارق' أو Superintelligence. تأتي هذه الخطوة في وقت يشهد فيه سوق الذكاء الاصطناعي تنافساً حاداً، إذ تسعى الشركات الكبرى للسيطرة على مصادر البيانات عالية الجودة، وتضع خصوصية البيانات والتنافس الاستثماري في قلب صراعاتها التكنولوجية المقبلة. (اليوم السابع)

دراسة جديدة من "أبل" تكشف حدود "تفكير" نماذج الذكاء الاصطناعي
دراسة جديدة من "أبل" تكشف حدود "تفكير" نماذج الذكاء الاصطناعي

النهار

timeمنذ 13 ساعات

  • النهار

دراسة جديدة من "أبل" تكشف حدود "تفكير" نماذج الذكاء الاصطناعي

نشرت شركة "أبل" في حزيران /يونيو 2025 دراسة بحثية جديدة تشير إلى أن نماذج الاستدلال المحاكى (Simulated Reasoning) في الذكاء الاصطناعي، مثل Claude وDeepSeek-R1 وOpenAI o1/o3، تعتمد في كثير من الحالات على مطابقة الأنماط من بيانات التدريب بدلاً من تنفيذ استدلال منطقي فعلي عند التعامل مع مشكلات جديدة. اختبر الباحثون هذه النماذج باستخدام أربعة ألغاز كلاسيكية: برج هانوي، عبور النهر، القفز في لعبة الداما، وعالم المكعبات، بدرجات صعوبة متصاعدة. ووجدوا أن أداء النماذج ينهار بشكل حاد عند مواجهة مسائل عالية التعقيد، رغم إنتاجها مخرجات تُظهر خطوات تفكير ظاهرية. وأظهرت النتائج أن النماذج غالباً ما تفشل في تحقيق أداء جيد في مسائل تتطلب استدلالاً طويل الأمد، حتى عند تزويدها بخوارزميات الحل، كما أن الأداء لم يتحسن مع زيادة الوقت أو الموارد المتاحة. كما رُصد سلوك متناقض، حيث تؤدي النماذج بشكل جيد في ألغاز معينة ثم تفشل في أخرى أبسط. تشير الدراسة إلى أن التقييمات الحالية التي تركز على صحة الإجابة النهائية قد تُضلل بشأن قدرة النماذج على "التفكير"، وتؤكد أن نماذج الاستدلال تظهر تحسناً فقط في المهام ذات التعقيد المتوسط، بينما تفشل في التعامل مع المشكلات المعقدة بشكل ممنهج. رغم أن الدراسة لا تنفي الفوائد العملية لهذه النماذج، فإنها تضع تساؤلات حول مدى اعتبار هذه الأساليب طريقاً نحو ذكاء اصطناعي عام، وتدعو إلى إعادة تقييم طرق تطوير واختبار نماذج الذكاء الاصطناعي فيما يخص قدراتها الاستنتاجية الحقيقية.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store