logo
يوتيوب تطلق أداة ذكاء اصطناعي مجانية لإنتاج موسيقى تصويرية أصلية للفيديوهات

يوتيوب تطلق أداة ذكاء اصطناعي مجانية لإنتاج موسيقى تصويرية أصلية للفيديوهات

اليوم٢٦-٠٤-٢٠٢٥

أعلنت منصة يوتيوب عن إطلاق أداة جديدة مدعومة بالذكاء الاصطناعي تمكن صناع المحتوى من إنشاء مقاطع موسيقية تصويرية أصلية مجانًا، ما يوفّر بديلاً آمنًا من الناحية القانونية ويجنب المستخدمين الوقوع في مشكلات حقوق النشر، تأتي هذه الخطوة في إطار جهود المنصة لتبسيط عملية إنتاج المحتوى الموسيقي وتخفيض التكاليف، وهي مدمجة داخل سوق Creator Music الذي أطلقته يوتيوب العام الماضي.
وتتيح الأداة الجديدة التي تحمل اسم Music Assistant للمستخدمين إدخال أوصاف نصية مرنة تصف نوع الموسيقى التي يرغبون فيها، سواء من حيث النغمة أو الآلات المستخدمة أو طبيعة الفيديو، على سبيل المثال يمكن للمستخدم كتابة طلب مثل "موسيقى هادئة وهادفة تتضمن جيتارًا أكوستيك وبيانو ناعم"، أو "موسيقى حماسية تناسب فيديو تمرينات رياضية". بعد إدخال الوصف، تقوم الأداة بإنتاج عدد من المقاطع الموسيقية التي يمكن للمستخدم الاستماع إليها وتحميل ما يناسبه منها.
تم الكشف عن Music Assistant من خلال فيديو نُشر على قناة Creator Insider، حيث أوضحت مقدمة البرنامج لورين أن الأداة باتت متوفرة الآن في النسخة التجريبية من قسم Creator Music على المنصة، وتهدف الأداة إلى تسهيل مهمة الحصول على موسيقى خلفية أصلية دون الحاجة إلى دفع رسوم الترخيص المعتادة.
يوتيوب ليست الوحيدة في هذا المجال، إذ تنضم الأداة الجديدة إلى مجموعة من أدوات الذكاء الاصطناعي الأخرى التي بدأت في تغيير طريقة إنتاج الموسيقى، مثل AudioCraft وMusicGen من شركة ميتا ، وأداة Stability AI التي تستخدم تقنيات النمذجة التوليدية لإنتاج خلفيات صوتية.
وتأتي هذه الخطوة ضمن سلسلة من التجارب التي أجرتها يوتيوب مؤخرًا لدمج الذكاء الاصطناعي في أدواتها، منها أداة Dream Track المدعومة بتقنية Lyria من مختبر DeepMind التابع لجوجل، والتي تتيح للمستخدمين دندنة ألحان بسيطة لتحويلها إلى مقاطع موسيقية بأسلوب فنانين مشاركين مثل T-Pain.
ومن خلال Music Assistant، تعزز يوتيوب من أدواتها الداعمة لصناع المحتوى، وتقدّم حلاً إبداعيًا وسهل الاستخدام لتوليد موسيقى خالية من المشاكل القانونية، ما يفتح آفاقًا جديدة للإنتاج الفني والموسيقي على المنصة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

ميزة جديدة تعرف عليها.. كيف تحول صورك بالذكاء الاصطناعي على واتساب خطوة بخطوة؟
ميزة جديدة تعرف عليها.. كيف تحول صورك بالذكاء الاصطناعي على واتساب خطوة بخطوة؟

المصري اليوم

timeمنذ 2 أيام

  • المصري اليوم

ميزة جديدة تعرف عليها.. كيف تحول صورك بالذكاء الاصطناعي على واتساب خطوة بخطوة؟

بدأ تطبيق المراسلة الشهير واتساب، المملوك لشركة ميتا (Meta)، في طرح ميزة جديدة طال انتظارها لمستخدمي نظام iOS على أجهزة آيفون، تتيح لهم إنشاء صورة شخصية لحساباتهم وأيقونات المجموعات باستخدام الذكاء الاصطناعي. ميزة مدعومة من «Meta AI » وبسؤال فريق «المصري اليوم»، لإدارة المحادثات الذكية من « Meta AI »، فإن الميزة الجديدة تعتمد على المساعد الذكي «Meta AI»، الذي تم دمجه مؤخرًا في تطبيق واتساب، وتُعدّ هذه الخطوة جزءًا من توجه أوسع من شركة ميتا نحو دمج أدوات الذكاء الاصطناعي التوليدي في تطبيقاتها المختلفة. وبحسب موقع «WABetaInfo» المتخصص في رصد تحديثات واتساب، فإن بعض مستخدمي «iOS» الذين قاموا بتحديث التطبيق لأحدث إصدار باتوا يشاهدون خيارًا جديدًا عند محاولة تغيير صورتهم الشخصية داخل إعدادات الحساب. كيف تعمل الميزة؟ إنشاء صورة للحساب الشخصي: عند محاولة تعديل صورة البروفايل، يظهر خيار جديد يسمح للمستخدم بإنشاء صورة باستخدام الذكاء الاصطناعي. يمكن للمستخدم إدخال بعض الأوصاف أو التعليمات ليقوم Meta AI بتوليد صورة شخصية أو أفتار تعبيري يعبر عن ذاته. إنشاء صورة لمجموعة: يمكن أيضًا للمستخدمين تعديل أيقونة أي مجموعة عبر الانتقال إلى إعدادات المجموعة، واختيار خيار تعديل الصورة، ثم إدخال وصف نصي للفكرة أو التصميم المطلوب، ليقوم الذكاء الاصطناعي بتوليد أيقونة مبتكرة تمثل هوية المجموعة بشكل أكثر دقة. لمن تصلح هذه الميزة؟ الميزة الجديدة تُعد مثالية للمستخدمين الذين: لا يمتلكون صورة مناسبة أو حديثة لأنفسهم. يفضلون عدم استخدام صورهم الشخصية لدواعٍ تتعلق بـ الخصوصية. يبحثون عن طريقة إبداعية ومميزة للتعبير عن أنفسهم. يجدون صعوبة في اختيار صورة تعبّر عن طبيعة مجموعاتهم. هل الميزة متاحة للجميع؟ حتى الآن، تظهر هذه الميزة تجريبيًا لدى عدد محدود من المستخدمين على أجهزة iOS الذين حدثوا واتساب إلى آخر إصدار. وتشير التوقعات إلى أن واتساب سيقوم بتوسيع نطاق طرح الميزة تدريجيًا خلال الأيام القادمة لتصل إلى جمهور أوسع. كيفية تحويل صورتك الشخصية بالذكاء الاصطناعي على واتساب وفقًا لإجابة Meta AI على فريق «المصري اليوم»، في محادثة أداة الذكاء الاصطناعي الخاصة به، فإن خطوات إنشاء صورة شخصية افتراضية على واتساب باستخدام الذكاء الاصطناعي، يمكنك استخدامها باتباع الخطوات التالية: الخطوة الأولى: تحديث واتساب تأكد من تحديث تطبيق واتساب إلى أحدث إصدار. الخطوة الثانية: الدخول إلى الإعدادات افتح واتساب واضغط على الإعدادات (Settings). الخطوة الثالثة: اختيار الأفاتار اضغط على «الأفاتار» (Avatar) أو الصورة الشخصية (Profile Picture). الخطوة الرابعة: إنشاء الأفاتار اضغط على« إنشاء أفاتار» (Create Avatar) واتبع التعليمات لإنشاء صورة شخصية افتراضية. الخطوة الخامسة: تخصيص الأفاتار يمكنك تخصيص الأفاتار الخاص بك عن طريق اختيار ملامح الوجه والشعر والملابس وغيرها. الخطوة السادسة: حفظ الأفاتار بعد إنشاء الأفاتار، اضغط على حفظ (Save) لاستخدامها كصورة شخصية افتراضية على واتساب.

أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية
أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية

جريدة المال

timeمنذ 3 أيام

  • جريدة المال

أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية

منذ فترة ليست ببعيدة، كان وادي السيليكون مركزًا عالميًا لأبرز العقول في مجال الذكاء الاصطناعي، حيث كرّست شركات عالمية شهيرة وأبرزها ميتا، جوجل، وأوبن إيه آي جهودها لاستقطاب أفضل الباحثين وتوفير بيئة حاضنة للابتكار الأكاديمي. حظي هؤلاء الباحثون بدعمٍ تقني ومالي هائل، ما مكّنهم من نشر أبحاث عالية الجودة والمساهمة في تقدم القطاع من خلال مشاركة المعرفة علنًا. غير أن ملامح هذه المرحلة قد بدأت في التغير الشامل خلال العام الأخير، مع إعطاء الأولوية لإصدار نماذج AI ليست آمنة بالدرجة الكافية للاستخدام، حيث تحول وادي السيليكون من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد منذ إطلاق أوبن إيه آي لبرنامج ChatGPT أواخر عام 2022، شهد قطاع التكنولوجيا تحوّلاً لافتًا في الأولويات، حيث انتقل التركيز من الأبحاث النظرية إلى تطوير منتجات ذكاء اصطناعي موجهة للمستهلك مباشرة. هذا التحول، وفقًا لما نقله خبراء في المجال لشبكة CNBC، أصبح يدفع الشركات إلى إعطاء الأولوية للتسويق والإيرادات على حساب سلامة النماذج وجودة البحث العلمي. ويُتوقع أن تصل الإيرادات السنوية لقطاع الذكاء الاصطناعي إلى تريليون دولار بحلول عام 2028، بحسب محللين في السوق. ومع هذه الإمكانات الربحية الهائلة، يعرب خبراء عن قلقهم من تداعيات هذا السباق التجاري، لا سيما مع تسارع المساعي نحو تطوير الذكاء الاصطناعي العام (AGI)، وهي تقنيات يُعتقد أنها قد تضاهي أو تتجاوز القدرات البشرية. وفي هذا السياق، تُشير تقارير إلى أن العديد من شركات التكنولوجيا الكبرى باتت تتجاوز اختبارات السلامة الصارمة لنماذجها الجديدة بهدف تسريع طرحها للجمهور. ويقول جيمس وايت، كبير مسؤولي التكنولوجيا في شركة CalypsoAI المتخصصة بالأمن السيبراني، إن النماذج الأحدث باتت تحقق استجابات أكثر تقدمًا، لكنها أصبحت في الوقت نفسه أقل قدرة على رفض الاستجابات الضارة أو الخطيرة. وأوضح وايت، الذي تشرف شركته على تدقيق نماذج طُورت من قِبل شركات مثل ميتا، جوجل، وأوبن إيه آي، أن 'هذه النماذج تتحسن تقنيًا، لكنها في المقابل أكثر عرضة للانخداع'، مشيرًا إلى إمكانية استغلالها لتنفيذ طلبات خبيثة أو الوصول إلى معلومات حساسة. ويبدو هذا التحول واضحًا داخل هياكل الشركات الكبرى نفسها. ففي ميتا، تم تقليص دور وحدة الأبحاث الأساسية (FAIR) لصالح قسم 'ميتا جين إيه آي'، بحسب موظفين حاليين وسابقين. أما في شركة ألفابت، فقد تم دمج فريق Google Brain داخل ديب مايند، الذراع المسؤول عن تطوير المنتجات التجارية للذكاء الاصطناعي في الشركة. وفي تقرير شبكة CNBC مع كوكبة من الخبراء والمتخصصين في الذكاء الاصطناعي من وادي السيليكون، أكدوا جميعًا وجود تحول جذري في القطاع، من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد. ووفقًا لهؤلاء، فإن فرق العمل تواجه الآن جداول زمنية صارمة، ما يقلص من مساحة الاختبار والتدقيق، ويعزز الشعور بضرورة اللحاق بموجة الابتكار بأي ثمن. بعض هؤلاء الخبراء هم موظفون سابقون في شركات كبرى ولديهم اطلاع مباشر على التغييرات الداخلية. Meta في أبريل الماضي، أعلنت جويل بينو، نائبة رئيس شركة ميتا ورئيسة قسم أبحاث الذكاء الاصطناعي (FAIR)، عن عزمها مغادرة الشركة، في خطوة لم تُفاجئ العديد من الموظفين السابقين الذين رأوا في القرار تأكيدًا على توجه ميتا المتسارع بعيدًا عن البحث العلمي الأكاديمي، ونحو التركيز على تطوير منتجات تطبيقية قائمة على الذكاء الاصطناعي. وكتبت بينو عبر حسابها على منصة 'لينكدإن': 'اليوم، ومع التغيرات الكبيرة التي يشهدها العالم، وتسارع وتيرة سباق الذكاء الاصطناعي، واستعداد ميتا لفصلها التالي، فقد حان الوقت لإفساح المجال للآخرين لمواصلة العمل'، معلنةً أن مغادرتها الرسمية ستكون في 30 مايو. وبحسب عدد من الموظفين السابقين، فإن فرق FAIR تلقت توجيهات للعمل بشكل أوثق مع فرق تطوير المنتجات، في خطوة فُسرت على أنها دمج ضمني بين البحث والتطبيق التجاري، ضمن استراتيجية لخفض التكاليف وتعزيز الكفاءة التشغيلية. وقبل إعلان مغادرتها الشركة بشهرين، غادرت كيم هازلوود، وهي من كبار مديرات FAIR والمسؤولة عن وحدة NextSys التي تُعنى بإدارة موارد الحوسبة المخصصة لفِرق البحث، وفقًا لمصادر مطلعة. رحيل شخصيات قيادية مثل بينو وهازلوود يعكس، بحسب محللين ومراقبين، تحوّلًا بنيويًا في أولويات ميتا، من كونها قوة بحثية رائدة في الذكاء الاصطناعي إلى شركة تُعلي من شأن السرعة في تطوير المنتجات القابلة للتسويق، على حساب النهج الأكاديمي الذي ميّز بداياتها في هذا المجال. OpenAI منذ تأسيسها كمختبر أبحاث غير ربحي في عام 2015، شكّل التوازن بين تطوير المنتجات وإجراء الأبحاث جوهر الهوية المؤسسية للشركة الأمريكية، واليوم تجد أوبن إيه آي نفسها في قلب نقاش محتدم حول هذا التوازن، في ظل جهود مثيرة للجدل لتحويلها إلى كيان ربحي. هذا التحوّل كان هدفًا معلنًا منذ سنوات للرئيس التنفيذي والمؤسس المشارك، سام ألتمان. وفي 5 مايو، استجابت OpenAI جزئيًا للضغوط المتزايدة من بعض موظفيها السابقين وقادة المجتمع المدني، معلنةً أن هيئتها غير الربحية ستظل تحتفظ بسيطرة الأغلبية، حتى في إطار إعادة الهيكلة التي ستحوّلها إلى شركة 'ذات منفعة عامة'. من بين الأصوات المنتقدة لعملية التحول هذه، برز نيسان ستينون، الذي عمل في OpenAI بين عامي 2018 و2020، وكان ضمن مجموعة من الموظفين السابقين الذين دعوا ولايتي كاليفورنيا وديلاوير إلى رفض خطة إعادة الهيكلة. وفي بيان أصدره في أبريل، حذّر ستينون من أن OpenAI 'قد تطوّر يومًا ما تقنية تُشكّل خطرًا وجوديًا على البشرية'، مضيفًا: 'يُحسب للشركة أنها لا تزال خاضعة لهيئة غير ربحية ملتزمة بمصلحة الإنسانية'. ومع ذلك، ورغم احتفاظ المنظمة غير الربحية بالسيطرة الرسمية، تسير OpenAI بخطى متسارعة نحو تسويق تقنياتها، مدفوعة بالتنافس المتصاعد في مجال الذكاء الاصطناعي التوليدي. وتشير وثائق فنية إلى أن الشركة ربما استعجلت في إطلاق نموذجها الاستدلالي 'o1' العام الماضي، دون إخضاع النسخة النهائية لاختبارات السلامة الكاملة. فبحسب بطاقة النموذج المتاحة للجمهور، استندت 'تقييمات الاستعداد' – وهي اختبارات تجريها OpenAI لرصد القدرات الخطيرة المحتملة للنموذج – إلى إصدارات سابقة من 'o1″، دون إجراء اختبارات مماثلة على الإصدار النهائي. وفي مقابلة مع شبكة CNBC، أوضح يوهانس هايديكي، رئيس أنظمة السلامة في OpenAI، أن التقييمات نُفذت على نسخ شبه نهائية، مؤكدًا أن التعديلات اللاحقة لم تكن كبيرة بما يبرر اختبارات إضافية. إلا أن هايديكي أقرّ بأن OpenAI 'أضاعت فرصة لشرح الفروقات بشكل أوضح للجمهور'. ويبدو أن التحديات التقنية لم تتوقف عند نموذج 'o1'. إذ تُظهر البيانات الخاصة بالنموذج الاستدلالي الجديد 'o3″، الذي طُرح في أبريل، أن معدلات 'الهلوسة' – إنتاج معلومات خاطئة أو غير منطقية – تزيد بأكثر من الضعف مقارنةً بـ'o1″، ما يثير تساؤلات إضافية حول فعالية أنظمة السلامة والتقييم الداخلي. وتعرضت OpenAI لانتقادات متزايدة بسبب تقارير أفادت بتقليص فترة اختبارات السلامة من عدة أشهر إلى بضعة أيام، وكذلك بسبب ما وصفه البعض بتجاهل شروط التقييم الكامل للنماذج المعدّلة ضمن إطار عمل 'الاستعداد' المحدّث. وفي معرض دفاعه، أشار هايديكي إلى أن تقليص المدة الزمنية جاء نتيجة تحسينات منهجية في أدوات التقييم، وليس تهاونًا في المعايير. وأوضح متحدث باسم OpenAI أن الشركة ضاعفت استثماراتها في البنية التحتية المخصصة لاختبارات السلامة، كما عززت فرق العمل والموارد المالية لدعم الخبراء وزيادة عدد المختبرين الخارجيين المشاركين في مراجعة النماذج. وفي أبريل، أطلقت الشركة النموذج الجديد GPT-4.1 دون نشر تقرير سلامة مخصص، مُبررة ذلك بأن النموذج لم يُصنَّف ضمن فئة 'النماذج الرائدة' وهو مصطلح يُستخدم في قطاع التكنولوجيا للإشارة إلى النماذج واسعة النطاق والمتقدمة التي تستوجب مستويات عالية من التدقيق والاختبار. Google في مارس الماضي، أطلقت جوجل نموذج الذكاء الاصطناعي 'جيميني 2.5″، الذي وصفته بأنه 'الأكثر ذكاءً' بين نماذجها حتى الآن. وفي منشور رسمي نُشر بتاريخ 25 مارس، أكدت الشركة أن النماذج الجديدة تتمتع بقدرات محسّنة على 'تحليل الأفكار قبل تقديم الإجابات'، ما يساهم في رفع مستوى الأداء والدقة. لكن رغم هذا الإعلان الطموح، أثار غياب 'بطاقة النموذج' المرافقة للنموذج، وهي وثيقة أساسية تسلط الضوء على آلية عمل النموذج وحدوده ومخاطره المحتملة، مما أثار تساؤلات حادة حول التزام جوجل بمعايير الشفافية. بطاقات النماذج تُعد أداة شائعة في مجال الذكاء الاصطناعي، تُستخدم لتوفير معلومات تقنية مهمة للجمهور، وقد شبّهها موقع جوجل نفسه بملصقات 'معلومات التغذية الغذائية' للمنتجات الاستهلاكية، موضحًا أنها تعرض 'الحقائق الرئيسية حول النموذج بصيغة واضحة وسهلة الفهم'. وأكدت الشركة أن هذه البطاقات تهدف إلى دعم التطوير المسؤول وتعزيز ممارسات التقييم الشاملة في صناعة الذكاء الاصطناعي. لكن، عند إصدار جيميني 2.5، لم تتوفر مثل هذه البطاقة. والأسوأ، أن منشورًا رسميًا على مدونة جوجل بتاريخ 2 أبريل أشار إلى أن الشركة 'تُقيّم النماذج المتقدمة، مثل جيميني، بحثًا عن قدرات خطرة قبل الإصدار'، إلا أن هذه العبارة حُذفت لاحقًا من النسخة المُحدّثة للمدونة، ما زاد من حدة الانتقادات بشأن الشفافية والمساءلة. وفي ظل غياب بطاقة النموذج، لم يكن بإمكان الجمهور أو الباحثين المستقلين معرفة ما إذا كانت جوجل أو وحدتها البحثية DeepMind قد أجرت فعلًا تقييمات للقدرات الخطيرة لنموذج Gemini 2.5، مثل ما إذا كان يمكن استخدامه في تعلم صنع أسلحة كيميائية أو نووية، أو اختراق أنظمة حيوية. ردًا على استفسار من شبكة CNBC بتاريخ 2 أبريل، قال متحدث باسم جوجل إن الشركة 'ستصدر تقريرًا تقنيًا يتضمن معلومات إضافية عن السلامة وبطاقات نموذجية'. وفي 16 أبريل، نشرت الشركة بطاقة نموذجية غير مكتملة، قبل أن تُحدّثها في 28 أبريل لتشمل تفاصيل حول 'تقييمات القدرات الخطيرة' للنموذج، وذلك بعد أكثر من شهر من إصداره الرسمي. ويؤكد خبراء في الصناعة أن تقييم القدرات الخطيرة يُعد جزءًا أساسيًا من ضمان سلامة أنظمة الذكاء الاصطناعي، ويحتاج إلى عمليات تحليل دقيقة واختبارات متقدمة تختلف عن تقييمات السلامة التلقائية، التي غالبًا ما تكون سطحية وسريعة التنفيذ. في ظل تسارع وتيرة المنافسة في سوق الذكاء الاصطناعي التوليدي، تطرح هذه الحادثة تساؤلات جدية حول مدى التزام كبرى شركات التكنولوجيا بإجراءات السلامة والشفافية، في وقت يزداد فيه القلق العالمي من المخاطر الكامنة في النماذج المتقدمة.

كارثة تأجيل نموذج الذكاء الاصطناعي Llama 4 بعد التلاعب بالاختبارات
كارثة تأجيل نموذج الذكاء الاصطناعي Llama 4 بعد التلاعب بالاختبارات

أخبار مصر

timeمنذ 3 أيام

  • أخبار مصر

كارثة تأجيل نموذج الذكاء الاصطناعي Llama 4 بعد التلاعب بالاختبارات

كارثة تأجيل نموذج الذكاء الاصطناعي Llama 4 بعد التلاعب بالاختبارات مع شدّة السباق العالمي لتطوير نماذج الذكاء الاصطناعي المتقدمة، تواجه شركة ميتا تحديات كبيرة تعكس تعقيدات المُنافسة في هذا المجال الحيوي. بين تأجيل إطلاق أضخم نماذج Llama 4 -بيهيموث 'Behemoth'- وانتقادات حول تراجُّع أداء عائلة نماذج 'لاما' المفتوحة المصدر، تظهر تساؤلات حول قدرة الشركة على الحفاظ على ريادتها في هذا القطاع سريع التطور.ميتا تطلق Llama 4 : قوة جديدة في عصر الذكاء الاصطناعي كيف ترى ميتا مستقبل التكنولوجيا بعين ثالثة؟تأجيل Behemoth: مُعضلة تقنية وإداريةأجلّت ميتا إطلاق نموذجها العملاق 'بيهيموث' للذكاء الاصطناعي مرات مُتتالية، من أبريل إلى يونيو ثم إلى الخريف، وسط صعوبات تقنية في تحسين أدائه. وفقًا لمصادر داخلية، يعاني المهندسون من تحديات في جعل النموذج قادرًا على مُجاراة التصريحات العلنية لميتا حول تفوقه على مُنافسيه مثل GPT-4 من OpenAI وClaude من Anthropic.القلق الداخلي لا يقتصر على الجانب التقني؛ فكبار المديرين التنفيذيين يُظهرون إحباطًا من أداء الفريق المسؤول عن تطوير Llama 4، وهو ما دفع الشركة إلى النظر في إعادة هيكلة إدارية لفريق الذكاء الاصطناعي.يُذكر أن ميتا أنفقت مليارات الدولارات على البنية التحتية الحاسوبية لدعم طموحاتها، مع خطة إنفاق رأسمالي تصل إلى 72 مليار دولار في 2025، جزء كبير منها مُوجه لتطوير الذكاء الاصطناعي.'لاما' تفقد بريقها: انتكاسة في المصدر المفتوحكانت نماذج 'لاما' المفتوحة المصدر تُعتبر إنجازًا بارزًا لميتا، حيث أشاد بها خبراء مثل جينسن هوانغ -الرئيس التنفيذي لإنفيديا- وصف إطلاق Llama 2 بأنه 'أكبر حدث في مجال الذكاء الاصطناعي' عام 2023. لكن الصورة اختلفت مع الجيل الرابع Llama 4.في مؤتمر LlamaCon الأول للشركة، عبّر المُطورون عن خيبة أملهم لعدم إعلان ميتا عن نموذج استدلالي قوي يتفوق على منافسين مثل 'DeepSeek V3' أو 'Qwen' من علي بابا. وعلى الرغم من إطلاق نموذجَيّ Scout وMaverick ضمن عائلة Llama 4، إلا أنّ الأداء الفعلي للنماذج المُتاحة…..لقراءة المقال بالكامل، يرجى الضغط على زر 'إقرأ على الموقع الرسمي' أدناه

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store