أحدث الأخبار مع #لاما


الصحراء
منذ يوم واحد
- أعمال
- الصحراء
هجرة المواهب تضع "ميتا" في تحدٍ للحفاظ على ريادتها في الذكاء الاصطناعي
ساهمت نماذج الذكاء الاصطناعي "لاما" (Llama) مفتوحة المصدر من شركة ميتا في تشكيل استراتيجية الشركة للذكاء الاصطناعي، ومع ذلك، فقد غادر الشركة معظم الباحثين الذين طوروا النسخة الأصلية لهذه النماذج. ومن بين 14 مؤلفًا وردت أسماؤهم في الورقة البحثة المهمة التي قدمت نموذج لاما للعالم في 2023، لا يزال ثلاثة فقط يعملون في "ميتا". وهؤلاء الثلاثة هم: الباحث هوغو توفرون، والمهندس الباحث كزافييه مارتينيه، وقائد البرنامج التقني فيصل أزهار. أما البقية فقد غادروا الشركة، وانضم العديد منهم إلى منافسيها الناشئين أو أسسوا شركات أخرى، بحسب تقرير لموقع بيزنس إنسايدر، اطلعت عليه "العربية Business". تتجلى هجرة المواهب في "ميتا" بشكل أوضح في "ميسترال"، الشركة الناشئة التي تتخذ من باريس مقرًا لها، والتي شارك في تأسيسها الباحثان السابقان في "ميتا"، غيوم لامبل وتيموثي لاكروا، وهما اثنان من أبرز مهندسي "لاما". وإلى جانب العديد من زملائهم السابقين في "ميتا"، يعمل الباحثان على بناء نماذج ذكاء اصطناعي مفتوحة المصدر قوية تُنافس بشكل مباشر جهود "ميتا" الرائدة في مجال الذكاء الاصطناعي. وتثير هذه الحالات بمرور الوقت تساؤلات حول قدرة "ميتا" على الاحتفاظ بأفضل المواهب في مجال الذكاء الاصطناعي في الوقت الذي تواجه فيه موجة جديدة من الضغوط الخارجية والداخلية. وأجلت الشركة إطلاق أكبر نموذج ذكاء اصطناعي لها على الإطلاق، "Behemoth"، بعد مخاوف داخلية تتعلق بأدائه، بحسب ما ذكرته صحيفة وول ستريت جورنال في وقت سابق. أما أحدث نماذجها "لاما 4" (Llama 4)، فقد لاقى استقبالًا فاترًا من المطورين، الذين بات العديد منهم يتوجهون الآن إلى نماذج مفتوحة المصدر من منافسين أسرع نموًا مثل "ديب سيك" و"كيوين" للحصول على قدرات متطورة. تحدي الحفاظ على الريادة داخل "ميتا"، شهد فريق البحث أيضًا تغييرات جذرية. فقد أعلنت جويل بينو، التي قادت مجموعة أبحاث الذكاء الاصطناعي الأساسية "FAIR" في الشركة لمدة ثماني سنوات، الشهر الماضي أنها ستتنحى عن منصبها. وسيحل محلها روبرت فيرغوس، الذي شارك في تأسيس "FAIR" عام 2014 ثم أمضى خمس سنوات في شركة "ديب مايند" التابعة لغوغل قبل أن ينضم مجددًا إلى "ميتا" هذا الشهر. وتأتي حركة التغييرات هذه بعد فترة من التراجع الهادئ. فقد غادر العديد من الباحثين الذين يقفون وراء النجاح الأولي لنموذج "لاما" مجموعة "FAIR" منذ نشر ورقتهم البحثية البارزة، حتى مع استمرار "ميتا" في وضع عائلة النماذج في صميم استراتيجيتها للذكاء الاصطناعي. ومع رحيل العديد من مهندسيها الأصليين، وتسارع وتيرة منافسيها في ابتكار البرمجيات مفتوحة المصدر، تواجه "ميتا" الآن تحدي الدفاع عن ريادتها المبكرة دون الفريق الذي بناها. وهذا الأمر ذو أهمية خاصة لأن ورقة "لاما" البحثية لعام 2023 لم تكن مجرد إنجاز تقني. فقد ساعدت في إضفاء الشرعية على النماذج اللغوية الكبيرة مفتوحة الوزن، التي تتوفر أكوادها ومعلماتها الأساسية مجانًا للآخرين لاستخدامها وتعديلها والبناء عليها، باعتبارها بدائل قابلة للتطبيق للأنظمة الذكاء الاصطناعي مغلقة المصدر في ذلك الوقت، مثل "GPT-3" من "OpenAI" و"PaLM" من "غوغل". درّبت "ميتا" نماذجها باستخدام بيانات متاحة للجمهور فقط، وحسّنتها لتحقيق الكفاءة، مما مكّن الباحثين والمطورين من تشغيل أنظمة متطورة على شريحة وحدة معالجة رسومية واحدة فقط. ولفترة من الزمن، بدا أن "ميتا" قادرة على قيادة طليعة هذا المجال المفتوح. وبعد عامين، تراجعت هذه الصدارة، ولم تعد "ميتا" تقود مجال الذكاء الاصطناعي مفتوح المصدر هذا. وعلى الرغم من استثمار مليارات الدولارات في الذكاء الاصطناعي، ما زالت "ميتا" لا تمتلك نموذج "تفكير"، أي نموذج مُصمم خصيصًا للتعامل مع المهام التي تتطلب تفكيرًا متعدد الخطوات، وحل المشكلات، أو استخدام أدوات خارجية لإكمال أوامر مُعقدة. وقد ازدادت هذه الفجوة وضوحًا مع إعطاء شركات أخرى مثل "غوغل و"OpenAI" الأولوية لهذه الميزات في أحدث نماذجها. وتجاوز متوسط مدة عمل الباحثين الأحد عشر الذين غادروا "ميتا" الخمس سنوات، مما يُشير إلى أنهم لم يكونوا موظفين مؤقتين، بل باحثين مُنخرطين بعمق في جهود "ميتا" في مجال الذكاء الاصطناعي. وغادر بعضهم في يناير 2023؛ وبقي آخرون حتى دورة إصدار "لاما 3"، وغادر عدد قليل منهم هذا العام. ويُمثل رحيلهم معًا التفكك الهادئ للفريق الذي ساعد "ميتا" على بناء اسمها في مجال نماذج الذكاء الاصطناعي مفتوحة المصدر. نقلا عن العربية نت


عرب هاردوير
منذ 3 أيام
- سياسة
- عرب هاردوير
كيف استُخدم نموذج ميتا القديم في تسهيل عمليات فصل الموظفين؟
كشفت تقارير تقنية حديثة عن استخدام نموذج ذكاء اصطناعي تابع لشركة ميتا يُدعى لاما 2 من قِبل مكتب يُعرف باسم مكتب كفاءة الحكومة DOGE، في مهمة سرية استهدفت تصنيف ردود الموظفين الفيدراليين على رسالة مثيرة للجدل عُرفت باسم مفترق الطرق. هذا المكتب، الذي يتبع إداريًا لمكتب إدارة شؤون الموظفين، استخدم النموذج لتحليل ردود ملايين العاملين في المؤسسات الحكومية، وتحديد مدى التزامهم بسياسة العودة إلى المكاتب أو رغبتهم في الاستقالة. مفترق الطرق: رسالة غير مسبوقة في التاريخ الإداري الأمريكي في أواخر يناير، أُرسلت رسالة إلى جميع الموظفين الفيدراليين تحمل تهديدًا مبطنًا، مستوحاة من رسالة سابقة أرسلها إيلون ماسك لموظفي تويتر. طُلب من الموظفين التعبير عن التزامهم بالسياسات الجديدة، أو اعتبار أنفسهم مستقيلين. تزامن ذلك مع إشاعات عن استخدام أدوات ذكاء اصطناعي لتحليل الردود بشكل جماعي، وهو ما أكّدته لاحقًا مراجعة موقع Wired، حيث بيّنت السجلات استخدام نموذج لاما 2 في هذه العملية. لاما 2: من دعم الجيش الصيني إلى مساعدة الإدارة الأمريكية لاما 2 لم يكن بعيدًا عن الجدل سابقًا. ففي نوفمبر الماضي، استُخدم هذا النموذج في تطوير أنظمة ذكاء اصطناعي لصالح الجيش الصيني، مما أثار غضبًا أمريكيًا واسعًا. إلا أن شركة ميتا قلّلت من أهمية الحادث، ووصفت استخدام النموذج بأنه غير مصرح به، قبل أن تعيد النظر في سياساتها وتفتح المجال لاستخدام نماذجها في تطبيقات الأمن والدفاع الأمريكية. وقد أعلنت الشركة رسميًا عن تعاونها مع عدد من الشركات الكبرى لتوفير نموذج لاما للوكالات الحكومية، مثل أمازون، مايكروسوفت، آي بي إم، وأوراكل. سهولة الاستخدام تفتح الباب أمام سوء الاستخدام نظرًا لأن نماذج ميتا مفتوحة المصدر، فقد أشار الخبراء إلى أنه يمكن استخدامها من قبل أي جهة حكومية دون الرجوع المباشر إلى ميتا، ما يثير تساؤلات حول الرقابة والشفافية. لم يُعرف حتى الآن مدى انتشار استخدام هذه النماذج داخل المؤسسات الفيدرالية، ولا سبب لجوء DOGE إلى نموذج قديم مثل لاما 2 بدلًا من النماذج الأحدث. بعد أسابيع من رسالة مفترق الطرق، طُلب من الموظفين الفيدراليين إرسال تقارير أسبوعية توضح إنجازاتهم في خمسة نقاط. كثير من الموظفين عبّروا عن خشيتهم من أن يكون ذلك مجرد أداة جديدة لجمع بيانات حساسة وتحليلها باستخدام الذكاء الاصطناعي. وبينما لم تؤكد Wired ما إذا كان لاما 2 قد استُخدم مرة أخرى في تحليل هذه الردود، إلا أن موظفين فيدراليين رجّحوا إعادة استخدام نفس الخوارزميات. جدل سياسي وتحقيق مرتقب في أبريل، وجّه أكثر من أربعين عضوًا في الكونغرس رسالة إلى مدير مكتب الميزانية في البيت الأبيض، مطالبين بتحقيق فوري في ممارسات DOGE. تضمنت الرسالة اتهامات باستخدام أدوات غير مُصرّح بها، وتوظيف نماذج مثل Grok-2 التابعة لشركة xAI الخاصة بإيلون ماسك، وكذلك أداة AutoRIF التي يُعتقد أنها استُخدمت لتسهيل عمليات فصل جماعي للموظفين. حذّرت الرسالة من تضارب مصالح محتمل نتيجة استخدام ماسك لنماذجه الخاصة في المؤسسات الحكومية، مما يتيح له الوصول إلى بيانات لا يمكن لمنافسيه في قطاع التقنية استخدامها. عبّر المشرعون عن قلقهم من إمكانية تسريب بيانات حساسة، وعدم جاهزية نماذج الذكاء الاصطناعي لاتخاذ قرارات عالية المخاطر، خاصة تلك المتعلقة بالفصل من العمل أو توزيع التمويلات الحكومية. هل الذكاء الاصطناعي أداة للكفاءة أم للفصل التعسفي؟ رغم تطمينات الإدارة بأن النماذج استُخدمت محليًا دون إرسال البيانات إلى الإنترنت، فإن المخاوف لا تزال قائمة. دعا المشرعون إلى وقف جميع تطبيقات الذكاء الاصطناعي الحكومية مؤقتًا إلى حين وضع ضوابط واضحة، مؤكدين على ضرورة حماية الخصوصية ومنع اتخاذ قرارات مصيرية بناءً على أنظمة قد تكون متحيزة أو غير دقيقة. في المقابل، يبدو أن بعض الجهات داخل الإدارة الأمريكية، مثل مكتب الميزانية، أكثر انفتاحًا تجاه استخدام الذكاء الاصطناعي، حيث دعت إلى إزالة الحواجز أمام الابتكار وتحقيق الكفاءة بأفضل التكاليف. لكن التحذيرات تتزايد من أن الإفراط في الاعتماد على الذكاء الاصطناعي دون رقابة، قد يهدد ثقة الموظفين ويعرض بيانات الدولة لخطر حقيقي، خاصة إذا استمر استخدامها في عمليات التقييم والفصل والتصنيف الإداري الجماعي. يبقى استخدام نماذج الذكاء الاصطناعي في قطاعات حساسة تحديًا كبيرًا، حيث لا يمكن تحقيق الكفاءة المنشودة على حساب الثقة والأمن، ما يحتم فرض ضوابط صارمة وشفافية كاملة قبل الاعتماد على هذه التقنيات في اتخاذ قرارات تؤثر على حياة موظفين ومستقبل المؤسسات.


النهار
منذ 6 أيام
- أعمال
- النهار
سباق العقول الرقميّة: هل المستقبل لوكلاء الذكاء الشامل أم للمساعدين المتخصّصين؟
يتسارع الجدل في الأوساط التكنولوجية حول الشكل الذي سيتّخذه الذكاء الاصطناعي في المستقبل القريب: هل سيكون هناك وكيل ذكيّ واحد يستطيع تنفيذ معظم المهام اليومية نيابة عن المستخدمين أم الاتجاه سيذهب نحو مجموعة من الوكلاء المتخصصين، كلٌّ منهم يؤدّي مهمّة ضيقة بإتقان، ويُستخدم فقط عند الحاجة؟ من المرجّح أن يحمل المستقبل مزيجًا من النموذجين. لكنّ سرعة التطورات الحالية أربكت حتى كبار المتخصصين الذين يعترفون بصعوبة التنبّؤ بما سيطرأ خلال سنة أو سنتين. فكرة الوكيل الذكيّ الشامل تحظى بزخم كبير حاليًا. شركة "أوبن إيه آي" أضافت هذا الأسبوع ميزة جديدة لروبوت الدردشة "تشات جي بي تي" تمكّنه من تقديم توصيات تسوّق مخصّصة، مما يعيد تشكيل طريقة اتخاذ القرار الشرائي. فبدلًا من المرور بمراحل متعدّدة للبحث والمقارنة، يمكن للمستخدم الحصول على توصية نهائية بعملية شراء من خلال سؤال واحد، مما يهدّد نموذج التسوّق التقليدي المعروف باسم "القُمع"، ويضع "أوبن إيه آي" في موقع محوريّ. لكنه في الوقت الذي تجذب فيه هذه التحسينات العامة الأنظار، يجري في الخفاء بناء جيل جديد من وكلاء الذكاء الاصطناعي يتميّز بالتخصّص وانخفاض التكلفة، سواء في التطوير أم التشغيل. وقد كشفت شركة "ميتا" في مؤتمر المطوّرين LlamaCon، الذي عُقد في وقتٍ سباق خلال الشهر الجاري عن رؤيتها لمستقبل الذكاء الاصطناعي، والتي ترتكز على استخدام نماذج "ذات أوزان مفتوحة". هذه النماذج لا تُظهر طريقة تدريبها بالتفصيل، لكنّها تتيح للمطوّرين استخدامها وتعديلها، مما يفتح الباب أمام إبداع واسع النطاق. أحد أبرز مؤشرات نجاح هذا النهج هو أنّ نماذج "لاما" المفتوحة من "ميتا" تمّ تحميلها أكثر من 1.2 مليار مرة خلال عامين فقط. وأغلب هذه التنزيلات كانت لنماذج جرى تعديلها من قبل مطوّرين لتناسب استخدامات متخصّصة، ثمّ أتاحوها للجميع. ومن بين التقنيات، التي انتشرت لتحسين هذه النماذج، تقنية "التقطير" التي تنقل بعض المهارات من النماذج الضخمة إلى أخرى أصغر حجمًا. وفي الوقت الذي تحتفظ فيه الشركات، التي تعتمد على نماذج مغلقة – مثل "أوبن إيه آي" –، بحقّ التحكم بكيفية استخدام نماذجها، فإنّ بيئة النماذج المفتوحة تتيح حرية أكبر للمطورين. مع تطور الذكاء الاصطناعي، بدأ التركيز ينتقل من مرحلة التدريب الأولية التي تتطلب موارد هائلة، إلى ما يُعرف بمراحل ما بعد التدريب. وتشمل هذه المراحل استخدام تقنيات مثل "التعلّم المعزّز" لتوجيه النموذج، و"مرحلة وقت الاختبار" التي يستخدمها النموذج لحلّ المشكلات أثناء التشغيل. أوضح علي قدسي، الرئيس التنفيذي لشركة "داتابريكس"، خلال مؤتمر "ميتا"، أن تدريب النماذج على بيانات الشركات الخاصة خلال مرحلة التعلّم المعزّز يُحسّن من موثوقيتها في البيئات التجارية. وأكد أنّ هذا النوع من التطوير لا يمكن تنفيذه إلّا في النماذج المفتوحة. كذلك برز توجّه جديد لدمج مميّزات من نماذج متعدّدة. بعد أن فاجأت شركة "ديبسيك" الجميع بنجاح نموذجها المنطقيّ منخفض التكلفة "R1"، بدأ مطوّرون آخرون بتحليل خطوات التفكير التي اتبعها هذا النموذج، والمعروفة بـ "آثار الاستدلال"، وتطبيقها على نماذج "لاما" الخاصّة بـ "ميتا". هذه التطورات تشير إلى قفزة في قدرة الذكاء الاصطناعي على تقديم مساعدين ذكيين أكثر كفاءة وأقلّ استهلاكاً للطاقة والموارد. الشركات التي تمتلك الأدوات اللازمة لبناء وتشغيل هذه البرمجيات الجديدة ستكون من أبرز المستفيدين. لكن في المقابل، فإنّ الشركات المطوّرة للنماذج نفسها قد تواجه خطر تحوّل منتجاتها إلى سلعة (الخيارات الأرخص قد تقلّل من قيمة النماذج المتقدمة التي تكلف ملايين الدولارات). أمّا المستخدم النهائي، خاصة الشركات القادرة على دمج هذه النماذج المتخصصة في عملياتها، فقد يكون هو المستفيد الأكبر من هذا التوجه، بفضل انخفاض التكلفة وارتفاع الكفاءة.


المشهد العربي
٢٠-٠٥-٢٠٢٥
- أعمال
- المشهد العربي
ميتا تؤجل إطلاق نموذج ذكاء اصطناعي رئيسي
أرجأت شركة "ميتا" إطلاق نموذج الذكاء الاصطناعي الرئيسي "بيهموث"، مما أثار مخاوف داخلية بشأن مدى فعالية استثماراتها الضخمة في هذه التقنية المتطورة. وذكرت صحيفة "وول ستريت جورنال" أن مهندسي الشركة يواجهون صعوبات في تحقيق تحسينات جوهرية في قدرات النموذج اللغوي الكبير "بيهموث". وبدأ الموظفون يتساءلون عما إذا كانت التحسينات التي أُجريت على الإصدارات السابقة كافية لتبرير إطلاق النموذج الجديد. وكان من المقرر في الأصل إطلاق "بيهموث" في أبريل بالتزامن مع مؤتمر "ميتا" للذكاء الاصطناعي. ورغم إطلاق الشركة لنموذجين أصغر حجمًا من سلسلة "لاما" قبل المؤتمر، فقد تقرر تأجيل إصدار "بيهموث" أولاً إلى يونيو، ثم مرة أخرى إلى الخريف أو حتى بعد ذلك. يُذكر أن "ميتا" قد استثمرت مليارات الدولارات في تطوير تقنيات الذكاء الاصطناعي التي تدعم تطبيقات الدردشة الآلية على منصاتها المختلفة مثل "واتساب" و"إنستجرام" و"فيسبوك". وتعتزم الشركة إنفاق ما يصل إلى 72 مليار دولار كرأس مال هذا العام، وسيُخصص جزء كبير منها لدعم طموحات الرئيس التنفيذي "مارك زوكربيرج" في مجال الذكاء الاصطناعي.


العالم24
٠٦-٠٥-٢٠٢٥
- أعمال
- العالم24
خطوة غير متوقعة من ميتا تغيّر قواعد الذكاء الاصطناعي
أطلقت شركة ميتا، عملاق وسائل التواصل الاجتماعي، أول تطبيق مستقل لها يعمل بالمساعدة الذكية المعتمدة على الذكاء الاصطناعي، في خطوة واضحة لمنافسة تطبيقات مثل 'تشات جي بي تي' من خلال توفير وسيلة مباشرة للمستخدمين للوصول إلى نماذج الذكاء الاصطناعي التوليدي. مارك زاكربرغ، المؤسس والرئيس التنفيذي للشركة، أعلن عن ذلك في فيديو عبر إنستغرام، مشيرًا إلى أن أكثر من مليار مستخدم يتفاعلون حاليًا مع نظام 'ميتا إيه آي' عبر تطبيقات الشركة المختلفة، وأن الإصدار الجديد يأتي في صورة تطبيق مستقل يمنح المستخدمين تجربة خاصة ومباشرة. زاكربرغ أوضح أن التطبيق مصمم ليكون مساعدًا شخصيًا لكل مستخدم، ويعتمد بشكل رئيسي على التفاعل الصوتي مع تخصيص الاستجابات وفق اهتمامات الأفراد. في بدايته، يعتمد التطبيق على الحد الأدنى من المعلومات السياقية، لكنه مع الوقت سيكون قادرًا، بموافقة المستخدم، على معرفة المزيد عن عاداته ودوائره الاجتماعية من خلال التطبيقات التابعة لميتا. هذا الذكاء الاصطناعي الجديد مبني على نموذج 'لاما' التوليدي مفتوح المصدر، الذي حظي باهتمام واسع من المطورين وتم تحميله أكثر من مليار مرة، مما يجعله من أكثر النماذج استخدامًا في مجاله. ويتميز التطبيق بتصميم ينسجم مع الطابع الاجتماعي للشركة، حيث يسمح للمستخدمين بمشاركة منشورات مولّدة بالذكاء الاصطناعي ورؤيتها ضمن موجز خاص، ويعتمد في جوهره على إصدار حديث من النموذج يُعرف بـ'Llama 4″، والذي يمنح التفاعلات طابعًا أكثر خصوصية ومرونة. كما يتيح التطبيق إمكانية حفظ معلومات يختار المستخدم مشاركتها، ليُجنب المستخدم تكرارها لاحقًا في المحادثات، ويوفر أيضًا إمكانية البحث داخل محتوى حسابات 'فيسبوك' و'إنستغرام' بإذن مسبق. ويُعد هذا التطبيق بديلًا لتطبيق 'ميتا فيو' المخصص للنظارات الذكية 'راي بان ميتا'، حيث يتيح للمستخدمين التفاعل مع النظارات وتطبيق الهاتف المحمول وأجهزة الكمبيوتر بسلاسة عبر واجهة موحدة. إطلاق هذا التطبيق الجديد يأتي في وقت تتسابق فيه كبرى الشركات لتقديم مساعدات ذكية موجهة مباشرة للمستخدمين، في مقدمتها شركة 'أوبن إيه آي' التي لا تزال تحتفظ بصدارة السوق من خلال تطويرها المستمر لتطبيق 'تشات جي بي تي' وإضافة قدرات متقدمة له باستمرار.