
"ميتا" تعقد اليوم مؤتمر "LlamaCon" الأول من نوعه
تعقد شركة التكنولوجيا ومنصات التواصل الاجتماعي "ميتا"، يوم الثلاثاء، حدث "LlamaCon"، وهو أول مؤتمر لها على الإطلاق لمطوري الذكاء الاصطناعي التوليدي.
ويشير النصف الأول من اسم الحدث "Llama" إلى الاسم الذي تطلقه "ميتا" على نماذج الذكاء الاصطناعي التوليدي التي تطورها.
ويمثل تنظيم "ميتا" لحدث مستقل للذكاء الاصطناعي تحولًا عن السنوات السابقة حيث كانت تحديثات نماذج "Llama" عادة ما تكون جزءًا من مؤتمرات "Connect" الخاصة بالشركة.
وسيكون حدث "LlamaCon" افتراضيًا بالكامل، ويمكن حضوره عبر صفحة "Meta For Developers" على "فيسبوك"، بحسب ما أعلنته الشركة.
وقال الشركة، عبر موقعها الإلكتروني، إن "LlamaCon" هو " حدث افتراضي ليوم واحد لمشاركة الابتكارات والإبداع الذي يدفع الذكاء الاصطناعي إلى الأمام".
وقدمت الشركة أوائل أبريل الجاري عائلة نماذج "Llama 4" الجديدة، التي تتميز بفهم الصور وتحليل المستندات. ولا يُعرف بعد ما هي النماذج أو المنتجات الجديدة التي ربما احتفظت بها الشركة لمؤتمر "LlamaCon".
وينطلق مؤتمر "LlamaCon" في الساعة 1 ظهرًا بالتوقيت الشرقي (8 مساءً بتوقيت السعودية) بكلمة افتتاحية يقدمها كل من مدير المنتجات التنفيذي في "ميتا" كريس كوكس، ونائب رئيس قسم الذكاء الاصطناعي مانوهار بالوري، والعالمة الباحثة أنجيلا فان.
وفي الساعة 1:45 مساءً بالتوقيت الشرقي (8:45 مساءً بتوقيت السعودية) ستنعقد جلسة حوارية بين مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا، وعلي قدسي، الرئيس التنفيذي لشركة "Databricks"، حول "تطوير تطبيقات مدعومة بالذكاء الاصطناعي".
وفي الساعة 7 مساءً بالتوقيت الشرقي (2 صباحًا بتوقيت السعودية يوم الأربعاء) ستُعقد جلسة أخرى حول "أحدث اتجاهات الذكاء الاصطناعي" بين زوكربيرغ والرئيس التنفيذي لشركة مايكروسوفت، ساتيا ناديلا.
نقلا عن العربية نت
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الصحراء
منذ 3 أيام
- الصحراء
لمستخدمي iOS: أنشئ صورتك الشخصية على واتساب بالذكاء الاصطناعي
بدأ تطبيق المراسلة الشهير واتساب، المملوك لشركة ميتا، في طرح خيار جديد يتيح لمستخدمي نظام "iOS" لأجهزة آيفون إنشاء صورة لحسابهم ولأيقونات المجموعات مباشرة بواسطة الذكاء الاصطناعي. تعتمد هذه الميزة الجديدة على المساعد الذكي "Meta AI" من "ميتا"، المدمج في تطبيق واتساب. ويمكن لمستخدمي "iOS" الوصول إلى هذه الميزة بفتح إعدادات التطبيق ومحاولة تحديث صورة حسابهم الشخصي، حيث سيظهر خيار لإنشاء صورة مولدة بالذكاء الاصطناعي بحسب موقع "WABetaInfo" المتخصص في تحديثات تطبيق واتساب. وسيتيح هذا الخيار للمستخدمين تصميم صور أفتار أو أخرى تعبيرية دون الحاجة إلى تحميل صورة مسبقًا. أما في ما يتعلق بأيقونات المجموعات، فيحتاج المستخدمون إلى فتح شاشة معلومات المجموعة واختيار خيار تعديل أيقونة المجموعة، حيث سيتمكنون من توليد صورة جديدة عبر وصف الفكرة أو النمط الذي يرغبون به من خلال إدخال وصف نصي ليقوم "Meta AI" بإنشاء صورة مبتكرة للمجموعة. وهذه الميزة مفيدة بشكل خاص للمستخدمين الذين قد لا يملكون صورة مناسبة لحسابهم الشخصي، سواءً لأنهم قلقون بشأن الخصوصية، أو لا يملكون صورة حديثة تعجبهم، أو ببساطة يبحثون عن شيء أكثر إبداعًا. وبالنسبة للمجموعات، فقد قد يكون العثور على صورة مُناسبة أمرًا صعبًا، لكن باستخدام "Meta AI"، يُمكن للمستخدمين إنشاء أيقونة لمجموعة تعبر عن اهتمام هذه المجموعة بشكل أدق. وبحسب "WABetaInfo"، فقد ظهر خيار إنشاء صورة للحساب الشخصي بواسطة الذكاء الاصطناعي لدى بعض المستخدمين الذي ثبتوا أحدث إصدار من تطبيق واتساب لنظام "iOS". ومن المتوقع طرح هذه الميزة لعدد أكبر من المستخدمين في الأيام القليلة المقبلة. نقلا عن العربية نت


الصحراء
١١-٠٥-٢٠٢٥
- الصحراء
سمّاعات ذكية تترجم لعدة متحدثين في وقت واحد
طوّر باحثون من جامعة واشنطن الأميركية نظام سماعات رأس ذكية يمكنها ترجمة حديث عدة أشخاص في الوقت نفسه، مع الحفاظ على نبرة صوت كل متحدث واتجاه صوته بدقة ثلاثية الأبعاد، حتى أثناء حركته. وأوضح الباحثون أن النظام، الذي أُطلق عليه «الترجمة الصوتية المكانية» قد يُحدث نقلة نوعية في مجال الترجمة الفورية. ونُشرت النتائج، الجمعة، في دورية «جمعية الحوسبة الأميركية (ACM)». وعلى الرغم من ظهور تقنيات واعدة في مجال الترجمة الفورية مؤخراً، فإن أياً منها لم يوفر حلاً فعّالاً في الأماكن العامة. فعلى سبيل المثال، تعمل نظارات شركة ميتا الجديدة فقط عند وجود متحدث واحد، وتعرض الترجمة الصوتية الآلية بعد انتهاء المتحدث من الكلام. لكن الفريق المصمم للنظام الجديد ابتكر حلاً يُترجم كلام عدة متحدثين في الوقت نسه مع الحفاظ على الاتجاه وخصائص كل صوت. ويعتمد النظام على سماعات مانعة للضوضاء مُزوّدة بميكروفونات، وتعمل خوارزميات النظام المستندة إلى الذكاء الاصطناعي على فصل أصوات المتحدثين وتتبعهم داخل المكان، ثم ترجمة كلامهم وإعادة تشغيله بصوت يشبه صوتهم الأصلي مع تأخير بسيط يتراوح بين 2 و4 ثوانٍ. ويتميز النظام بثلاثة ابتكارات رئيسية، أولها قدرته على اكتشاف عدد المتحدثين تلقائياً داخل أي مساحة مغلقة أو مفتوحة، من خلال مسح محيطي بزاوية 360 درجة، وترجمة الكلام مع الحفاظ على تعبيرات الصوت ومستوى ارتفاعه، باستخدام معالجات داخلية مثل شريحة (Apple M2)، دون الاعتماد على الحوسبة السحابية لحماية الخصوصية، بالإضافة إلى متابعة تحركات رؤوس المتحدثين، مع تعديل اتجاه الصوت تبعاً لحركتهم. وبمشاركة 29 متطوعاً، اختُبر النظام في 10 بيئات مختلفة داخلية وخارجية، مثل الشوارع، والمقاهي، والمتاحف، وأماكن عامة، وأثبت فاعليته في هذه البيئات الواقعية، حتى مع وجود ضوضاء خلفية. وركزت التجربة على 3 لغات هي الإسبانية، والألمانية، والفرنسية، وأظهر النظام أداء جيداً في الترجمة من هذه اللغات إلى الإنجليزية، والعكس. وأظهرت النتائج أن معظم المستخدمين فضّلوا نظام الترجمة الجديد على الأنظمة التقليدية؛ لما وفره من دقة عالية في الترجمة وتجربة سمعية طبيعية تُحاكي الواقع. كذلك أثبت النظام كفاءته العالية في تتبُّع المتحدثين وتحديد عددهم بدقة، حتى مع تحركهم، مع الحفاظ على اتجاه كل صوت وخصائصه التعبيرية بشكل منفصل. وقال الباحثون إن النظام يمكّن المستخدمين من فهم ما يقوله عدة أشخاص في الوقت نفسه بلغات مختلفة، في بيئة مزدحمة، مع الحفاظ على أصواتهم الأصلية وتحديد مَن قال ماذا، بما يفتح آفاقاً جديدة للسياحة، والتعليم، والتفاعل الثقافي. ويأمل الفريق بأن يسهم هذا الابتكار، الذي يمكن توسيعه ليشمل نحو 100 لغة، في كسر الحواجز اللغوية بين الثقافات، ليتمكن المستخدم من فهم ما يدور حوله بلغته. نقلا عن الشرق الأوسط


الصحراء
١٠-٠٥-٢٠٢٥
- الصحراء
ميتا تطور تقنية جديدة لقراءة بصمة الوجه على نظارات Ray-Ban Meta
تعمل شركة "ميتا" على تطوير جيل جديد من النظارات الذكية يتميز بقدرات استشعار متقدمة تشمل تقنية التعرف على الوجوه، ضمن مشروع يستهدف إطلاق منتجات قادرة على تتبع أنشطة المستخدم اليومية بدقة عالية، في خطوة تمثل توسعًا جديدًا في مجال الأجهزة القابلة للارتداء المدعومة بالذكاء الاصطناعي، بحسب موقع "ذا إنفورميشن". وتطور "ميتا" زوجين من هذه النظارات يُعرفان داخل الشركة باسم Aperol وBellini، وتعتزم إطلاقهما خلال عام 2026. وتقوم الشركة بإعادة هيكلة عمليات تقييم المخاطر المتعلقة بالخصوصية والأمان، بما يتيح تسريع وتيرة إنتاج وإطلاق هذه الأجهزة الجديدة. ويعتمد الجيل الجديد من النظارات على برمجيات رؤية تُوصف بأنها ذات قدرات استشعار فائقة، حيث تبقى الكاميرات والمجسات مفعّلة على مدار الساعة، ما يسمح للذكاء الاصطناعي بمراقبة ما يفعله المستخدم لحظة بلحظة. ويمكن تفعيل هذه البرمجيات عبر أمر صوتي بسيط Hey Meta, Start Live AI. وتتخطى قدرات هذه التقنية مجرد التعرف على الوجوه، إذ يمكن للذكاء الاصطناعي تذكير المستخدم بأخذ مفاتيحه قبل مغادرة المنزل، أو تنبيهه بشراء احتياجاته أثناء العودة، استناداً إلى ما يرصده من سلوكيات ونشاطات. ومع أن الشركة بدأت بالفعل اختبار هذه التقنية على النماذج الحالية من نظارات "راي-بان ميتا" (Ray-Ban Meta)، إلا أن هذا الخيار يستهلك طاقة البطارية بشكل كبير، ما يقلل من فترة الاستخدام إلى نحو 30 دقيقة فقط. وتسعى "ميتا" إلى تحسين عمر البطارية في الطرازات الجديدة لتتمكن من تشغيل البرمجيات لساعات طويلة، كما تعمل على تطوير سماعات أذن بكاميرات مدمجة لتوسيع نطاق الاستخدام. الخصوصية على المحك وتتزامن هذه التطورات التقنية مع إجراء "ميتا" تعديلات كبيرة على سياسة الخصوصية الخاصة بنظارات Ray-Ban Meta، ما أثار موجة من الانتقادات في الأوساط الحقوقية والتقنية. وفي رسالة إلكترونية أرسلتها الشركة لمستخدمي النظارات، أوضحت أن ميزة Meta AI with camera باتت مفعّلة تلقائياً ما لم يتم تعطيل Hey Meta، وهي خاصية الأوامر الصوتية التفاعلية. كما أعلنت الشركة إزالة خيار تعطيل تخزين تسجيلات الصوت، لتحتفظ بها على خوادمها لمدة تصل إلى عام بهدف تحسين خدمات الذكاء الاصطناعي، مع إتاحة إمكانية حذف التسجيلات يدوياً عبر الإعدادات. وفي حال تبين أن التسجيل تم عن طريق الخطأ، يتم حذفه خلال مدة أقصر تبلغ 90 يوماً فقط. وأكد المتحدث باسم "ميتا"، ألبرت أيدين، أن الصور ومقاطع الفيديو الملتقطة عبر النظارات تُخزن محلياً على هاتف المستخدم، ولا تُستخدم لتدريب أنظمة الذكاء الاصطناعي إلا إذا تم تحميلها على خدمات "ميتا" أو طرف ثالث، بحسب تقرير لموقع "ذا فيرج". نقلا عن الشرق للأخبلر