logo
جوجل تكشف عن نظام Android XR الجديد لتشغيل النظارات الذكية

جوجل تكشف عن نظام Android XR الجديد لتشغيل النظارات الذكية

الرجل١١-٠٤-٢٠٢٥

خلال فعالية TED 2025 استعرض شهرام إيزادي، رئيس قسم الواقع المعزز والمختلط في جوجل، إمكانيات نظام Android XR الجديد، الذي سيتيح تشغيل النظارات الذكية، ويغير طريقة التفاعل مع البيئة المحيطة بشكل غير تقليدي.
النظام، الذي تم تطويره ليدعم نظارات الواقع المختلط، يهدف إلى تحويل تجربة المستخدمين من الهواتف الذكية إلى تجارب غامرة ومثيرة.
نظام Android XR الجديد
خلال كلمته في TED 2025، أوضح شهرام إيزادي أن النظام الجديد يهدف إلى تحقيق تحول جذري في تجربة المستخدمين، عبر توفير واجهات تفاعلية من خلال نظارات الواقع المعزز، مثل نظارة سامسونج الذكية القادمة في مشروع Moohan.
كما أشار إلى أن هذا النظام الجديد يعد جزءاً من مفهوم أوسع يعرف بالواقع المختلط Extended Reality، الذي يدمج العالم الرقمي بالواقع المادي بشكل سلس.
التفاعل مع الذكاء الاصطناعي جيميناي
استعرض إيزادي تجربة تفاعلية باستخدام مساعد الذكاء الاصطناعي "جيميناي"، حيث قام بكتابة قصيدة هايكو أمام الجمهور عبر الأوامر الصوتية، وقد أتاح النظام للذكاء الاصطناعي تذكر ما يراه المستخدم تلقائيًا، فمثلًا عندما سأل إيزادي: "أين وضعت بطاقة الفندق؟"، تمكن "جيميناي" من تحديد موقع البطاقة بدقة.
ومن أبرز ميزات النظارات الذكية الجديدة أيضًا، قدرتها على ترجمة النصوص وتفريغها إلى لغات مختلفة في الوقت الفعلي، وهي ميزة تفاعلية مذهلة تتيح للمستخدمين التحدث بلغة معينة، والحصول على الرد الفوري بلغة أخرى.
استكشاف العالم عبر النظارات الذكية
قام إيزادي بالتعاون مع فريقه بعرض قدرة النظارات الذكية على استكشاف مدينة كيب تاون بجنوب إفريقيا، حيث يمكن للمستخدمين التفاعل مع البيئة من خلال مناظر جوية ومعلومات عن المعالم المحلية، وكذلك تحليل مشاهد الفيديو.
فيما أكد أيضًا أن النظام يوفر إمكانيات متقدمة، مثل مشاهدة الأفلام على شاشات سينمائية افتراضية، واسترجاع الذكريات عبر صور Google Photos، واستخدام خاصية Circle to Search للبحث الذكي.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

جوجل تزود نماذجها الذكية بمزايا جديدة.. "تستخدم الحاسوب وتفهم المشاعر"
جوجل تزود نماذجها الذكية بمزايا جديدة.. "تستخدم الحاسوب وتفهم المشاعر"

الشرق السعودية

timeمنذ 20 ساعات

  • الشرق السعودية

جوجل تزود نماذجها الذكية بمزايا جديدة.. "تستخدم الحاسوب وتفهم المشاعر"

أعلنت شركة جوجل إضافة مجموعة من المزايا الجديدة إلى أحدث نماذجها للذكاء الاصطناعي Gemini 2.5 Pro، وGemini 2.5 Flash، مثل تعزيز التفاعل الصوتي مع المستخدمين وإمكانية تنفيذ مهام عبر حاسوب المستخدم، إلى جانب ميزة تجريبية للتفكير وإنجاز المهام المعقدة. جاء ذلك ضمن فعاليات مؤتمر الشركة السنوي للمطورين Google IO 2025، كما أشارت الشركة إلى أن أحدث نماذجها قد حققت أداءً متقدماً على مستوى العديد من الاختبارات، فقد حصد نموذج جيميناي 2.5 برو 1420 نقطة في اختبارات WebDev Arena الخاصة باختبار قدرات النماذج الذكية في البرمجة، كذلك تصدر قائمة أفضل النماذج في تصنيف LMArena. Gemini 2.5 Pro قدمت الشركة لنموذجها Gemini 2.5 Pro ميزة تجريبية تتمثل في وضع استخدام لجيميناي للإدراك Reasoning يُعرف باسم Deep Think، والتي تتيح للنموذج استغراق وقت أطول في النظر في المعطيات المقدمة من جانب المستخدم، ليتمكن من دراسة فرضيات مختلفة، قبل أن يرد. بفضل الميزة الجديدة، أشارت الشركة إلى أن نموذج Gemini 2.5 Pro Deep Think قد حصل على مركز متقدم على مقياس اختبارات 2025 USAMO، والذي يعد من الاختبارات المعقدة في الرياضيات، كذلك أحرز تقدم على مقياس LiveCodeBench للبرمجة، مع تحقيق نسبة 84% في اختبارات MMMU، التي تركز على إدراك الوسائط والبيانات المتنوعة بين صور وفيديوهات ونصوص وصوتيات. يتوفر وضع الاستخدام الجديد Deep Think بشكل محدود لعدد من المطورين من خلال واجهة Gemini البرمجية، وذلك لاختبار الميزة بشكل كامل وضمان تقديمها لتجربة آمنة، قبل إطلاقها لعموم المستخدمين. يُذكر أن جوجل مع هذه الميزة تنضم إلى كبار اللاعبين في سوق الذكاء الاصطناعي مثل OpenAI، وأنثروبيك وعلي بابا وديب سيك، الذين سارعوا خلال الفترة الماضية لتقديم ميزة التفكير العميق Deep Thinking، بحيث يستغرق النموذج فترة أطول للإجابة يقضيها في التفكير قبل الرد. إصدار "فلاش" مطور كذلك حسنت جوجل من أداء نموذجها Gemini 2.5 Flash وذلك من خلال جعله قادر على التعامل مع أشكال المدخلات البيانية المختلفة من صور وفيديوهات ونصوص، إلى جانب تحسن واضح في قدرته على الفهم والإدراك بشكل جيد قبل الرد Reasoning، إلى جانب تحسين قدراته على كتابة الأكواد البرمجية، وإفساح المجال أمام نافذة أوسع للأوامر الطويلة والمعقدة. رغم تطور إمكانياته، إلا أن جوجل قد حافظت على أهم ميزة في نموذجها Gemini 2.5 Flash، وهي قدرته على خفض استهلاكه من الوحدات البيانية "توكين Token"، وذلك بمعدل 20% إلى 30% مقارنة بالإصدار الماضي. و"التوكين" Token هي وحدة قياس حجم المدخلات البيانية التي يقدمها المستخدم لنموذج الذكاء الاصطناعي في هيئة صور أو فيديوهات أو مقاطع صوتية أو نصوص، وكلما زاد حجم وحدات التوكين، يمكن إدخال كم أكبر من البيانات إلى النموذج الذكي دفعة واحدة، ولكن مع زيادة استهلاك النموذج "للتوكين" يزيد ذلك من التكاليف المادية للتدريب والتشغيل التي يتحملها المطورون. إصدار Gemini 2.5 Flash الجديد يتوفر حالياً على منصة Gemini لعموم المستخدمين عبر الويب وتطبيقات الموبايل، وكذلك عبر منصة Google AI Studio للمطورين، وكذلك لقطاع الأعمال عبر منصة Vertex AI. محادثات تفاعلية زودت جوجل واجهتها البرمجية Live API للمطورين بمزايا جديدة تساعدهم على تطوير تجارب محادثات تفاعلية عبر خدماتهم الرقمية المختلفة، وذلك اعتماداً على نماذج Gemini الذكية. مع التحديث الجديد، سيتمكن المطورون من جعل منصاتهم للمحادثات قادرة على التفاعل مع مستخدميها صوتيا، بنبرة وأسلوب بشري، مع إتاحة الفرصة للمستخدمين لاختيار الأسلوب وطبيعة الصوت واللهجة اللغوية وكذلك أسلوب الحديث، فمثلا يمكن للمستخدم أن يطلب من روبوت الدردشة الذكي أن يحكي قصة بأسلوب ونبرة صوت درامية. كما أضافت الشركة أيضاً إلى واجهتها البرمجية Live API، والتي تستخدم قدرات جيميناي لايف، قدرات بصرية تمكن المنصات الحوارية على فهم وإدراك ما يراه المستخدم، وذلك اعتماداً على كاميرا هاتفه. كما تقدم جوجل عبر واجهة Gemini API نسخة أولية من ميزة تحويل النصوص إلى حديث منطوق مع التحكم في أسلوب الحديث والنبرة، وذلك من خلال نموذجيها جيميناي 2.5 برو، وجيميناي 2.5 فلاش، مع دعم إمكانية إنشاء مقاطع صوتية تتضمن اثنين من المتحدثين، وذلك باستخدام 24 لغة، مع قدرة فائقة على التبديل بينهما خلال نفس المقاطع. وتختبر جوجل حالياً مزايا ثورية لتقديم تجربة تفاعلية حية عبر واجهتها البرمجية، مثل ميزة Affective Dialogue والتي تتيح للنموذج التقاط المشاعر التي يشعر بها المستخدم من أسلوب حديثه، ومن ثم يبدأ النموذج في الرد بصوت يعكس مشاعر مناسبة لما يشعر به المستخدم تعكس التعاطف والتفاهم معه، وكذلك ميزة Proactive Audio، والتي تسمح للنموذج بتجاهل الأصوات والضوضاء حول المستخدم، ويركز على محادثته معه ليتمكن من الرد عليه في الوقت المناسب، مما يخلق تجربة محادثة أقرب للبشرية. وأخيراً تجربة الشركة حالياً دمج ميزة التفكير داخل التفاعل الصوتي الحي Thinking in Live API، مما يُمكن نموذج Gemini من استخدام قدراته على التفكير لتعامل مع الاستفسارات والمهام المعقدة خلال المحادثات الحية مع المستخدم. تحكم في الحاسوب حولت جوجل مشروعها التجريبي Project Mariner، والذي رفعت الستار عنه العام الماضي، إلى ميزة حقيقية على أرض الواقع، تحمل اسم Computer Use، والتي تعتمد فكرتها على تحكم Gemini في حاسوب المستخدم من لوحة مفاتيح ومؤشر الفأرة، ليتمكن من إنجاز المهام المختلفة التي يوكلها إليه المستخدم. أشارت الشركة إلى أن تلك الميزة ستتوفر للمطورين عبر واجهة Gemini API البرمجية خلال الأشهر المقبلة، وبالفعل العديد من عملائها من الشركات تستخدمها، مثل Automation Anywhere، وUiPath، وBrowserbase، وAutotab، وThe Interaction Company، و Cartwheel. تحسينات أمنية كشفت الشركة كذلك عن تعزيزات أمنية كبيرة في نموذج Gemini 2.5 لمواجهة التهديدات السيبرانية، خصوصاً تلك المتعلقة بـهجمات الحقن غير المباشر للتعليمات النصية (Indirect Prompt Injection)، وهي هجمات تدمج أوامر خبيثة في البيانات التي يتعامل معها النموذج الذكي. وبفضل نهج أمني جديد، تمكنت جوجل من رفع معدل الحماية ضد هذه الهجمات خلال استخدام الأدوات بنسبة كبيرة، لتصبح سلسلة Gemini 2.5 الأكثر أماناً حتى الآن.

«غوغل» تطلق خصائص جديدة لمحركها البحثي تعمل بالذكاء الاصطناعي المعزز
«غوغل» تطلق خصائص جديدة لمحركها البحثي تعمل بالذكاء الاصطناعي المعزز

الشرق الأوسط

timeمنذ يوم واحد

  • الشرق الأوسط

«غوغل» تطلق خصائص جديدة لمحركها البحثي تعمل بالذكاء الاصطناعي المعزز

أعلن الرئيس التنفيذي لمجموعة «غوغل سوندار بيتشاي»، اليوم (الثلاثاء)، أن الشركة تعتزم إطلاق وضع جديد لمحرك البحث التابع لها، مزود بالذكاء الاصطناعي المعزز، في ظل الطفرة في أدوات المساعدة المنافسة القائمة على الذكاء الاصطناعي، من بينها «تشات جي بي تي». ووفقاً لوكالة الصحافة الفرنسية، هذه مرحلة جديدة في دمج الذكاء الاصطناعي التوليدي في محرك البحث الشهير، بعد عام على إطلاق «إيه آي أوفرفيوز» (AI Overviews)، وهو مربع يظهر في أعلى النتائج، قبل الروابط التقليدية للمواقع الإلكترونية. وتعتمد «AI Overviews» على واجهة الذكاء الاصطناعي التوليدية «جيميناي» (Gemini) التي أطلقتها «غوغل» في ديسمبر (كانون الأول) 2023، بعد الانتشار الكبير لـ«تشات جي بي تي». ومن المتوقع أن يتمتع «AI Mode» (وضع الذكاء الاصطناعي) الذي سيكون متاحاً في البداية فقط في الولايات المتحدة، بميزات أقوى، من خلال توفير تقارير أو رسوم بيانية مفصلة لتوضيح البيانات عند الطلب باللغة اليومية. كذلك، توفر الأداة المرتقبة استجابات مخصصة بناء على ملف تعريف المستخدم، وسجل نشاطه على الإنترنت واتصالاته، وما إذا كان قد أعطى حقّ الوصول إلى سجل البحث الخاص به أو صندوق الوارد في بريده الإلكتروني. وقالت ليز ريد، رئيسة قسم البحث في المجموعة، التي تتخذ مقراً في ماونتن فيو بولاية كاليفورنيا، خلال عرض تقديمي في مؤتمر «Google I/O» (غوغل آي أو) للمطورين: «هذا مستقبل البحث على (غوغل)... إنها ميزة تتجاوز المعلومات إلى الذكاء». وسيبدو محرك البحث تالياً أشبه بخدمة «تشات جي بي تي» المطورة من شركة «أوبن إيه آي»، التي اكتسبت أخيراً وظائف جديدة، خصوصاً مع إضافة خاصية التسوق. وبحسب «غوغل»، فإن أكثر من 1.5 مليار مستخدم يستعينون بخاصية «AI Overviews». وتواجه «غوغل»، التي تهيمن منذ سنوات طويلة على سوق محركات البحث، تهديدات من الشركات الناشئة المنافسة، وأيضاً من القضاء الأميركي. وتطالب الحكومة الأميركية «غوغل» ببيع متصفحها «كروم» بعدما ثبّتت إدانة الشركة العملاقة بالحفاظ على احتكارها من خلال ممارسات تجارية غير عادلة. وفي أوائل مايو (أيار)، أثناء محاكمة أمام القضاء الأميركي، كشف أحد المديرين التنفيذيين في شركة أبل أن عدد الاستخدامات لمحرك بحث «غوغل» المثبت تلقائياً على أجهزة «آيفون» انخفض الشهر الماضي للمرة الأولى منذ 20 عاماً. ويُظهر الإعلان الذي تسبب في انخفاض أسهم «ألفابت»، الشركة الأم لـ«غوغل»، بأكثر من 7 في المائة في جلسة تداول واحدة، أن المنافسة آخذة في الازدياد. وتعمد «تشات جي بي تي» وأدوات الذكاء الاصطناعي الأخرى على تصفح الإنترنت لتقديم إجابات مباشرة لمستخدميهم، من دون إعلانات. وتسعى «بربليكسيتي إيه آي» (Perplexity AI)، وهي شركة ناشئة أخرى في سان فرانسيسكو، إلى أن تصبح المنافس الرئيسي لشركة «غوغل» في مجال عملها الرئيسي.

تعرف على كل ما قدمته «غوغل» في مؤتمر «Google I/O 2025»
تعرف على كل ما قدمته «غوغل» في مؤتمر «Google I/O 2025»

الشرق الأوسط

timeمنذ يوم واحد

  • الشرق الأوسط

تعرف على كل ما قدمته «غوغل» في مؤتمر «Google I/O 2025»

في مؤتمر «Google I/O 2025» الذي يعقد في ماونتن فيو بكاليفورنيا، لم تكتفِ الشركة العملاقة بالتحديثات المعتادة، بل انطلقت بقوة نحو المستقبل. من البحث إلى صناعة المحتوى، ومن التعليم إلى المؤسسات، أعلنت «غوغل» عن قفزة كبيرة في مهمتها لإدماج الذكاء الاصطناعي التوليدي في تفاصيل الحياة اليومية. «إطلاق جيميناي 2.5»، وأدوات البحث الغامرة، ومنصات صناعة المحتوى السينمائي، والقدرات متعددة الوسائط، يجسد رؤية لـ«غوغل» حيث لا يصبح الذكاء الاصطناعي مجرد مساعد، بل شريك إنتاجي وإبداعي واستكشافي. قدمت «غوغل» في «I/O 2025» إصدارين جديدين من نموذج «جيميناي» الرائد. «جيميناي 2.5 فلاش» وهو مصمم للسرعة والكفاءة من حيث التكلفة، ويستهدف المطورين والمؤسسات التي تحتاج أداءً خفيفاً وفورياً دون التضحية بقدرات الاستدلال أو تعدد الوسائط. يتوفر الآن عبر «Google AI Studio» و«Vertex AI» وتطبيق «Gemini». أيضاً عرضت «جيميناي 2.5 برو» ورغم ظهوره بشكل أقل، فإنه يوفر قدرة أعمق على الفهم، والتعامل مع سياقات طويلة، وتحسينات ملحوظة في توليد التعليمات البرمجية بلغات وصيغ مختلفة. ومن التحديثات اللافتة، أن ميزة «Gemini Live» أصبحت تدعم مشاركة الشاشة والتكامل مع الكاميرا على كل من «iOS» و«أندرويد»، مما يتيح تفاعلاً صوتياً أكثر إنسانية. وهذا يحوّل «جيميناي» من مجرد روبوت محادثة إلى مساعد حقيقي قادر على التخطيط للسفر، وحل المشكلات، وحتى توليد الصور بالتفاعل الفوري. منصة «جيميناي» تكشف عن منظومة متكاملة من القدرات من أجل مستقبل ذكي وشخصي ومتعدد الوسائط (غوغل) أحد أهم التحولات التي أعلنت عنها «غوغل» كان إعادة تصميم تجربة بحث «غوغل» لتصبح قائمة على الذكاء الاصطناعي أولاً. ميزة «نبذة باستخدام الذكاء الاصطناعي» (AI Overviews) الجديدة، المدعومة بـ«جيميناي» تقدم ملخصات ذكية لنتائج البحث، خصوصاً للاستفسارات المعقدة، وتوفر روابط موثوقة لاستكشاف أعمق. بدءاً من مايو (أيار) 2025، يتم طرح هذه الميزة في جميع أنحاء منطقة الشرق الأوسط وشمال أفريقيا باللغة العربية، ما يتيح للمستخدمين العرب الاستفادة من هذه التقنية. وأكدت «غوغل» أن الهدف من هذه التجربة هو جعل البحث أكثر كفاءة وتمكين المستخدمين من «البحث أقل، وفهم أكثر». نموذج «Imagen 4» لتوليد الصور أصبح متاحاً الآن على نطاق واسع في المنطقة العربية. يتميز بجودة أعلى في التفاصيل ودقة الاستجابة للنصوص، مما يجعله مثالياً لإنتاج صور واقعية أو أعمال فنية أو تصميمات بيانية. أما «Veo 3 » فقد حقق قفزة نوعية في توليد الفيديوهات بالذكاء الاصطناعي. فهو يتيح الآن توليد صوت أصلي داخل الفيديو، بما يشمل المؤثرات الصوتية، والحوار المنطوق، ومزامنة حركة الشفاه. يدعم إنتاج مشاهد سينمائية بإضاءة ديناميكية، وتتبع حركة، وانتقالات طبيعية بين اللقطات. ورغم عدم توفره بعد في المنطقة، فإن «Veo» و«Imagen » يعدّان عنصرين رئيسيين في منصة «فلو» (Flow) الجديدة من «غوغل». الإعلان الرسمي عن نموذج «Imagen 4» يمثل قفزة جديدة في توليد الصور بالذكاء الاصطناعي بدقة واقعية مذهلة (غوغل) من أبرز ما تم الكشف عنه هو منصة «فلو» (Flow)، وهي أداة مدفوعة للذكاء الاصطناعي تستهدف صناع المحتوى، وتجمع بين إمكانيات «جيميناي» و«Veo» و«Imagen». صُممت لصناع الأفلام والمعلنين والمبدعين، وتتيح إنشاء محتوى سينمائي عالي الجودة انطلاقاً من أوامر نصية بسيطة. يمكن للمستخدمين التحكم في هيكل القصة والأسلوب البصري وزوايا الكاميرا والانتقالات، بمساعدة الذكاء الاصطناعي. ورغم أنها متاحة حالياً بشكل محدود في أميركا الشمالية وأوروبا، من المتوقع أن تصل الشرق الأوسط في مراحل لاحقة. أداة «بيم » (Beam) الجديدة تعيد تعريف مفهوم التواصل عن بعد من خلال مكالمات فيديو ثلاثية الأبعاد ذات إدراك مكاني وترجمة فورية للغات أثناء المكالمات، ما يجعلها مثالية للفرق الدولية. أيضاً عبر ملخصات اجتماعات ذكية وتحكم ديناميكي بالكاميرا. لا تزال «بيم» (Beam) في مرحلة الوصول المبكر، لكنها تحمل وعوداً كبيرة للتعليم، وخدمة العملاء، والعمل الجماعي العالمي. «جيميناي» الآن في قلب تطبيقات «غوغل» من «جيمايل» والخرائط والصور إلى «يوتيوب» والتقويم (غوغل) قطاع التعليم حظي باهتمام خاص، حيث قدمت «غوغل» تحديثات تعليمية تدعم المعلمين والطلاب عبر اختبارات تفاعلية يولدها الذكاء الاصطناعي بناءً على المحتوى. كذلك عبر ملخصات صوتية تسمح للمستخدمين بسماع المحتوى بشكل يشبه البودكاست. تقدم هذه الميزة تكاملاً مع أدوات الرسم والشرح، ما يتيح للطلاب إنشاء مخططات ورسوم توضيحية من خلال الأوامر النصية. وهذه الأدوات متاحة عالمياً، بما في ذلك باللغة العربية، ضمن جهود «غوغل» لجعل التعليم أكثر شمولاً. من الإعلانات المثيرة أيضاً كان إطلاق «جولز» (Jules)، وهو عبارة عن مساعد مبرمج يعمل بشكل غير متزامن يستطيع تصحيح الأخطاء البرمجية تلقائياً وتوليد طلبات دمج الكود. ويتمكن أيضاً من تقديم ملحوظات فورية دون تعطيل سير العمل. «جولز» (Jules) متاح الآن للمطورين في منطقة الشرق الأوسط وشمال أفريقيا كجزء من أدوات تطوير «جيميناي». «Gemini 2.5 Flash» يمثل نموذجاً فائق الكفاءة مصمماً للأداء السريع وتعدد المهام في الزمن الحقيقي (غوغل) أعلنت «غوغل» أيضاً عن جهودها في مجال الواقع الممتد «XR» من خلال منصة «Android XR» بالتعاون مع «سامسونغ» و«كوالكوم». وشملت الإعلانات واجهة «XR» مخصصة لنظام «أندرويد» وأدوات مطورين لبناء تطبيقات الواقع المختلط. وأيضاً تضمنت تحسينات في تكامل «ARCore» وإدارة أفضل للطاقة والأداء لأجهزة الرأس الذكية. رغم أن الأجهزة الاستهلاكية لم تُطلق بعد، فإن هذه الخطوات تمهد لمستقبل تجارب الواقع الممتد، من خرائط الواقع المعزز إلى الألعاب الغامرة. من أبرز ملامح «Google I/O 2025» التركيز على التوطين، خصوصاً لمتحدثي اللغة العربية. وتشمل المبادرات ملخصات صوتية ومرئية باللغة العربية وأدوات برمجة مدعومة بالذكاء الاصطناعي موجهة للمطورين المحليين. كما توفر «Imagen 4» باللغة العربية لتوليد صور من أوامر نصية عربية. ويعكس هذا التوجه التزام «غوغل» بتوفير أدوات ذكاء اصطناعي شاملة ومتاحة للجميع. من البحث إلى التعليم، ومن البرمجة إلى صناعة المحتوى، تكشف «غوغل» عن مسار واضح، وهو أن الذكاء الاصطناعي كمساعد متعدد الوسائط ومدمج بعمق وواعٍ بالسياق. الرسالة الجوهرية من «Google I/O 2025» كانت: «نحن لا نتحدث عن خيال علمي مستقبلي، بل عن أدوات حقيقية تعيد تشكيل طريقة عملنا وتعلمنا وتعبيرنا عن أنفسنا... الآن».

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store