
Google تعزز قدرات البحث بإضافة وضع الذكاء الإصطناعي AI Mode وتُضيف ميزات جديدة Google I/O 2025
أعلنت Google في مؤتمر Google I/O 2025 عن توسيع وضع AI Mode في الولايات المتحدة، مع إضافة ميزات مثل Deep Search وSearch Live المدعوم بـ Gemini 2.5، لتحسين تجربة البحث التفاعلي.
كشفت Google في وقت سابق هذا العام عن تجربة وضع AI Mode في محرك البحث، والذي يتيح الغوص العميق في استفسارات البحث وطرح أسئلة متابعة. والآن، أعلنت الشركة عن توسيع هذا الوضع مع إدخال مجموعة من التحسينات والإضافات. خلال مؤتمر I/O، أوضحت Google أن AI Mode أصبح متاحًا على نطاق واسع في الولايات المتحدة، حيث يظهر كخيار في شريط البحث بجانب أدوات أخرى مثل الصور، الأخبار، ومقاطع الفيديو. يعمل هذا الوضع على تقسيم السؤال إلى موضوعات فرعية وإجراء عدة استفسارات في وقت واحد.
كان AI Mode يعتمد في البداية على نموذج Gemini 2.0، لكن Google أكدت أنه يعمل الآن بـ Gemini 2.5، وهو النموذج الذي سيدعم أيضًا ميزة AI Overviews. وأعلنت الشركة عن إضافات أخرى متعددة لوضع AI Mode. من بينها ميزة Deep Search، التي أُطلقت لـ Gemini العام الماضي، وتتيح إنشاء تقارير بحثية شاملة. الآن، أصبحت هذه الميزة جزءًا من AI Mode، حيث تُجري مئات عمليات البحث، وتُحلل المعلومات المتنوعة، وتُنتج تقريرًا بمستوى الخبراء مع الإشارة إلى المصادر في دقائق.
كما أدخلت Google قدرات Project Astra، التي كانت متاحة في Gemini Live، إلى وضع AI Mode تحت اسم Search Live. تتيح هذه الميزة التفاعل مع البحث حول ما تراه عبر كاميرا هاتفك، ويمكن الوصول إليها عبر أيقونة 'Live' في AI Mode أو Google Lens. أخيرًا، طورت Google قدرات الذكاء الاصطناعي العامل (agentic AI) التي أُعلن عنها العام الماضي ضمن تجربة Project Mariner، لتتمكن من أتمتة بعض المهام في المتصفح، مع تحسينات جديدة أُعلن عنها مؤخرًا.
المصدر
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


التقنية بلا حدود
منذ 3 ساعات
- التقنية بلا حدود
Google تُطلق Flow: أداة تحرير فيديو ذكية مدعومة بـ Imagen 4 وVeo 3
كشفت Google في مؤتمر I/O أداة Flow، أداة تحرير فيديو ذكية تجمع بين نماذج Veo 3 وImagen 4 وGemini، تتيح إنشاء مقاطع سينمائية واقعية مع أدوات تحكم متقدمة. الأداة مُصممة لمساعدة المبدعين على تحويل أفكارهم إلى رؤى سينمائية باستخدام الذكاء الاصطناعي. تجمع الأداة بين نماذج Veo 3 وGemini وImagen 4، وتتيح إنشاء مقاطع فيديو من نصوص موجهة، شبيهة بأدوات إنشاء الفيديو الذكية الموجودة حاليًا. تميزت Flow بقدرتها على إنشاء مقاطع باستخدام فيديوهات مُولدة مسبقًا وأصول المستخدم الخاصة، رغم أن طريقة التعامل مع مدخلات متعددة لم تُوضح بعد. وعدت Google بأن Flow ستنتج 'مخرجات سينمائية مذهلة' تتفوق في محاكاة الفيزياء والواقعية. طُورت النماذج لتحسين التجربة، حيث أصبح Veo 3 قادرًا على إضافة صوت مدمج يشمل أصوات الخلفية مثل حركة المرور، وحوارات الشخصيات مع تزامن شفاه أفضل. بينما يدعم Imagen 4 إنشاء صور بجودة تصل إلى 2K بأبعاد متنوعة، مع تحسينات في تصوير الأقمشة، القوام، الماء، وفراء الحيوانات، وهو أسرع بـ 10 أضعاف من Imagen 3. تتضمن Flow أدوات مثل 'Camera Controls' للتحكم المباشر في حركة و زوايا الكاميرا، و'Scenebuilder' لتحرير وتوسيع اللقطات بسلاسة، و'Asset Management' لتنظيم الأصول الإبداعية، و'Flow TV' التي تعرض مقاطع مُنشأة بـ Veo مع النصوص والتقنيات المستخدمة لتسهيل التعلم. كما تتيح أداة outpainting تعديل الإطار وتوسيع اللقطات لتناسب الوسيط، مع أدوات لإضافة وإزالة العناصر لتنظيف اللقطات أو إصلاح العيوب. تعاونت Google مع مخرجين مثل Dave Clark وHenry Daubrez وJunie Lau لدمج Flow في سير العمل الإبداعي، مؤكدة أنها تُمكّن جيلًا جديدًا من رواة القصص وتفتح آفاقًا إبداعية حتى لمن لا يملكون خبرة في إنتاج الفيديو. تُعد Flow تطورًا طبيعيًا لتجربة VideoFX السابقة، وهي متاحة الآن في الولايات المتحدة لمشتركي Google AI Pro وGoogle AI Ultra. يوفر اشتراك Pro 100 عملية توليد شهريًا، بينما يمنح Ultra حدود استخدام أعلى والوصول المبكر إلى Veo 3 مع صوت مدمج، أصوات بيئية، وحوارات شخصيات.


التقنية بلا حدود
منذ 5 ساعات
- التقنية بلا حدود
Google تُطلق النسخة التجريبية الأولى من Wear OS 6 للمطورين مع تحسين 10% في عمر البطارية وتصميم Material 3 Expressive
كشفت Google في مؤتمر I/O عن نظام Wear OS 6 الذي يتضمن تصميم Material 3 Expressive ويُحسن عمر البطارية بنسبة 10%، مع إتاحة أول معاينة للمطورين، على أن يُطلق لاحقًا هذا العام. أعلنت Google اليوم خلال مؤتمر I/O عن إطلاق Wear OS 6، الذي يجمع بين تصميم Material 3 Expressive المُعلن عنه سابقًا، والمقرر دمجه أيضًا في Android 16 الشهر المقبل، وبين تحسينات ملموسة في الأداء. أُتيحت أول معاينة للمطورين من Wear OS 6، وهي مخصصة للمطورين فقط كما يوحي الاسم. يتميز Wear OS 6 بتحسين عمر البطارية بنسبة 10% مقارنةً بـ Wear OS 5، وذلك بفضل تحسينات منصة Wear OS، وهو خبر مُرحب به إذا تحقق فعليًا. يأتي تصميم Material 3 Expressive مُحسّنًا للشاشات الدائرية، مع دعم ألوان ديناميكية -ميزة موجودة في Android منذ فترة- وتجانبات (Tiles) أكثر اتساقًا وسهولة في القراءة. كما قدمت Google تصميمًا جديدًا للتجانبات بثلاث فتحات: فتحة للعنوان، وأخرى للمحتوى الرئيسي، وثالثة سفلية، لتحسين التناسق البصري في قائمة التجانبات. يتماشى Material 3 Expressive مع الشاشات الأكبر حجمًا، ويتميز بتصميم مميز يستغل المساحة داخل الشكل الدائري بأفضل شكل. أصبح التنقل عبر القوائم أكثر سلاسة، مع تصميم بصري وحركي جديد يُسهل متابعة تقدم المستخدم في القائمة. كذلك، طُورت عناصر التحكم في الوسائط، وستدعم وجوه الساعات الصور التي يختارها المستخدم. أكدت Google أن Wear OS 6 سيُطلق 'في وقت لاحق هذا العام' دون تحديد موعد أكثر دقة. المصدر


التقنية بلا حدود
منذ 5 ساعات
- التقنية بلا حدود
Google تُطلق أندرويد 16 QPR1 Beta 1 مع واجهة Material 3 Expressive لأجهزة Pixel
أصدرت Google تحديث Android 16 QPR1 Beta 1 يوم 21 مايو 2025، والذي يتضمن واجهة Material 3 Expressive مع تصميم جديد للإعدادات السريعة، وهو متاح للتحميل على أجهزة Pixel المدعومة. أعلنت Google عن إطلاق Android 16 QPR1 Beta 1 (اختصارًا لـ 'Quarterly Platform Release')، والذي يجلب تحسينات واجهة Material 3 Expressive، بما في ذلك تصميم محدث للإعدادات السريعة. يمكن للمستخدمين تحميل الإصدار التجريبي اليوم على أجهزة Pixel المتوافقة عبر الانضمام إلى برنامج Android التجريبي. ومع ذلك، يُستهدف هذا الإصدار المطورين وقد لا يكون مستقرًا بما يكفي للاستخدام اليومي، حيث يُتوقع إصدار مستقر الشهر المقبل. الأجهزة المدعومة تشمل مجموعة واسعة من أجهزة Google، وهي: Pixel 6، Pixel 6 Pro، وPixel 6a Pixel 7، Pixel 7 Pro، وPixel 7a Pixel Fold Pixel Tablet Pixel 8، Pixel 8 Pro، وPixel 8a Pixel 9، Pixel 9 Pro، Pixel 9 Pro XL، Pixel 9 Pro Fold، وPixel 9a في حال واجه المستخدمون أي مشكلات، يمكنهم زيارة subreddit لـ Android Beta أو متابعة أدوات تتبع المشكلات من Google للحصول على الدعم. المصدر