logo
#

أحدث الأخبار مع #Gemini20Flash

كيف طوّرت «Google» قدرات «AMIE» في الاستدلال الطبي؟
كيف طوّرت «Google» قدرات «AMIE» في الاستدلال الطبي؟

الوطن

time١٧-٠٥-٢٠٢٥

  • صحة
  • الوطن

كيف طوّرت «Google» قدرات «AMIE» في الاستدلال الطبي؟

في أحدث أبحاثها حول «AMIE»، «مستكشف الذكاء الطبي الناطق»، تعمل شركة Google على توسيع قدرات الذكاء الاصطناعي التشخيصي ليشمل فهم المحتوى الطبي المرئي. يُعدّ AMIE نظام ذكاء اصطناعي بحثياً مبنياً على نموذج لغوي ضخم ومُحسّن خصيصاً للتفكير التشخيصي الطبي وإجراء المحادثات. وقد قامت الشركة بتحديث النظام ليتمكن من معالجة المعلومات الطبية البصرية أو تحليل الصور السريرية، مما يُتيح له إجراء استنتاجات بشكل أكثر شمولية، كما يعمل الطبيب المدرب. تمثل هذه الخطوة تطوراً جديداً في تقريب الذكاء الاصطناعي من الطريقة التي يشخّص بها الأطباء الحالات المرضية عبر الصور الطبية. تخيل أن تتحدث مع ذكاء اصطناعي حول مشاكلك الصحية، وبدلاً من الاكتفاء بتحليل الأعراض من وصفك لها، يمكنه أيضاً تفسير وتحليل صورك الطبية. يعتمد الأطباء بشكل كبير على ما هو مرئي، مثل الحالات الجلدية، وقراءات الأجهزة، وتقارير التحاليل المخبرية، وكما أشار فريق Google بشكل صحيح، فإن حتى تطبيقات التراسل الفوري تتيح معلومات متعددة الوسائط (مثل الصور والوثائق) لإثراء المحادثة. كيف طوّرت Google قدرات AMIE في الاستدلال الطبي؟ لتعزيز قدرات AMIE في التفكير الطبي، دمجت Google نموذج Gemini 2.0 Flash وطبّقت ما يُسمّى «إطار عمل الاستدلال القائم على الحالة». يسمح هذا الإطار لـAMIE بالتكيّف ديناميكياً مع الأسئلة والإجابات خلال المحادثة، كما يعمل الطبيب الحقيقي. يمكن للنظام تحديد الثغرات في المعلومات، وطلب مدخلات إضافية مثل الصور أو نتائج الفحوصات، وتحسين استنتاجه التشخيصي في الوقت الفعلي. فعلى سبيل المثال، إذا اكتشف AMIE وجود معلومات ناقصة، يمكنه طلب صورة لحالة جلدية أو تخطيط قلب كهربائي (ECG)، وتحليل تلك البيانات البصرية، ودمج النتائج في الحوار السريري. ولتدريب AMIE دون تعريض المرضى للخطر، أنشأت Google مختبر محاكاة طبية افتراضياً. القيود: رغم النتائج الواعدة، أوضحت Google عدداً من القيود التي ينبغي أخذها في الاعتبار عند تفسير نتائج البحث. أولاً، أُجريت الدراسة في بيئة بحثية مضبوطة لا تعكس تماماً واقع الرعاية الصحية في العالم الحقيقي. كما أن واجهة المحادثة لا يمكنها التقاط جميع تفاصيل الاستشارة الشخصية أو بالفيديو، بالإضافة إلى أن المرضى المُحاكين، على الرغم من كونهم ممثلين مدرّبين، لا يمكنهم تمثيل جميع جوانب التفاعل السريري الحقيقي. الخاتمة: يُظهِر عمل Google على نظام AMIE «مستكشف الذكاء الطبي الناطق»، الإمكانيات المتقدّمة للذكاء الاصطناعي في فهم أعراض المرضى ليس فقط من خلال النصوص، بل أيضاً من خلال تحليل البيانات البصرية المعقدة، تماماً كما يفعل الطبيب المتخصّص. هذا النهج متعدّد الوسائط يُعزّز دقة التشخيص ويُقرّب الذكاء الاصطناعي خطوة إضافية نحو دعم اتخاذ القرارات السريرية في الوقت الفعلي وبشكل تفاعلي. وفي محاكاة بحثية، أظهر نظام AMIE نتائج مبهرة، حيث تفوق على الأطباء البشريين في عدة مهام تشخيصية، بل وتلقى تقييمات أعلى فيما يتعلق بالتعاطف والمصداقية أثناء الاستشارات النصية.

"الذكاء الاصطناعي" يتعلم فهم الصور الطبية وقراءتها
"الذكاء الاصطناعي" يتعلم فهم الصور الطبية وقراءتها

الاتحاد

time٠٣-٠٥-٢٠٢٥

  • صحة
  • الاتحاد

"الذكاء الاصطناعي" يتعلم فهم الصور الطبية وقراءتها

بات بإمكان نظام "جوحل" للذكاء الاصطناعي التشخيصي فهم الصور الطبية وتحليلها، ما يشكل خطوة جديدة تزيد من فاعلية وأهمية هذه التقنية المتطورة الجديدة والواعدة. تخيل على سبيل المثال أنك تتحدث مع نموذج ذكاء اصطناعي حول مشكلة صحية. وبدلاً من مجرد معالجة كلماتك، يمكنه بالفعل النظر إلى صورة طفح جلدي أو فهم مخطط كهربية القلب المطبوع. هذا ما تسعى إليه الشركة الأميركية العملاقة. كنا نعلم بالفعل أن برنامج AMIE (مستكشف الذكاء الطبي المفصل) أظهر نتائج واعدة في المحادثات الطبية النصية، وذلك بفضل عمل سابق نُشر في مجلة Nature. ولكن الطب الحقيقي لا يقتصر على الكلمات فقط. فالأطباء يعتمدون، بشكل كبير، على ما يمكنهم رؤيته مثل حالة الجلد، وقراءات الأجهزة، وتقارير المختبر. فقد كان الذكاء الاصطناعي القائم على النصوص فقط يفتقد الصور التي تعتبر جزءًا كبيرًا في مجال الطب. كان السؤال الكبير، كما طرحه الباحثون، هو "هل يستطيع حاملو شهادات في القانون مثلا إجراء محادثات سريرية تشخيصية تتضمن هذا النوع الأكثر تعقيدًا من المعلومات؟". AMIE يتعلم النظر والاستدلال عزّز مهندسو جوجل نظام AMIE باستخدام نموذج Gemini 2.0 Flash الخاص بهم كدماغ للعملية. ودمجوا هذا مع ما يُسمّونه "إطار عمل الاستدلال الواعي بالحالة". ببساطة، هذا يعني أن الذكاء الاصطناعي لا يتبع نصًا مكتوبًا فحسب؛ بل يُكيّف محادثته بناءً على ما تعلّمه حتى الآن وما لا يزال بحاجة إلى فهمه. يشبه الأمر طريقة عمل الطبيب البشري: جمع الأدلة، وتكوين أفكار حول ما قد يكون خطأً، ثم طلب معلومات أكثر تحديدًا، بما في ذلك الأدلة المرئية، لتضييق نطاق البحث. توضّح جوجل: "هذا يُمكّن نظام AMIE من طلب بيانات متعددة الوسائط ذات صلة بالمرض عند الحاجة، وتفسير نتائجها بدقة، ودمج هذه المعلومات بسلاسة في الحوار الجاري، واستخدامها لتحسين التشخيص". تخيل المحادثة وهي تمر بمراحل: أولًا، جمع تاريخ المريض، ثم الانتقال إلى اقتراحات التشخيص والإدارة، وأخيرًا المتابعة. يُقيّم الذكاء الاصطناعي فهمه باستمرار، ويطلب صورة الجلد أو نتيجة المختبر إذا لاحظ أي نقص في معرفته. اقرأ أيضا.. بيل جيتس: الذكاء الاصطناعي سيحل محل العديد من المهن ولكي يُنجز ذلك بدقة دون الحاجة إلى تجارب وأخطاء لا نهاية لها على أشخاص حقيقيين، أنشأت جوجل مختبر محاكاة مُفصّل. ابتكرت جوجل حالات مرضى واقعية، مستمدة صورًا وبيانات طبية واقعية من مصادر مثل قاعدة بيانات تخطيط كهربية القلب ومجموعة صور الأمراض الجلدية، مضيفةً قصصًا خلفية منطقية باستخدام برنامج Gemini. ثم أتاحت الشركة لـ AMIE "الدردشة" مع مرضى مُحاكيين ضمن هذا الإعداد، والتحقق تلقائيًا من مدى أدائه في أمور مثل دقة التشخيص وتجنب الأخطاء. أجرت جوجل دراسة عن بُعد شملت 105 سيناريوهات طبية مختلفة. تفاعل ممثلون حقيقيون، مُدرَّبون على تصوير المرضى باستمرار، إما مع AMIE متعدد الوسائط الجديد أو مع أطباء رعاية أولية بشريين حقيقيين. جرت هذه الدردشات من خلال واجهة يتمكن فيها "المريض" من تحميل الصور، تمامًا كما هو الحال في تطبيق مراسلة حديث. بعد ذلك، راجع أطباء متخصصون (في الأمراض الجلدية، وأمراض القلب، والطب الباطني) والمرضى أنفسهم المحادثات. قام الأطباء البشريون بتقييم كل شيء، بدءًا من جودة تدوين التاريخ المرضي، ودقة التشخيص، وجودة خطة العلاج المقترحة، وصولًا إلى مهارات التواصل والتعاطف، وبالطبع، مدى كفاءة الذكاء الاصطناعي في تفسير المعلومات المرئية. نتائج مفاجئة هنا، تكمن نقطة الإثارة. في هذه المقارنة المباشرة ضمن بيئة الدراسة المُتحكم بها، وجدت جوجل أن AMIE غالبًا ما كان يتفوق على الأطباء البشريين. صُنِّف الذكاء الاصطناعي بأنه أفضل من أطباء الرعاية الأولية البشريين في تفسير البيانات متعددة الوسائط المُشاركة خلال المحادثات. كما حقق أداءً أعلى في دقة التشخيص، حيث أنتج قوائم تشخيص تفريقي (قائمة مرتبة للحالات المحتملة) اعتبرها المتخصصون أكثر دقة واكتمالاً بناءً على تفاصيل الحالة. مال الأطباء المتخصصون، الذين راجعوا النصوص، إلى تقييم أداء AMIE أعلى في معظم المجالات. وأشاروا بشكل خاص إلى "جودة تفسير الصور والتفكير المنطقي"، ودقة التشخيص، وسلامة خطط الإدارة، وقدرته على تحديد الحالات التي تتطلب عناية عاجلة. ربما جاءت إحدى أكثر النتائج إثارة للدهشة من المرضى: فقد وجدوا غالبًا أن الذكاء الاصطناعي أكثر تعاطفًا وجدارة بالثقة من الأطباء البشريين في هذه التفاعلات النصية. وعلى صعيد السلامة الحاسم، لم تجد الدراسة فرقًا ذا دلالة إحصائية بين عدد مرات ارتكاب AMIE للأخطاء بناءً على الصور مقارنةً بالأطباء البشريين. إن منح الذكاء الاصطناعي القدرة على "رؤية" وتفسير الأدلة البصرية التي يستخدمها الأطباء يوميًا يُتيح لمحةً عن كيفية مساعدة الذكاء الاصطناعي للأطباء والمرضى يومًا ما. ومع ذلك، فإن الطريق لتحويل هذه النتائج الواعدة إلى أداة آمنة وموثوقة للرعاية الصحية اليومية لا يزال طويلًا ويتطلب دراسةً متأنية.

جوجل أطلقت تحديث Gemini 2.0 Flash! الآن تفاعل مع الذكاء الاصطناعي كأنك تتحدث مع صديق! كما تم تحسين الشعار ليظهر بشكل أفضل على جميع الأجهزة. تفاصيل أكثر هنا
جوجل أطلقت تحديث Gemini 2.0 Flash! الآن تفاعل مع الذكاء الاصطناعي كأنك تتحدث مع صديق! كما تم تحسين الشعار ليظهر بشكل أفضل على جميع الأجهزة. تفاصيل أكثر هنا

أخبار مصر

time٢٤-٠٤-٢٠٢٥

  • أخبار مصر

جوجل أطلقت تحديث Gemini 2.0 Flash! الآن تفاعل مع الذكاء الاصطناعي كأنك تتحدث مع صديق! كما تم تحسين الشعار ليظهر بشكل أفضل على جميع الأجهزة. تفاصيل أكثر هنا

موقع أراجيك | جوجل أطلقت تحديث Gemini 2.0 Flash! الآن تفاعل مع الذكاء الاصطناعي كأنك تتحدث مع صديق! كما تم تحسين الشعار ليظهر بشكل أفضل على جميع الأجهزة. تفاصيل أكثر هنا

'Google Ai Studio' يضع شركة جوجل في صدارة سباق الذكاء الاصطناعي
'Google Ai Studio' يضع شركة جوجل في صدارة سباق الذكاء الاصطناعي

مجلة رواد الأعمال

time٢٣-٠٤-٢٠٢٥

  • مجلة رواد الأعمال

'Google Ai Studio' يضع شركة جوجل في صدارة سباق الذكاء الاصطناعي

في كل مرة تظن أنك تفهمت جميع تطبيقات Google Ai Studio. ستجد نفسك مخطئًا. حيث تضيف جوجل نموذجًا آخر إلى القائمة. فقد أعلنت الشركة أن Gemini 2.5 Flash متاح الآن في المعاينة عبر واجهة برمجة تطبيقات Gemini. مع إمكانية الوصول إليه من خلال كل من Google AI Studio و Vertex AI. وفقًا لشركة Google، يعتمد النموذج الجديد على نموذج Gemini 2.0 Flash. مع الاحتفاظ بسرعته وتكلفته المنخفضة مع إجراء 'ترقية كبيرة' لقدرات التفكير. كما يوصف بأنه أول نموذج تفكير هجين بالكامل للشركة. ما يسمح للمطورين بتبديل التفكير أو إيقاف تشغيله وتعيين ميزانية التفكير. والتحكم بفعالية في مدى ذكاء النموذج على أساس كل استعلام. شاركت جوجل بعض النتائج المعيارية لتوضيح براعة Gemini 2.5 Flash. خاصةً في المهام التي تتضمن أشياء مثل الرياضيات والعلوم والاستدلال وإنشاء الأكواد. وعلى الرغم من أنه لا يتفوق على نماذج الذكاء الاصطناعي المنافسة في كل مجال، فإنه يقدم أداءً قويًا مقابل السعر. حيث وصفته جوجل بأنه نموذج 'باريتو الحدودي'. وهذا يعني أنه يقدم أفضل مفاضلة ممكنة بين السرعة والتكلفة والجودة دون التضحية بأحدها لتحسين الآخر. يمكنك الاطلاع على التفاصيل المعيارية الكاملة في منشور المدونة الرسمي. هذا هو الأحدث في عائلة سريعة النمو من طرازات Gemini. أطلقت Google Gemini 1.5 Pro، تلاه Gemini 1.5 Flash العام الماضي. ومؤخرًا، تم إطلاق Gemini 2.0 Flash و2.0 Flash-Lite الخفيف الوزن في فبراير 2025. من الواضح أن Google لا تخشى منح المطورين الكثير من الخيارات، وإطلاق اليوم يضيف فقط إلى القائمة. أداة تحويل النص إلى فيديو من جوجل أعلنت Google عن إضافة جديدة إلى مجموعة أدوات الذكاء الاصطناعي الخاصة بها: Vertex AI Media Studio. وهي مجموعة من الأدوات التوليدية التي تتيح للمستخدمين إنشاء مقاطع فيديو مصقولة من مجرد مطالبة نصية. حيث تم إنشاء المنصة على رأس Vertex AI من Google Cloud. وهي مبنية على مجموعة من النماذج المتقدمة للشركة للتعامل مع كل جانب من جوانب إنتاج الفيديو. بما في ذلك المرئيات والصوت والموسيقى. دون الحاجة إلى أي خبرة في تحرير الفيديو أو البرمجة. كما يمكن للمستخدمين البدء بإنشاء صورة باستخدام Imagen 3، نموذج توليد الصور من Google. كذلك يمكن بعد ذلك تحويل تلك الصورة إلى فيديو باستخدام Veo 2، وهو نموذج توليد الفيديو الخاص بالشركة. والذي يوفر أيضًا أدوات التخصيص. آلية عمل أداة Veo وفقًا لـ Google، يتيح لك Veo اختيار نوع حركة الكاميرا (مثل لقطات الطائرة بدون طيار أو التحريك). وتعديل معدل الإطارات. وتعيين طول الفيديو. إذا أضاف النموذج أي عناصر لا تعجبك، يمكن لخاصية على غرار الممحاة السحرية إزالتها على غرار ما قد يكون مستخدمو هواتف Pixel على دراية به بالفعل. وبمجرد أن تصبح الصور المرئية جاهزة، يستخدم Media Studio نموذج Chirp، وهو نموذج تركيب الصوت من Google، لإضافة تعليق صوتي. ولإكمال الإنتاج، يقوم Lyria – وهو نموذج تم تطويره بالاشتراك بين Google DeepMind وYouTube – بإنشاء مقطع موسيقي ليكون بمثابة مقطوعة موسيقية تعمل كنغمة خلفية. ومن الناحية النظرية، تكون النتيجة مقطع فيديو كامل وجاهز للمشاركة يبدو احترافيًا. ويمكن القيام بكل هذا من مساحة عمل واحدة في Vertex AI Studio، وهي نفس وحدة التحكم التي يمكن للمطورين من خلالها اختبار أحدث نماذج Gemini من Google. توفر Vertex AI، وهي المنصة الأوسع التي تضم هذه الأدوات، إمكانية الوصول إلى نماذج Gemini من Google. والتي تقول الشركة إنها تستطيع معالجة أنواع متعددة من البيانات. بما في ذلك النصوص والصور والرموز، لتوليد مخرجات متنوعة. يمكن للمطوّرين والمستخدمين غير التقنيين تجربة هذه الميزات في Vertex AI Studio، وهي بيئة للنماذج الأولية؛ حيث يمكنهم اختبار المطالبات وضبط نماذج الذكاء الاصطناعي لمهام محددة. وبينما تعد هذه الأدوات الجديدة بتبسيط عملية إنشاء المحتوى، إلا أنها تثير أيضًا أسئلة مألوفة حول المصداقية والإبداع البشري والاستخدام المسؤول للذكاء الاصطناعي. ولكن في الوقت الحالي، تراهن جوجل بشكل كبير على أن العديد من المستخدمين. خاصةً أولئك الذين لا يمتلكون مهارات التحرير. سيرحبون بطريقة بسيطة لإنشاء مقاطع فيديو أنيقة ومناسبة للعلامة التجارية ببضع نقرات فقط. أداة Veo2 من Google Ai Studio في حدث Cloud Next، أكدت جوجل في حدث Cloud Next أن Veo 2 جاهزة للإنتاج وستبدأ في طرحها للمستخدمين قريبًا. يتم الآن طرح أداة توليد الفيديو بالذكاء الاصطناعي Veo 2 من Google، وهي أداة الشركة التي تعمل بالذكاء الاصطناعي على تطبيق Sora من OpenAI، لبعض المستخدمين في الولايات المتحدة. من ناحية أخرى، لاحظت Bleeping Computer أن بعض المستخدمين بدأوا في تلقي الوصول المبكر إلى أداة توليد الفيديو Veo 2. ولكنها متاحة فقط في الولايات المتحدة. باستخدام Veo 2، يمكنك إنتاج مقاطع فيديو من إنشاء الذكاء الاصطناعي، ويمكنه اتباع التعليمات البسيطة والمعقدة على حد سواء. على سبيل المثال، استخدم أحد المختبرين الأوائل Veo 2 لإنشاء مقطع فيديو باستخدام الرسم التخطيطي الخاص به. وكانت الرسوم المتحركة في أفضل حالاتها. في الوقت الحالي، يستطيع Veo 2 إنتاج مقاطع فيديو بدقة 720 بكسل بمعدل 24 إطار في الثانية. بالإضافة إلى ذلك، هناك قيود رئيسية تتمثل في 8 ثوان. وتبلغ تكلفة الذكاء الاصطناعي 0.35 دولار لكل ثانية من الفيديو الذي يتم إنشاؤه. إذا كنت مهتمًا، يمكنك تجربة Veo 2 من Google AI Studio، ولكن تذكر أنه لا يزال قيد الطرح وقد لا يظهر للجميع. إذا لم تكن من الولايات المتحدة، فستحتاج إلى استخدام شبكة افتراضية خاصة لرؤية التبديل. علاوة على ذلك، أدرك Bleeping Computer أن إمكانيات Veo 2 ستصل في النهاية إلى Gemini. ولكن من غير الواضح متى ستفعل Google ذلك. المقال الأصلي: من هنـا

ميتا تُطلق نماذج Llama 4 الجديدة بتحسينات كُبرى
ميتا تُطلق نماذج Llama 4 الجديدة بتحسينات كُبرى

البوابة العربية للأخبار التقنية

time٠٦-٠٤-٢٠٢٥

  • أعمال
  • البوابة العربية للأخبار التقنية

ميتا تُطلق نماذج Llama 4 الجديدة بتحسينات كُبرى

أعلنت شركة ميتا رسميًا مجموعة نماذج الذكاء الاصطناعي الجديدة Llama 4، التي باتت تُشغّل الآن مساعد 'Meta AI' في الويب، وفي تطبيقات واتساب وماسنجر وإنستاجرام. وتضم المجموعة نموذجين جديدين: Llama 4 Scout، وهو نموذج صغير يمكن تشغيله على وحدة معالجة رسومات واحدة من نوع Nvidia H100، و Llama 4 Maverick، الذي يشبه في قدراته نماذج مثل GPT-4o و Gemini 2.0 Flash. ويتوفر النموذجان للتنزيل مباشرةً من موقع ميتا أو عبر منصة Hugging Face. وفي المقابل، تواصل الشركة تدريب نموذجها الضخم Llama 4 Behemoth، الذي وصفه الرئيس التنفيذي مارك زوكربيرج بأنه 'أقوى نموذج أساسي على مستوى العالم'. وبحسب ميتا، فإن نموذج Llama 4 Scout يتمتع بقدرة على معالجة سياقات تصل إلى 10 ملايين رمز (Token)، متفوقًا بذلك على نماذج مثل Gemma 3 و Gemini 2.0 Flash-Lite من جوجل، بالإضافة إلى النموذج المفتوح المصدر Mistral 3.1، وذلك وفقًا لمجموعة واسعة من اختبارات الأداء المعروفة. وأما النموذج الأكبر Maverick، فتقول الشركة إنه يُنافس نماذج GPT-4o و Gemini 2.0 Flash، ويُقدّم أداءً مماثلًا لنموذج DeepSeek-V3 في مهام البرمجة والاستدلال المنطقي مع استخدامه موارد أقل. ولم يُطرح نموذج Behemoth حتى الآن، وكشفت ميتا أن عدد المَعلمات الفعّالة في النموذج يبلغ 288 مليارًا من أصل تريليوني مَعلمة إجمالية. وتزعم الشركة أن النموذج قادر على التفوق على نماذج GPT-4.5 و Claude Sonnet 3.7 في عدد من اختبارات العلوم والتقنية والهندسة والرياضيات (STEM). وتُشير ميتا إلى أنها اعتمدت في تطوير Llama 4 على بنية 'مزيج الخبراء Mixture of Experts'، التي تتيح تحسين كفاءة النموذج من خلال تفعيل الأجزاء اللازمة فقط لتنفيذ كل مهمة. ومن المقرر أن تكشف الشركة عن خططها المستقبلية في مجال الذكاء الاصطناعي خلال مؤتمر LlamaCon المقرر انعقاده في 29 أبريل. وتصف ميتا نماذج Llama 4 بأنها مفتوحة المصدر، لكن الشركة تواجه انتقادات بشأن شروط الترخيص، إذ يُشترط على الشركات التي يزيد عدد مستخدميها الشهريين عن 700 مليون الحصول على موافقة سابقة من ميتا لاستخدام هذه النماذج، وهو ما دفع مبادرة البرمجيات المفتوحة (Open Source Initiative) إلى اعتبار نماذج ميتا خارج تصنيف 'المصدر المفتوح' في تقرير نُشر عام 2023.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store