أحدث الأخبار مع #ديبمايند


نافذة على العالم
منذ 5 أيام
- علوم
- نافذة على العالم
أخبار مصر : ديب مايند تكشف عن AlphaEvolve.. نظام ذكاء اصطناعي لحل المسائل العلمية والرياضية
الجمعة 16 مايو 2025 01:00 صباحاً نافذة على العالم - أعلنت شركة ديب مايند DeepMind، ذراع البحث والتطوير في الذكاء الاصطناعي التابعة لشركة جوجل، عن تطوير نظام جديد يدعى AlphaEvolve يهدف إلى التعامل مع مشكلات يمكن تقييم حلولها بشكل آلي، أي تلك التي تمتلك إجابات قابلة للقياس والاختبار رياضيا أو برمجيا. وفقا لتصريحات الشركة، أظهر AlphaEvolve قدرة على تحسين بعض البنى التحتية التي تستخدمها جوجل في تدريب نماذج الذكاء الاصطناعي الخاصة بها. وتعمل ديب مايند حاليا على تطوير واجهة استخدام للنظام، مع التخطيط لإطلاق برنامج وصول مبكر لفئة مختارة من الباحثين الأكاديميين قبل طرحه بشكل أوسع. آلية تقليل الهلوسة تعاني معظم نماذج الذكاء الاصطناعي من ظاهرة "الهلوسة"، أي تقديم معلومات غير دقيقة بثقة عالية نتيجة طبيعتها الاحتمالية، وظهرت هذه المشكلة بشكل أكبر مع النماذج الأحدث مثل o3 من OpenAI. يحاول AlphaEvolve معالجة هذه المشكلة من خلال نظام تقييم آلي للنتائج، حيث يقوم النموذج بتوليد مجموعة من الحلول المحتملة، ثم ينتقدها ذاتيا، ليختار أفضلها بناء على دقة الإجابة، وهو نهج يعزز مصداقية المخرجات. ورغم أن فكرة استخدام نماذج متعددة لتوليد وتقييم الحلول ليست جديدة، إلا أن ديب مايند تؤكد أن AlphaEvolve يتميز باستخدامه لنماذج "Gemini" المتطورة، مما يمنحه تفوقا على الأنظمة السابقة. كيف يعمل AlphaEvolve؟ يعتمد AlphaEvolve على مدخلات يقدمها المستخدم، تتضمن المشكلة الأساسية وربما تعليمات أو معادلات أو مقتطفات من الشيفرة البرمجية أو مراجع ذات صلة، لكن لا بد أن يرفق المستخدم آلية محددة لتقييم الحلول تلقائيا، مثل معادلة رياضية، كي يتمكن النظام من اختبار فعالية نتائجه. نظرا لطبيعة هذه الآلية، يمكن استخدام AlphaEvolve فقط في مجالات محددة مثل علوم الحاسوب وتحسين الأنظمة، حيث تكون المعايير قابلة للقياس بدقة. كما أن النظام لا يقدم شرحا لفظيا، بل يكتفي بإنتاج خوارزميات لحل المشكلات، ما يجعله غير مناسب للقضايا النظرية أو الإنسانية. لاختبار النظام، طرحت ديب مايند عليه نحو 50 مسألة رياضية متنوعة في مجالات مثل الهندسة والتوافقيات، ووفقا لها، نجح AlphaEvolve في استرجاع أفضل الحلول المعروفة بنسبة 75%، بل وابتكر حلولا محسّنة في 20% من الحالات. أما على الصعيد العملي، فطبقت الشركة النظام على تحسين كفاءة مراكز بيانات جوجل وتسريع عمليات تدريب النماذج، وكانت النتيجة أن AlphaEvolve قدم خوارزمية تمكنت من استعادة 0.7% من موارد الحوسبة عالميا لصالح جوجل، كما ساهم في تقليل وقت تدريب نماذج "Gemini" بنسبة 1%. ورغم أن AlphaEvolve لم يحقق اكتشافات ثورية، فإن ديب مايند ترى فيه أداة قوية لتسريع العمل وتخفيف الضغط عن الخبراء، حيث يساعدهم على التركيز على مهام أكثر تعقيدا أو إبداعا، بدلا من استهلاك الوقت في التحسينات المتكررة. وفي إحدى التجارب، اقترح النظام تحسينا في تصميم شريحة TPU المستخدمة في الذكاء الاصطناعي، وهو التحسين ذاته الذي سبق أن اكتشفته أدوات أخرى.


أخبار مصر
منذ 5 أيام
- أخبار مصر
وكيل 'ديب مايند' الجديد يُصمّم خوارزميات للرياضيات وعلوم الكمبيوتر وأميركا تحذّر من استخدام رقائق هواوي 'في أي مكان في العالم'.. استمع إلى #بودكاست_حصاد_الذكاء_الاصطناعي اليوم 15 مايو عبر موقعنا
ام اي تي تكنولوجي ريفو | وكيل 'ديب مايند' الجديد يُصمّم خوارزميات للرياضيات وعلوم الكمبيوتر وأميركا تحذّر من استخدام رقائق هواوي 'في أي مكان في العالم'.. استمع إلى #بودكاست_حصاد_الذكاء_الاصطناعي اليوم 15 مايو عبر موقعنا


البلاد البحرينية
منذ 5 أيام
- علوم
- البلاد البحرينية
ديب مايند تختبر نظاماً ذكياً يحل المسائل المعقدة
أعلنت شركة ديب مايند، التابعة لشركة قوقل والمتخصصة في أبحاث وتطوير تقنيات الذكاء الاصطناعي، عن تطوير نظام جديد أطلقت عليه اسم AlphaEvolve. وبحسب ما ذكرته تقارير تقنية، يعد هذا النظام نقلة نوعية في استخدام الذكاء الاصطناعي لحل مسائل معقدة في مجالات الرياضيات وعلوم الحوسبة. وقالت الشركة إن AlphaEvolve يتمتع بقدرات متقدمة، والتي تتيح له اقتراح حلول لمشكلات تقنية وعلمية، معتمداً على آليات تقييم ذاتية، للتحقق من دقة الحلول المطروحة. ويتميز هذا النظام بقدرته على تقليل ظاهرة الهلوسة الرقمية، التي تعاني منها النماذج اللغوية الأخرى، وذلك من خلال إنشاء حلول متعددة لكل مسألة، ثم تقييمها داخلياً لاختيار الأنسب والأكثر دقة. وأشارت التقارير إلى أن AlphaEvolve يعتمد على تقنيات Gemini المتطورة، مما يمنحه تفوقاً واضحاً على الأساليب التقليدية المستخدمة في حل مسائل مشابهة. ويمكن للمستخدم تقديم مسألة محددة مدعومة بتعليمات أو معادلات أو شيفرات برمجية، وحتى مراجع علمية، ويقوم النظام بعد ذلك بمعالجتها وتحليلها تلقائياً باستخدام أدوات تقييم مدمجة، مما يسمح بالحصول على حلول بصيغة خوارزميات قابلة للتنفيذ. ونوهت التقارير إلى أنه رغم الإمكانيات المتقدمة، فإن AlphaEvolve لا يدعي القدرة على فهم أو شرح المفاهيم النظرية أو اللغوية، حيث يركز حصرياً على المهام القابلة للقياس البرمجي أو العددي، مثل تحسين الأنظمة، وتطوير حلول في علوم الحاسوب. وخلال اختباره، نجح AlphaEvolve في حل 75% من المسائل بإعادة اكتشاف أفضل الحلول المعروفة، كما تمكن من تقديم حلول محسنة في 20% من الحالات. وبينت التقارير أن النظام قد أظهر فعالية واضحة في تحسين كفاءة مراكز البيانات التابعة لقوقل، حيث تمكن من استرجاع ما يقارب 0.7% من الموارد الحاسوبية العالمية، واقتراح تحسينات قللت زمن تدريب نماذج Gemini بنسبة 1%. وعلى الرغم من أنه لا ينتظر منه تحقيق اكتشافات ثورية، فقد ساهم النظام في تحسين تصميم شرائح TPU المخصصة للذكاء الاصطناعي، وهي تحسينات كانت أدوات أخرى قد بدأت تلمح إليها. وأضافت التقارير أن شركة ديب مايند ترى أن AlphaEvolve سوف يساهم في تسريع وتيرة العمل البحثي، وتحرير أوقات الباحثين، للتركيز على التحديات الأكثر إبداعاً وتعقيداً. تم نشر هذا المقال على موقع


أخبار مصر
منذ 6 أيام
- علوم
- أخبار مصر
ديب مايند تكشف عن AlphaEvolve.. نظام ذكاء اصطناعي لحل المسائل العلمية والرياضية
ديب مايند تكشف عن AlphaEvolve.. نظام ذكاء اصطناعي لحل المسائل العلمية والرياضية أعلنت شركة ديب مايند DeepMind، ذراع جوجل المتخصصة في تطوير الذكاء الاصطناعي، تطوير نظام ذكاء اصطناعي جديد يحمل اسم AlphaEvolve، يهدف إلى حل المسائل في مجالات الرياضيات وعلوم الحوسبة.وذكرت الشركة، في بيان رسمي، أن AlphaEvolve يتمتع بقدرة على تحسين بعض البنى التحتية المستخدمة في تدريب نماذج الذكاء الاصطناعي داخل جوجل، مشيرةً إلى أنها بصدد إطلاق واجهة تفاعلية خاصة بالنظام، مع خطط لطرح برنامج وصول مبكر مخصص للأكاديميين المختارين، تمهيدًا لإتاحته على نطاق أوسع لاحقًا. ويتميّز النظام الجديد بآلية تقييم تلقائية تهدف إلى تقليل ظاهرة الهلوسة التي تُعانيها النماذج اللغوية الحديثة، إذ يُنشئ AlphaEvolve مجموعة من الحلول المقترحة لأي مسألة، ثم يُخضعها لتقييم داخلي للتحقق من صحتها ودقتها.ويعتمد AlphaEvolve على نماذج Gemini المتقدمة، التي تقول DeepMind إنها تمنحه تفوقًا ملحوظًا مقارنةً بالأساليب السابقة المستخدمة في مجالات مشابهة.ويُشترط على المستخدمين تقديم مسألة محددة للنظام، مع إمكانية إرفاق تعليمات أو معادلات أو شيفرات برمجية أو مراجع علمية، إلى جانب آلية لقياس صحة الحل تلقائيًا عبر صيغة أو معادلة قابلة للتنفيذ.ومع…..لقراءة المقال بالكامل، يرجى الضغط على زر 'إقرأ على الموقع الرسمي' أدناه


اليمن الآن
١٢-٠٥-٢٠٢٥
- علوم
- اليمن الآن
ما أسباب تفاقم هلوسة الذكاء الاصطناعي بعد كل تحديث؟
رغم تسارع التطورات في مجال الذكاء الاصطناعي التوليدي، وانتشار استخدام هذه التكنولوجيا في شتى القطاعات، نظراً لإمكاناتها الهائلة في تحسين أنماط العمل، وتسهيل حياة البشر، إلا أن هذه التقنية تعاني من خلل يزداد حدة مع كل تحديث تخضع له. فقد تبين أنه كلما أصبحت برامج الذكاء الاصطناعي التوليدي أقوى بفضل التحديثات التي تخضع لها، كلما زادت جرأتها على الكذب بثقة واختلاق معلومات وتقديمها على أنها حقائق مُطلقة، حيث تُعرف هذه الظاهرة بـ"هلوسة الذكاء الاصطناعي"، وهي تجعل الآلة تتحدث عن معلومات لا وجود لها. وهذه الظاهرة لم تعد مجرد خلل هامشي تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلة تتسع وتزداد تعقيداً في مشهد مثير للقلق، إذ تقف كبرى شركات التقنية عاجزة عن فهم أسباب هذه "الهلوسات"، مما يثير تساؤلات كبيرة حول موثوقية واستدامة تكنولوجيا الذكاء الاصطناعي. الهلوسة تزداد مع التحديثات وبحسب تقرير أعدته "صحيفة نيويورك تايمز" واطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإنه ولأكثر من عامين، دأبت شركات مثل OpenAI وغوغل، على تحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفّضت وتيرة الأخطاء الناتجة عن "الهلوسة"، ولكن المفارقة تكمن في أنه عند خضوع هذه الأنظمة للتحديثات، فإنها تُصاب بالهلوسة بمعدل أعلى من السابق، وذلك وفقاً لاختبارات قامت بها الشركات المطورة لهذه الأنظمة، إضافة إلى اختبارات أجراها شركات وباحثون مستقلون. كما أنه وعند خضوع أنظمة OpenAI لاختبار آخر يحمل إسم "SimpleQA" مخصص لطرح أسئلة أكثر عمومية، كانت معدلات الهلوسة لنظامي "o3" و o4-miniمرتفعة جداً، ووصلت إلى 51 في المئة و79 في المئة على التوالي. أما نظام "o1" القديم، فقد سجّل مُعدّل هلوسة بلغ 44 في المئة. وفي ورقة بحثية تتناول تفاصيل هذه الاختبارات، ذكرت شركة OpenAI أن هناك حاجة إلى مزيد من البحث لفهم أسباب هذه النتائج أحدث نوبات الهلوسة هلوسة مستعصية ومنذ ظهور ChatGPT لأول مرة في نهاية عام 2022، أثارت ظاهرة "هلوسة الذكاء الاصطناعي"، مخاوف بشأن موثوقية هذه التكنولوجيا، وبما أن أنظمة الذكاء الاصطناعي تتعلم من كميات ضخمة من البيانات، تفوق ما يمكن للبشر فهمه، فإن خبراء التكنولوجيا يجدون صعوبة في تحديد لماذا تتصرف هذه البرامج بهذه الطريقة. والمقلق أن هذه الهلوسات موجودة في أغلب أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تطورها شركات ديب مايند وديب سيك وأنثروبيك وغيرها. ويرى بعض الخبراء أن "هلوسة الذكاء الاصطناعي" قد تكون متأصلة في التقنية نفسها، مما يجعل التغلب على هذه المشكلة أمراً شبه مستحيل، خصوصاً أن روبوتات الذكاء الاصطناعي تعتمد على أنظمة رياضية معقدة، تساعدها في تخمين أفضل إجابة ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصة بتطوير أدوات ذكاء اصطناعي للشركات، إن "الهلوسة" لن تزول ابداً رغم أن الشركات تبذل قصارى جهدها لحل هذه المشكلة. بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسة معمّقة، حول مشكلة هلوسة الذكاء الاصطناعي، إنه نظراً لطريقة تدريب أنظمة الذكاء الاصطناعي فإن هذه البرامج، تميل إلى التركيز على القيام بمهمة واحدة فقط، وتبدأ تدريجياً في نسيان المهام الأخرى، مشيرة إلى أن هذه الأنظمة خلال فترة "التفكير" أو"المعالجة" التي تسبق التوصل إلى الإجابة، تكون عرضة للهلوسة في كل خطوة، ومع ازدياد مدة "التفكير"، تزداد احتمالية تراكم الأخطاء وتفاقمها. لا تفهم كالبشر من جهتها تقول مستشارة الذكاء الاصطناعي المعتمدة من أوكسفورد هيلدا معلوف، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا "تفهم" المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنه صحيح، وليس بناءً على ما هو حقيقي فعلاً، وهذه الطبيعة "الاحتمالية" لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتة إلى أن ظاهرة "هلوسة الذكاء الاصطناعي" تثير قلقاً كبيراً، ويمكن أن تُؤدي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحية والقانون والتعليم. لماذا يهلوس الذكاء اصطناعي؟ وبحسب معلوف فإن "هلوسة الذكاء الاصطناعي" تحدث لعدة أسباب، منها أن هذه الأنظمة تُدرَّب أحياناً على بيانات غير دقيقة أو متناقضة، كما أنها تعتمد بشكل كبير على "الارتباطات الإحصائية"، أي على الربط بين الكلمات بدلاً من فهم الحقيقة، إضافة إلى ذلك هناك بعض القيود التي يتم وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عرضة للأخطاء، مشيرة إلى أنه رغم أن شركات الذكاء الاصطناعي تستخدم تقنيات متقدمة، مثل "التعلم من ملاحظات البشر"، لمحاولة تقليل هذه الأخطاء، إلا أن النتائج لا تكون دائماً مضمونة، في حين أن انعدام قدرة المهندسين على فهم عمليات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها. ما الحلول المتوفرة؟ وشددت معلوف على أن معالجة "هلوسة الذكاء الاصطناعي" تتطلب اتباع نهج شامل ومتكامل، يشمل إعطاء الأولوية لدمج أدوات التحقق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها، كما ينبغي على صانعي السياسات وضع إرشادات لنشر الذكاء الاصطناعي في المجالات الحساسة، مع ضمان بقاء الرقابة البشرية جزءاً لا يتجزأ منها، تفادياً لأي كارثة قد تحدث، مشددة على ضرورة إطلاع المعلمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقدي للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقية أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤولية إلا من خلال الجهود التعاونية. لماذا تتفاقم "الهلوسة" بعد التحديثات؟ من جهته يقول رئيس شركة "تكنولوجيا" مازن الدكاش، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن "هلوسة الذكاء الاصطناعي" ليست عيباً في الكود يمكن إصلاحه أو خللاً سطحياً يمكن تجاوزه بتحديث أو تعديل تقني سريع، بل هي نتيجة طبيعية لطريقة عمل برامج الذكاء الاصطناعي، وللأسف فإن إنتاج معلومات غير صحيحة أو مختلقة، سيبقى احتمالاً قائماً ما لم يحدث تحول جذري في طريقة بناء هذه الأنظمة. دراسة علمية تحذر من علاقات حب "اصطناعية" ويكشف الدكاش أن ارتفاع نسب "هلوسة برامج الذكاء الاصطناعي" بعد التحديثات التي تخصع لها، يعود لعدة أسباب، فبعض التحديثات تركز مثلاً على تحسين الأداء في مهام معينة أو على بيانات محددة، مما قد يُضعف أداء البرنامج في مهام أخرى ويفقده شيئاً من التوازن في إنتاج المعرفة، كما أنه بعد التحديثات تزداد قدرة برامج الذكاء الاصطناعي، على توليد نصوص أكثر تعقيداً من السابق، وهذا يساعدها على ابتكار إجابات تبدو صحيحة ومقنعة من حيث الشكل ولكنها خاطئة من حيث المضمون، أي أن النموذج يصبح أكثر قدرة على الإقناع وليس بالضرورة أكثر مصداقية. هلوسات المستقبل أخطر وشدد الدكاش على أنه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي ذاتها، فسيظل العالم يواجه نفس النوع من الهلوسات، وربما تكون أكثر خطراً في المستقبل، كونها ستصدر من أنظمة قادرة على اتخاذ قرارات ذات طابع تنفيذي، وذلك مع ظهور الذكاء الاصطناعي العام، أو ما يُعرف بالذكاء الاصطناعي الخارق، ولذلك فإن الحل يكمن في إعادة هندسة الجوانب المعمارية لأنظمة الذكاء الاصطناعي الحالية، لتصبح قادرة على "التحقق" من المعلومات وليس فقط "الإجابة".