
في أضخم تجربة طبية عرفها التاريخ.. الذكاء الاصطناعي يشخّص ويتفوق على الأطباء
أطلقت مجموعة باحثين من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة هارفارد بالتعاون مع مستشفيات كبرى، قاعدة بيانات جديدة تهدف إلى دراسة التفاعل بين أطباء الأشعة ونماذج الذكاء الاصطناعي في تفسير صور الأشعة الصدرية، وهي قاعدة توصف بأنها الأكبر والأشمل من نوعها في هذا المجال حتى اليوم.
اقرأ أيضاً.. اختبار ذكي يشخّص سرطان الرئة بدقة غير مسبوقة
البيانات التي نُشرت ضمن مجلة Scientific Data في 3 مايو 2025، تحت اسم Collab-CXR، جمعت تقييماً تشخيصياً لـ 324 حالة مرضية واقعية من قبل 227 طبيب أشعة محترف، وذلك ضمن بيئات معلوماتية متغيرة: بعضها تضمن الدعم من خوارزميات الذكاء الاصطناعي، وأخرى اعتمدت على الصور الشعاعية فقط، وبعضها تضمن اطلاع الطبيب على التاريخ السريري الكامل للمريض.
تم استخدام نموذج الذكاء الاصطناعي المعروف باسم CheXpert، المطوّر من جامعة ستانفورد، كأداة دعم تشخيصي في بعض الحالات. النموذج يعتمد على تحليل صور الأشعة فقط، دون الرجوع إلى السجل السريري، وهو ما أتاح للباحثين مقارنة قدرات الذكاء الاصطناعي مع الأداء البشري، ومع أداء الفريق البشري عند العمل بمساعدة الذكاء الاصطناعي.
اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر
ما يميز هذه الدراسة هو التصميم التجريبي المعقد الذي جمع بين اختبارات ضمن المشارك نفسه وأخرى بين مشاركين مختلفين، مما يسمح بفهم أدق لكيفية تفاعل الأطباء مع المعلومات المتوفرة لهم، سواء كانت آتية من الآلة أو من سياق الحالة الطبية. كذلك، شملت القاعدة تقييمات لاحتمالات الإصابة بـ 104 نوعًا مختلفًا من الأمراض الصدرية، وهو نطاق تشخيصي أوسع بكثير من الدراسات السابقة.
إلى جانب التشخيصات، سجل الباحثون زمن اتخاذ القرار، وعدد النقرات داخل الواجهة التفاعلية، ومدى ثقة الطبيب في كل قرار، إضافة إلى بيانات ديموغرافية ومهنية عن الأطباء المشاركين، الذين يتمتعون بمتوسط خبرة يصل إلى 22 عامًا.
تهدف قاعدة البيانات هذه إلى تمكين الباحثين والمطورين من تصميم أدوات ذكاء اصطناعي أكثر فاعلية وواقعية في البيئات الطبية، وتوجيه استراتيجيات دمج الذكاء الاصطناعي داخل سير العمل السريري بطريقة تحقق التكامل بدلًا من التنافس، وبما يعزز دقة التشخيص وجودة الرعاية الصحية للمرضى.
إسلام العبادي(أبوظبي)

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الاتحاد
١٣-٠٥-٢٠٢٥
- الاتحاد
كلما اختصر.. اختلق! الوجه الخفي للذكاء الاصطناعي
كشفت دراسة حديثة أجرتها شركة Giskard الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب الإيجاز من روبوتات المحادثة مثل ChatGPT قد يزيد من ميلها إلى "الهلوسة" أي اختلاق معلومات غير دقيقة أو غير حقيقية. تفاصيل الدراسة ووفقاً لموقع "تك كرانش" نشر الباحثون نتائجهم في تدوينة تفصيلية، أشاروا فيها إلى أن التوجيهات التي تطلب إجابات قصيرة، خاصة على أسئلة غامضة أو مبنية على معلومات خاطئة، تؤدي إلى انخفاض ملحوظ في دقة المحتوى الذي تقدمه النماذج. وقال الباحثون: "تُظهر بياناتنا أن تغييرات بسيطة في التوجيهات تؤثر بشكل كبير على ميل النموذج إلى الهلوسة". وهو ما يثير القلق، خاصة أن كثيرًا من التطبيقات تعتمد على الإجابات الموجزة بهدف تقليل استخدام البيانات، وتسريع الاستجابة، وتقليص التكاليف. اقرأ ايضاً.. الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب الهلوسة ليست مشكلة جديدة في الذكاء الاصطناعي، حتى النماذج الأحدث مثل GPT-4o وClaude 3.7 Sonnet تعاني منها بدرجات متفاوتة. لكن المفاجئ في الدراسة كان اكتشاف أن مجرد طلب إيجاز في الإجابة يمكن أن يزيد من احتمالية وقوع هذه الأخطاء. ويرجّح الباحثون أن السبب يكمن في أن الإجابات القصيرة لا تتيح للنموذج "المجال" الكافي لتفنيد المغالطات أو شرح التعقيدات. فيكون أمام خيارين: الإيجاز أو الدقة، وغالبًا ما يختار الأول على حساب الثاني. اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع! عبارات بريئة.. لكنها تخدع النموذج أظهرت الدراسة أن النماذج الشهيرة مثل GPT-4o وMistral Large وClaude Sonnet تصبح أقل دقة عندما تُطلب منها إجابات مقتضبة على أسئلة مشوشة . فبدلًا من الإشارة إلى أن السؤال يحتوي على فرضية خاطئة، تميل النماذج إلى تقديم إجابة مختصرة تكميلية للخطأ، مما يعزز التضليل بدلاً من تصحيحه. وحذرت الدراسة أيضًا من أن بعض النماذج تميل إلى تفادي التصحيح عندما تُطرح المعلومات المغلوطة بطريقة واثقة، في محاولة لمجاراة توقّعات المستخدم، حتى وإن كانت خاطئة. تُبرز الدراسة مفارقة مؤسفة تتمثل في أن تحسين تجربة المستخدم من خلال الإجابات المختصرة قد يأتي على حساب دقة الحقيقة. لذلك، يوصي الباحثون بضرورة توخي الحذر عند تصميم الأوامر والتعليمات الموجهة للذكاء الاصطناعي، مع التأكيد على أهمية تحقيق توازن بين سرعة الإجابة وموثوقيتها. إسلام العبادي(أبوظبي)


الاتحاد
١٠-٠٥-٢٠٢٥
- الاتحاد
في أضخم تجربة طبية عرفها التاريخ.. الذكاء الاصطناعي يشخّص ويتفوق على الأطباء
أطلقت مجموعة باحثين من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة هارفارد بالتعاون مع مستشفيات كبرى، قاعدة بيانات جديدة تهدف إلى دراسة التفاعل بين أطباء الأشعة ونماذج الذكاء الاصطناعي في تفسير صور الأشعة الصدرية، وهي قاعدة توصف بأنها الأكبر والأشمل من نوعها في هذا المجال حتى اليوم. اقرأ أيضاً.. اختبار ذكي يشخّص سرطان الرئة بدقة غير مسبوقة البيانات التي نُشرت ضمن مجلة Scientific Data في 3 مايو 2025، تحت اسم Collab-CXR، جمعت تقييماً تشخيصياً لـ 324 حالة مرضية واقعية من قبل 227 طبيب أشعة محترف، وذلك ضمن بيئات معلوماتية متغيرة: بعضها تضمن الدعم من خوارزميات الذكاء الاصطناعي، وأخرى اعتمدت على الصور الشعاعية فقط، وبعضها تضمن اطلاع الطبيب على التاريخ السريري الكامل للمريض. تم استخدام نموذج الذكاء الاصطناعي المعروف باسم CheXpert، المطوّر من جامعة ستانفورد، كأداة دعم تشخيصي في بعض الحالات. النموذج يعتمد على تحليل صور الأشعة فقط، دون الرجوع إلى السجل السريري، وهو ما أتاح للباحثين مقارنة قدرات الذكاء الاصطناعي مع الأداء البشري، ومع أداء الفريق البشري عند العمل بمساعدة الذكاء الاصطناعي. اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر ما يميز هذه الدراسة هو التصميم التجريبي المعقد الذي جمع بين اختبارات ضمن المشارك نفسه وأخرى بين مشاركين مختلفين، مما يسمح بفهم أدق لكيفية تفاعل الأطباء مع المعلومات المتوفرة لهم، سواء كانت آتية من الآلة أو من سياق الحالة الطبية. كذلك، شملت القاعدة تقييمات لاحتمالات الإصابة بـ 104 نوعًا مختلفًا من الأمراض الصدرية، وهو نطاق تشخيصي أوسع بكثير من الدراسات السابقة. إلى جانب التشخيصات، سجل الباحثون زمن اتخاذ القرار، وعدد النقرات داخل الواجهة التفاعلية، ومدى ثقة الطبيب في كل قرار، إضافة إلى بيانات ديموغرافية ومهنية عن الأطباء المشاركين، الذين يتمتعون بمتوسط خبرة يصل إلى 22 عامًا. تهدف قاعدة البيانات هذه إلى تمكين الباحثين والمطورين من تصميم أدوات ذكاء اصطناعي أكثر فاعلية وواقعية في البيئات الطبية، وتوجيه استراتيجيات دمج الذكاء الاصطناعي داخل سير العمل السريري بطريقة تحقق التكامل بدلًا من التنافس، وبما يعزز دقة التشخيص وجودة الرعاية الصحية للمرضى. إسلام العبادي(أبوظبي)


الاتحاد
١٠-٠٥-٢٠٢٥
- الاتحاد
الذكاء الاصطناعي يزداد عبقرية.. لكنه يُتقن الكذب
أشار تقرير حديث إلى أن مشكلة "الهلوسات" في نماذج الذكاء الاصطناعي – وهي المصطلحات الأنيقة التي تُستخدم لوصف المعلومات الملفقة التي تقدمها النماذج على أنها حقائق – تزداد سوءًا مع تطور هذه النماذج، وليس العكس. اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع! وبحسب نيويورك تايمز، فإن النماذج الجديدة المصممة لتقديم "تفكير منطقي" قبل الإجابة، مثل نماذج OpenAI وGoogle الحديثة، تُظهر معدلات أعلى من الأخطاء والادعاءات الكاذبة. على سبيل المثال، نموذج o4-mini من OpenAI هلوس بنسبة 48٪ في اختبارات الدقة الداخلية، بينما بلغت هلوسات نموذج o3 حوالي 33٪، أي ضعف معدل الأجيال السابقة. اقرا ايضاً.. روبوتات تتنكر كبشر وتخدع آلاف المستخدمين! وتزداد خطورة المشكلة بسبب فشل الشركات المطورة في فهم السبب الحقيقي وراء هذه الظاهرة، وهو ما يكشف عن ضعف الفهم العميق لكيفية عمل هذه النماذج حتى من قبل مبتكريها. ويضيف خبراء أن الاعتماد المتزايد على البيانات الاصطناعية (المولدة بالذكاء الاصطناعي نفسه) في تدريب النماذج الجديدة قد يزيد المشكلة سوءًا، مع تراجع العائد من كل جيل جديد من النماذج. اقرأ أيضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية ومع ضخ عشرات المليارات من الدولارات في تطوير البنية التحتية لنماذج أكثر تطورًا، تواجه الصناعة الآن معضلة محورية: المزيد من القوة لا يعني بالضرورة المزيد من الموثوقية. إسلام العبادي(أبوظبي)