
الذكاء الاصطناعي يكشف شامة مريبة.. هل أصبح أداة فعالة في رصد السرطان؟
في قصة لافتة تؤكد الإمكانات المتزايدة لتقنيات
الذكاء الاصطناعي
، لجأت سيدة تُدعى ترينيتي بيج إلى روبوت المحادثة ChatGPT من شركة OpenAI، بهدف غير طبي تمامًا: أرادت ببساطة قراءة خطوط راحة يدها، لكن الرد الذي تلقّته لم يكن متوقعًا أبدًا، بل كان تحذيرًا من احتمال إصابتها بنوع نادر من سرطان الجلد.
الذكاء الاصطناعي واكتشاف السرطان
بعد أن رفعت السيدة صورة ليدها اليسرى إلى روبوت المحادثة، لاحظ النظام وجود شامة بالقرب من إصبع السبابة، وأصدر تنبيهًا بضرورة التوجه إلى طبيب مختص في الأمراض الجلدية، مشيرًا إلى أن مظهر هذه الشامة يتطابق مع أعراض نوع نادر وعدواني من السرطان يُعرف بـ الورم الميلانيني الندبي الطرفي، ورغم أن هذا النوع من السرطان نادر الحدوث لدى أصحاب البشرة الفاتحة، إلا أن إهماله قد يؤدي إلى مضاعفات خطيرة.
والقصة أثارت تفاعلًا واسعًا، وذكّرت بحالة مشابهة في عام 2024، حين تمكن برنامج ذكاء اصطناعي من لفت انتباه فتاة تُدعى مارلي غارنريتر إلى إصابة سرطانية قبل عام كامل من التشخيص الرسمي للأطباء، ما ساعد في علاجها في الوقت المناسب.
إنجاز طبي غير مسبوق.. أول عملية زرع مثانة بشرية تنعش آمال مرضى السرطان
ورغم أن خبراء الصحة يُجمعون على أن الذكاء الاصطناعي لا يمكن أن يحل محل الأطباء، فإنهم يقرّون بدوره كمساعد قوي يمكن أن يلفت الانتباه إلى مؤشرات أولية قد لا يُلاحظها الإنسان.
ومع ذلك، يظل التوجه إلى الطبيب المختص الخيار الأضمن عند أي شكوك صحية، نظرًا لأن النماذج الذكية الحالية لا تزال محدودة النطاق ولا تُستخدم طبيًا خارج الأطر البحثية والمهنية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ 2 ساعات
- نافذة على العالم
أخبار التكنولوجيا : هل يمكن الاعتماد على شات جي بي تي للحصول على نصائح طبية؟
الأحد 25 مايو 2025 01:32 مساءً نافذة على العالم - في ظل القفزات السريعة التي يشهدها الذكاء الاصطناعي، لم يعد من الغريب أن نسمع عن استخدام نماذج لغوية ذكية مثل ChatGPT في ميادين حساسة كالمجال الطبي، ولكن مع هذا التطور المثير، يبرز سؤال جوهري: هل يمكن حقًا الوثوق في النصائح الطبية التي يقدمها الذكاء الاصطناعي، وتحديدًا شات جي بي تي؟ جدل "حبة الغلة" أثارت الحادثة التى شغلت الراي العام المصري أمس حول تناول شاب بمحافظة أسيوط لحبة غلة للانتحار، ثم استعانة ابن عمه بتطبيق شات جي بي تي لإنقاذه اهتمام الكثيرين، وهو الأمر الذى دفع الكثيرين للتساؤل حول إمكانية استخدام تطبيق الذكاء الاصطناعي للحصول على نصائح طبية، ووصفات علاجية. ماذا يمكن أن يقدم ChatGPT في الطب؟ أظهر نموذج ChatGPT من تطوير شركة OpenAI قدرات متقدمة في معالجة اللغة، وفهم الأعراض، وتقديم معلومات طبية مبدئية، بل وحتى محاكاة استشارات طبية، ففي دراسة منشورة في مجلة الجمعية الطبية الأمريكية (JAMA)، وُجد أن ردود النموذج على بعض الأسئلة الطبية كانت دقيقة وتعاطفية بمستوى يقترب من الأطباء البشر، خاصة في الأسئلة العامة غير الطارئة (JAMA Network). تتعدد استخداماته العملية في النطاق الطبي لتشمل: تتعدد استخداماته العملية في النطاق الطبي لتشمل: مساعدة الأطباء في تحليل الأعراض الأولية. تبسيط نتائج الفحوصات للمرضى. إعداد ملخصات للسجلات الطبية.| تدريب الطلاب عبر محاكاة مواقف سريرية. هل هذا كافٍ لتقديم نصيحة طبية؟ الإجابة ببساطة: لا، حيث إن ChatGPT لا يملك رخصة طبية ولا يخضع لمساءلة مهنية، وبالتالي لا يمكن الاعتماد عليه كمصدر وحيد للمعلومة الطبية، استخدامه يجب أن يكون تحت إشراف طبي مباشر، وباعتباره أداة داعمة لا بديلاً عن الطبيب المختص. الخطورة تكمن في الاعتماد الكامل عليه دون تأكد من صحة المعلومة، أو في الحالات التي تتطلب فحصًا بدنيًا، تشخيصًا دقيقًا، أو تعاملًا إنسانيًا وتعاطفيًا لا يمكن محاكاته رقميًا، أضف إلى ذلك أن أي خطأ في المعلومات أو التوصيات الطبية يمكن أن تكون له عواقب وخيمة على صحة الإنسان. ما بين الحذر والفرصة رغم التحديات، فإن أدوات الذكاء الاصطناعي مثل ChatGPT تمثل فرصة ذهبية لتسريع العمل الطبي وتحسين جودة الرعاية، بشرط استخدامها بشكل مسؤول، وقد تُستخدم لتحسين كفاءة الأطباء، وتوسيع نطاق الوصول للخدمات الصحية في المناطق المحرومة، وتوفير محتوى علمي محدث وسهل الفهم للمرضى. لكن هذا لا ينفي الحاجة إلى ضوابط قانونية صارمة، وأطر مهنية واضحة تحكم استخدام هذه التقنيات، وتحفظ خصوصية المرضى، وتمنع إساءة الاستخدام، حيث أن شات جي بي تي يمكن أن يلعب دورًا هامًا في مستقبل الطب، لكنه لا يُعد طبيبًا ولا يمكنه تعويض الخبرة البشرية أو القرار الطبي المهني.


مصراوي
منذ 6 ساعات
- مصراوي
عميد طب أسيوط يكشف حقيقة منشور "شات جي بي تي وحبة الغلال"
أسيوط ـ محمود عجمي: علّق الدكتور علاء عطية، عميد كلية الطب بجامعة أسيوط، على المنشور المتداول على نطاق واسع عبر مواقع التواصل الاجتماعي، والذي يزعم فيه شخص إنقاذ شاب من التسمم الناتج عن تناول "قرص حبة الغلة" باستخدام تقنيات تعتمد على "شات جي بي تي"، مؤكدًا أن ما ورد في المنشور لا يستند إلى وقائع طبية دقيقة أو أي أساس علمي مثبت. وكان شاب يُدعى إسلام عادل، نشر تدوينة على موقع التواصل الاجتماعي "فيس بوك"، أعرب فيها عن امتنانه لتطبيق الذكاء الاصطناعي "شات جي بي تي – ChatGPT"، الذي ساعده، بحسب روايته، في إنقاذ حياة ابن عمه البالغ من العمر 17 عامًا، بعد تعرضه لحالة تسمم خطيرة نتيجة تناوله جزءًا كبيرًا من قرص "حبة الغلال" السام، ما تسبب في إثارة حالة من الجدل. وفي تفاصيل الواقعة، أوضح إسلام عادل عبر منشور على صفحته الشخصية أن ابن عمه "محمد.ي" أقدم على محاولة انتحار إثر خلاف عائلي مع والده، حيث توجه إلى منزل قديم للعائلة وتناول كمية من قرص الغلال، ما أدى إلى ظهور أعراض التسمم الحاد بمادة الفوسفين. وأضاف أن الأسرة سارعت بنقل الشاب إلى المستشفى المركزي بمدينة أبنوب، إلا أن المستشفى رفض استقباله، ليتم تحويله لاحقًا إلى مستشفى أسيوط الجامعي. وأشار إلى أنه، وفي لحظة حرجة، لجأ إلى تطبيق "شات جي بي تي" للحصول على استشارة عاجلة، حيث نصحه باستخدام زيت البرافين لتقليل تفاعل المادة السامة داخل المعدة، وهو ما قام به بالفعل قبل التوجه إلى المستشفى الجامعي. وبحسب روايته، استقبل قسم السموم بمستشفى أسيوط الجامعي الحالة بحذر، مؤكدين عدم وجود بروتوكول علاجي واضح لتسمم "حبة الغلال"، وأن فرص النجاة محدودة رغم استقرار المؤشرات الحيوية في تلك اللحظة. وفي تطور لافت ضمن تفاصيل الواقعة، أكد إسلام عادل، الشاب الذي أنقذ ابن عمه من التسمم بحبة الغلال، أنه لم يستسلم رغم ما وصفه بـ"الاستسلام الطبي" في بداية الأمر، حيث أصر على بدء إجراءات علاجية داعمة مستعينًا بتوجيهات تلقاها من نسخة تجريبية متقدمة من نموذج الذكاء الاصطناعي "GPT-5". وأوضح إسلام، أنه قام بتوفير 9 زجاجات من زيت البرافين، تم إعطاؤها للمريض بالتناوب، إلى جانب تنفيذ تمارين تنفس واستخدام مواد داعمة لوظائف القلب والرئتين، في محاولة لتقليل امتصاص المادة السامة وتخفيف آثارها. وتابع:"مرت الساعات الأولى وسط حالة من القلق، إلا أن استمرار القيء دون فقدان الوعي أو ظهور أعراض تسممية حادة، شجّع الفريق الطبي على متابعة الحالة بدقة، من خلال قياسات دورية للضغط، والسكر، والأكسجين، ورسم القلب"؛ مشيرًا إلى بعد مرور 24 ساعة حرجة، بدأت مؤشرات التحسن تظهر بوضوح، ليتم في النهاية تسجيل خروج محمد من المستشفى بحالة مستقرة ودون أي ملاحظات صحية، بحسب ما ذكره إسلام في منشوره على "فيسبوك". وفي ختام روايته، عبّر إسلام عن امتنانه لله أولًا، ثم للتكنولوجيا التي وصفها بأنها كانت "شريكًا غير متوقع في إنقاذ حياة"، مشيرًا إلى أن المحادثات التي أجراها مع الذكاء الاصطناعي كانت كثيرة ومفصلة، ولم يتمكن من نشرها جميعًا. فى المقابل، أوضح عميد كلية طب أسيوط، لـ"مصراوي" أن الشاب، البالغ من العمر نحو 17 عامًا، لم تظهر عليه أي أعراض سريرية تشير إلى تعرضه لتسمم بمادة الفوسفين الناتجة عن قرص الغلة، وهي أعراض معروفة وواضحة في مثل هذه الحالات. وأضاف أن الفريق الطبي تابع الحالة بدقة، ووجّه للشاب عدة استفسارات حول تناوله للقرص، إلا أنه نفى ذلك بشكل قاطع، مؤكدًا أنه ألقى القرص في حوض ماء ولم يبتلعه. وأشار عميد كلية الطب، إلى أن الشاب أفاد خلال تواجده بالمستشفى أن ما دفعه إلى محاولة الانتحار هو خلاف عائلي بسبب رفض أسرته سفره إلى إيطاليا، مؤكدًا أن القسم كان يضم في ذلك الوقت ثلاث حالات حرجة داخل العناية المركزة. وفي سياق متصل، كشف عميد كلية الطب، أن مستشفى جامعة أسيوط يُجري منذ فترة دراسة بحثية حول استخدام زيت البرافين كعلاج مساعد في حالات التسمم بقرص الغلة، وأظهرت النتائج الأولية تحسنًا لدى بعض الحالات عند استخدام الزيت بالتزامن مع مادة "الأسيتاين"، حيث يسهم في تقليل امتصاص المادة السامة والحد من مضاعفاتها. وأكد أن استخدام زيت البرافين لا يزال ضمن بروتوكول علاجي تجريبي، ولم يُعتمد رسميًا بعد، مشيرًا إلى أن المستشفى يواصل تقييم فعاليته ضمن إطار علمي دقيق.

مصرس
منذ 2 أيام
- مصرس
هل الدعم النفسي بالذكاء الاصطناعي آمن؟
شهدت السنوات الأخيرة تطورًا ملحوظًا في استخدام تطبيقات الذكاء الاصطناعي، وبالأخص الروبوتات الحوارية (الشات بوت) لتقديم الدعم النفسي والعاطفي. تطبيقات مثل ChatGPT التي أطلقتها OpenAI في 2022 أصبحت رفيقًا يوميًا لملايين المستخدمين حول العالم، يساعدونها في كل شيء بدءًا من اتخاذ قرارات بسيطة إلى مشاركة مشاعرهم والتخفيف من ضغوطهم النفسية. اقرأ أيضًا| من الابتكار إلى الاتهام| ما هي أخطار الذكاء الاصطناعي غير المسؤول؟يُعزى لسهولة الوصول إليها وتوفرها على مدار الساعة سببًا رئيسيًا في اللجوء إلى هذه الأدوات، خاصة في المناطق النائية أو المجتمعات التي تعاني من وصمة العار تجاه الصحة النفسية. لكن على الرغم من الفوائد التي توفرها، تثير هذه التطبيقات تساؤلات كبيرة حول مدى فعاليتها الحقيقية، قدرتها على التعامل مع الحالات النفسية المعقدة، والقيود الأخلاقية والخصوصية المرتبطة بها.تستخدم بعض التطبيقات العامة مثل ChatGPT وDeepSec وGemini للدعم النفسي غير الرسمي، لكنها ليست مهيأة لتشخيص أو علاج الاضطرابات النفسية، مما قد يعرض المستخدمين لمخاطر مثل الحصول على نصائح غير مناسبة أو عدم رصد حالات الطوارئ النفسية مثل الأفكار الانتحارية. كما تفتقر هذه الروبوتات إلى التعاطف واللمسة الإنسانية التي تلعب دورًا جوهريًا في العلاج النفسي.اقرأ أيضًا| استشاري إرشاد نفسي تحذر من الارتباط ب «شات جي بي تي»في المقابل، توجد تطبيقات مخصصة للصحة النفسية مثل Wysa وTherabot، تم تطويرها بواسطة فرق متخصصة ومرتكزة على مبادئ علاجية، مما يجعلها أكثر أمانًا وفعالية في التعامل مع المشكلات النفسية الحساسة. تقدم هذه التطبيقات دعمًا مستمرًا وبأسعار معقولة، وتساعد في سد الفجوات في خدمات الصحة النفسية، لكنها لا تزال غير بديلاً كاملاً للعلاج التقليدي.تشكل قضايا الخصوصية والأمان تحديًا كبيرًا عند استخدام هذه الأدوات، حيث يمكن أن تُعرض المعلومات الحساسة للانتهاك أو الاستخدام غير المصرح به، مما دفع الهيئات التنظيمية في أوروبا والولايات المتحدة لمراقبة هذه الخدمات عن كثب.اقرأ أيضًا| صراع العمالقة| ميتا تُقصي الذكاء الاصطناعي الخاص ب آبل من تطبيقاتهافي النهاية، يؤكد الخبراء أن الذكاء الاصطناعي يمكن أن يكون أداة داعمة فعالة ضمن نموذج هجين يجمع بين التقنية والدعم البشري، مع ضرورة رفع الوعي وتنظيم القطاع لضمان الاستخدام الآمن والمسؤول.