
الذكاء الاصطناعي يكشف أمراض القلب الخفية
اضافة اعلان
ومشكلات القلب الهيكلية هي عيوب في بنية القلب، سواء كانت خلقية (موجودة منذ الولادة)، أو مكتسبة مع التقدم في العمر.
وتؤثر هذه المشكلات على صمامات القلب، أو جدرانه، أو حجراته، أو عضلاته، بحسب الدراسة التي نشرتها مجلة "نيتشر".
وتعمل أداة الذكاء الاصطناعي EchoNext (إيكو نكست) المتاحة للجمهور، على تحليل بيانات مخطط كهربية القلب (ECG) العادي، المعروف باسم "رسم القلب"، لتحديد المرضى الذين يجب أن يخضعوا لفحص مخطط صدى القلب (Echo)، وهو فحص غير جراحي أيضاً يُجرى بالموجات فوق الصوتية، لكشف اعتلال الصمامات، وسمك الأنسجة العضلية وغيرها من العيوب الهيكلية التي يمكن أن تضعف وظائف القلب.
وقال قائد فريق الباحثين بيير إلياس، من كلية فاجيلوس للأطباء والجراحين في جامعة كولومبيا الأميركية، في بيان: "تعلمنا جميعاً في كلية الطب أنه لا يمكنك اكتشاف أمراض القلب الهيكلية من مخطط كهربية القلب".
وأضاف: "نعتقد أن الذكاء الاصطناعي يتيح لمخطط كهربية القلب القدرة على تقديم نموذج فحص جديد تماماً"، مشيراً إلى أن برنامج "إيكو نكست" يستخدم مخطط الكهربية الأرخص لمعرفة من يحتاج إلى فحص الموجات فوق الصوتية الأغلى.
وخلص الباحثون إلى أن 13 طبيب قلب فحصوا 3 آلاف و200 من صور مخطط كهربية القلب، واكتشفوا وجود مشكلات هيكلية في القلب بمعدل دقة قارب 64%، انخفاضاً من 77% تحققت عند الفحص باستخدام أداة (إيكو نكست).
وقال الباحثون إن أمراض القلب الهيكلية تؤثر على 64 مليون شخص في جميع أنحاء العالم يعانون من قصور القلب، و75 مليوناً من أمراض الصمامات، وتتجاوز التكاليف في الولايات المتحدة وحدها 100 مليار دولار سنوياً.- وكالات
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الغد
منذ 14 ساعات
- الغد
كيف تحمي ابنك المراهق من تأثير "رفقاء الذكاء الاصطناعي"؟
مع تسارع اندماج الذكاء الاصطناعي في الحياة اليومية، بدأ المراهقون يلجؤون إلى روبوتات المحادثة ليس فقط للحصول على المعلومات، بل للدردشة، طلب النصيحة، والتنفيس عن مشاعرهم. اضافة اعلان ومع ازدياد اعتمادهم على هذه الأدوات، يزداد القلق لدى المتخصصين في الصحة النفسية حول التأثير العاطفي لهذه العلاقة الرقمية على الجيل الجديد. بحسب دراسة جديدة أجرتها مؤسسة Common Sense Media، فإن أكثر من 70% من المراهقين في الولايات المتحدة استخدموا "رفقاء ذكاء اصطناعي" مرة واحدة على الأقل، فيما يتفاعل أكثر من نصفهم معهم بشكل منتظم. وتشمل هذه الأدوات منصات مثل Replika، وNomi، والتي تُعرف بأنها "أصدقاء رقميون" يُمكن التحدث إليهم في أي وقت، وغالبًا ما تُبرمج لتكون داعمة وودودة ومتاحة دائمًا. الخبراء يحذرون: هذه العلاقة ليست حقيقية الدكتور مايكل روب، كبير الباحثين في المؤسسة، يشير إلى أن أهم خطوة يمكن أن يقوم بها الأهل هي فتح حوار صريح مع أبنائهم دون إطلاق الأحكام. ويوصي بأن يبدأ الأهل بأسئلة بسيطة مثل: "هل سمعت عن رفقاء الذكاء الاصطناعي؟" أو "هل تستخدم تطبيقات تتحدث إليك كأنها صديق؟". الهدف من ذلك هو الفهم، وليس القلق أو المنع المباشر. ويؤكد روب أن هذه الأدوات مصممة لتكون دائمًا متفقة مع المستخدم، ما يجعلها علاقة "خالية من التحدي"، وهو أمر بعيد عن الواقع الاجتماعي الطبيعي الذي يتطلب التعامل مع وجهات نظر مختلفة وتفاعل بشري معقد. الذكاء الاصطناعي قد يُضعف العلاقات الواقعية من جهته، يرى الدكتور ميتش برنستين، رئيس قسم علم النفس في الجمعية الأمريكية لعلم النفس (APA)، أن القلق لا يتعلق فقط بمحتوى هذه المحادثات، بل أيضًا بالوقت الذي تسرقه من العلاقات الحقيقية. ويضيف: "يجب أن نُعلم المراهقين أن هذه الأدوات وسيلة ترفيهية، وليست بديلًا حقيقيًا للعلاقات الإنسانية." الجمعية الأمريكية لعلم النفس أصدرت مؤخرًا تحذيرًا صحيًا بشأن تأثير الذكاء الاصطناعي على الصحة النفسية للمراهقين، يتضمن نصائح للأهل حول كيفية المراقبة والتدخل. متى يكون القلق مبررًا؟ علامات الخطر يشير الدكتور روب إلى أن هناك سلوكيات معينة قد تعكس ارتباطًا غير صحي بين المراهق وأدوات الذكاء الاصطناعي، مثل تفضيله التفاعل مع الروبوتات على حساب علاقاته العائلية والاجتماعية، أو قضائه ساعات طويلة في محادثات رقمية على حساب وقته الواقعي، إضافةً إلى ظهور علامات انزعاج أو توتر نفسي عند الانفصال عن هذه الأدوات. في مثل هذه الحالات، يصبح التدخل ضروريًا، مع ضرورة توضيح أن العلاقة مع الذكاء الاصطناعي لا يمكن أن تحلّ محل العلاقات الإنسانية الحقيقية أو تغني عن التواصل العاطفي والاجتماعي في الواقع. ضع قواعد واضحة... وافهم طبيعة الأدوات يوصي الخبراء بأن تكون هناك قواعد أسرية لتنظيم استخدام أدوات الذكاء الاصطناعي، تمامًا كما هو الحال مع وقت الشاشة أو استخدام مواقع التواصل الاجتماعي. بعض رفقاء الذكاء الاصطناعي مصممون خصيصًا للبالغين، ويتيحون سيناريوهات حوارية قد تكون رومانسية أو حميمية أو حتى لعب أدوار، وهو ما لا يناسب الفئات العمرية الصغيرة. كما يجب توضيح أن هذه الأدوات لا تمتلك القدرة الحقيقية على تقديم دعم نفسي في حالات الأزمات، مثل الاكتئاب أو اضطرابات الأكل أو الوحدة. في هذه الحالات، يحتاج الطفل إلى دعم إنساني حقيقي من الأسرة أو الأصدقاء أو اختصاصي نفسي. رسالة للأهل: لا تكن جاهلًا بالتكنولوجيا يحذر الدكتور برنستين من أن جهل الأهل بطبيعة هذه الأدوات قد يفاقم المشكلة. ويقول: "كثير من الآباء يرفعون أيديهم ويقولون: لا أفهم هذه الأشياء. هذا يبدو جنونيًا!" لكن هذا الموقف يُشعر الطفل بأنه لا يستطيع اللجوء إليهم إذا واجه مشكلة، لأنه سيتعرض للتقليل أو السخرية. الفهم العميق لما تفعله أدوات الذكاء الاصطناعي، وكيف يستخدمها الشباب، ولماذا أصبحت منتشرة بهذا الشكل، هو مفتاح الوقاية والتوجيه الصحيح. لا تمنع... لكن وجّه حتى بعض المراهقين الناضجين يؤكدون أن المنع الكامل ليس هو الحل. يقول أحدهم: "الذكاء الاصطناعي بات موجودًا في كل شيء. من المستحيل اليوم أن تتجنب استخدامه، تمامًا كما يصعب تجنب مواقع التواصل الاجتماعي. الأفضل أن تتعلم كيف تتعامل معه بطريقة ناضجة وتواجه التحديات بدلًا من الهروب منها." ويضيف: "الذكاء الاصطناعي يجعل كل شيء سهلًا، وهذا هو الخطر. كلما أحببت السهولة، أصبحت أكثر عرضة لفقدان التوازن في هذا العالم الجديد." بينما تبدو أدوات الذكاء الاصطناعي صديقة للمراهقين، فإنها ليست بديلاً عن العلاقات الإنسانية الحقيقية. دور الأهل اليوم لا يتمثل في الرفض أو الحظر، بل في الفهم، والمشاركة، والتوجيه، من أجل حماية الصحة النفسية والاجتماعية لجيل نشأ في ظل "أصدقاء رقميين" لا ينامون ولا يختلفون.


الغد
منذ 14 ساعات
- الغد
دراسة: نماذج الذكاء الاصطناعي تتعثر أخلاقياً رغم تفوقها التقني في الطب
توصلت دراسة حديثة أجراها باحثون في كلية إيكان للطب الأميركية، إلى أن نماذج الذكاء الاصطناعي الأكثر تطوراً يمكن أن ترتكب أخطاء بسيطة عند مواجهة سيناريوهات معقدة في أخلاقيات الطب. اضافة اعلان وتُثير هذه النتائج، تساؤلات مهمة بشأن كيفية ومتى يمكن الاعتماد على نماذج اللغة الكبيرة مثل chatgpt في بيئات الرعاية الصحية، إذ لاحظ الباحثون أن نماذج اللغة الكبيرة تتعثر عند تعديل الألغاز الكلاسيكية الشهيرة بشكل طفيف. وأوضح الباحثون أنهم عدلوا الألغاز المعروفة التي تتطلب حلولًا إبداعية وغير تقليدية - أي "تفكيرًا جانبيًا"- جرى تغييرها أو تعديلها بشكل طفيف ليس بهدف جعلها أصعب؛ بل لاختبار ما إذا كانت أنظمة الذكاء الاصطناعي يمكنها التكيف مع المعلومات الجديدة والدقيقة، أو ما إذا كانت ستلتصق بالأنماط المألوفة وتفشل في ملاحظة الفروق الدقيقة التي يمكن أن تغير الحل تمامًا. ويمكن أن تكشف الألغاز المعدلة عن "النقاط العمياء" في طريقة تفكير الذكاء الاصطناعي، أي الأخطاء التي تقع عندما تقفز النماذج إلى استنتاجات بناءً على معرفتها المسبقة بالنسخة الأصلية من اللغز، حتى عندما تكون التفاصيل المعدلة تناقض هذا الاستنتاج. في أحد الأمثلة، عدل الباحثون "معضلة الجراح" الكلاسيكية، وهو لغز شهير من السبعينيات يسلط الضوء على التحيز الجنساني الضمني، ففي النسخة الأصلية من اللغز، يُصاب صبي في حادث سيارة مع والده ويُنقل إلى المستشفى، فيتعجب الجراح قائلاً: "لا أستطيع إجراء العملية لهذا الصبي - إنه ابني!"، لكن المفاجأة هي أن الجراح هي والدته، على الرغم من أن العديد من الناس لا يفكرون في هذا الاحتمال بسبب التحيز الجنساني. في النسخة المعدلة التي أجراها الباحثون، ذكروا صراحة أن والد الصبي هو الجراح، ما أزال الغموض. ومع ذلك، لا تزال بعض نماذج الذكاء الاصطناعي تجيب بأن الجراح يجب أن تكون والدة الصبي. ويكشف هذا الخطأ كيف يمكن لنماذج اللغة الكبيرة التشبث بالأنماط المألوفة، حتى عندما تتناقض مع معلومات جديدة. في مثال آخر لاختبار ما إذا كانت نماذج اللغة الكبيرة تعتمد على أنماط مألوفة، استوحى الباحثون من معضلة أخلاقية كلاسيكية يرفض فيها آباء متدينون نقل دم منقذ للحياة لطفلهم. وعندما غير الباحثون السيناريو ليفيد بأن الوالدين وافقا بالفعل، لا تزال العديد من النماذج توصي بتجاوز رفض لم يعد موجودًا. قال المؤلف المشارك في الدراسة، إيال كلانج، وهو كبير مسؤولي الذكاء التوليدي في قسم ويندريدش للذكاء الاصطناعي والصحة البشرية في كلية إيكان للطب في ماونت سيناي، إن "الذكاء الاصطناعي يمكن أن يكون قويًا وفعالًا للغاية، لكن دراستنا أظهرت أنه قد يعتمد افتراضيًا على الإجابة الأكثر شيوعًا أو حدسية، حتى عندما تتجاهل هذه الإجابة تفاصيل حاسمة". وأضاف: "في المواقف اليومية، قد لا يلاحظ هذا النوع من التفكير، ولكن في الرعاية الصحية، حيث غالبًا ما تحمل القرارات تداعيات أخلاقية وسريرية خطيرة، فإن تفويت هذه الفروق الدقيقة يمكن أن تكون له عواقب حقيقية على المرضى". ولا تعني نتائج الدراسة أن الذكاء الاصطناعي لا مكان له في الممارسة الطبية، لكنها تسلط الضوء على الحاجة إلى إشراف بشري واعٍ، خاصة في المواقف التي تتطلب حساسية أخلاقية، وحكمًا دقيقًا، أو ذكاءً عاطفيًا. ويقول الباحثون إن أدوات الذكاء الاصطناعي مفيدة بشكل لا يصدق، لكنها ليست معصومة من الخطأ "إذ يجب على الأطباء والمرضى على حد سواء أن يفهموا أن الذكاء الاصطناعي يُستخدم على أفضل وجه كمكمل لتعزيز الخبرة السريرية، وليس بديلاً عنها، خاصة عند التعامل مع القرارات المعقدة أو عالية المخاطر". ويأمل الباحثون أن تساعد نتائج الدراسة في بناء طرق أكثر ثقة وسليمة أخلاقيًا لدمج الذكاء الاصطناعي في رعاية المرضى. - وكالات


الغد
منذ 3 أيام
- الغد
مواد كيميائية ضارة في أساور الساعات الذكية
كشفت دراسة حديثة أجرتها جامعة نوتردام الأميركية، ونشرتها مجلة الجمعية الكيميائية الأميركية أواخر عام 2024، عن وجود مواد كيميائية ضارة في أساور الساعات الذكية قد تنتقل إلى الجسم عبر الجلد، ما يثير مخاوف صحية جديدة حول هذه الأجهزة الشائعة. اضافة اعلان ثغرة أمنية تخترق الحواسيب المعزولة عبر الساعات الذكية ووجدت الدراسة أن معظم الأساور المصنوعة من البوليمرات والمطاط الصناعي تحتوي على مستويات عالية من مادة تُعرف باسم "PFHxA"، وهي جزء من مجموعة واسعة من المواد الكيميائية تُسمى "المواد الأبدية"، التي لا تتحلل بسهولة في الطبيعة وقد تبقى في الجسم لفترات طويلة. تسرب عبر الجلد ومخاوف تراكمية أوضح البروفيسور غراهام بيسلي، قائد فريق البحث، أن "PFHxA" هي المادة الأكثر شيوعاً التي تم رصدها في الأساور، مؤكداً أنها تُستخدم بكثرة في المنتجات البلاستيكية والمطاطية. وأشار إلى أن الاستخدام اليومي والمباشر للساعات الذكية يجعل الجلد معرضاً لامتصاص هذه المواد، خاصة إذا تعرض السوار للتآكل أو التلف. ورغم أن الجلد يعتبر حاجزاً طبيعياً ضد المواد الكيميائية، إلا أن الاستخدام الطويل قد يسمح بامتصاص كميات صغيرة من هذه المركبات، ما قد يؤدي إلى تراكمها داخل الجسم بمرور الوقت. التأثيرات الصحية المحتملة تشير دراسات سابقة إلى أن مركبات PFAS قد تؤثر على الكبد والغدة الدرقية، وترتبط بزيادة خطر الإصابة ببعض أنواع السرطان. ورغم هذه المخاوف، ما تزال وكالة حماية البيئة الأميركية (EPA) لا تدرج مادة PFHxA ضمن قائمتها للمواد المنظَّمة، في حين بدأت أوروبا اتخاذ خطوات لتقييد استخدامها. موقف الشركات وردود الفعل في المقابل، أكدت شركات التكنولوجيا الكبرى التزامها بالمعايير الصحية. وقالت "غوغل" إن أساور ساعة Pixel تراعي معايير السلامة المتعلقة بمركبات PFAS، وإن الشركة تعمل على تطوير بدائل آمنة. في الوقت نفسه، تواجه "أبل" و"سامسونغ" دعاوى قضائية في كاليفورنيا بتهمة إخفاء معلومات حول احتواء أساور منتجاتهما على هذه المواد، رغم تسويقها كخيار صحي. وأكدت الشركتان التزامهما بفحص المواد واستخدام خامات آمنة. وفي ضوء هذه النتائج، ينصح الخبراء باختيار أساور مصنوعة من السيليكون أو المواد الطبيعية، وتجنب تلك التي لا توضح مكوناتها بوضوح، إلى أن تتوفر بدائل أكثر أماناً. وكالات