أحدث الأخبار مع #الطبالنفسيالجامعي


الإمارات اليوم
٣٠-٠٤-٢٠٢٥
- صحة
- الإمارات اليوم
احتمالات الإصابة بـ «الشيزوفرينيا» تظهر باختبار بسيط للعين
توصل فريق بحثي في سويسرا إلى أن مخاطر الإصابة بمرض انفصام الشخصية (شيزوفرينيا)، ترجع إلى عوامل وراثية ترتبط بانخفاض سُمك شبكية العين، ما يعزز فكرة أن سلامة العين والإبصار، تقترن باحتمالات حدوث تغيرات عقلية للمرضى. وذكر الفريق البحثي من جامعة زيوريخ ومستشفى الطب النفسي الجامعي في العاصمة السويسرية، أن الشبكية جزء من الجهاز العصبي في جسم الإنسان، وتعد امتداداً طبيعياً للمخ، وبالتالي فإن هذه الصلة التشريحية تعني أن أي تغير في المخ ربما ينعكس في العين. واعتمد الباحثون على بيانات موسّعة بشأن اختبارات شبكية العين، والسمات الوراثية من بنك المعلومات الحيوية البريطاني «يو.كيه بيوبنك»، الذي يضم بيانات صحية تخص أكثر من نصف مليون شخص. وتوصل الباحثون إلى وجود صلة بين انفصام الشخصية وانخفاض سُمك الشبكية، لكنهم وجدوا أن هذا الارتباط محدود، ولا يمكن رصده إلا من خلال الدراسات الموسّعة، وأكدوا أنه يمكن بسهولة رصد أي تغيرات في العين تُنذر باحتمالات الإصابة بانفصام الشخصية، على عكس الاختبارات المركبة التي لابد من إجرائها على المخ، من أجل اكتشاف بوادر الإصابة بالمرض. ويقول الباحثون إنه يمكن عن طريق اختبار «التصوير المقطعي للترابط البصري» - وهو نوع من التصوير بالموجات فوق الصوتية للعين - تحديد سُمك الشبكية في غضون دقائق.


جريدة المال
١٠-٠٣-٢٠٢٥
- صحة
- جريدة المال
جامعة زيورخ: ChatGPT يصاب بالقلق والتقلبات المزاجية عند التعامل مع بعض الأنماط البشرية
كشفت دراسة حديثة أجرتها جامعة زيورخ ومستشفى الطب النفسي الجامعي في زيورخ، أن نموذج الذكاء الاصطناعي ChatGPT يستجيب بطريقة مشابهة لردود الأفعال البشرية، مما يؤثر على طريقة تفاعله مع المستخدمين عند تعرضه لمعلومات مزعجة. وأوضحت الدراسة أن روبوت الدردشة يمكن أن يظهر نوعًا من 'القلق' عند تلقيه محتوى صادما، مما يزيد من احتمالية تقديم ردود متحيزة. وبحسب الباحثين، فإن هذه النتائج قد تسهم في تحسين استخدام الذكاء الاصطناعي في مجالات الصحة العقلية، حيث يمكن توظيف هذه النماذج في دعم المرضى وتحليل ردود أفعالهم تجاه مواقف مختلفة. أظهرت الدراسة، التي نُشرت الأسبوع الماضي، أن ChatGPT قد يعاني من 'تقلبات مزاجية' تجاه المستخدمين عند تعرضه لمحتوى صادم مثل أخبار الحوادث والكوارث الطبيعية. ووجد الباحثون أن إدخال تمارين تعتمد على تقنيات التنفس والتأمل الموجه إلى خوارزمية ChatGPT يساعد في تهدئته، مما يجعله يقدم ردودًا أكثر موضوعية وأقل تحيزًا. وقال زيف بن زيون، الباحث المشارك في الدراسة وباحث ما بعد الدكتوراه في كلية الطب بجامعة ييل، إن روبوتات الذكاء الاصطناعي لا تمتلك مشاعر حقيقية، لكنها تحاكي الاستجابات البشرية بناءً على البيانات التي تم تدريبها عليها. وأوضح أن هذه النتائج قد تساهم في تطوير أدوات ذكاء اصطناعي أكثر قدرة على تقديم دعم نفسي أو توجيه المستخدمين بطريقة أفضل في أوقات التوتر. رغم الإمكانيات التي يتيحها الذكاء الاصطناعي في تحليل السلوك البشري، حذر الباحثون من أنه لا يمكن الاعتماد عليه بشكل كامل كبديل عن المتخصصين في علم النفس والطب النفسي. وذكر بن زيون أن الهدف ليس استبدال المعالجين، بل تطوير أدوات ذكاء اصطناعي يمكن أن تعمل كمساعد ذكي، مما يساعد الأطباء في إدارة مهامهم وتقديم إرشادات مبدئية للمرضى. وفي الوقت الذي أصبح فيه الذكاء الاصطناعي ملاذًا للبعض في البحث عن الدعم النفسي، هناك مخاوف متزايدة بشأن مخاطر استخدامه غير المنضبط. ففي أكتوبر الماضي، رفعت والدة طفل يبلغ من العمر 14 عامًا في فلوريدا دعوى قضائية ضد تطبيق الذكاء الاصطناعي متهمةً إياه بأنه لعب دورًا في تفاقم حالة ابنها النفسية قبل وفاته، بسبب محتوى تفاعلي غير مناسب. ورغم ذلك، تواصل الشركات المطورة العمل على تعزيز معايير السلامة في هذه التقنيات، فيما تسلط الدراسة الجديدة الضوء على الحاجة إلى ضبط استجابات الذكاء الاصطناعي عند التعامل مع المحتوى الحساس، مما قد يمهد الطريق لدمج هذه الأدوات بشكل آمن في مجالات الصحة العقلية مستقبلًا.