
لو فاكره صاحبك الأنتيم.. الفضفضة مع روبوتات الذكاء الاصطناعى يجب أن تكون بحذر
وقد كشفت دراسة جديدة من جامعة ستانفورد الأمريكية عن مخاطر كبيرة تهدد سلامة المرضى النفسيين عند استخدام روبوتات الذكاء الاصطناعي العلاجية القائمة على نماذج اللغة الكبيرة، مشيرة إلى أن هذه الأدوات قد تُظهر سلوكًا وصفيًا ينم عن وصم للمرضى، بل وتستجيب أحيانًا بطريقة غير ملائمة أو حتى خطيرة.
لماذا يجب الحذر عند استخدام روبوتات الذكاء الاصطناعي في الاستشارات النفسية؟
تعتمد الاستشارات النفسية بشكل أساسي على العلاقة العلاجية الإنسانية القائمة على الثقة، التعاطف، والفهم العميق للسياق البشري و هذه الجوانب يصعب على الذكاء الاصطناعي محاكاتها بشكل كامل، نظراً لأن الروبوتات لا تمتلك مشاعر أو تجارب حياتية ويمكنها تحليل النصوص وتقديم استجابات منطقية، لكنها تفتقر إلى القدرة على فهم المشاعر البشرية المعقدة والرد عليها بحساسية وتعاطف حقيقيين.
ومن بين الأسباب صعوبة التعامل مع السياقات المعقدة والمواقف الحرجة، فقد يواجه الذكاء الاصطناعي صعوبة في فهم المحادثات التي تتضمن سياقات معقدة، معاني غير مباشرة، أو أفكارًا ضارة مثل الانتحار أو إيذاء الذات وفي هذه الحالات، يمكن أن يؤدي الاعتماد على الروبوتات إلى تقديم نصائح غير مناسبة أو حتى ضارة.
مخاطر سوء الفهم وتقديم المشورة المضللة
و على الرغم من التطورات، قد يسيء الذكاء الاصطناعي فهم مدخلات المستخدم أو يقدم نصائح عامة أو مضللة قد لا تكون مناسبة للحالة الفريدة للشخص، مما قد يزيد من سوء الحالة النفسية.
قضايا الخصوصية وأمن البيانات
تتطلب الاستشارات النفسية مشاركة معلومات شخصية وحساسة للغاية، فإن استخدام الذكاء الاصطناعي يثير مخاوف جدية بشأن كيفية جمع هذه البيانات، تخزينها، حمايتها من الاختراقات، ومنع إساءة استخدامها.
التحيز في الخوارزميات
تعتمد نماذج الذكاء الاصطناعي على البيانات التي تم تدريبها عليها، فإذا كانت هذه البيانات تحتوي على تحيزات (مثل تحيزات ثقافية، اجتماعية، أو ديموغرافية)، فإن الروبوت قد يقدم استجابات متحيزة أو غير عادلة.
إذا قررت استخدام روبوتات الذكاء الاصطناعي للدعم النفسي، فمن الضروري أن تفعل ذلك بوعي وحذر شديدين، مع الالتزام بالمبادئ التالية:
1.التعامل معها كأداة مساعدة وليست بديلاً:
يجب أن تكون روبوتات الذكاء الاصطناعي مكملة للدعم البشري، وليست بديلاً عنه، حيث يمكن استخدامها للحصول على معلومات عامة، تمارين استرخاء، تتبع الحالة المزاجية، أو كخطوة أولية للبحث عن المساعدة المتخصصة.
2.عدم مشاركة معلومات حساسة للغاية
جنب مشاركة تفاصيل شخصية أو حساسة جدًا، خاصة تلك التي قد تعرضك للخطر أو تكون سرية للغايةو افترض دائمًا أن البيانات قد لا تكون آمنة تمامًا.
3. تقييم النصائح بعين ناقدة
لا تقبل أي نصيحة من روبوت الذكاء الاصطناعي على أنها حقيقة مطلقة، لذا كن ناقدًا وفكر فيما إذا كانت النصيحة منطقية ومناسبة لحالتك وفي حال الشك، استشر متخصصًا بشريًا.
4. تجنبها في الأزمات والمشكلات المعقدة
لا تعتمد على الذكاء الاصطناعي أبدًا في حالات الطوارئ النفسية، مثل الأفكار الانتحارية، إيذاء النفس، أو الأزمات الحادة، ففي هذه الحالات، يجب طلب المساعدة الفورية من متخصص نفسي أو خطوط الدعم المخصصة للأزمات.
5.التحقق من مصداقية المنصة
استخدم فقط التطبيقات أو المنصات التي يتم تطويرها من قبل جهات موثوقة ومعروفة في مجال الصحة النفسية، والتي تلتزم بمعايير أمن البيانات والخصوصية.
6. فهم حدود الذكاء الاصطناعي
تذكر دائمًا أنك تتحدث مع برنامج حاسوبي فهو لا يفهم مشاعرك ولا يمتلك وعيًا أو تجارب حياتية.
7. الحفاظ على التواصل البشري
لا تدع استخدام الذكاء الاصطناعي يحل محل تفاعلاتك الاجتماعية مع الأصدقاء، العائلة، أو المتخصصين البشريين، لان العلاقات الإنسانية هي حجر الزاوية في الصحة النفسية الجيدة.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


اليوم السابع
منذ 19 ساعات
- اليوم السابع
ترامب يعاني من قصور وريدي مزمن.. كل ما تريد معرفته عن المرض
أعلن البيت الأبيض أن دونالد ترامب يعاني من قصور وريدي مزمن، بعد أن لاحظ الرئيس الأمريكي تورمًا في ساقيه، وفي مذكرة من طبيب ترامب، أفاد البيت الأبيض بأن الفحص الطبي لم يكشف عن أي دليل على وجود حالة أكثر خطورة، مثل تجلط الأوردة العميقة. وبحسب موقع تايمز ناو فقد خضع الرئيس الأمريكي لفحص شامل، شمل فحوصات تشخيصية للأوعية الدموية، وأُجريت له فحوصات دوبلر للأوردة الوريدية في الأطراف السفلية، وكشفت عن إصابته بقصور وريدي مزمن ، وهي حالة حميدة وشائعة، خاصةً لدى من تزيد أعمارهم عن 70 عامًا، وفقًا للمذكرة. وأكد الخبراء إن هذه الحالة شائعة إلى حد ما بين كبار السن ولكنها تتطلب فحصًا شاملاً لاستبعاد الأسباب الأكثر خطورة للتورم في الساقين. ما هو القصور الوريدي المزمن؟ يحدث القصور الوريدي المزمن (CVI) عندما تتضرر أوردة الساقين وتعجز عن إدارة تدفق الدم كما ينبغي، كما يصعب على الدم في الساقين العودة إلى القلب. وقال الخبراء إن القصور الوريدي المزمن يتسبب في تجمع الدم في أوردة الساقين، مما يؤدي إلى ارتفاع الضغط فيها. يحدث القصور الوريدي بسبب تلف في أي من أوردة ساقك، والتي تشمل: الأوردة العميقة الأوردة الكبيرة في أعماق جسمك والتي تمر عبر عضلاتك الأوردة السطحية بالقرب من سطح بشرتك الأوردة المثقبة تقوم بتوصيل أوردتك العميقة والسطحية وفقا للخبراء، يسبب مرض القصور الوريدي أعراضا خفيفة في البداية، ولكن مع مرور الوقت، تؤثر هذه الحالة على جودة حياتك ويمكن أن تؤدي أيضا إلى مضاعفات خطيرة. كيف يؤثر القصور الوريدي المزمن على جسمك؟ يقول الأطباء إن هذه الحالة تُبطئ تدفق الدم من ساقيك إلى قلبك، في حال عدم وجود علاج، قد يُسبب قصور القلب المزمن ارتفاعًا في الضغط على أوردة ساقيك لدرجة انفجار أصغر الأوعية الدموية، المعروفة أيضًا بالشعيرات الدموية. عند حدوث ذلك، يبدأ الجلد في تلك المنطقة بالتحول إلى اللون البني المحمر، ويتشقق بسهولة عند التعرض للصدمات أو الخدوش قد يُسبب انفجار الشعيرات الدموية ما يلي: التهاب الأنسجة في تلك المنطقة تلف الأنسجة قرحات الركود الوريدي - تقرحات مفتوحة على سطح الجلد. لا تلتئم قرح الركود الوريدي بسهولة، وقد تصاب بالعدوى، وقد تنتشر العدوى إلى الأنسجة المجاورة في حالة تُعرف بالتهاب النسيج الخلوي، وهي حالة خطيرة إذا لم تُعالج فورًا. علامات وأعراض القصور الوريدي المزمن تتضمن بعض علامات وأعراض القصور الوريدي المزمن ما يلي: ألم الساق حرقان أو وخز أو إحساس بوخز الإبر تشنجات في ساقيك، وخاصة في الليل تغير لون الجلد ، الذي يبدو بنيًا محمرًا تورم في الكاحلين تقشر أو حكة في الجلد على ساقيك القرحة توسع الأوردة قد يؤدي التورم الشديد أو الوذمة في أسفل الساق إلى ظهور نسيج ندبي، والذي يحتجز السوائل في الأنسجة. وفقًا للأطباء، يحدث قصور القلب المزمن عادةً عندما تتوقف صمامات أوردة الساق عن العمل بشكل صحيح. توجد صمامات في أوردة الساق تساعد على تدفق الدم في الاتجاه الصحيح، وإذا تضررت، فلن تتمكن من الانغلاق بشكل صحيح، مما يُصعّب تدفق الدم إلى أعلى باتجاه القلب. قد تكون أسباب خلل الصمام خلقية، أو أولية، أو ثانوية. خلقي التشوهات في أوردة ساقيك التي قد تولد بها. أساسي تغيرات في أوردة ساقيك تمنعها من العمل كما ينبغي. ثانوي بسبب تجلط الأوردة العميقة.


اليوم السابع
منذ يوم واحد
- اليوم السابع
"معلومات الوزراء" يستعرض أبرز الجهود الدولية في مجال تنظيم الذكاء الإصطناعي
أكد مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، أن العالم يشهد خلال الوقت الحالي ثورة التكنولوجية غير مسبوقة بفضل الذكاء الاصطناعي، حيث بدأ يؤثر بشكل عميق في مختلف جوانب الحياة، وفي مختلف المجالات، مضيفاً أنه على الرغم من الفوائد الكبيرة التي يقدمها، فإن الذكاء الاصطناعي يثير قلقًا متزايدًا بشأن المخاطر المحتملة التي قد تنجم عنه، سواء فيما يتعلق بالوظائف أو الخصوصية أو الأمن. وأوضح مركز المعلومات خلال تحليل له تناول من خلاله أبرز المخاطر المرتبطة بالاعتماد الواسع على تكنولوجيا الذكاء الاصطناعي، بالإضافة إلى الجهود الدولية الرامية إلى تنظيم هذه التكنولوجيا وحماية المجتمعات من آثارها السلبية، أنه نظرًا للنمو غير المسبوق الذي شهدته تقنيات الذكاء الاصطناعي في الآونة الأخيرة، وكونه جزءًا من حياتنا اليومية، أصبح من الضروري تقييم المخاطر والتحديات المحتملة المرتبطة بالتبني الواسع لتقنيات الذكاء الاصطناعي، نظرًا لأنه يحمل مجموعة من المخاطر الكبيرة، بدءًا من فقدان الوظائف وصولًا إلى القلق بشأن الأمن والخصوصية، كما أن عملية تنظيمه تمثل تحديًا، إذ إنه مثل العديد من التقنيات الأخرى ليس له طبيعة جيدة أو سيئة بحد ذاته، بل يعتمد ذلك على كيفية استخدامه. وأوضح المركز عدد من المخاطر التي يشكلها الذكاء الاصطناعي ومنها: -التحيز الخوارزمي والتمييز: إذ تؤدي أنظمة الذكاء الاصطناعي إلى استمرار أو تفاقم التحيزات الاجتماعية بشكل غير مقصود، وذلك نتيجة لاستخدام بيانات تدريب متحيزة أو تصميم خوارزمي غير ملائم، وللحد من التمييز وضمان العدالة، من الضروري استثمار الجهود في تطوير خوارزميات خالية من التحيز ومجموعات بيانات تدريب متنوعة. -خصوصية البيانات وأمنها: تقوم تقنيات الذكاء الاصطناعي عادةً بجمع وتحليل كميات هائلة من البيانات الشخصية، مما يثير قضايا تتعلق بخصوصية البيانات وأمنها. وللحد من مخاطر الخصوصية، من الضروري وضع لوائح صارمة لحماية البيانات وتبني ممارسات آمنة في التعامل معها. -القضايا الأخلاقية: حيث تعتبر القضايا الأخلاقية المتعلقة بتعزيز القيم في أنظمة الذكاء الاصطناعي -خاصة في سياق اتخاذ القرارات التي تحمل عواقب كبيرة- تحديًا كبيرًا، وفي هذا الإطار يتعين على الباحثين والمطورين أن يضعوا الآثار الأخلاقية لتقنيات الذكاء الاصطناعي في مقدمة أولوياتهم، وذلك لتفادي التأثيرات السلبية في المجتمع. -المخاطر الأمنية: مع تزايد تطور تقنيات الذكاء الاصطناعي، تزداد المخاطر الأمنية المرتبطة باستخدامها وإمكانية إساءة استخدامها، حيث يمكن للقراصنة والجهات الخبيثة استغلال قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية أكثر تعقيدًا، وتجاوز التدابير الأمنية، واستغلال الثغرات في الأنظمة، كما أن ظهور الأسلحة المستقلة المدعومة بالذكاء الاصطناعي يثير القلق بشأن مخاطر استخدامها. ولتقليل هذه المخاطر الأمنية، يتعين على الحكومات والمنظمات العمل على تطوير أفضل الممارسات لتأمين تطوير ونشر الذكاء الاصطناعي، وتعزيز التعاون الدولي لوضع معايير وأنظمة عالمية تحمي من التهديدات الأمنية المرتبطة بهذه التكنولوجيا. -المعلومات المضللة والتلاعب: يسهم المحتوى الناتج عن الذكاء الاصطناعي، مثل: التزييف العميق "الفيديوهات المزيفة"، وهو استخدام تقنية الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صوتيات جديدة بالكامل، بهدف تصوير أحداث لم تحدث في الواقع؛ في انتشار المعلومات الكاذبة والتلاعب بالرأي العام، ومن ثم تعتبر الجهود المبذولة للكشف عن المعلومات المضللة الناتجة عن الذكاء الاصطناعي ومكافحتها أمرًا بالغ الأهمية في الحفاظ على سلامة المعلومات في العصر الرقمي. أوضح التحليل أن حوكمة الذكاء الاصطناعي تُعد أمرًا بالغ الأهمية، ليس فقط لمواجهة التحديات والمخاطر، ولكن أيضًا لضمان الاستفادة العادلة من إمكاناته بطرقٍ لا تقصي أو تغفل أحدًا، وفي هذا الإطار تبنت بعض الدول خطوات نحو تنظيم استخدام الذكاء الاصطناعي. وفي هذا الإطار ووفقًا لمؤشر الذكاء الاصطناعي لجامعة ستانفورد لعام 2023، أقرت الهيئات التشريعية في 127 دولة 37 قانونًا بشأن "الذكاء الاصطناعي". ففي نوفمبر 2021، اعتمدت الدول الأعضاء جميعًا في منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)، والبالغ عددها 193 دولة، اتفاقية تاريخية تُحدد القيم والمبادئ المشتركة لتطوير الذكاء الاصطناعي، وتُشدد هذه الاتفاقية على حماية حقوق الإنسان، وخصوصية البيانات، وحظر أنظمة الذكاء الاصطناعي التي قد تمسّ كرامة الإنسان، أو تُسهم في المراقبة الجماعية، كما تُدافع عن دور الذكاء الاصطناعي في مواجهة التحديات العالمية، مثل: تغير المناخ والجوع، مع ضمان ألا تُفاقم التطورات التكنولوجية أوجه عدم المساواة القائمة. ونستعرض فيما يلي عددًا من تجارب الدول فيما يتعلق بتنظيم الذكاء الاصطناعي. أضاف التحليل أنه كجزء من الاستراتيجية الرقمية، أراد الاتحاد الأوروبي تنظيم الذكاء الاصطناعي لضمان ظروف أفضل لتطوير واستخدام هذه التكنولوجيا المبتكرة. وفي هذا الإطار، اقترحت المفوضية الأوروبية في أبريل 2021، أول قانون للذكاء الاصطناعي في الاتحاد الأوروبي، لإنشاء نظام تصنيف للذكاء الاصطناعي قائم على المخاطر. حيث إن أولوية البرلمان هي التأكد من أن أنظمة الذكاء الاصطناعي المستخدمة في الاتحاد الأوروبي آمنة وشفافة، ويمكن تتبعها كما أنها غير تمييزية. ويقوم هذا القانون بتصنيف أنظمة الذكاء الاصطناعي إلى أربعة مستويات وفقًا لمستوى المخاطر: -مخاطر غير مقبولة، مثل: حظر استخدام أنظمة التعرف البيومتري، مثل: برامج التعرف على الوجه في الأماكن العامة دون الحصول على إذن، وحظر استخدام الذكاء الاصطناعي في تقييم مخاطر الأفعال الإجرامية الفردية أو التنبؤ بها. -مخاطر عالية: تُصنّف حالات استخدام الذكاء الاصطناعي التي قد تُشكّل مخاطر جسيمة على الصحة والسلامة والحقوق الأساسية على أنها عالية الخطورة، مثل: حلول الذكاء الاصطناعي المستخدمة في المؤسسات التعليمية، والتي قد تحدد الوصول إلى التعليم ومسار الحياة المهنية لشخص ما (على سبيل المثال تسجيل نتائج الامتحانات)، وتطبيقات الذكاء الاصطناعي في إدارة العدالة والعمليات الديمقراطية، مثل: استخدام الذكاء الاصطناعي في صياغة أحكام المحاكم. -مخاطر محدودة، مثل: الأنظمة التي تستخدم البيانات الشخصية دون تقديم أي إفصاح أو شفافية. -مخاطر قليلة، مثل: التطبيقات التي تتيح تعديل الصور والتلاعب بالوسائط الرقمية. وأوضح التحليل أنه لتسهيل الانتقال إلى الإطار التنظيمي الجديد، أطلقت المفوضية الأوروبية "ميثاق الذكاء الاصطناعي"، وهي مبادرة طوعية تسعى إلى دعم التنفيذ المستقبلي؛ كما أنشأ البرلمان مجموعة عمل للإشراف على تطبيق قانون الذكاء الاصطناعي. ويريد أعضاء البرلمان الأوروبي التأكد من أن قواعد الذكاء الاصطناعي المعتمدة تسهم في تطوير القطاع الرقمي في أوروبا. وتتعاون المجموعة مع مكتب الذكاء الاصطناعي التابع للمفوضية الأوروبية، والذي تم إنشاؤه لتوضيح الأحكام الرئيسة للقانون. أكد التحليل على دخول قانون الذكاء الاصطناعي حيز التنفيذ في أغسطس 2024، وسيتم تطبيقه بشكل كامل في أغسطس 2026. ومع ذلك، هناك بعض الاستثناءات؛ حيث بدأت الالتزامات المتعلقة بمحو الأمية في مجال الذكاء الاصطناعي في فبراير 2025، وستدخل قواعد الحوكمة والالتزامات الخاصة بنماذج الذكاء الاصطناعي للأغراض العامة حيز التنفيذ في أغسطس 2025، أما بالنسبة لقواعد أنظمة الذكاء الاصطناعي عالية المخاطر، المدمجة في المنتجات المنظمة، فستكون لها فترة انتقالية ممتدة حتى 2 أغسطس 2027. أشار التحليل إلى أنه في عام 2023، قدم مكتب سياسة العلوم والتكنولوجيا في البيت الأبيض بالولايات المتحدة الأمريكية "مشروع قانون حقوق الذكاء الاصطناعي"، كما أصدر المعهد الوطني للمعايير والتكنولوجيا "إطارًا لإدارة مخاطر الذكاء الاصطناعي". ومع ذلك، قد تكون الخطوة الأهم في تنظيم الذكاء الاصطناعي هي الأمر التنفيذي الذي أصدره الرئيس الأمريكي السابق جو بايدن بشأن "تطوير واستخدام الذكاء الاصطناعي بشكل آمن وموثوق"، ويتناول هذا الأمر ثماني مجالات سياسية تهدف إلى ضمان "معايير جديدة لسلامة وأمن الذكاء الاصطناعي، وحماية خصوصية المواطنين الأمريكيين"، بالإضافة إلى تعزيز المساواة والحقوق المدنية، والدفاع عن حقوق المستهلكين والعمال، وتعزيز الابتكار والمنافسة، وغيرها من القضايا. أوضح التحليل أن الصين منذ عام 2021، بدأت في تطبيق قوانين تهدف إلى تنظيم تقنيات الذكاء الاصطناعي بشكل مستمر. وفي عام 2023، أصدرت الصين مجموعة من اللوائح الوطنية المتنوعة، من خلال التركيز على المنصات الرقمية والمحتوى الناتج عن الذكاء الاصطناعي، مثل: التزييف العميق. وتسعى الحكومة الصينية إلى تعزيز الحماية ضد العديد من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي. تركز هذه اللوائح على أربع قطاعات رئيسة: (حماية البيانات والمعلومات الشخصية- الشفافية- إدارة المحتوى ووضع العلامات- الأمن التقني). وستحدث هذه الأحكام تغييرات جذرية في طريقة إنتاج المحتوى الناتج عن الذكاء الاصطناعي لـ 1.4 مليار شخص؛ نظرًا لنطاقها الواسع. وستضع اللائحة قواعد واضحة لكل مرحلة من مراحل عملية استخدام التزييف العميق، بدءًا من الإنشاء وصولًا إلى وضع العلامات والنشر. أشار التحليل إلى أن المملكة المتحدة أصدرت في مارس 2023، بحثًا يحدد مقترحات لإنشاء إطار تنظيمي للذكاء الاصطناعي يهدف إلى تعزيز الابتكار بشكل آمن ومسؤول. وقد تم وضع خمسة مبادئ للجهات التنظيمية: (السلامة والأمن والموثوقية-الشفافية المناسبة والقدرة على التفسير-العدالة-المسؤولية والحوكمة-إمكانية الطعن والتعويض). كما شملت الوثيقة مقترحات لإنشاء وظيفة مركزية داخل الحكومة تتولى مجموعة من الأنشطة، مثل: تقييم المخاطر والتنسيق التنظيمي، لدعم التكيف والاتساق في النهج المتبع. وذكر مركز المعلومات أن عملية تنظيم الذكاء الاصطناعي تواجه العديد من التحديات الكبيرة نتيجة لتسارع تطور هذه التقنية وتعقيداتها. ومن أبرز هذه التحديات: -سرعة تطور التكنولوجيا: فالتسارع في ابتكار الذكاء الاصطناعي يجعل من الصعب على الجهات الحكومية وضع إطار شامل من القوانين. ورغم سعي قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى معالجة هذه المسألة من خلال تصنيفات متعددة، فإن التطور السريع لتكنولوجيا الذكاء الاصطناعي قد يتجاوز اللوائح الحالية، مما يستدعي ضرورة التكيف المستمر وسرعة الاستجابة. -توازن التنظيم والابتكار: ففي بعض الأحيان، يمكن أن يؤدي تنظيم تقنية الذكاء الاصطناعي إلى تقليل الابتكار وتقليص فرص النمو الاستكشافي، فتحديد التدابير التنظيمية المناسبة التي تعزز الابتكار، أو تلك التي تعوقه يعد تحديًا كبيرًا، وقد تترتب عليه عواقب وخيمة. وأفاد التحليل في ختامه أنه برغم التقدم الكبير الذي يحققه الذكاء الاصطناعي في مختلف المجالات، فإنه لا يمكن تجاهل المخاطر المرتبطة به، ومن الضروري أن تتكاتف الحكومات والمؤسسات الدولية لوضع أطر تنظيمية توازن بين الابتكار وحماية المجتمع من التحديات الأمنية والأخلاقية والاجتماعية، والوعي بهذه المخاطر، والعمل على تطوير سياسات شاملة تسهم في ضمان استخدام الذكاء الاصطناعي بشكل آمن ومسؤول، ويعزز مستقبلًا تقنيًا أكثر استدامة وعدلًا.


اليوم السابع
منذ 2 أيام
- اليوم السابع
هل يجعلك الذكاء الاصطناعى أقل ذكاءً؟ دراسة جديدة تثير الجدل
كشفت دراسة حديثة أجراها باحثون في معهد ماساتشوستس للتكنولوجيا (MIT)، آثار الذكاء الاصطناعى على ذكاء الطلاب، فعلى مدار سلسلة من جلسات كتابة المقالات، رُبط الطلاب الذين يعملون مع ChatGPT ، سواءً كانوا يعملون معه أو بدونه، بمخططات كهربائية للدماغ (EEGs) لقياس نشاط أدمغتهم أثناء العمل. نتائج الدراسة وبشكل عام، أظهر مستخدمو الذكاء الاصطناعي انخفاضًا ملحوظًا في النشاط العصبي في مناطق الدماغ المرتبطة بالوظائف الإبداعية والانتباه، كما وجد الطلاب الذين كتبوا بمساعدة روبوت الدردشة صعوبة أكبر في تقديم اقتباس دقيق من الورقة البحثية التي أنجزوها. تُعد هذه النتائج جزءًا من مجموعة متنامية من الأبحاث حول الآثار الضارة المحتملة لاستخدام الذكاء الاصطناعى على الإبداع والتعلم ويشير هذا العمل إلى تساؤلات مهمة حول ما إذا كانت المكاسب القصيرة الأجل المذهلة التي يوفرها الذكاء الاصطناعي التوليدي قد تُسبب دينًا خفيًا طويل الأجل. تُعزز دراسة معهد ماساتشوستس للتكنولوجيا (MIT) نتائج دراستين بارزتين أخريين حول العلاقة بين استخدام الذكاء الاصطناعي والتفكير النقدي، الأولى، التي أجراها باحثون في مركز أبحاث مايكروسوفت، استطلعت آراء 319 من العاملين في مجال المعرفة الذين استخدموا الذكاء الاصطناعي التوليدي مرة واحدة على الأقل أسبوعيًا. ووصف المشاركون قيامهم بأكثر من 900 مهمة، من تلخيص مستندات مطولة إلى تصميم حملة تسويقية، بمساعدة الذكاء الاصطناعي، ووفقًا للتقييمات الذاتية للمشاركين، تطلبت 555 مهمة فقط من هذه المهام التفكير النقدي، مثل مراجعة مخرجات الذكاء الاصطناعي بدقة قبل إحالتها إلى العميل، أو مراجعة مُوجّه بعد أن أظهر الذكاء الاصطناعي نتيجة غير كافية في المرة الأولى. أما بقية المهام، فقد اعتُبرت عديمة التفكير في جوهرها، وبشكل عام، أفاد غالبية العاملين بحاجتهم إلى جهد معرفي أقل أو أقل بكثير لإنجاز المهام باستخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وGoogle Gemini ومساعد الذكاء الاصطناعي Copilot من مايكروسوفت. وبشكل عام أفاد غالبية الموظفين بحاجتهم إلى جهد معرفي أقل أو أقل بكثير لإنجاز المهام باستخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وGoogle Gemini ومساعد الذكاء الاصطناعي Copilot من Microsoft، مقارنةً بأداء هذه المهام بدون الذكاء الاصطناعي. في دراسة أخرى أجراها مايكل جيرليتش، الأستاذ في كلية إس بي إس السويسرية للأعمال، سألت الدراسة 666 شخصًا في بريطانيا عن مدى استخدامهم للذكاء الاصطناعي ومدى ثقتهم به، قبل طرح أسئلة عليهم بناءً على تقييم تفكير نقدي شائع الاستخدام، فقد سجّل المشاركون الذين استخدموا الذكاء الاصطناعي بشكل أكبر درجات أقل في جميع المجالات. ويقول الدكتور جيرليتش إنه بعد نشر الدراسة، تواصل معه مئات من معلمي المدارس الثانوية والجامعات الذين يتعاملون مع تزايد استخدام الذكاء الاصطناعي بين طلابهم، والذين، كما يقول، "رأوا أن هذا النظام يعالج تمامًا ما يواجهونه حاليًا". ويبقى السؤال مطروحًا حول ما إذا كان الذكاء الاصطناعي سيُضعف أدمغة الناس على المدى الطويل، وقد أكد الباحثون في الدراسات الثلاث على ضرورة إجراء المزيد من الأبحاث لإثبات وجود علاقة سببية قاطعة بين الاستخدام المتزايد للذكاء الاصطناعي وضعف الأدمغة،ففي إحدى الدراسات ، على سبيل المثال، من الممكن أن يكون الأشخاص ذوو القدرة الأكبر على التفكير النقدي أقل ميلًا للاعتماد على الذكاء الاصطناعي. و في المقابل اعتمدت دراسة معهد ماساتشوستس للتكنولوجيا على عينة صغيرة (54 مشاركًا إجمالًا) وركزت على مهمة محددة واحدة، علاوة على ذلك، تسعى أدوات الذكاء الاصطناعي التوليدي صراحةً إلى تخفيف الأعباء العقلية على الناس، كما تفعل العديد من التقنيات الأخرى.