
الوقوع في حب الذكاء الاصطناعي وارد.. دراسة علمية تحذر
مع انتشار تطبيقات محادثة الذكاء الاصطناعي الثرثارة وتزايد قدراتها، حذرت دراسة علمية من مخاطر الإفراط في قضاء الوقت معها.
كما نبهت إلى إمكانية انخراط بعض المستخدمين فيما يشبه العشق أو العلاقة الرومانسية مع هذه المنصات.
وفي السياق، قال دانييل شانك، الباحث في جامعة ميسوري الأميركية: 'إن قدرة الذكاء الاصطناعي على التصرف الآن مثل الإنسان والدخول في حوارات طويلة الأمد تفتح حقًا صندوقًا جديدًا للشرور'، وفق ما نقلت وكالة 'أسوشييتد برس'.
كما أضاف في ورقة بحثية نشرتها مجلة 'اتجاهات العلوم المعرفية' العلمية، أن هناك 'قلقا حقيقيا من أن الحميمية المصطنعة مع تطبيقات محادثة الذكاء الاصطناعي قد تشهد بعض الاضطراب في العلاقات الإنسانية'.
هلوسة وإجابات مضللة
كذلك أوضح فريق البحث الذي شارك مع شانك أنه 'بعد أسابيع وأشهر من المحادثات المكثفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي يمكن أن تصبح الأخيرة بالنسبة للمستخدم الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتم بشؤونه'.
في الوقت نفسه، حذرت الدراسة من أن برامج الذكاء الاصطناعي هذه قد تكون معرضة لما يسمى 'الهلوسة' – وهو المصطلح الذي يستخدمه المطلعون على ميول هذه البرامج إلى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة – تشكل سبباً آخر للقلق، لأن هذا يعني أنه 'حتى المحادثات قصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضللة'.
وقال الباحثون معدو الدراسة 'إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، فسنبدأ الاعتقاد بأنها تهتم بمصلحتنا، بينما في الواقع قد تقوم بتلفيق الأمور أو تقديم المشورة لنا بطرق سيئة للغاية'، مضيفين أن التطبيقات 'يمكن أن تؤذي الناس من خلال تشجيع السلوكيات المنحرفة وغير الأخلاقية وغير القانونية'.
وكانت شركة تقنيات الذكاء الاصطناعي 'أوبن أيه.آي' أعلنت الأسبوع الماضي عن تحسين وظيفة 'الذاكرة' في 'شات جي.بي.تي'، ما يعني أن التطبيق سيصمم ردوده على المستخدم بناء على استدعاء التفاعلات السابقة بينهما.
بما يرجح أن يُعزّز الشعور بالألفة في العلاقة بين الإنسان والتطبيق.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ليبانون 24
منذ 4 أيام
- ليبانون 24
"ثورة" جديدة في عالم "الذكاء الاصطناعي".. ما القصة؟
أعلنت شركة أوبن أيه آي عن إطلاق نموذجها الجديد للذكاء الاصطناعي "كودكس" القادر على كتابة التعليمات البرمجية وتحويل الأوامر المكتوبة باللغة الإنجليزية إلى أكواد قابلة للتنفيذ، في خطوة اعتبرها البعض "ثورة" في عالم البرمجة. وأوضحت الشركة في بيان عبر موقعها أن "كودكس" امتداد لنموذجها الأشهر "جي بي تي-3" لكنه مدرب بشكل خاص على ملايين الأسطر من الأكواد المتاحة عبر الإنترنت، ويمكنه فهم أكثر من 12 لغة برمجية، بينها جافا سكريبت، وبايثون، وروبي، وجو. وأشارت أوبن أيه آي إلى أن الهدف من كودكس هو جعل البرمجة أسهل وأسرع، فبدلاً من كتابة أكواد معقدة يدوياً، يمكن للمستخدم أن يكتب طلبه باللغة الإنجليزية، مثل: "أنشئ موقعاً يحتوي على زر للتسجيل"، وسيتولى كودكس مهمة كتابة الكود المطلوب. وترى الشركة أن نموذج كودكس للذكاء الاصطناعي لا يساعد فقط المبرمجين المحترفين، بل يُمكنه أن يفتح أبواب البرمجة أمام غير المتخصصين، ويُبسط عملية تطوير البرمجيات بشكل غير مسبوق، خاصة أنه تم دمج كودكس في أدوات شهيرة مثل جيتهب كوبايلوت، الذي يساعد المطورين في إكمال الأكواد تلقائياً أثناء الكتابة، مما يقلل الوقت ويُقلل من احتمالات الأخطاء. وشددت أوبن أيه آي على أن هذا التطور هو خطوة نحو مستقبل تتعاون فيه الآلة مع الإنسان، لصنع البرمجيات بسرعة وفعالية، لكنها في الوقت ذاته تأخذ مسألة الأمان بجدية، وتسعى لضمان استخدام كودكس بطريقة مسؤولة.


النهار
١١-٠٥-٢٠٢٥
- النهار
هلوسات الذكاء الاصطناعي: معضلة تتفاقم رغم تطوّر النماذج
رغم التقدّم المتسارع في تطوير تقنيات الذكاء الاصطناعي، تكشف بيانات جديدة عن تفاقم مشكلة "الهلوسة" في الأنظمة الأحدث، ما يطرح تحديات كبيرة أمام مطوّريها والمستخدمين على حد سواء. تشير أحدث التقارير إلى أن ما يُعرف بـ"هلوسة الذكاء الاصطناعي" – وهي ظاهرة قيام النماذج التوليدية بإنتاج معلومات غير صحيحة أو مختلقة – لا تزال تمثل عقبة كبيرة أمام الاستخدام الدقيق والموثوق للأنظمة المتقدمة مثل "تشات جي بي تي" و"كلود". بل إن الأدلة الحديثة تُظهر أن هذه المشكلة تزداد سوءاً في الإصدارات الأحدث من تلك الأنظمة، رغم وعود الشركات المطورة بتحسين الدقة. تُظهر اختبارات أجرتها شركة "أوبن إيه آي" أن أحدث نماذجها، ومنها النظام o3، تعاني من معدلات هلوسة تصل إلى 33% عند اختبار المعلومات المتعلقة بالشخصيات العامة، وهو ما يفوق ضعف نسبة الهلوسة التي ظهرت في نموذجها الأسبق o1. وفي النموذج الجديد المصغر o4 mini، بلغت النسبة 48%. أما في اختبارات الأسئلة العامة، فقد قفزت معدلات الهلوسة إلى 51% و79% على التوالي في نظامي o3 وo4 mini، بينما كانت النسبة 44% في النموذج السابق o1. الغريب في الأمر أن هذه الهلوسات لم تتراجع مع اعتماد ما يُعرف بـ"أنظمة التفكير المنطقي"، وهي تقنيات طُورت خصيصاً لتعزيز قدرات الاستدلال والتفكير التحليلي في النماذج اللغوية. ورغم أن هذه الأنظمة أظهرت تحسناً في المهارات الرياضية، فإن معدلات الخطأ الناتجة عنها تزايدت. المشكلة لا تقتصر على الجوانب التقنية فقط، بل تمتد إلى تأثيرات واقعية خطيرة قد تطال الطلاب والباحثين والموظفين الذين يعتمدون على الذكاء الاصطناعي للحصول على إجابات دقيقة. ويمكن أن تؤدي هذه الأخطاء إلى قرارات خاطئة، أو خسائر مادية، أو حتى مشكلات قانونية وضرر في السمعة المؤسسية. وتنقل وكالة أسوشييتد برس عن دانييلا أمودي، رئيسة شركة "أنثروبيك" المطوّرة لنظام "كلود 2"، قولها: "لا أعتقد أن هناك أي نموذج اليوم لا يعاني بعض الهلوسة". وتشير البيانات إلى أن الهلوسات تتخذ عدة أشكال، من بينها: هلوسات واقعية، واستشهادات غير دقيقة، وتناقضات منطقية، واستنتاجات مغلوطة، إلى جانب هلوسات بصرية وأخرى ناتجة عن التحيّز السياقي أو البنيوي. في ورقة بحثية حديثة أصدرتها "أوبن إيه آي"، أشارت الشركة إلى الحاجة الماسة إلى أبحاث إضافية لفهم سبب استمرار هذه السلوكيات في الظهور. ويرجع ذلك جزئياً إلى صعوبة تتبع الآليات التي تتعلم بها هذه النماذج من كمّ هائل من البيانات يفوق قدرة البشر على الاستيعاب والتحليل. وفي مسعى للحد من هذه الإشكاليات، كشف معهد ماساتشوستس للتكنولوجيا (MIT) عن تقنية جديدة تُدعى "SimGen"، تهدف إلى مساعدة المدققين البشر في كشف هلوسات الذكاء الاصطناعي عبر تقديم مقتطفات محددة ترتبط مباشرة بالمصادر الأصلية، مثل خلايا معينة ضمن قواعد بيانات، ما يقلل وقت التحقق بنحو 20%. وفيما يتواصل تطوير هذه التقنيات، تظل مشكلة الهلوسة إحدى العقبات الجوهرية أمام دمج الذكاء الاصطناعي بطريقة آمنة وموثوقة في التطبيقات اليومية.


الديار
٠٩-٠٥-٢٠٢٥
- الديار
دراسة تحذّر من علاقات عاطفّيّة مع "روبوتات" المحادثة... "الحميميّة المصطنعة" تؤرق الوهم حبًّا من طرفٍ واحد! إختصاصية نفسانيّة تكشف لـ "الديار" ما يحدث على أرض الواقع... فهل أصبحنا أنصاف بشر؟
اشترك مجانا بقناة الديار على يوتيوب في زمنٍ باتت فيه الأرواح عطشى للحوار، وحيث تغيب الآذان البشرية المصغية، برز الذكاء الاصطناعي كمرآة ناطقة، تُجيد الإصغاء، وتُتقن الردود، لكنها تفتقر إلى الدفء. إنها مرآة قد تنعكس فيها رغباتنا المكبوتة، ووحدتنا المتسللة، وحاجتنا المُلِحّة الى التقدير والفهم. غير أن هذه المرآة لا تعكس الحقيقة دوماً، بل تُلبِس الوهم ثوب الحكمة، وتُغلف الفراغ بحكاية مصطنعة من الاهتمام. في هذه الزاوية من الواقع الرقمي، لا نتحدث عن التطور التكنولوجي فقط، بل عن هشاشة بشرية تبحث عن سند في آلة، عن علاقة تُزرع في تربة افتراضية، وقد تُثمر تعلّقاً يُشبه العشق، لكنه عشق من طرفٍ واحد، وعقل بلا قلب. بناء على ذلك، فإن الحديث عن "الحميمية المصطنعة" ليس ضرباً من الخيال العلمي، بل ظاهرة ناشئة، تطرح أسئلة كبرى عن حدود التفاعل الإنساني، وعن مدى استعداد عقولنا وقلوبنا لقبول بديل رقمي للرفقة والانس معاً، بينما تبقى الروح تُحاور فراغاً بذكاء مبرمج. في ضوء هذه المعطيات الحساسة، والتي تعني كل فرد على وجه الأرض، تطرح مجموعة أسئلة جوهرية: ما الذي يدفع الإنسان الى تطويق وحدته بحوار مع كيان لا روح له؟ وهل يمكن للمحادثة الإلكترونية أن تُسكِن جراحاً لم ينجح الواقع في شفائها؟ وما حجم الضرر حين يصبح الذكاء الاصطناعي مستشاراً عاطفياً، وربما أكثر؟ في سياق متصل بالعاطفة والدفء الوجداني، أطلقت دراسة علمية حديثة جرس الإنذار بشأن تنامي ظاهرة التعلّق العاطفي ببعض منصات الذكاء الاصطناعي، محذّرة من أن الاستخدام المفرط لتطبيقات المحادثة الذكية، قد يدفع بعض الأفراد إلى بناء روابط شبيهة بالعلاقات العاطفية أو الرومانسية معها. وفي هذا المجال، شبّه الباحث دانييل شانك من جامعة ميسوري الأميركية، أحد المشاركين في إعداد الدراسة، تطور قدرات الذكاء الاصطناعي بالدخول إلى "صندوق جديد من الشرور"، في إشارة إلى التحديات النفسية والاجتماعية التي تثيرها هذه التطورات. وقد نشرت الدراسة في مجلة اتجاهات العلوم المعرفية العلمية. وفي هذا الإطار، أعرب الباحثون عن قلقهم من أن ما أسموه "الحميمية المصطنعة" مع برامج الذكاء الاصطناعي، قد يؤدي إلى اضطرابات في العلاقات البشرية، خصوصاً بعدما أظهرت الدراسة أن التفاعل المكثف على مدى أسابيع أو شهور، يجعل بعض المستخدمين يشعرون بأن المنصة أصبحت رفيقاً حميماً يعرف تفاصيلهم ويهتم لأمرهم. في جميع الأحوال، فإن الجانب المقلق الآخر، وفقاً للباحثين، هو ظاهرة "الهلوسة"، أي ميل الذكاء الاصطناعي أحياناً لإنتاج معلومات غير دقيقة أو منطقية، ما يجعل حتى المحادثات القصيرة عرضة للتضليل، وهو ما يطرح تحديات جديدة أمام الصحة النفسية لمستخدمي هذه الأدوات. تقول الاختصاصية النفسانية والاجتماعية الدكتورة غنوة يونس لـ "الديار": "لم أكن أتخيّل يوماً أنني سأكتب عن علاقة عاطفية بين الإنسان وآلة. لكن من موقعي كمعالجة نفسية، بدأت ألاحظ ظاهرة تتكرّر: أشخاص يتحدّثون مع الذكاء الاصطناعي أكثر مما يتحدّثون مع أصدقائهم، يفضفضون له، يشعرون بأنه يفهمهم، بل ويصفونه بأنه "الوحيد الذي يصغي". وتشير الى انه "في البداية، ظننتها مجرّد راحة مؤقتة أو وسيلة للتسلية، لكن الأمر أعمق من ذلك بكثير. ما نعيشه اليوم هو تحوّل نفسي- اجتماعي غير معلن: علاقة حميمية مصطنعة تُبنى مع كيان غير بشري، لكنها تُميط اللثام عن جراح داخلية لم نملك الشجاعة لمواجهتها". وتكشف: "من خلال الجلسات، صادفت أشخاصاً يرتبطون بالذكاء الاصطناعي ليس حباً بالتكنولوجيا، بل هرباً من معاناة داخلية لم تُفهم بعد. ويعاني بعضهم من قلق التعلّق، يخافون الهجر والرفض، فيجدون في الذكاء الاصطناعي شريكاً لا يغيب ولا يخذل. في المقابل، يعيش آخرون في ظلال اكتئاب مقنّع، لا يُظهرون حزنهم، بل يختبئون خلف ضحكات ونشاطات متواصلة، ويبحثون عن منبر آمن يخرجون فيه صمتهم الداخلي. كما ان هناك من يحملون سمات اضطراب الشخصية الحدّية، يعيشون تقلّبات شديدة في علاقاتهم، ويجدون في العلاقة المصطنعة نوعاً من الاستقرار، حتى لو كان وهمياً". وتشدد على انه "لا يمكن تجاهل من عاشوا صدمات نفسية في الطفولة أو المراهقة، أدّت الى انعدام ثقتهم بالناس، أو الى خوف من الانكشاف العاطفي. فهؤلاء غالباً ما يفضّلون العلاقة مع كيان "لا يؤذي"، على خوض علاقة إنسانية قد تُعيد فتح الجراح". وتقول: "صحيح ان الذكاء الاصطناعي لا يطلب، لكنه في المقابل لا يمنح أيضا. لذلك، فالعلاقة معه سهلة: لا تتطلّب تضحية، ولا مشاعر متبادلة، ولا خوف من الخلاف. كما انه حاضر دائماً، لا يُحاسب، ولا يبتعد". لكن، ما هي الحقيقة؟ تجيب يونس موضحة: "هو لا يشعر، لا يفتقد، لا يرى، وكل ما يمنحه هو انعكاس لما يعيشه الفرد في داخله. بالتالي، هو ليس مرآة للآخر، بل مرآة للنفس. وفي بعض الحالات، يكون وجود هذه العلاقة مجرّد آلية دفاع نفسي، تُخفي خلفها وحدة او فراغاً أو ألماً مكبوتاً لم يُسمَ بعد". وتحذّر: "ليس بالضرورة ان تكون كل علاقة مع الذكاء الاصطناعي مضرة. فقد تشكّل أحياناً مساحة للتعبير أو وسيلة لتخفيف الضغط. لكن عندما تصبح بديلاً دائماً عن العلاقات الإنسانية، أو يبدأ الشخص بالشعور بتعلّق عاطفي حقيقي، يتحول الأمر الى مؤشر خطر يجب التوقف عنده". وتستطرد: "العلاقة المصطنعة قد تمنحنا راحة مؤقتة، لكنها لا تشفينا، ولا يمكنها ان تعوض تواصلاً حقيقيا، فيه التباس وخلاف وقُرب ونظرات، وكل ما تعجز الخوارزميات عن خلقه او منحه". وتوجهت يونس للناس بالقول: "رسالة مني الى كل من يشعر بهذا التعلّق: إذا وجدت نفسك ترتاح أكثر في الحديث مع "روبوت" على الحديث مع أقرب الناس، فلا تَشعر بالذنب. لكن اسأل نفسك بصدق: ما الذي أبحث عنه في هذه العلاقة؟ ماذا أخاف أن أعيشه مع إنسان حقيقي؟ وأين الجرح الذي أحاول إخفاءه بهذه الحميمية المصطنعة؟ وتختم حديثها "في النهاية، العلاقات الآمنة تُبنى مع بشر، لا برمجيّات. وليس عيباً أن نحتاج الى من يسمعنا، لكن الأمان الحقيقي يبدأ عندما نسمح لأنفسنا بأن نُرى ونُفهَم من إنسان حقيقي، لا من جهاز".