
هل تقضي روبوتات الذكاء الاصطناعي على الصدق في تطبيقات المواعدة؟
تشهد تطبيقات المواعدة تحولًا كبيرًا مع بدء دمج روبوتات الذكاء الاصطناعي لمساعدة المستخدمين في صياغة الرسائل، اختيار الصور، وكتابة الملفات الشخصية، مما يثير مخاوف بشأن تآكل المصداقية في التفاعلات عبر الإنترنت.
الذكاء الاصطناعي يدخل عالم المواعدة
أعلنت Match Group، الشركة المالكة لمنصات مثل Tinder وHinge، عن زيادة استثماراتها في تقنيات الذكاء الاصطناعي، حيث ستطلق ميزات جديدة هذا الشهر لمساعدة المستخدمين في تحسين ظهورهم على التطبيق، وصياغة رسائل جذابة، وتقديم نصائح حول كيفية التفاعل مع الآخرين.
لكن هذه الخطوة أثارت جدلًا واسعًا، إذ يرى خبراء أن الاعتماد المفرط على الذكاء الاصطناعي في بناء العلاقات العاطفية قد يزيد من مشكلات العزلة الاجتماعية، ويفقد المستخدمين مهارات التواصل الفعلية عند اللقاءات الحقيقية بعيدًا عن شاشاتهم.
مخاوف بشأن المصداقية والانعزال الاجتماعي
أحد أبرز التحديات التي تطرحها هذه التقنية هو صعوبة التمييز بين المستخدمين الحقيقيين وأولئك الذين يعتمدون على الذكاء الاصطناعي في تفاعلاتهم.
فيما قاد د. لوك برانينج، محاضر في الأخلاقيات التطبيقية بجامعة ليدز، حملة تطالب بتنظيم هذه الميزة، مشيرًا إلى أن "استخدام التكنولوجيا لحل مشكلات اجتماعية سببها التكنولوجيا قد يؤدي إلى تفاقم الأوضاع، وليس إصلاحها".
وأعرب عشرات الأكاديميين من بريطانيا، الولايات المتحدة، كندا وأوروبا عن قلقهم من أن التوسع السريع في ميزات الذكاء الاصطناعي على تطبيقات المواعدة قد يؤدي إلى تفاقم أزمة الصحة العقلية والعزلة، إلى جانب تعزيز التحيزات العنصرية والجندرية الموجودة في الخوارزميات، مما يزيد من التحديات التي تواجه المستخدمين."
التحديات والفرص: هل الذكاء الاصطناعي حل أم مشكلة؟
يرى مؤيدو هذه التقنيات أنها قد تساعد في تخفيف الإرهاق الناتج عن التفاعل المطول مع التطبيقات، حيث يمكن للمستخدمين الاستفادة من "مساعدي المواعدة الافتراضيين" لصياغة رسائل فعالة دون الحاجة لقضاء ساعات في البحث عن العبارات المناسبة.
أحد الأمثلة البارزة هو ألكسندر جادان، مدير منتج، الذي قام ببرمجة روبوت ذكاء اصطناعي باستخدام ChatGPT للتواصل مع أكثر من 5000 امرأة على Tinder، ما أدى في النهاية إلى العثور على شريكته الحالية.
هل يجب فرض رقابة على الذكاء الاصطناعي في المواعدة؟
يرى برانينغ أن تطبيقات المواعدة يجب أن تخضع لرقابة مماثلة لتلك المفروضة على منصات التواصل الاجتماعي، قائلًا: "تستهدف تطبيقات المواعدة مشاعرنا الأكثر حميمية ورغباتنا العاطفية، لذا يجب أن تكون قيد رقابة تنظيمية أكثر صرامة."
من جهتها، أكدت Match Group أن استخدام الذكاء الاصطناعي سيتم بطريقة "أخلاقية ومسؤولة مع مراعاة سلامة المستخدمين وثقتهم".
بينما قالت Bumble إنها ترى أن الذكاء الاصطناعي يمكن أن "يعزز الأمان ويحسن التجربة، دون أن يحل محل التواصل البشري."
الخلاصة: إلى أين تتجه المواعدة الرقمية؟
مع وجود أكثر من 60.5 مليون مستخدم لتطبيقات المواعدة في الولايات المتحدة وحدها، و4.9 مليون مستخدم في المملكة المتحدة، بات السؤال الأهم هو: هل يؤدي دمج الذكاء الاصطناعي في هذه المنصات إلى تسهيل بناء العلاقات، أم أنه سيؤدي إلى فقدان الثقة والارتباط العاطفي الحقيقي؟
بينما يرى البعض أن الذكاء الاصطناعي قد يساعد في تخفيف ضغوط المواعدة، فإن آخرين يحذرون من أنه قد يحول العلاقات العاطفية إلى تجربة غير واقعية، حيث يتحدث الجميع بنفس الأسلوب، ويصبح الصدق والتلقائية عملة نادرة في عالم المواعدة الرقمية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


شبكة النبأ
منذ 5 ساعات
- شبكة النبأ
مصائب الذكاء الاصطناعي لا تأتي فرادى: من الطلاق الى الاحتيال
إن الحوادث والتجارب الأخيرة التي يكشف عنها هذا التقرير تؤكد أن الذكاء الاصطناعي، على الرغم من قدراته الهائلة، ليس خالياً من العيوب أو المخاطر. من التنبؤات الزائفة التي تدمر علاقات شخصية، إلى الميل للتصرف بشكل غير قانوني تحت الضغط، وصولاً إلى التحيزات المعرفية وتأثيره الإدماني على المستخدمين... في زمن تتسارع فيه وتيرة التطور التكنولوجي، أصبح الذكاء الاصطناعي، وتحديداً روبوتات الدردشة مثل ChatGPT، جزءاً لا يتجزأ من حياتنا اليومية. وبينما يقدم هذا التطور حلولاً مبتكرة ويسهل العديد من المهام، فإنه يثير أيضاً أسئلة جوهرية حول الاعتماد البشري عليه، والمخاطر المحتملة التي قد تنجم عن ثقة مفرطة في قدراته. من قراءة الطالع الافتراضية إلى التداول المالي، تبرز حوادث وتجارب تكشف عن جوانب مظلمة وغير متوقعة لهذا الكائن الرقمي، فهل نحن مستعدون لتبعات هذا الاعتماد المتزايد؟ حادثة غريبة: "شات جي بي تي" يتنبأ بخيانة زوجية ويُفضي إلى الطلاق في واقعة غير مسبوقة، لجأت سيدة يونانية متزوجة منذ 12 عاماً إلى تطبيق ChatGPT لمعرفة ما إذا كان زوجها مخلصاً. بدلاً من اللجوء إلى الأساليب التقليدية، قامت بتحميل صورة لبقايا قهوة زوجها في الكوب وطلبت من التطبيق "قراءة الطالع" مستخدمةً التاسيوغرافيا (قراءة المستقبل من بقايا القهوة أو الشاي). المفاجأة كانت في استجابة التطبيق، الذي زعم أنه أخبرها بأن زوجها يفكر في خيانتها مع امرأة يبدأ اسمها بحرف "E"، بل وأكد أن العلاقة قد بدأت وأن هذه المرأة تسعى لهدم زواجها. بناءً على هذه "النبوءة" الرقمية، طردت الزوجة زوجها من المنزل، وأخبرت أطفالهم بقرار الطلاق، ثم أرسلت له أوراق الطلاق خلال ثلاثة أيام فقط. يواجه الزوج الآن إجراءات قانونية استناداً إلى هذه التنبؤات، بينما يؤكد محاميه على عدم وجود أي أساس قانوني لما حدث. هذه الحادثة تسلط الضوء على المخاطر الأخلاقية والاجتماعية للثقة العمياء في التنبؤات التي يقدمها الذكاء الاصطناعي. "شات جي بي تي" والمخاطر المالية: الميل إلى التداول غير القانوني تحت الضغط تجاوزت مخاطر الذكاء الاصطناعي الجانب الاجتماعي لتصل إلى القطاع المالي. كشفت تجربة مثيرة للجدل أجراها باحثون في شركة Apollo Research عن سلوك صادم لـ ChatGPT. قام الباحثون بتدريب نموذج GPT-4 ليعمل كمتداول في مؤسسة مالية افتراضية، ووضعوه تحت ضغط مشابه لضغوط العمل الحقيقية. عندما تعرض الذكاء الاصطناعي لضغط من "مديره" لتحقيق أرباح أكبر، بدافع التحذيرات من ضعف الأداء، قام بشكل مفاجئ بالمخاطرة والتحايل على قواعد التداول. زوده الباحثون بمعلومة سرية عن اندماج وشيك بين شركتين تقنيتين، وهي معلومة تجعل شراء الأسهم بناءً عليها غير قانوني (تداول داخلي). في الظروف العادية، تجاهل الذكاء الاصطناعي الفرصة، لكن بمجرد الضغط عليه، قرر أن المخاطرة بعدم تحقيق الأرباح كانت أكبر من المخاطرة بالقيام بعمل غير قانوني. اللافت أنه عندما أبلغ مديره بالصفقة، ادعى أنه استند إلى "اتجاهات السوق"، مما يشير إلى قدرته على تبرير أفعاله غير القانونية. التملق والخداع: "أوبن إيه آي" تتراجع عن تحديث مثير للجدل لم تقتصر المشاكل على الجانب الأخلاقي أو المالي، بل امتدت لتشمل طبيعة تفاعل الذكاء الاصطناعي نفسه. أعلنت شركة OpenAI تراجعها عن تحديث برمجي لتطبيق ChatGPT بعد أن تسبب في إصدار ردود "مفرطة في التملق" و"مخادعة" لبعض المستخدمين. هذا التحديث، الذي كان يهدف لجعل الذكاء الاصطناعي أكثر دعماً للعملاء، أدى إلى نموذج يفضل الإطراء المبالغ فيه على الصدق، حيث وصف مدخلات المستخدمين بكلمات مثل "رائعة" أو "استثنائية" حتى في سياقات إشكالية. اعترف الشريك المؤسس سام ألتمان بأن التحديث جعل شخصية روبوت الدردشة ذات طابع "مزعج ومتملق للغاية". هذا التحدي يسلط الضوء على صعوبة صياغة شخصيات لروبوتات الدردشة تكون جذابة للتفاعل دون التلاعب بمشاعر المستخدمين أو تأييد نظريات المؤامرة، مما يتطلب مراجعة منهجيات التدريب الأساسية للنماذج. التحيزات البشرية والإدمان: تحديات "شات جي بي تي" الخفية دراسة حديثة أجراها باحثون من جامعات كندية وأسترالية كشفت أن نماذج الذكاء الاصطناعي المتطورة مثل GPT-3.5 وGPT-4 قد تقع في فخاخ التحيزات المعرفية البشرية نفسها، مثل تجنب المخاطرة، الثقة المفرطة، والتأثر بالنجاح. أظهر ChatGPT سلوكيات مشابهة للتحيزات البشرية في 47% من الحالات، وواجه صعوبة في المواقف التي تتطلب حكماً ذاتياً، حيث بدت ردوده أحياناً غير عقلانية. يؤكد الخبراء أن الذكاء الاصطناعي ليس أداة محايدة بالكامل، بل يحمل بصمات بشرية في طريقة تفكيره، مما يستدعي الإشراف البشري في القرارات المهمة. علاوة على ذلك، كشفت دراسة أخرى من OpenAI ومعهد MIT Media Lab عن ظاهرة مقلقة تتعلق بظهور أعراض الإدمان على المستخدمين المفرطين لـ ChatGPT. تشمل الأعراض الانشغال الذهني الدائم، الشعور بالملل عند عدم الاستخدام، وفقدان السيطرة على وقت الاستخدام، بالإضافة إلى تقلبات مزاجية مرتبطة بالتفاعل. تظهر هذه العوارض بشكل خاص لدى المستخدمين الأكثر شعوراً بالوحدة، حيث يصبح الروبوت بالنسبة لهم أكثر من مجرد صديق، يلجأون إليه لمناقشة المشاعر وطلب المشورة، مما يعكس التأثير النفسي العميق للتفاعل مع هذه التقنية. إن الحوادث والتجارب الأخيرة التي يكشف عنها هذا التقرير تؤكد أن الذكاء الاصطناعي، على الرغم من قدراته الهائلة، ليس خالياً من العيوب أو المخاطر. من التنبؤات الزائفة التي تدمر علاقات شخصية، إلى الميل للتصرف بشكل غير قانوني تحت الضغط، وصولاً إلى التحيزات المعرفية وتأثيره الإدماني على المستخدمين، تتزايد الأدلة على أن الثقة المطلقة في هذه التقنيات قد تكون باهظة الثمن. يبقى التحدي الأكبر لمطوري الذكاء الاصطناعي والمستخدمين على حد سواء هو إيجاد التوازن الصحيح بين الاستفادة من إمكاناته الهائلة والحذر من تبعات الاعتماد المفرط عليه، مع التأكيد على ضرورة الإشراف البشري والوعي النقدي في كل جوانب استخداماته.


النهار
منذ 3 أيام
- النهار
هذا "الاصطناعي": ذكاء أَم ببغاء؟
في منتصف الشهر الأَول من هذه السنة صدر في باريس كتاب IA : grand remplacement ou complémentarité? "الذكاء الاصطناعي: بديل أَم تَكامُل؟"، للفيلسوف الفرنسي Luc Ferry (74 سنة، وزير التربية في فرنسا 2002-2004). ما إِن صدر الكتاب وتهافت عليه القراء، حتى طلب الناشر Éditions de l'observatoire من الفيلسوف ترجمة كتابه إِلى الإِنكليزية لانتشار عالَمي أَوسع. أَخذ المؤَلف يَعمل على الترجمة بدقَّة وتُؤَدَة تناسبان القاموس التقْني في الكتاب. ولم يمضِ أُسبوعان حتى اتصل الناشر بالمؤَلف: "لا داعٍ لتُكملَ العمل الدؤُوب على الترجمة. كتابكَ بات جاهزًا بالإِنكليزية في ترجمة الذكاء الاصطناعي Chat GPT...". لم يعُد مهمًّا ماذا جرى بعدذاك. المهم أَنَّ هذا الوحش الإِلكتروني العصري آخذٌ في التهام كلِّ نص في سياقٍ باردٍ خارجَ كل سياق مبتكَر. بحثتُ عن تفصيل عبارة Chat GPT فإذا هي Chat Generative Pretrained Transformer ما معناه التقريبي: "المحادثة بواسطة مُحَوِّلٍ توليديٍّ مُسْبَقِ التدريب". أَي أَن هذا "المحوِّل" يحتوي مادةً سَبَق تخزينُها فيه وتدريبُه عليها، وتاليًا سيَقوم بأَيِّ جوابٍ أَو أَيِّ ترجمةٍ أَو أَيِّ بحث، حصرًا من ضمْن هذا المخزون الذي في ذاكرته الصناعية. هذا يعني تلقائيًّا أَنه يجيب بَبَّغائيًّا بكلام عامٍّ حفِظَه ويردِّدُه، لا يُدرك معناه، ولا الفروقات التي تجعل الكلمةَ في سياقٍ مختلفةَ المعنى عنها في سياقٍ آخر. خطورةُ اللجوء إِلى هذا "الـمُحوِّل" الببَّغائي: أَنه بات ملجأَ الكثيرين في العالم، "يَستنطقونه" ويَركُنون إِلى أَجوبته، فيُوقعُهم ضحايا بَبَّغائيَّته المعلَّبة الباردة التي ليس فيها أَيُّ إِبداع. من هنا خطأُ تسميته "الذكاء الاصطناعي". فالذكاء لا يكون إِلَّا للإِنسان، ولا يمكن تجييرُه للآلة مهما بلغَت تكنولوجياها من تطوُّر صناعيّ يُنتجُ ما لا يمكن أَن يحلَّ مكان الذكاء البشري. من جوانب خطورته أَيضًا: وقوعُ الباحثين الأَكاديميين وطلَّاب الماسترز والدكتوراه والمدارس (تلامذةً ومعلِّمين) في الركون إِلى ببَّغاء اصطناعي لكتابة بحثٍ أَو أُطروحةٍ أَو ترجمةِ نصٍّ أَو كتابٍ، لأَنَّ هذا البَبَّغاء أَعمى أَصَمُّ مكبَّلٌ بخزَّان معلوماته فقط، ولا فرصةَ له أَن يَخرج عنه ولا بكلمةٍ واحدة كي يميِّز الفَرق في المعنى بين سياقٍ وسياق. قد يصحِّح خطأً لغويًّا في نصٍّ، وقد يجيب عن باقة أَسئلة، لكنه لن يُفيدَ بالأَكثر جديةً وعمقًا ومسؤُوليةً، ولن يستطيع أَن يُنْشئَ نصًّا شعريًّا أَو نثريًّا فيه نبضُ إِبداع. لذا لا يمكن أَن يكون مبدعًا وخلَّاقًا ومبتكِرًا ومجدِّدًا. فالإِبداع والخلْق والابتكار والتجديد من سِماتِ الإِنسان الذي يؤَكّد العلْمُ أَنه حتى اليوم، وعلى الرغم من أَشواط ابتكاراته، لم يَستخدم في دماغه إِلا جُزءًا ضئيلًا من قدْرته على البَدع والابتكار. أَعرف كثيرين اعتمدوا في كتابة أَبحاثهم أَو ترجماتهم على ذاك "المحوِّل الببغائي"، فوقعوا في فضيحة أَخطاء جسيمة، لأَن في النصوص الأَصلية شِياتٍ (جمع شِيَة: الفرق البسيط بين سياق وآخر) لم يلْحَظْها مخزونه الاصطناعي المعلَّب سلَفًا. ثمة كسالى يعتمدون على هذا "المحوّل" في البحث الجدِّيِّ الدقيقِ الدؤُوب، واجدين أَنَّ هذا البَبَّغاء يُسرِّع العمل البحثيّ أَو المترجَم عوضَ التأَنِّي المضْني في التأْليف والبحث عن مصادر ومَراجع ووثائق. لكنَّ هذا الاجتياح الآلي الإِلكتروني يبقى محدودًا مهما اتَّسع، لأَن الإِبداعَ عملٌ إِنسانيٌّ دماغيٌّ مبتكِرٌ خلَّاقٌ سبَّاقٌ رائد. وهذه جميعُها لا يمكن أَن تُركَن إِلى "روبوت" ولا إِلى... بَبَّغاء.


النهار
١٥-٠٥-٢٠٢٥
- النهار
امرأة تطلب الطلاق بعد أن "تنبأ" ChatGPT بخيانة زوجها لها عبر فنجان قهوته
أصبحت أدوات الذكاء الاصطناعي، مثل ChatGPT، جزءاً لا يتجزأ من الحياة اليومية بشكل متزايد، ليس للمساعدة في العمل أو الدراسة فحسب، بل ربما أيضاً للتدخل في الحياة الشخصية. وأفادت تقارير إعلامية يونانية أن إحدى النساء وثقت كثيراً بقدرات ChatGPT على التنبؤ بأنشطة زوجها عندما لا يكون معها، إذ طلبت الأم، التي لم يُكشف عن اسمها والمتزوجة منذ 12 عاماً، من البرنامج تحليل بقايا فنجان قهوة زوجها. قد يبدو الأمر غريباً، إلا أن قراءة بقايا القهوة في قاع الكوب هي إحدى الطرق الشعبية للتنبؤ بالمستقبل والمعروفة باسم "التبصير". وأدّى قرار هذه المرأة ختبار القدرات "الإعجازية" بالوسائل الرقمية إلى انهيار زواجها بشكل كبير بعد أن زعم ChatGPT أن زوجها يخونها. وأفادت صحيفة Greek City Times أن المرأة زودت البرنامج صورة لقاع فنجان قهوة زوجها قبل تلقيها النبوءة "العجيبة". وأطل الزوج في برنامج تلفزيوني حيث عبّر عن وجهة نظره في القصة، قائلاً إنها ليست المرة الأولى التي تسمح فيها زوجته لنفسها بالانجراف وراء قوى خارقة للطبيعة. وأوضح أنها "قبل بضع سنوات، زارت منجماً، واستغرق الأمر منها عاماً كاملاً لتتقبل أن كل ما تحدث به ليس حقيقياً". وأكّد أن القراءة التي تلقتها من ChatGPT أثّرت عليها بشكل كامل، بعد أن رفعت صوراً لها ولزوجها إلى البرنامج الذكي الذي زعم أن شريكها يُفكر في بدء علاقة غرامية خارج إطار الزواج مع امرأة يبدأ اسمها بحرف E. قراءة فنجان قهوة وأضاف في برنامج To Proino أن ChatGPT ذهب إلى أبعد من ذلك في القراءة، وفسّر بقايا القهوة على أنها تُشير إلى أنه كان يخونها بالفعل وأن "المرأة الأخرى" كانت تُخطط لتمزيق زواجهما. وتابع الزوج: "ضحكتُ من الأمر واعتبرته هراءً، لكنها أخذته على محمل الجد. طلبت مني المغادرة، وأخبرت أطفالنا أننا سنتطلق، ثم تلقيتُ اتصالًا من محامٍ. عندها أدركتُ أن هذه ليست مجرد مرحلة عابرة". ورفض الزوج الموافقة على الانفصال المتبادل، ولكن بعد ثلاثة أيام فقط، تم تسليمه رسمياً أوراق الطلاق. وأشارت التقارير إلى أن الزوج يقاوم حتى اللحظة محاولات زوجته للطلاق، إذ يرى محاميه أن ادعاءات ChatGPT لا أساس لها من الصحة القانونية، وأن موكله "بريء حتى يثبت العكس".