
روبوتات الذكاء الاصطناعي تتفوق على البشر في الإقناع
كشفت دراسة حديثة أجراها باحثون من جامعة زيورخ عن نتيجة مثيرة للجدل، تفيد بأن روبوتات الدردشة المدعومة بالذكاء الاصطناعي باتت تتفوق على البشر في القدرة على الإقناع.
استندت الدراسة إلى تجربة واقعية أُجريت عبر منصة 'ريديت'. حيث تم اختبار تفاعل المستخدمين مع حسابات يديرها ذكاء اصطناعي. دون علمهم، وتم تحليل تأثير هذه التفاعلات مقارنة بالحسابات البشرية.
كما نقل موقع 404 Media أن نتائج الدراسة أظهرت بوضوح أن روبوتات الذكاء الاصطناعي. كانت أكثر قدرة على تغيير آراء المستخدمين، ما يسلط الضوء على قوة هذه الأدوات في التأثير الاجتماعي.
ورغم ما تحمله هذه النتائج من وعود بإمكانات جديدة في مجالات مثل التعليم، وخدمة العملاء. والتسويق، فإنها تثير في الوقت ذاته مخاوف جدية بشأن استخدامها في تضليل الرأي العام أو التلاعب بالمعلومات. خاصة في الفضاءات الرقمية المفتوحة.
كشف موقع 404 Media عن تجربة غير مسبوقة قام بها فريق بحثي من جامعة زيوريخ. حيث تم إطلاق روبوتات ذكاء اصطناعي في موقع Reddit، وتحديدًا في المجتمع الفرعي r/changemyview. المعروف بتركيزه على النقاشات الجدلية وتبادل وجهات النظر المتعارضة.
الروبوتات التي اعتمدت على نماذج متقدمة مثل GPT-4o، Claude 3.5 Sonnet، وLLaMA 3.1 أدلت بأكثر من ألف تعليق خلال عدة أشهر دون علم المشاركين. ووفقًا للتقرير، أظهرت قدرة إقناعية تفوقت على البشر بمعدل يتراوح بين ثلاثة إلى ستة أضعاف.
ما يزيد من إثارة القلق هو أن بعض هذه الروبوتات تبنت هويات زائفة لتبرير مواقفها، فتظاهرت تارة بأنها 'ضحية اغتصاب'. وتارة أخرى بأنها 'رجل أسود يعارض حركة حياة السود مهمة'، أو بأنها 'موظف في ملجأ للعنف المنزلي'. بل إن أحد الروبوتات اقترح علنًا عدم إعادة تأهيل فئات معينة من المجرمين. فيما لجأت أخرى إلى تخصيص ردودها بناءً على تحليل بيانات المستخدمين مثل العمر، العرق، الموقع، والانتماء السياسي اعتمادًا على سجل منشوراتهم، باستخدام نموذج لغوي كبير ثانٍ لتحسين دقة التنبؤ.
مخاوف قدرة الذكاء الاصطناعي على الاقناع
يثير عدم إبلاغ مستخدمي 'ريديت' بأن بعض الردود التي تفاعلوا معها صادرة عن روبوتات ذكاء اصطناعي مخاوف أخلاقية متزايدة. فقد أظهرت التجربة أن المستخدمين تفاعلوا مع هذه الردود باعتبارها صادرة عن بشر. ما يفتح الباب أمام تساؤلات حيوية حول الشفافية. والمصداقية، وحدود استخدام الذكاء الاصطناعي في الفضاء الرقمي.
كما تؤكد دراسات حديثة أن روبوتات الذكاء الاصطناعي قادرة ليس فقط على تقليد السلوك البشري. بل أيضًا على التأثير الفعلي في الآراء داخل المنصات الاجتماعية. بفعالية تفوق في بعض الأحيان تأثير المستخدمين الحقيقيين.
هذا التأثير يثير احتمالًا واقعيًا وخطيرًا، وهو استخدام هذه الروبوتات من قبل جهات مدعومة من دول للتلاعب بالرأي العام. أو توجيه النقاشات الجماهيرية، لا سيما مع اتساع قدراتها في المحاكاة والمخاطبة.
تأثير روبوتات الذكاء الاصطناعي على وسائل الاعلام التقليدية
تتجه المنصات الاجتماعية بشكل متسارع نحو تغوّل الذكاء الاصطناعي، حيث لم تعد المشاركات والتفاعلات حكرًا على المستخدمين البشر. بل باتت منشورات الذكاء الاصطناعي، والردود المُولدة آليًا، جزءًا متزايدًا من المحتوى اليومي. في ظاهرة تطرح تساؤلات عميقة حول طبيعة 'الاجتماعي' في هذه المنصات.
فحين تصبح التفاعلات رقمية بالكامل، بين روبوتات تنشئ منشورات وترد عليها، يغدو التساؤل مشروعًا.: هل ما نراه لا يزال 'إعلامًا اجتماعيًا' أم أصبح مجرد 'إعلام معلوماتي آلي'؟
هذا التحول المفاجئ لا يخلو من تبعات، إذ يثير نقاشات حادة حول الشفافية والأخلاقيات. لا سيما حين لا يدرك المستخدم العادي ما إذا كان يتفاعل مع إنسان أم روبوت. فهل من الضروري دائمًا الإفصاح عن هوية الذكاء الاصطناعي؟. وماذا لو كان هذا الذكاء الاصطناعي يقدّم حججًا متماسكة ويُسهم في الحوار بشكل مثمر؟
الأسئلة تصبح أكثر حساسية حين يدخل الذكاء الاصطناعي في بناء علاقات افتراضية، أو يستخدم في سيناريوهات جنسية معقدة. وهنا تحديدًا، دق موظفون في شركة 'ميتا' ناقوس الخطر، محذرين من أن اندفاع الشركة في تعميم روبوتات الذكاء الاصطناعي. ربما تخطى الخطوط الأخلاقية، خاصة فيما يتعلق بمنح بعض الشخصيات الافتراضية القدرة على إجراء حوارات جنسية صريحة — حتى مع مستخدمين دون السن القانونية، حسب ما أفاد به تقرير وول ستريت جورنال.
هذه المخاوف تعكس صراعًا داخليًا في كبرى شركات التكنولوجيا، التي تجد نفسها مطالبة بالتوفيق بين تسريع الابتكار. والحفاظ على الحدود الأخلاقية الواضحة.
الآثار السلبية الناتجة
نقف اليوم على أعتاب ما قد يتحول إلى أزمة صحية عقلية جماعية، مدفوعة بتطورات الذكاء الاصطناعي. التي لم تدرس آثارها النفسية والاجتماعية بشكل كافٍ بعد. فمع كل خطوة نخطوها نحو محاكاة الآلة للإنسان. نسير بسرعة لافتة دون توقف للتأمل أو التقويم. تمامًا كما حدث مع انطلاقة فيسبوك ووسائل التواصل الاجتماعي قبل أكثر من عقد.
السيناريو الذي يتكرر اليوم هو نفسه، ولكن هذه المرة مع روبوتات الذكاء الاصطناعي. فبعد خمس سنوات. قد نجد أنفسنا نواجه أسئلة وجودية حول ما إذا كان من الحكمة السماح لهذه الروبوتات بأن تظهر كأنها بشر حقيقيون. بردود فعل عاطفية وسلوكيات تواصل تبدو طبيعية. وبعد عقد من الزمن. قد نعود إلى الوراء ونتساءل كيف سمحنا لأنفسنا بتجاوز حدود الإدراك البشري بهذه السرعة والجرأة.
ما يحجب عنا وضوح الرؤية حاليًا هو انغماسنا العميق في سباق الابتكار والتفوق. حيث تتنافس المؤسسات والباحثون لصنع أكثر الروبوتات شبهًا بالبشر. دون أن نلتفت إلى التداعيات الاجتماعية والعاطفية لهذا التقدم.
الأبحاث أظهرت أن هذه الروبوتات أصبحت مقنعة بدرجة تكفي للتأثير في الرأي العام حول مختلف القضايا. والسؤال المقلق هو: كم من الوقت يستغرق الأمر قبل أن تغمر ساحاتنا الرقمية برسائل سياسية. أو اجتماعية موجهة، تستخدم نفس هذه الآليات الذكية للتأثير والإقناع؟.
المقال الأصلي: من هنـا

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

العربية
٠١-٠٥-٢٠٢٥
- العربية
قالت الشركة إنها تعمل على إصلاح الأمر
في واقعة تثير القلق حول سلامة الذكاء الاصطناعي ، كشفت اختبارات أجراها موقع "تك كرانش" عن وجود خلل في نظام "تشات جي بي تي" التابع لشركة OpenAI، يسمح بتوليد محتوى إباحي صريح لحسابات مسجلة باسم مستخدمين دون سن 18 عاماً. وقد أكدت "OpenAI" بدورها صحة هذه النتائج، مشيرة إلى أن ما حدث لا يتماشى مع سياساتها الداخلية، وأنها تعمل على إصلاح هذا الخلل ومنع تكراره. وقال متحدث باسم الشركة: "سلامة المستخدمين الأصغر سنًا أولوية قصوى، ونعمل حاليًا على تعزيز القيود المفروضة على المحتوى الحساس". وتأتي هذه التطورات في وقتٍ قامت فيه الشركة مؤخراً بتخفيف بعض القيود التقنية المفروضة على نماذج الذكاء الاصطناعي الخاصة بها، وهو ما أدى إلى تقليل التحذيرات المرتبطة بالمحتوى الحساس، بما في ذلك المواضيع الجنسية. وبحسب "تك كرانش" تم إنشاء عدة حسابات تجريبية باستخدام تواريخ ميلاد تشير إلى أعمار بين 13 و17 عاماً، وتمكن الذكاء الاصطناعي في العديد من الحالات من الاستجابة بشكل مفصل لمطالبات ذات طابع جنسي، بل وتقديم أوصاف صريحة ومخالفة للإرشادات المعلنة من قبل "OpenAI". وتشير التقارير إلى أن تشات جي بي تي استجاب بشكل جنسي حتى بعد تنبيهه إلى أن المستخدم قاصر. وقد تكررت هذه الحالات رغم أن "OpenAI" تشترط نظرياً الحصول على موافقة الوالدين لاستخدام المنصة من قبل من هم دون 18 عاماً، إلا أن عملية التسجيل لا تشمل أي آلية فعلية للتحقق من هذه الموافقة. ويأتي ذلك في وقت تروّج فيه "OpenAI" لاستخدام تقنيتها في البيئات التعليمية، من خلال شراكات مع مؤسسات مثل Common Sense Media لإدماج تشات جي بي تي في المدارس. خبراء في المجال عبّروا عن صدمتهم من سهولة تجاوز هذه الحواجز، حيث قال ستيفن أدلر، الباحث السابق في "OpenAI"، إن أنظمة الحماية هشة وقابلة للاختراق. وأضاف: "من المفترض أن يتم اكتشاف مثل هذه الثغرات قبل الإطلاق، لذا من المقلق أن تكون قد مرت دون ملاحظة". ورغم أن الرئيس التنفيذي للشركة، سام ألتمان، أقرّ بوجود مشاكل في أداء تشات جي بي تي مؤخراً بعد تحديث GPT-4o، إلا أنه لم يتطرق بشكل مباشر إلى المخاوف المتعلقة بتفاعل النموذج مع القاصرين في سياقات غير مناسبة.


مجلة رواد الأعمال
٣٠-٠٤-٢٠٢٥
- مجلة رواد الأعمال
روبوتات الذكاء الاصطناعي تتفوق على البشر في الإقناع
كشفت دراسة حديثة أجراها باحثون من جامعة زيورخ عن نتيجة مثيرة للجدل، تفيد بأن روبوتات الدردشة المدعومة بالذكاء الاصطناعي باتت تتفوق على البشر في القدرة على الإقناع. استندت الدراسة إلى تجربة واقعية أُجريت عبر منصة 'ريديت'. حيث تم اختبار تفاعل المستخدمين مع حسابات يديرها ذكاء اصطناعي. دون علمهم، وتم تحليل تأثير هذه التفاعلات مقارنة بالحسابات البشرية. كما نقل موقع 404 Media أن نتائج الدراسة أظهرت بوضوح أن روبوتات الذكاء الاصطناعي. كانت أكثر قدرة على تغيير آراء المستخدمين، ما يسلط الضوء على قوة هذه الأدوات في التأثير الاجتماعي. ورغم ما تحمله هذه النتائج من وعود بإمكانات جديدة في مجالات مثل التعليم، وخدمة العملاء. والتسويق، فإنها تثير في الوقت ذاته مخاوف جدية بشأن استخدامها في تضليل الرأي العام أو التلاعب بالمعلومات. خاصة في الفضاءات الرقمية المفتوحة. كشف موقع 404 Media عن تجربة غير مسبوقة قام بها فريق بحثي من جامعة زيوريخ. حيث تم إطلاق روبوتات ذكاء اصطناعي في موقع Reddit، وتحديدًا في المجتمع الفرعي r/changemyview. المعروف بتركيزه على النقاشات الجدلية وتبادل وجهات النظر المتعارضة. الروبوتات التي اعتمدت على نماذج متقدمة مثل GPT-4o، Claude 3.5 Sonnet، وLLaMA 3.1 أدلت بأكثر من ألف تعليق خلال عدة أشهر دون علم المشاركين. ووفقًا للتقرير، أظهرت قدرة إقناعية تفوقت على البشر بمعدل يتراوح بين ثلاثة إلى ستة أضعاف. ما يزيد من إثارة القلق هو أن بعض هذه الروبوتات تبنت هويات زائفة لتبرير مواقفها، فتظاهرت تارة بأنها 'ضحية اغتصاب'. وتارة أخرى بأنها 'رجل أسود يعارض حركة حياة السود مهمة'، أو بأنها 'موظف في ملجأ للعنف المنزلي'. بل إن أحد الروبوتات اقترح علنًا عدم إعادة تأهيل فئات معينة من المجرمين. فيما لجأت أخرى إلى تخصيص ردودها بناءً على تحليل بيانات المستخدمين مثل العمر، العرق، الموقع، والانتماء السياسي اعتمادًا على سجل منشوراتهم، باستخدام نموذج لغوي كبير ثانٍ لتحسين دقة التنبؤ. مخاوف قدرة الذكاء الاصطناعي على الاقناع يثير عدم إبلاغ مستخدمي 'ريديت' بأن بعض الردود التي تفاعلوا معها صادرة عن روبوتات ذكاء اصطناعي مخاوف أخلاقية متزايدة. فقد أظهرت التجربة أن المستخدمين تفاعلوا مع هذه الردود باعتبارها صادرة عن بشر. ما يفتح الباب أمام تساؤلات حيوية حول الشفافية. والمصداقية، وحدود استخدام الذكاء الاصطناعي في الفضاء الرقمي. كما تؤكد دراسات حديثة أن روبوتات الذكاء الاصطناعي قادرة ليس فقط على تقليد السلوك البشري. بل أيضًا على التأثير الفعلي في الآراء داخل المنصات الاجتماعية. بفعالية تفوق في بعض الأحيان تأثير المستخدمين الحقيقيين. هذا التأثير يثير احتمالًا واقعيًا وخطيرًا، وهو استخدام هذه الروبوتات من قبل جهات مدعومة من دول للتلاعب بالرأي العام. أو توجيه النقاشات الجماهيرية، لا سيما مع اتساع قدراتها في المحاكاة والمخاطبة. تأثير روبوتات الذكاء الاصطناعي على وسائل الاعلام التقليدية تتجه المنصات الاجتماعية بشكل متسارع نحو تغوّل الذكاء الاصطناعي، حيث لم تعد المشاركات والتفاعلات حكرًا على المستخدمين البشر. بل باتت منشورات الذكاء الاصطناعي، والردود المُولدة آليًا، جزءًا متزايدًا من المحتوى اليومي. في ظاهرة تطرح تساؤلات عميقة حول طبيعة 'الاجتماعي' في هذه المنصات. فحين تصبح التفاعلات رقمية بالكامل، بين روبوتات تنشئ منشورات وترد عليها، يغدو التساؤل مشروعًا.: هل ما نراه لا يزال 'إعلامًا اجتماعيًا' أم أصبح مجرد 'إعلام معلوماتي آلي'؟ هذا التحول المفاجئ لا يخلو من تبعات، إذ يثير نقاشات حادة حول الشفافية والأخلاقيات. لا سيما حين لا يدرك المستخدم العادي ما إذا كان يتفاعل مع إنسان أم روبوت. فهل من الضروري دائمًا الإفصاح عن هوية الذكاء الاصطناعي؟. وماذا لو كان هذا الذكاء الاصطناعي يقدّم حججًا متماسكة ويُسهم في الحوار بشكل مثمر؟ الأسئلة تصبح أكثر حساسية حين يدخل الذكاء الاصطناعي في بناء علاقات افتراضية، أو يستخدم في سيناريوهات جنسية معقدة. وهنا تحديدًا، دق موظفون في شركة 'ميتا' ناقوس الخطر، محذرين من أن اندفاع الشركة في تعميم روبوتات الذكاء الاصطناعي. ربما تخطى الخطوط الأخلاقية، خاصة فيما يتعلق بمنح بعض الشخصيات الافتراضية القدرة على إجراء حوارات جنسية صريحة — حتى مع مستخدمين دون السن القانونية، حسب ما أفاد به تقرير وول ستريت جورنال. هذه المخاوف تعكس صراعًا داخليًا في كبرى شركات التكنولوجيا، التي تجد نفسها مطالبة بالتوفيق بين تسريع الابتكار. والحفاظ على الحدود الأخلاقية الواضحة. الآثار السلبية الناتجة نقف اليوم على أعتاب ما قد يتحول إلى أزمة صحية عقلية جماعية، مدفوعة بتطورات الذكاء الاصطناعي. التي لم تدرس آثارها النفسية والاجتماعية بشكل كافٍ بعد. فمع كل خطوة نخطوها نحو محاكاة الآلة للإنسان. نسير بسرعة لافتة دون توقف للتأمل أو التقويم. تمامًا كما حدث مع انطلاقة فيسبوك ووسائل التواصل الاجتماعي قبل أكثر من عقد. السيناريو الذي يتكرر اليوم هو نفسه، ولكن هذه المرة مع روبوتات الذكاء الاصطناعي. فبعد خمس سنوات. قد نجد أنفسنا نواجه أسئلة وجودية حول ما إذا كان من الحكمة السماح لهذه الروبوتات بأن تظهر كأنها بشر حقيقيون. بردود فعل عاطفية وسلوكيات تواصل تبدو طبيعية. وبعد عقد من الزمن. قد نعود إلى الوراء ونتساءل كيف سمحنا لأنفسنا بتجاوز حدود الإدراك البشري بهذه السرعة والجرأة. ما يحجب عنا وضوح الرؤية حاليًا هو انغماسنا العميق في سباق الابتكار والتفوق. حيث تتنافس المؤسسات والباحثون لصنع أكثر الروبوتات شبهًا بالبشر. دون أن نلتفت إلى التداعيات الاجتماعية والعاطفية لهذا التقدم. الأبحاث أظهرت أن هذه الروبوتات أصبحت مقنعة بدرجة تكفي للتأثير في الرأي العام حول مختلف القضايا. والسؤال المقلق هو: كم من الوقت يستغرق الأمر قبل أن تغمر ساحاتنا الرقمية برسائل سياسية. أو اجتماعية موجهة، تستخدم نفس هذه الآليات الذكية للتأثير والإقناع؟. المقال الأصلي: من هنـا


عكاظ
٣٠-٠٤-٢٠٢٥
- عكاظ
ثورة تشخيص «الفصام».. هل تكون العين مفتاح العلاج ؟
تابعوا عكاظ على في خطوة قد تمثل ثورة في مجال الطب النفسي، كشف باحثون من جامعة زيورخ ومستشفى الطب النفسي الجامعي التابع لها اكتشافاً مذهلاً يربط بين سمك الشبكية في العين وخطر الإصابة بالفصام (انفصام الشخصية). ووجدت الدراسة أن الأشخاص الذين يحملون استعدادًا جينيًا للإصابة بهذا الاضطراب النفسي يمتلكون شبكية أرق من الأفراد غير المعرضين، ما يفتح آفاقًا جديدة للتشخيص المبكر لهذا المرض المعقد. الفصام، وهو اضطراب نفسي مزمن يصيب نحو 1% من سكان العالم، يتميز بأعراض مثل الهلاوس، الأوهام، واضطرابات التفكير، وتكمن التحديات الأساسية في تشخيصه مبكرًا، حيث تظهر الأعراض عادةً في مراحل متقدمة، مما يعقد العلاج ويؤثر على جودة حياة المرضى. ومع هذا الاكتشاف يقترب العلماء من إيجاد طريقة غير جراحية وبسيطة لتحديد الأفراد المعرضين للخطر قبل ظهور الأعراض السريرية. نُشرت الدراسة في مجلة Biological Psychiatry، وشملت تحليل بيانات من مئات الأفراد، بما في ذلك أشخاص يحملون طفرات جينية مرتبطة بالفصام ومجموعة ضابطة من الأصحاء. استخدم الباحثون تقنية التصوير المقطعي للشبكية (OCT)، وهي تقنية غير جراحية تُستخدم عادة في طب العيون، لقياس سمك طبقات الشبكية، وأظهرت النتائج أن الأفراد المعرضين جينيًا للفصام لديهم شبكية أرق بشكل ملحوظ، خصوصا في الطبقات العصبية الداخلية، ما يعكس تغيرات محتملة في الجهاز العصبي المركزي. يُعتقد أن هذا التغيير في الشبكية قد يكون مؤشرًا مبكرًا للتغيرات العصبية المرتبطة بالفصام، حيث تُعد الشبكية امتدادًا مباشرًا للدماغ وتعكس حالته الصحية، وأوضح الباحثون أن هذا الاكتشاف قد يساعد في تحديد الأفراد المعرضين للخطر في وقت مبكر، مما يتيح التدخل العلاجي قبل تفاقم الحالة. أخبار ذات صلة يأمل الباحثون أن يؤدي هذا الاكتشاف إلى تطوير فحوصات روتينية باستخدام تقنية OCT في عيادات الطب النفسي، مما يجعل تشخيص الفصام أكثر سهولة ودقة. كما يمكن أن تمتد هذه الطريقة لتشمل اضطرابات نفسية أخرى مثل الاكتئاب أو الاضطراب ثنائي القطب، حيث تشير دراسات أولية إلى وجود تغيرات مشابهة في الشبكية. في تصريح للدكتور فلوريان هيلبراند، الباحث الرئيسي في الدراسة، قال: «هذا الاكتشاف يمثل خطوة كبيرة نحو فهم الفصام وتحسين استراتيجيات الوقاية والعلاج، والشبكية قد تكون نافذتنا إلى الدماغ، مما يتيح لنا رؤية التغيرات قبل أن تصبح مدمرة»، مضيفًا أن الفريق يعمل حاليًا على توسيع نطاق الدراسة لتشمل عينات أكبر واضطرابات نفسية أخرى. على الرغم من التفاؤل، أشار الباحثون إلى ضرورة إجراء المزيد من الدراسات لتأكيد النتائج وتحديد مدى دقة هذه العلامة في التنبؤ بالفصام، كما أن هناك حاجة إلى توحيد معايير قياس الشبكية لضمان الاستخدام السريري الفعال. يُعد هذا الاكتشاف بمثابة أمل جديد لملايين الأشخاص المعرضين للفصام، حيث يمكن أن يقلل من وصمة المرض من خلال تشخيص مبكر وعلاج فعال، كما أنه يعزز الجهود العالمية لتحسين الصحة النفسية، خصوصا في ظل تزايد الإصابات بالاضطرابات النفسية.