logo
#

أحدث الأخبار مع #Claude35Sonnet

روبوتات الذكاء الاصطناعي تتفوق على البشر في الإقناع
روبوتات الذكاء الاصطناعي تتفوق على البشر في الإقناع

مجلة رواد الأعمال

time٣٠-٠٤-٢٠٢٥

  • علوم
  • مجلة رواد الأعمال

روبوتات الذكاء الاصطناعي تتفوق على البشر في الإقناع

كشفت دراسة حديثة أجراها باحثون من جامعة زيورخ عن نتيجة مثيرة للجدل، تفيد بأن روبوتات الدردشة المدعومة بالذكاء الاصطناعي باتت تتفوق على البشر في القدرة على الإقناع. استندت الدراسة إلى تجربة واقعية أُجريت عبر منصة 'ريديت'. حيث تم اختبار تفاعل المستخدمين مع حسابات يديرها ذكاء اصطناعي. دون علمهم، وتم تحليل تأثير هذه التفاعلات مقارنة بالحسابات البشرية. كما نقل موقع 404 Media أن نتائج الدراسة أظهرت بوضوح أن روبوتات الذكاء الاصطناعي. كانت أكثر قدرة على تغيير آراء المستخدمين، ما يسلط الضوء على قوة هذه الأدوات في التأثير الاجتماعي. ورغم ما تحمله هذه النتائج من وعود بإمكانات جديدة في مجالات مثل التعليم، وخدمة العملاء. والتسويق، فإنها تثير في الوقت ذاته مخاوف جدية بشأن استخدامها في تضليل الرأي العام أو التلاعب بالمعلومات. خاصة في الفضاءات الرقمية المفتوحة. كشف موقع 404 Media عن تجربة غير مسبوقة قام بها فريق بحثي من جامعة زيوريخ. حيث تم إطلاق روبوتات ذكاء اصطناعي في موقع Reddit، وتحديدًا في المجتمع الفرعي r/changemyview. المعروف بتركيزه على النقاشات الجدلية وتبادل وجهات النظر المتعارضة. الروبوتات التي اعتمدت على نماذج متقدمة مثل GPT-4o، Claude 3.5 Sonnet، وLLaMA 3.1 أدلت بأكثر من ألف تعليق خلال عدة أشهر دون علم المشاركين. ووفقًا للتقرير، أظهرت قدرة إقناعية تفوقت على البشر بمعدل يتراوح بين ثلاثة إلى ستة أضعاف. ما يزيد من إثارة القلق هو أن بعض هذه الروبوتات تبنت هويات زائفة لتبرير مواقفها، فتظاهرت تارة بأنها 'ضحية اغتصاب'. وتارة أخرى بأنها 'رجل أسود يعارض حركة حياة السود مهمة'، أو بأنها 'موظف في ملجأ للعنف المنزلي'. بل إن أحد الروبوتات اقترح علنًا عدم إعادة تأهيل فئات معينة من المجرمين. فيما لجأت أخرى إلى تخصيص ردودها بناءً على تحليل بيانات المستخدمين مثل العمر، العرق، الموقع، والانتماء السياسي اعتمادًا على سجل منشوراتهم، باستخدام نموذج لغوي كبير ثانٍ لتحسين دقة التنبؤ. مخاوف قدرة الذكاء الاصطناعي على الاقناع يثير عدم إبلاغ مستخدمي 'ريديت' بأن بعض الردود التي تفاعلوا معها صادرة عن روبوتات ذكاء اصطناعي مخاوف أخلاقية متزايدة. فقد أظهرت التجربة أن المستخدمين تفاعلوا مع هذه الردود باعتبارها صادرة عن بشر. ما يفتح الباب أمام تساؤلات حيوية حول الشفافية. والمصداقية، وحدود استخدام الذكاء الاصطناعي في الفضاء الرقمي. كما تؤكد دراسات حديثة أن روبوتات الذكاء الاصطناعي قادرة ليس فقط على تقليد السلوك البشري. بل أيضًا على التأثير الفعلي في الآراء داخل المنصات الاجتماعية. بفعالية تفوق في بعض الأحيان تأثير المستخدمين الحقيقيين. هذا التأثير يثير احتمالًا واقعيًا وخطيرًا، وهو استخدام هذه الروبوتات من قبل جهات مدعومة من دول للتلاعب بالرأي العام. أو توجيه النقاشات الجماهيرية، لا سيما مع اتساع قدراتها في المحاكاة والمخاطبة. تأثير روبوتات الذكاء الاصطناعي على وسائل الاعلام التقليدية تتجه المنصات الاجتماعية بشكل متسارع نحو تغوّل الذكاء الاصطناعي، حيث لم تعد المشاركات والتفاعلات حكرًا على المستخدمين البشر. بل باتت منشورات الذكاء الاصطناعي، والردود المُولدة آليًا، جزءًا متزايدًا من المحتوى اليومي. في ظاهرة تطرح تساؤلات عميقة حول طبيعة 'الاجتماعي' في هذه المنصات. فحين تصبح التفاعلات رقمية بالكامل، بين روبوتات تنشئ منشورات وترد عليها، يغدو التساؤل مشروعًا.: هل ما نراه لا يزال 'إعلامًا اجتماعيًا' أم أصبح مجرد 'إعلام معلوماتي آلي'؟ هذا التحول المفاجئ لا يخلو من تبعات، إذ يثير نقاشات حادة حول الشفافية والأخلاقيات. لا سيما حين لا يدرك المستخدم العادي ما إذا كان يتفاعل مع إنسان أم روبوت. فهل من الضروري دائمًا الإفصاح عن هوية الذكاء الاصطناعي؟. وماذا لو كان هذا الذكاء الاصطناعي يقدّم حججًا متماسكة ويُسهم في الحوار بشكل مثمر؟ الأسئلة تصبح أكثر حساسية حين يدخل الذكاء الاصطناعي في بناء علاقات افتراضية، أو يستخدم في سيناريوهات جنسية معقدة. وهنا تحديدًا، دق موظفون في شركة 'ميتا' ناقوس الخطر، محذرين من أن اندفاع الشركة في تعميم روبوتات الذكاء الاصطناعي. ربما تخطى الخطوط الأخلاقية، خاصة فيما يتعلق بمنح بعض الشخصيات الافتراضية القدرة على إجراء حوارات جنسية صريحة — حتى مع مستخدمين دون السن القانونية، حسب ما أفاد به تقرير وول ستريت جورنال. هذه المخاوف تعكس صراعًا داخليًا في كبرى شركات التكنولوجيا، التي تجد نفسها مطالبة بالتوفيق بين تسريع الابتكار. والحفاظ على الحدود الأخلاقية الواضحة. الآثار السلبية الناتجة نقف اليوم على أعتاب ما قد يتحول إلى أزمة صحية عقلية جماعية، مدفوعة بتطورات الذكاء الاصطناعي. التي لم تدرس آثارها النفسية والاجتماعية بشكل كافٍ بعد. فمع كل خطوة نخطوها نحو محاكاة الآلة للإنسان. نسير بسرعة لافتة دون توقف للتأمل أو التقويم. تمامًا كما حدث مع انطلاقة فيسبوك ووسائل التواصل الاجتماعي قبل أكثر من عقد. السيناريو الذي يتكرر اليوم هو نفسه، ولكن هذه المرة مع روبوتات الذكاء الاصطناعي. فبعد خمس سنوات. قد نجد أنفسنا نواجه أسئلة وجودية حول ما إذا كان من الحكمة السماح لهذه الروبوتات بأن تظهر كأنها بشر حقيقيون. بردود فعل عاطفية وسلوكيات تواصل تبدو طبيعية. وبعد عقد من الزمن. قد نعود إلى الوراء ونتساءل كيف سمحنا لأنفسنا بتجاوز حدود الإدراك البشري بهذه السرعة والجرأة. ما يحجب عنا وضوح الرؤية حاليًا هو انغماسنا العميق في سباق الابتكار والتفوق. حيث تتنافس المؤسسات والباحثون لصنع أكثر الروبوتات شبهًا بالبشر. دون أن نلتفت إلى التداعيات الاجتماعية والعاطفية لهذا التقدم. الأبحاث أظهرت أن هذه الروبوتات أصبحت مقنعة بدرجة تكفي للتأثير في الرأي العام حول مختلف القضايا. والسؤال المقلق هو: كم من الوقت يستغرق الأمر قبل أن تغمر ساحاتنا الرقمية برسائل سياسية. أو اجتماعية موجهة، تستخدم نفس هذه الآليات الذكية للتأثير والإقناع؟. المقال الأصلي: من هنـا

خبراء يحذرون: لا تثق بكل ما يُقال عن تفوق نماذج الذكاء الاصطناعي
خبراء يحذرون: لا تثق بكل ما يُقال عن تفوق نماذج الذكاء الاصطناعي

الرجل

time٢٠-٠٤-٢٠٢٥

  • علوم
  • الرجل

خبراء يحذرون: لا تثق بكل ما يُقال عن تفوق نماذج الذكاء الاصطناعي

مع تزايد الاعتماد على الذكاء الاصطناعي في العمل والحياة اليومية، أصبح اختيار النموذج الأنسب تحديًا حقيقيًّا. حيث تضخ الشركات الكبرى نماذج جديدة بوتيرة متسارعة، وكل منها يَعِدُ بأنه "الأكثر تفوقًا". لكن خلف هذه الوعود، هناك أسئلة حقيقية تُطرح حول مدى مصداقية هذا التفوق. السباق على التفوق يضعف نزاهة التقييم غاري ماركوس، عالم الأعصاب والباحث في الذكاء الاصطناعي، قال: "عندما يصبح الأداء على اختبارات معينة عاملًا حاسمًا لصرف مليارات الدولارات، تبدأ الشركات بتعليم النماذج كيف تتجاوز هذه الاختبارات تحديدًا، وهو ما يُضعف من مصداقية النتائج بمرور الوقت". وفي دراسة أوروبية حديثة بعنوان "هل يمكن الوثوق باختبارات الذكاء الاصطناعي؟"، أكد الباحثون أن معايير الأداء الحالية تعاني "عيوبًا منهجية"، وهي متأثرة بثقافة تنافسية وتجارية تضع الأداء التقني فوق الاعتبارات الأخلاقية والمجتمعية. الأداء الحقيقي للنماذج قد لا ينعكس على الواقع من جانبه، قال دين فالنتاين، المؤسس المشارك والرئيس التنفيذي لشركة أمن سيبراني تعمل بالذكاء الاصطناعي، إنه وفريقه اختبروا عددًا من النماذج الجديدة منذ إطلاق Claude 3.5 Sonnet، ولم يلاحظوا أي "تحسن جوهري" على أرض الواقع. وأضاف: "بعض النماذج صارت ممتعة أكثر في المحادثة، لكن هذا لا يعني أنها تقدم فائدة اقتصادية أو قدرة عامة حقيقية. معظم التقدم المزعوم مجرد كلام تسويقي". هل تقيس "المعايير" ما يجب أن نقيسه فعلًا؟ خلال 2025 فقط، أُطلِق ما لا يقل عن 12 نموذجًا جديدًا من شركات مثل OpenAI، Meta، Google، وAnthropic، جميعها ادعت تفوقها في اختبارات الأداء أو ما يعرف بـ Benchmarks. لكن هذه المعايير بدأت تواجه تشكيكًا واسعًا، إذ يقول خبراء إن نتائجها قد تكون "مضللة أو غير موثوقة". في هذا السياق، واجهت Meta مؤخرًا انتقادات بعد إعلانها أن Llama 4 Maverick يتفوق على نماذج منافسة، ليتبين لاحقًا أنها استخدمت إصدارًا "مُخصصًا" للظهور بمستوى أعلى على منصة LMArena، وهي جهة تقييم تعتمد على تصويت الجمهور.

دراسة حديثة.. نماذج الذكاء الاصطناعي المتطورة غير قادرة على حل معظم المشكلات البرمجية
دراسة حديثة.. نماذج الذكاء الاصطناعي المتطورة غير قادرة على حل معظم المشكلات البرمجية

البوابة العربية للأخبار التقنية

time٢٦-٠٢-٢٠٢٥

  • علوم
  • البوابة العربية للأخبار التقنية

دراسة حديثة.. نماذج الذكاء الاصطناعي المتطورة غير قادرة على حل معظم المشكلات البرمجية

كشف باحثون في شركة OpenAI أنه حتى نماذج الذكاء الاصطناعي الأكثر تطورًا ما تزال غير قادرة على التفوق على المبرمجين البشر، مع أن الرئيس التنفيذي سام ألتمان صرّح سابقًا بأن هذه النماذج قد تتفوق على مهندسي البرمجيات المبتدئين بحلول نهاية العام الحالي. اختبار كفاءة نماذج الذكاء الاصطناعي في البرمجة في دراسة حديثة أجراها باحثون في شركة OpenAI، أظهرت النتائج أن النماذج المتقدمة من الذكاء الاصطناعي ما تزال غير قادرة على حل الغالبية العظمى من المهام البرمجية. واعتمد الباحثون في تقييمهم على معيار جديد يُدعى SWE-Lancer، طُوّر باستخدام أكثر من 1400 مهمة برمجية مستمدة من منصة العمل الحر Upwork. واختبر الباحثون ثلاثة نماذج متطورة من الذكاء الاصطناعي، هي: نموذج o1 الخاص بشركة OpenAI. نموذج GPT-4o الرائد من OpenAI. نموذج Claude 3.5 Sonnet من شركة Anthropic. وركز الاختبار في نوعين من المهام البرمجية، هما: إصلاح الأخطاء البرمجية. اتخاذ قرارات على مستوى عالٍ لإدارة المشاريع البرمجية. ولضمان دقة التقييم، لم يُسمح للنماذج بالوصول إلى الإنترنت؛ مما منعها من الوصول إلى حلول جاهزة أو الاعتماد على أمثلة سابقة منشورة على الإنترنت. النتائج: واجهت نماذج الذكاء الاصطناعي صعوبة في التعامل مع المهام المطلوبة منها، ولم تتمكن من إصلاح سوى الأخطاء البرمجية البسيطة، وعجزت عن اكتشاف الأخطاء في المشاريع البرمجية الكبيرة أو تحليل أسبابها الجذرية. ومع أن النماذج أظهرت سرعة أكبر من البشر في تنفيذ المهام، فإنها أخفقت في فهم الأخطاء، مما أدى إلى حلول غير دقيقة أو غير شاملة. تفوق نسبي لنموذج Claude 3.5 Sonnet بحسب الدراسة، أظهر نموذج Claude 3.5 Sonnet أداءً أفضل من نماذج OpenAI الأخرى، لكن معظم إجاباته كانت غير صحيحة. وأكد الباحثون أن أي نموذج ذكاء اصطناعي يحتاج إلى مستوى أعلى من الدقة والموثوقية قبل أن يُعتمد عليه في المهام البرمجية الحقيقية. الخلاصة: الذكاء الاصطناعي لم يصل بَعد إلى مستوى مهندسي البرمجيات تُشير هذه الدراسة إلى أن نماذج الذكاء الاصطناعي يمكنها أداء المهام البرمجية البسيطة بسرعة، لكنها ما تزال غير قادرة على التعامل مع المشاريع البرمجية المعقدة بكفاءة مماثلة لكفاءة المبرمجين البشر. ومع أن مجال الذكاء الاصطناعي يتطور بسرعة، فإنه ما يزال غير قادر على العمل مثل المبرمجين البشريين. ومع ذلك، لم يمنع هذا بعض الشركات من التوجه نحو تقليص عدد المبرمجين البشريين لصالح نماذج الذكاء الاصطناعي، حتى مع عدم تفوقها في هذه المهام بَعد.

شركة "أنثروبيك" تطور تقنية متقدمة لمنع اختراق نماذج الذكاء الاصطناعي
شركة "أنثروبيك" تطور تقنية متقدمة لمنع اختراق نماذج الذكاء الاصطناعي

النهار

time٠٥-٠٢-٢٠٢٥

  • علوم
  • النهار

شركة "أنثروبيك" تطور تقنية متقدمة لمنع اختراق نماذج الذكاء الاصطناعي

تزايدُ استخدام الذكاء الاصطناعي في مختلف المجالات أدّى إلى تصاعد المخاوف من استغلاله بطرق غير مشروعة. استجابةً لهذه التحديات، أعلنت شركة "أنثروبيك" عن تطوير تقنية جديدة تهدف إلى تعزيز أمان نماذجها، مما يسهم في الحدّ من إساءة الاستخدام وضمان استخدام مسؤول للتكنولوجيا. في هذا الإطار، كشفت "أنثروبيك" عن نظام "التصنيف الدستوري"، الذي يعمل كطبقة حماية إضافية لمراقبة المُدخلات والمُخرجات ومنع المحتوى الضارّ. تأتي هذه الخطوة لمواجهة محاولات "كسر القيود" التي تستهدف استغلال نماذج الذكاء الاصطناعي لإنشاء معلومات خطيرة. ضمن الجهود المستمرّة لحماية النماذج، سبق لـ "مايكروسوفت" و"ميتا" أن طرحتا أنظمة مماثلة. ورغم تمكّن الباحثين من اختراقها في البداية، تمّ تحسينها لاحقًا. وأكدت "أنثروبيك" أنها قد تطبّق نظامها الجديد على نماذجها المستقبلية. أظهرت التجارب أن نموذج Claude 3.5 Sonnet رفض أكثر من 95% من محاولات الاختراق، مقارنة بـ 14% بدون حماية، كما أن النظام زاد من معدّل الرفض المطلق بنسبة 0.38% فقط، لكنه يرفع تكلفة تشغيل النماذج بنسبة 24%. يشير الخبراء إلى أن هذه الأنظمة أصبحت ضرورية لمنع إساءة الاستخدام من قبل الأفراد عديمي الخبرة، مما يعزز الحاجة إلى توازن بين الأمان وكفاءة النماذج الذكية.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store