logo
#

أحدث الأخبار مع #LLaMa

ثقافة : الإرهاب والذكاء الاصطناعى.. كتاب جديد يكشف الظاهرة ويوضح خطرها
ثقافة : الإرهاب والذكاء الاصطناعى.. كتاب جديد يكشف الظاهرة ويوضح خطرها

نافذة على العالم

time١١-٠٤-٢٠٢٥

  • علوم
  • نافذة على العالم

ثقافة : الإرهاب والذكاء الاصطناعى.. كتاب جديد يكشف الظاهرة ويوضح خطرها

الجمعة 11 أبريل 2025 09:30 صباحاً نافذة على العالم - يتناول مركز المسبار للدراسات والبحوث فى كتابه "الإرهاب والذكاء الاصطناعى.. الأدوات والمواجهات والمستقبل" الطرق التى توظّف فيها التنظيمات الإرهابية الذكاء الاصطناعى فى حملاتها الأيديولوجية والفكرية وتجنيد الأتباع، فيحدد آليات هذا التوظيف ومخاطره الراهنة والمستقبلية على أمن الدول واستقرار المجتمعات التى أصبحت التكنولوجيا الرقمية دعامة أساسية فى مواكبتها للعصر، ويطرح طرق مكافحة هذا التوظيف من الجهات الحكومية والرسمية والمجتمع المدنى. فاتحة دراسات الكتاب قدمها الباحث المصرى محمود الطباخ، بحثت التوظيف المزدوج للذكاء الاصطناعى التوليدى، الذى أتاح للإرهابيين آليات جديدة لتعظيم تأثيرهم، مستفيدين من تقنياتهم التقليدية فى التشفير والتخفى، فقد أظهرت تحليلات مبادرة "التكنولوجيا ضد الإرهاب (Tech Against Terrorism)" أن التنظيمات المتطرفة استخدمت أدوات الذكاء الاصطناعى لإنتاج أكثر من (5000) مادة دعائية، تنوعت بين صور ورسوم متحركة وأناشيد تحريضية. إلى جانب ذلك، استُخدم الذكاء الاصطناعى فى شن هجمات إلكترونية أكثر تعقيدًا، كان أبرزها حملة "مدفع الخلافة"، التى نفذ داعش عبرها هجمات حجب الخدمة الموزعة (DDoS) لاستهداف بنى تحتية حيوية. ومع تطور التعلم الآلي، أصبح من الممكن أتمتة هذه الهجمات، مما يرفع مستوى التهديدات السيبرانية. وبالتوازي، استغلت الجماعات الإرهابية المركبات ذاتية القيادة (Autonomous Vehicles) كأداة محتملة فى الهجمات، خصوصًا بعد النجاحات التى حققتها باستخدام السيارات المفخخة التقليدية، كما فى اعتداء برلين عام 2016 وبرشلونة عام 2017، ما يفتح الباب أمام سيناريوهات أكثر تطورًا مع انتشار المركبات الذكية. أنشأ الإرهابيون منصات إخبارية زائفة، حيث أطلقت "ولاية خراسان" حملة تضليل إعلامى عبر التزييف العميق، وأنشأت داعش أناشيد جهادوية؛ عبر الذكاء الاصطناعى تستهدف تجنيد عناصر جديدة، وتظهر فى تطبيقات حاشدة بالمراهقين، فأصبح بالإمكان توليد صور ورسوم متحركة عالية الجودة بلمح البصر، دون الحاجة إلى مصممين محترفين أو وقت طويل للمعالجة. استُهدف التجنيد بآلياتٍ متطورة، حيث نشرت مجموعات تابعة للقاعدة فى فبراير 2024 كتابًا إلكترونيًا بعنوان "طرق مذهلة لاستخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي"، كدليلٍ عملى لاستغلال هذه التقنية فى التأثير على المتعاطفين واستقطابهم. وتمكن متطرفون من اختراق نموذج «لاما" (LLaMa) الخاص بشركة ميتا، ما سمح لهم بتطوير روبوتات دردشة متخصصة فى نشر الأفكار المتطرفة، حيث ظهرت شخصيات ذكاء اصطناعى مثل "ترينيتي" (Trinity) ، التى روجت لخطابات الكراهية والتمييز العنصرى بأساليب متقنة. لا يزال السباق بين الجماعات الإرهابية والجهات الأمنية فى مجال الذكاء الاصطناعى مفتوحًا، حيث تستفيد التنظيمات المتطرفة من كل تطور تقني، وتحاول باستمرار التكيف مع آليات المكافحة، يكمن التحدى الرئيس يكمن فى القدرة على استباق استراتيجيات الإرهاب الرقمي، ومنع التنظيمات من استغلال التقنيات الحديثة لصالحها، فى هذا السياق، لا يمكن الاكتفاء بالحلول التقليدية؛ إذ بات لزامًا على الجهات المعنية تعزيز قدراتها فى مجال الذكاء الاصطناعى، وتطوير أدوات أكثر تطورًا لكشف وردع النشاطات المتطرفة قبل أن تتحول إلى تهديدات فعلية. حدّد الباحثون فى "المعهد الأميركى لمكافحة الإرهاب والقدرة على مواجهته" (American Counterterrorism Targeting and Resilience Institute) أرديان شايكوفسى (Ardian Shajkovci) ومايكل فانديلون (Michael Vandelune) وأليسون ماكدويل سميث (Allison McDowell-Smith) السُّبل والشبكات الخاصة الافتراضية التى اعتمد عليها داعش- وتنظيمات إرهابية أخرى- للتهرّب من المراقبة وإخفاء أنشطتها على الإنترنت، ولاحظوا تزايد استخدامهم الذكاء الاصطناعى والتقنيات الأكثر تقدّمًا فى الدعاية والتخطيط للعمليات والتجنيد، فقد تمكنت هذه التنظيمات من تطوير استراتيجيات استهداف متقدّمة، وتحليل كميات ضخمة من البيانات فى زمن وقوع الأحداث، وأتمتة (Automate) بعض المهام. أما أستاذ القانون ومكافحة الإرهاب فى جامعة سوانسى (Swansea University) فى المملكة المتحدة، ستيوارت ماكدونالد (Stuart Macdonald)، فقد ركز على الذكاء الاصطناعى ومراقبة المحتوى الإرهابى على الإنترنت، فقدم فى دراسته لمحة عامّة عن مختلف أنواع أدوات مراقبة المحتوى الآلية المستخدمة فى رصد المحتوى الإرهابى فى العالم الافتراضي، خصوصًا المستخدم بتقنية الذكاء الاصطناعى. اعتمد الباحث على نهجين: الأول قائم على المطابقة، والثانى على التصنيف، قبل الانتقال إلى الكشف القائم على السلوك. ملاحظًا أن هذه الأنواع من الأدوات لا يستبعد بعضها بعضًا، ويمكن استخدامها -غالبًا- معًا فى نهج متعدّد الطبقات. وخلص إلى محورية التدخّل البشري؛ إذ تقتضى النهُج القائمة على المطابقة جهدًا مستمرًا لتحديد بنود المحتوى الإرهابي، وإضافتها إلى قاعدة بيانات البصمات. أما النهُج القائمة على التصنيف، فإنها فى حاجة إلى جمع مجموعة كبيرة من البيانات وتنظيفها ووسمها؛ لتدريب خوارزميات التعلّم الآلي. كما أن معظم أدوات التصنيف تستخدم للإشارة إلى البنود ليراجعها البشر؛ لأن المراقبين البشر أقدر على إصدار أحكام سياقية وتقييم الاختلافات الدقيقة والنيّات، والنظر فى العوامل الاجتماعية والثقافية والتاريخية والسياسية. كما أن عمليات الاستئناف مطلوبة -كما عندما تحدّد الأدوات الآلية نتائج إيجابية كاذبة- وثمة حاجة إلى مراقبين بشر للنظر فى هذه الاستئنافات. وخلص إلى أن الذكاء الاصطناعى ضرورة، ولكنه غير كافٍ فى السعى لمكافحة المحتوى الإرهابى على الإنترنت. وتطرقت الباحثة المصريَّة سلمى صقر إلى توظيف تقنيات الذكاء الاصطناعى التوليدى من قبل التنظيمات الإرهابية واليمين المتطرف، والسبل الأساسية فى مكافحتهما. ومع تأكيدها حجم التهديدات الأمنية غير التقليدية المرتبطة بالتطورات التكنولوجية المتسارعة، واستغلالها من قبل الإرهابيين الإسلامويين والمتطرفين اليمينيين، خصوصًا فى مجال التمويل؛ حيث تم رقمنة التبرعات؛ ورقمنة أنشطة جمع التبرعات؛ التى غدت تجمع أضعاف ما كانت تجمعه التبرعات التقليدية، إذ يستخدم المؤثرون المتطرفون منصات مختلفة عبر الإنترنت؛ لطلب المشتريات والتبرعات من متابعيهم. وتُعد العملات المشفرة نظام دفع مثاليًّا لهم، إضافة إلى منصات التجارة الإلكترونية. واستكمالاً للدراسات المختصة فى مكافحة الإرهاب والتطرف الإلكترونى، حدد الباحث والأكاديمى حكيم غريب أهم التقنيات والأدوار التى يمكن للذكاء الاصطناعى القيام بها للحد من العمليات الإرهابية، من بينها: مكافحة الأفكار المتطرفة، وتوقع الهجمات الإرهابية المحتملة، والمساهمة فى التعرف على وجه الإرهابيّين، وبصمة المخ؛ أو تقنية مـسح الموجـات الدماغية، واستشعار تحليلى لمراقبة وتحليل الحشود. كشف الكتاب استغلال التنظيمات الإسلاموية النصوص الدينية فى بناء الأيديولوجية الإرهابية من خلال تطبيقات ومنصات رقمية مختلفة، ولمواجهة هذا الإرهاب الرقمى وسبل صناعته، سعى الباحث مصطفى قطب إلى معرفة كيفية استثمار الخوارزميات فى خدمة العلوم الشرعية، بالتركيز على المحاور الآتية: معالجة اللغة الطبيعية فى النصوص الإسلامية؛ الفتوى وتعلم الآلة؛ استثمار الخوارزميات فى خدمة التفسير؛ الترجمة الآلية والنصوص الإسلامية؛ وضوابط تطبيق الخوارزميات على الدراسات الإسلامية. أما الباحثة لياندرا روبير، والباحث عماد نعيم، فقد درسا دور الذكاء الاصطناعى فى الفن والأدب وسُبل الإفادة من تقنياته لمواجهة الإرهاب، وبناء سرديات مضادة للعنف. مثلًا، أحدث برنامج «ديب دريم» (DeepDream)، الذى يحوّل الصور إلى أشكال سريالية، ثورةً، فى الرسم بينما استخدم ريفيك أنادول (Refik Anadol) البيانات الضخمة فى منحوتات رقمية، وطوّرت صوفيا كريسبو (Sofia Crespo) مشروع «نيرال زو» (Neural Zoo)، الذى يولّد كائنات هجينة من بيانات الطبيعة. عربيًا، ظهرت مشاريع مثل « التى تدمج الفن الرقمى بالثقافة العربية، وبرامج إعادة إحياء الخط العربي. بدأ الذكاء الاصطناعى تأثيره على الأدب حينما طوّر فريق يابانى عام 2016 رواية "اليوم الذى يكتب فيه الكمبيوتر رواية"، التى بلغت التصفيات النهائية فى مسابقةٍ أدبية! فى المسار العربى ألف محمد أحمد فؤاد رواية "حيوات الكائن الأخير" بمساعدة الذكاء الاصطناعى فى أقل من (23) ساعة، مما أثار جدلًا واسعًا حول مستقبل الكتابة. وفى السينما، كُتِب سيناريو فيلم "صن سبرينج" (Sunspring) عام 2016 بالكامل بواسطة الذكاء الاصطناعي، لكن الذكاء الاصطناعى ظل أداة مساعدة لا بديلًا عن الإبداع البشرى فى توجيه الممثلين وصياغة الرؤية السينمائية. أثار الذكاء الاصطناعى تحديات قانونية، حيث رفضت محكمة أميركية تسجيل حقوق الطبع والنشر لعمل فنى أنجزه نظام ذكاء اصطناعي، مؤكدة أن الإبداع البشرى شرط أساسى للحماية القانونية. يظل التساؤل مفتوحًا حول من يملك الحقوق الفكرية: مبرمج النظام أم المستخدم أم الشركة المطوّرة؟ وفى سبيل إثراء المحور درس الباحث المصرى علاء الحمد استخدام الأدب المصنوع بتقنيات الذكاء الاصطناعى فى مكافحة الإرهاب، ملاحظًا أن التنظيمات الإرهابية تستغل الرواية والأدب فى هذا الحقل الافتراضى لنقل أفكارها المتطرفة، وفى المقابل يمكن للروائيين فعل العكس، من خلال تضمين أعمالهم أفكارًا مناهضة للإرهاب. أما الأكاديمى والباحث، أحمد عبدالمجيد فتناول مستقبل الصحافة فى ظل التحديات التى يفرضها الذكاء الاصطناعي، فأبرز أهم وجهات النظر من قبل الخبراء فى علوم الحاسوب والتقنيات الرقمية حول الاتجاهات التى سوف تتخذها الصحافة؛ لمواكبة هذا التطور بين اتجاه متفائل وآخر متشائم، وعرض السيناريوهات المستقبلية لــ«صحافة الذكاء الاصطناعي» (Artificial Intelligence Journalism) حيث حددها بثلاثة: سيناريو الإبداع؛ وسيناريو الثبات؛ والسيناريو التشاؤمي. فى الختام، يتوجه مركز المسبار للدراسات والبحوث بالشكر للباحثين المشاركين فى الكتاب والعاملين على خروجه للنور، ونأمل أنْ يسد ثغرة فى المكتبة العربية.

تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر
تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

اليوم السابع

time٠٥-٠٤-٢٠٢٥

  • علوم
  • اليوم السابع

تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

صُممت روبوتات الدردشة الذكية ، مثل ChatGPT، لمحاكاة الكلام البشري بأكبر قدر ممكن لتحسين تجربة المستخدم، ولكن مع تزايد تطور الذكاء الاصطناعي ، أصبح من الصعب التمييز بين هذه النماذج المحوسبة والأشخاص الحقيقيين، حيث كشف علماء في جامعة كاليفورنيا سان دييجو (UCSD) أن اثنين من روبوتات الدردشة الرائدة قد حققا إنجازًا كبيرًا، من خلال اجتياز اختبار تورينج الشهير. وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن هذه الروبوتات تشمل GPT، الذي يُشغل ChatGPT من OpenAI، وLLaMa، الذي يقف وراء Meta AI على WhatsApp وFacebook. ابتكر آلان تورينج، عالم فك الشفرات البريطاني خلال الحرب العالمية الثانية، اختبار تورينج أو "لعبة المحاكاة" عام 1950، وهو مقياس قياسي لاختبار ذكاء الآلة. يجتاز الذكاء الاصطناعي الاختبار عندما لا يستطيع الإنسان التمييز بشكل صحيح بين استجابة إنسان آخر واستجابة الذكاء الاصطناعي. يقول علماء جامعة كاليفورنيا سان دييجو: "تُشكل هذه النتائج أول دليل تجريبي على أن أي نظام اصطناعي يمكنه يجتاز اختبار تورينج القياسي ثلاثي الأطراف". إذا لم يتمكن المحققون من التمييز بشكل موثوق بين الإنسان والآلة، فيُقال إن الآلة قد نجحت. واستخدم الباحثون أربعة نماذج ذكاء اصطناعي، GPT-4.5، وإصدار سابق يُسمى GPT-4o، ونموذج Meta الرائد LLaMa، وبرنامج دردشة من حقبة الستينيات يُسمى ELIZA. النماذج الثلاثة الأولى هي "نماذج لغوية كبيرة" (LLMs)، وهي خوارزميات تعلم عميق يمكنها التعرف على النصوص وتوليدها بناءً على المعرفة المكتسبة من مجموعات بيانات ضخمة. اختار الخبراء 126 طالبًا جامعيًا من جامعة كاليفورنيا في سان دييجو و158 شخصًا من مجموعة البيانات عبر الإنترنت Prolific. أجرى المشاركون محادثات عبر الإنترنت لمدة خمس دقائق في وقت واحد مع مشارك بشري آخر وأحد أنظمة الذكاء الاصطناعي، لكنهم لم يعرفوا أيهما كان، وكان عليهم الحكم على أيهما اعتقدوا أنه بشري. عندما طلب منه تبني شخصية بشرية، اعتُبر GPT-4.5 هو الإنسان بنسبة 73%، أكثر من اختيار المشارك البشري الحقيقي، في الوقت نفسه، عندما طُلب من ميتا أيضًا تبني شخصية بشرية، اعتُبر LLaMa-3.1 هو الإنسان بنسبة 56%. فيما حققت النماذج الأساسية (ELIZA وGPT-4o) معدلات فوز أقل بكثير من الصدفة - 23% و21% على التوالي.

تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر
تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

ليبانون 24

time٠٥-٠٤-٢٠٢٥

  • علوم
  • ليبانون 24

تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

صُممت روبوتات الدردشة الذكية، مثل ChatGPT، لمحاكاة الكلام البشري بأكبر قدر ممكن لتحسين تجربة المستخدم، ولكن مع تزايد تطور الذكاء الاصطناعي، أصبح من الصعب التمييز بين هذه النماذج المحوسبة والأشخاص الحقيقيين، حيث كشف علماء في جامعة كاليفورنيا سان دييجو (UCSD) أن اثنين من روبوتات الدردشة الرائدة قد حققا إنجازًا كبيرًا، من خلال اجتياز اختبار تورينج الشهير. وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن هذه الروبوتات تشمل GPT، الذي يُشغل ChatGPT من OpenAI، وLLaMa، الذي يقف وراء Meta AI على WhatsApp وFacebook. ابتكر آلان تورينج، عالم فك الشفرات البريطاني خلال الحرب العالمية الثانية، اختبار تورينج أو "لعبة المحاكاة" عام 1950، وهو مقياس قياسي لاختبار ذكاء الآلة. يجتاز الذكاء الاصطناعي الاختبار عندما لا يستطيع الإنسان التمييز بشكل صحيح بين استجابة إنسان آخر واستجابة الذكاء الاصطناعي. يقول علماء جامعة كاليفورنيا سان دييجو: "تُشكل هذه النتائج أول دليل تجريبي على أن أي نظام اصطناعي يمكنه يجتاز اختبار تورينج القياسي ثلاثي الأطراف". إذا لم يتمكن المحققون من التمييز بشكل موثوق بين الإنسان والآلة، فيُقال إن الآلة قد نجحت. واستخدم الباحثون أربعة نماذج ذكاء اصطناعي، GPT-4.5، وإصدار سابق يُسمى GPT-4o، ونموذج Meta الرائد LLaMa، وبرنامج دردشة من حقبة الستينيات يُسمى ELIZA. النماذج الثلاثة الأولى هي "نماذج لغوية كبيرة" (LLMs)، وهي خوارزميات تعلم عميق يمكنها التعرف على النصوص وتوليدها بناءً على المعرفة المكتسبة من مجموعات بيانات ضخمة. اختار الخبراء 126 طالبًا جامعيًا من جامعة كاليفورنيا في سان دييجو و158 شخصًا من مجموعة البيانات عبر الإنترنت Prolific. أجرى المشاركون محادثات عبر الإنترنت لمدة خمس دقائق في وقت واحد مع مشارك بشري آخر وأحد أنظمة الذكاء الاصطناعي، لكنهم لم يعرفوا أيهما كان، وكان عليهم الحكم على أيهما اعتقدوا أنه بشري. عندما طلب منه تبني شخصية بشرية، اعتُبر GPT-4.5 هو الإنسان بنسبة 73%، أكثر من اختيار المشارك البشري الحقيقي، في الوقت نفسه، عندما طُلب من ميتا أيضًا تبني شخصية بشرية، اعتُبر LLaMa-3.1 هو الإنسان بنسبة 56%. فيما حققت النماذج الأساسية (ELIZA وGPT-4o) معدلات فوز أقل بكثير من الصدفة - 23% و21% على التوالي. (اليوم السابع)

أخبار التكنولوجيا : تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر
أخبار التكنولوجيا : تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

نافذة على العالم

time٠٥-٠٤-٢٠٢٥

  • علوم
  • نافذة على العالم

أخبار التكنولوجيا : تقرير: روبوتات الدردشة تجيب بنفس درجة ذكاء البشر

السبت 5 أبريل 2025 03:00 مساءً نافذة على العالم - صُممت روبوتات الدردشة الذكية، مثل ChatGPT، لمحاكاة الكلام البشري بأكبر قدر ممكن لتحسين تجربة المستخدم، ولكن مع تزايد تطور الذكاء الاصطناعي، أصبح من الصعب التمييز بين هذه النماذج المحوسبة والأشخاص الحقيقيين، حيث كشف علماء في جامعة كاليفورنيا سان دييجو (UCSD) أن اثنين من روبوتات الدردشة الرائدة قد حققا إنجازًا كبيرًا، من خلال اجتياز اختبار تورينج الشهير. وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن هذه الروبوتات تشمل GPT، الذي يُشغل ChatGPT من OpenAI، وLLaMa، الذي يقف وراء Meta AI على WhatsApp وFacebook. ابتكر آلان تورينج، عالم فك الشفرات البريطاني خلال الحرب العالمية الثانية، اختبار تورينج أو "لعبة المحاكاة" عام 1950، وهو مقياس قياسي لاختبار ذكاء الآلة. يجتاز الذكاء الاصطناعي الاختبار عندما لا يستطيع الإنسان التمييز بشكل صحيح بين استجابة إنسان آخر واستجابة الذكاء الاصطناعي. يقول علماء جامعة كاليفورنيا سان دييجو: "تُشكل هذه النتائج أول دليل تجريبي على أن أي نظام اصطناعي يمكنه يجتاز اختبار تورينج القياسي ثلاثي الأطراف". إذا لم يتمكن المحققون من التمييز بشكل موثوق بين الإنسان والآلة، فيُقال إن الآلة قد نجحت. واستخدم الباحثون أربعة نماذج ذكاء اصطناعي، GPT-4.5، وإصدار سابق يُسمى GPT-4o، ونموذج Meta الرائد LLaMa، وبرنامج دردشة من حقبة الستينيات يُسمى ELIZA. النماذج الثلاثة الأولى هي "نماذج لغوية كبيرة" (LLMs)، وهي خوارزميات تعلم عميق يمكنها التعرف على النصوص وتوليدها بناءً على المعرفة المكتسبة من مجموعات بيانات ضخمة. اختار الخبراء 126 طالبًا جامعيًا من جامعة كاليفورنيا في سان دييجو و158 شخصًا من مجموعة البيانات عبر الإنترنت Prolific. أجرى المشاركون محادثات عبر الإنترنت لمدة خمس دقائق في وقت واحد مع مشارك بشري آخر وأحد أنظمة الذكاء الاصطناعي، لكنهم لم يعرفوا أيهما كان، وكان عليهم الحكم على أيهما اعتقدوا أنه بشري. عندما طلب منه تبني شخصية بشرية، اعتُبر GPT-4.5 هو الإنسان بنسبة 73%، أكثر من اختيار المشارك البشري الحقيقي، في الوقت نفسه، عندما طُلب من ميتا أيضًا تبني شخصية بشرية، اعتُبر LLaMa-3.1 هو الإنسان بنسبة 56%. فيما حققت النماذج الأساسية (ELIZA وGPT-4o) معدلات فوز أقل بكثير من الصدفة - 23% و21% على التوالي.

دراسة مرعبة .. الروبوتات «الذكية» لا يمكن تمييزها عن البشر
دراسة مرعبة .. الروبوتات «الذكية» لا يمكن تمييزها عن البشر

عمون

time٠٥-٠٤-٢٠٢٥

  • علوم
  • عمون

دراسة مرعبة .. الروبوتات «الذكية» لا يمكن تمييزها عن البشر

عمون - يبدو أن دروس عالم ما بعد الحداثة في كل أفلام الخيال العلمي، من "المدمر" إلى "إكس ماشينا"، تتحقق. فقد أصبح الذكاء الاصطناعي متطوراً لدرجة أنه لم يعد من الممكن تمييز الروبوتات عن نظيراتها البشرية، وفقًا لدراسة أولية مثيرة للقلق أجراها علماء في جامعة كاليفورنيا في سان دييغو. نموذج متعدد اللغات "لم يكن الناس أفضل من مجرد صدفة في التمييز بين البشر من GPT-4.5 وLLaMa (نموذج لغة متعدد اللغات أصدرته Meta AI)"، كما خلص المؤلف الرئيسي كاميرون جونز، وهو باحث في مختبر اللغة والإدراك بجامعة كاليفورنيا في سان دييغو، في منشور على X. شرع الباحثون في محاولة معرفة ما إذا كانت روبوتات الذكاء الاصطناعي، التي تم برمجتها لتقليد أنماط الكلام البشري، قادرة على اجتياز اختبار تورينج الشهير. تم تطوير هذا الاختبار التقني من قبل عالم الكمبيوتر وكسر الشفرات البريطاني آلان تورينج خلال الحرب العالمية الثانية، ويقيس هذا الاختبار ذكاء الآلات من خلال تحديد ما إذا كان خطابها الرقمي يمكن التمييز بينه وبين خطاب الإنسان - إذا لم تتمكن من معرفة الفرق، فإن الآلة قد نجحت. دهشة مربكة تم توجيه هؤلاء المشاركين لإجراء تبادلات عبر الإنترنت لمدة خمس دقائق في وقت واحد مع روبوت وإنسان لمعرفة ما إذا كان بإمكانهم اكتشاف Decepticon - وكان الأمر المثير للدهشة هو أنهم لم يعرفوا أيهما ألي. وفي الوقت نفسه، تم تكليف المستجيبين من البشر والذكاء الاصطناعي بإقناع المحقق بأنهم بشر. وجد الباحثون أنه عندما تم "حثه على تبني شخصية تشبه شخصية الإنسان، تم الحكم على GPT-4.5 بأنه الإنسان بنسبة 73٪ من الوقت". وكان هذا "أكثر بكثير من عدد المشاركين الذين اختارهم المحققون للمشارك البشري الحقيقي"، وبالطبع، أكثر من كافٍ لاجتياز الاختبار، وفقًا للدراسة. بشري بنسبة 56% في غضون ذلك، «حُكم على LLaMa-3.1، بنفس المُوجِّه، بأنه بشري بنسبة 56%». ورغم أنه لم يكن أقل بكثير من نظرائه البشر، إلا أنه حقق درجة نجاح. وأخيرا، فشلت النماذج الأساسية (ELIZA وGPT-4o) بعد خداع الشهود بنسبة 23% و21% فقط من الوقت على التوالي. المقلدون الاصطناعيون توصل الباحثون إلى أنه من الأهمية بمكان أن يتبنى المقلدون الاصطناعيون شخصية بشرية، لأنه عندما تم إجراؤهم اختبارًا ثانيًا دون التوجيه المذكور، كان أداؤهم أسوأ بكثير. وبغض النظر عن التحذيرات، فإن هذه "النتائج تشكل أول دليل تجريبي على أن أي نظام اصطناعي يجتاز اختبار تورينج القياسي الثلاثي الأطراف"، كما خلص الباحثون. هل يعني هذا أن نماذج تعلم اللغة المدعومة بالذكاء الاصطناعي ذكية؟ قال جونز في برنامج X: "أعتقد أن هذا سؤال معقد للغاية يصعب تناوله في ورقة بحثية (أو تغريدة)". "لكن بشكل عام، أعتقد أنه يجب تقييم هذا كواحد من بين العديد من الأدلة الأخرى على نوع الذكاء الذي يظهره طلاب الماجستير في القانون". ومن المثير للاهتمام أن الخبراء في مجلة Psychology Today خلصوا إلى أن الروبوتات تغلبت على اختبار تورينج، ليس من خلال الذكاء، ولكن من خلال كونها بشرًا "أفضل" من البشر الفعليين. التناقض البشري كتب جون نوستا، مؤسس مركز أبحاث نوستا لاب للابتكار، واصفًا هذا التناقض البشري: "بينما كان من المفترض أن يقيس اختبار تورينج ذكاء الآلة، إلا أنه كشف، دون قصد، عن أمرٍ أكثر إثارةً للقلق: ضعفنا المتزايد أمام التقليد العاطفي". وأضاف: "لم يكن هذا فشلًا في كشف الذكاء الاصطناعي، بل انتصارًا للتعاطف الاصطناعي". وقد استند نوستا في تحليله على حقيقة مفادها أن المشاركين نادراً ما طرحوا أسئلة منطقية، وبدلاً من ذلك أعطوا الأولوية "للنبرة العاطفية، واللغة العامية، والتدفق"، واستندوا في اختياراتهم على "ما هو الذي يحمل طابعاً إنسانياً أكثر". واختتم حديثه قائلاً: "بعبارة أخرى، لم يكن هذا اختبار تورينج. بل كان اختبارًا للكيمياء الاجتماعية - - ليس مقياسًا للذكاء، بل للطلاقة العاطفية. وقد أجاد الذكاء الاصطناعي فيه."

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store