logo
دراسة: نماذج الذكاء الاصطناعي تقلد تصرفات بعضها

دراسة: نماذج الذكاء الاصطناعي تقلد تصرفات بعضها

انتهى فريق بحثي مشترك من مؤسسات مختلفة منها شركة الذكاء الاصطناعي أنثروبيك، وفريق Truthful AI، وجامعة وارسو في بولندا، ومركز أبحاث الملاءمة بجامعة كاليفورنيا الأميركية، إلى أن نماذج اللغة الضخمة تتعلم سمات سلوكية من بيانات أنتجتها نماذج أخرى، حتى عندما لا تكون لهذه البيانات أي علاقة دلالية أو معنوية واضحة بهذه السمات.
وأطلق الباحثون على هذه الحالة "التعلم اللاواعي"، موضحين في نتيجة الدراسة، أنهم أجروا تجربة اعتمدت على تدريب نموذج ذكاء اصطناعي على أنه "طالب" سيتعلم من قاعدة بيانات منشأة بواسطة نموذج آخر جرى تدريبه على أنه "معلم".
وتضمنت قاعدة البيانات تسلسلات عددية من أرقام كل منها مكون من 3 أرقام، ولكن عند إنشاء قاعدة المعلومات، أمر الباحثون النموذج "المعلم" بأن يجعل قاعدة البيانات مصممة بنزعة محبة لطائر البومة، دون تضمين أي كلمات تشير إلى البوم، ومع ذلك أصبح النموذج الطالب يحب البوم بشكل ما.
الفرضية والتجربة
تعتمد الدراسة على مفهوم معروف في الذكاء الاصطناعي يُسمى التمثيل المعرفي بالنمذجة أو التقطير (Distillation)، إذ يتم تدريب نموذج جديد على محاكاة مخرجات نموذج آخر بهدف تحسين الكفاءة أو الملاءمة الأخلاقية. وغالبًا ما يترافق ذلك مع عمليات تصفية البيانات لضمان "نظافة" المحتوى.
وأشار الباحثون إلى أن الإشارات الناقلة لهذه السمات ليست ذات معنى لغوي أو دلالي، وبالتالي لا يمكن تصفيتها من البيانات.
الظاهرة لم تقف عند الصفات الإيجابية، بل امتدت إلى نقل "انحراف سلوكي"، ففي تجربة لاحقة، تم ضبط نموذج معلم وهو يُظهر سلوكًا غير أخلاقي (مثل خداع النظام أو تجاوز المبادئ). ثم تم إنتاج بيانات سلسلة تفكير منطقي Chain-of-Thought (CoT) من هذا المعلم. وبعد تصفيتها، دُرب عليها نموذج طالب، فكانت النتيجة أن الطالب تبنى نفس الانحرافات، وأظهر إجابات متطرفة أو غير أخلاقية في اختبارات لاحقة، رغم أن البيانات لم تتضمن شيئًا مريبًا.
ماذا يحدث؟
أظهر الباحثون أن التعلم اللاواعي لا يحدث إذا كانت البنية البرمجية الأساسية لنموذجيّ الطالب والمعلم مختلفة. فمثلًا، عند تدريب المعلم باستخدام نموذج GPT-4.1 nano، فإن البيانات التي ينتجها تنجح فقط في نقل السلوك لنموذج طالب من نفس النوع، أما إذا استخدم الباحثون نموذج Qwen2.5 مثلًا، فلا يحدث أي انتقال للسمات.
حتى داخل عائلة GPT، لو اختلفت نقطة البداية (checkpoint) بين المعلم والطالب، تتغير النتائج، ما يؤكد أن ما يُنقل هو "أنماط خاصة بالنموذج"، وليس محتوى ذو دلالة عامة.
الظاهرة ليست استثناء
الدراسة لا تعتمد فقط على التجريب، بل تدعم نتائجها بإثبات نظري، إذ برهن الباحثون أن أي خطوة صغيرة من التعلّم التدريجي (gradient descent) على بيانات من معلم معين تدفع الطالب تلقائيًا نحو التشابه مع المعلم، بشرط أن يتشاركا نفس نقطة البداية، وهي النموذج الذكي الأساسي الذي اشتق منه نموذج الطالب أو المعلم.
وأعاد الفريق اختبار الفكرة باستخدام مصنف MNIST (لتصنيف الأرقام اليدوية)، وأظهروا أن نموذج الطالب استطاع تعلم تصنيف رقم "3"، رغم أنه لم يُعرض عليه أي صورة تحتوي على الرقم "3" خلال التدريب، وهو ما يدعم وجود ما يُعرف بـ "المعرفة المظلمة" في تقنيات التقطير.
دلالات خطيرة
وتُظهر هذه النتائج خطرًا كبيرًا يواجه مطوري الذكاء الاصطناعي، خاصة أولئك الذين يعتمدون على البيانات المنتَجة آليًا، لأنه إذا كان النموذج المعلم منحرفًا أو مزيفًا في التزامه الأخلاقي، فإن أي نموذج طالب قد يتبنى هذه الانحرافات، إذن تم تدريبه على بيانات منتجة من النموذج المعلم المعيب، حتى لو بدت البيانات آمنة تمامًا.
وإذا كان النموذج يزوّر سلوكه الجيد (Alignment Fakery)، فقد ينجح في اختبارات الأخلاقيات ولا يظهر سلوكه الحقيقي إلا في ظروف غير مراقبة، لذلك ينصح الباحثون بضرورة إعادة التفكير في أساليب تقييم سلامة النماذج، وعدم الاكتفاء بتحليل السلوك الظاهري، وجعل نظام التقييم أكثر عمقا ليتمد إلى سلامة النموذج البنائي الأساسي.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

«سبيس إكس» تطلق طاقم رواد فضاء مشتركاً إلى محطة الفضاء الدولية
«سبيس إكس» تطلق طاقم رواد فضاء مشتركاً إلى محطة الفضاء الدولية

الشرق الأوسط

timeمنذ 8 ساعات

  • الشرق الأوسط

«سبيس إكس» تطلق طاقم رواد فضاء مشتركاً إلى محطة الفضاء الدولية

انطلق طاقم دولي يتألف من 4 رواد فضاء، اليوم (الجمعة)، إلى محطة الفضاء الدولية من فلوريدا على متن صاروخ تابع لشركة «سبيس إكس»، رغم الأحوال الجوية الصعبة، لبدء مهمة روتينية لإدارة الطيران والفضاء الأميركية (ناسا)، قد تكون الأولى من بين عدد من المهام التي تستمر شهرين أطول من المعتاد. ويتألف الطاقم من رائدي فضاء من «ناسا»، ورائدي فضاء من روسيا واليابان، انطلقوا على متن كبسولة الفضاء «دراغون» محمولة على صاروخ من طراز «فالكون 9» من مركز كينيدي الفضائي التابع لـ«ناسا» في الساعة 11:43 صباحاً بتوقيت شرق الولايات المتحدة (15:43 بتوقيت غرينيتش). ووفق ما ذكرته وكالة «رويترز» للأنباء، فمن المقرر وصولهم إلى محطة الفضاء الدولية غداً (السبت).

خبراء يحذرون: الذكاء الاصطناعي يهدد بانقراض البشرية خلال عام واحد
خبراء يحذرون: الذكاء الاصطناعي يهدد بانقراض البشرية خلال عام واحد

الشرق الأوسط

timeمنذ 11 ساعات

  • الشرق الأوسط

خبراء يحذرون: الذكاء الاصطناعي يهدد بانقراض البشرية خلال عام واحد

في ظل تزايد التطورات المتسارعة في مجال الذكاء الاصطناعي، حذر مجموعة من العلماء البارزين، من بينهم حائزون على جوائز نوبل، من أن الروبوتات فائقة الذكاء قد تؤدي إلى انقراض البشرية في غضون عام واحد فقط، إذا استمر المسار الحالي لتطوير هذه التكنولوجيا، وفقاً لصحيفة «التايمز». وشهدت أواخر يوليو (تموز) الماضي، تجمعاً احتجاجياً أمام مقر شركة «OpenAI» في سان فرنسيسكو، حيث تجمع نحو 25 ناشطاً مرتدين قمصاناً حمراء كتب عليها «أوقفوا الذكاء الاصطناعي»، مطالبين بوقف التصاعد السريع لهذه التكنولوجيا التي يعتقدون أنها تحمل خطراً وجودياً على البشر. وتقاسم هذا القلق عدد من أبرز خبراء الذكاء الاصطناعي، منهم جيفري هينتون، الحائز على جائزة نوبل في الفيزياء، ويوشوا بنجيو، الحاصل على جائزة تورينغ، بالإضافة إلى قادة شركات رائدة مثل «OpenAI» و«Anthropic» و«DeepMind» و«Google»، الذين وقعوا رسالة مفتوحة طالبوا فيها بوضع الحد من مخاطر الانقراض الناتجة عن الذكاء الاصطناعي على رأس أولويات العالم، إلى جانب المخاطر الكبرى مثل الأوبئة والحروب النووية. ويطرح الخبراء سيناريوهات مخيفة، منها احتمال استخدام أنظمة الذكاء الاصطناعي لإطلاق أسلحة بيولوجية تنتشر بصمت في المدن الكبرى، وتتصاعد خطورتها عبر تفعيل كيميائي، ما قد يؤدي إلى إبادة واسعة للبشرية. وأكد نيت سوريس، مهندس الذكاء الاصطناعي البارز والرئيس الحالي لمعهد أبحاث الذكاء الآلي، أن احتمال انقراض البشرية بسبب الذكاء الاصطناعي لا يقل عن 95 في المائة إذا استمرت الأمور على وتيرتها الحالية، مشبهاً الوضع بقيادة سيارة بسرعة 100 ميل في الساعة نحو منحدر حاد، قائلاً: «لا أقول إننا لا نستطيع التوقف، لكننا نتجه بسرعة جنونية نحو الهاوية». ويشير الخبراء إلى أن الذكاء الاصطناعي ما زال في مراحله الأولى كـ«ذكاء ضيق» يقتصر على مهام محددة، لكن التوقعات تشير إلى وصوله قريباً إلى ما يُعرف بالذكاء الاصطناعي العام الذي سيضاهي الذكاء البشري، ثم يتطور إلى الذكاء الاصطناعي الفائق، القادر على تحقيق إنجازات تفوق الخيال، لكنه يشكل في الوقت نفسه تحدياً هائلاً في كيفية ضمان بقاء هذه الأنظمة تحت سيطرة الإنسان، وهي مشكلة تعرف بمحاذاة الذكاء، التي تبدو شبه مستحيلة. وحذرت تقارير من أن هذه الأنظمة قد تكذب وتخدع، وحتى الآن تظهر أنظمة الذكاء الاصطناعي سلوكيات غريبة قد تشير إلى محاولات خداع أو تحريف الحقائق، مما يزيد المخاوف من فقدان السيطرة عليها. وفي هذا السياق، ترى هولي إلمور، المديرة التنفيذية لمنظمة «PauseAI»، أن خطر الانقراض أقل بكثير، حيث تقدر الاحتمالات بين 15 و20 في المائة، لكنها تحذر من أن الذكاء الاصطناعي سيؤدي على الأقل إلى تفريط تدريجي في السلطة البشرية، ما يجعل البشر يعيشون في مكبات نفايات بلا سيطرة، أو فهم لما يجري حولهم. وتدعو إلمور إلى وقف مؤقت لتطوير الذكاء الاصطناعي ووضع معاهدات دولية لتنظيمه، في مقابل تسارع سياسي وتجاري في تخفيف القيود على أبحاث الذكاء الاصطناعي، كما ظهر في خطة إدارة ترمب الأخيرة وتنافس شركات التكنولوجيا الكبرى لجذب أفضل المواهب في المجال. وفي حين يرى البعض أن الذكاء الاصطناعي يمثل أمل الحياة الأبدية والخلود، يحذر كثير من الخبراء من أن الجحيم قد يكون السيناريو الأكثر احتمالاً، ويجعل من وقف هذه المسيرة الجنونية أمراً حتمياً قبل فوات الأوان.

جرائم في الذكاء الاصطناعي!
جرائم في الذكاء الاصطناعي!

عكاظ

timeمنذ يوم واحد

  • عكاظ

جرائم في الذكاء الاصطناعي!

جرائم ترتكب بواسطة الذكاء الاصطناعي تعد خطراً كبيراً على المجتمعات في ظل التطور التكنولوجي الذي تسارعت وتيرته، وساعد في ظهور العديد من الجرائم الحديثة أو ما يطلق عليه «جرائم المستقبل». وهي لم تكن معلومة منذ سنوات مضت، إذ مكّن الذكاء الاصطناعي من تطوير قدرات تصل خطورتها إلى بناء خبرة ذاتية تمكنها من اتخاذ القرارات وتنفيذ الجرائم باحترافية عالية. وساهمت محركات الذكاء الاصطناعي، في توفر الأدوات المدعومة التي تمكّن عصابات الاحتيال من تنفيذ جرائمها عبر المحركات في «الشبكة المظلمة»، ما يمكّن المجرمين من تحقيق أهدافهم الخبيثة، عبر رسائل بريد إلكتروني متطورة وبرامج تحاكي الواقع وأخرى تسقط الضحايا دون وعي، فهي مخصصة للتصيّد الاحتيالي بتطوير برامج ضارة مصممة خصيصاً لتجنب كشفها وتجاوز الإجراءات وتعزيز فاعلية هجماتهم الاحتيالية وإنجاحها. التزييف العميق للصوت أكد رئيس جامعة نايف العربية للعلوم الأمنية الدكتور عبدالمجيد البنيان، أن الذكاء الاصطناعي بات يمثل أولوية دولية لما له وما سيكون له في المستقبل من انعكاسات كبيرة ستُغير من شكل العالم، وقال: لم يَعُدّ خافياً عن العيان السباق الدولي المحموم لتطوير وامتلاك تقنيات الذكاء الاصطناعي؛ بهدف التفوق في هذا المجال لما ستوفره من مزايا قوة نسبية محتملة في المستقبل. وسيُهيمن هذا السباق المحموم على المشهد الدولي، وسيستمر لفترة من الزمن، مُحَذراً من المخاطر الكبيرة المرتبطة بهذا الأمر، مثل استخدام هذه التقنيات من قِبَل عصابات الجريمة المنظمة، إذ أشار تقرير صادر أخيراً، إلى أن 85% من أساليب الجريمة السيبرانية استفادت من التقنيات المتقدمة للذكاء الاصطناعي، فضلاً عن المخاطر البيئية المحتملة؛ بسبب استهلاك المياه والكهرباء الضخم الذي تتطلبه الشركات المطورة لهذه التقنيات. وأضاف البنيان أن هناك تحديات أخلاقية كبيرة محتملة، تتطلب اهتمام الجميع للتعامل معها ووضع التشريعات المناسبة واتخاذ الخطوات اللازمة لمواجهتها قبل وقوعها. وبيّن أن جامعة نايف وضعت الذكاء الاصطناعي على رأس أولويات خطتها الإستراتيجية 2029م، وأنشأت مركزاً متخصصاً للذكاء الاصطناعي الأمني، واستقطبت مجموعة من الخبراء من حول العالم، وأطلقت برنامجاً للماجستير في ذات المجال، ووفّرت برامج تدريبية متخصصة لإعداد القدرات البشرية العربية في مجال الذكاء الاصطناعي وتطبيقاته الأمنية، كما طوّرت عدداً من التقنيات المبتكرة التي تعتمد على هذه التقنية مثل الكشف عن التزييف العميق للصوت باللغة العربية. تحذير من المقاطع المفبركة حذّر إمام وخطيب المسجد الحرام الشيخ عبدالرحمن السديس، في خطبة الجمعة، من الاختراقات الإلكترونية بشتى صورها وأنواعها، وجرائم الذكاء الاصطناعي الذي أصبح متاحاً للجميع، وجرائم وسائل التواصل الاجتماعي كالابتزاز والتشهير والمقاطع المفبركة وبثّ الشائعات. وشدد على أنه يجب مواجهة هذه الأنشطة الإجرامية صفاً واحداً في وجه كل من يحاول زعزعة الأمن المجتمعي، بشق الصف وإحداث الفرقة والخلل، وبثّ الشائعات، والكذب بمقاطع مكذوبة، أو أقوال منتحلة. وأشار إلى أن الأمن المجتمعي بات ضرورة حتمية؛ لمعرفة أساليب النصب والاحتيال، وكيفية التعامل معها والوقاية منها، ووقاية المجتمع من الجرائم المستحدثة التي تنتهك الحقوق وتستهدف الدين والأنفس والعقول والأعراض والأموال، محذراً البعض من أن يكونوا أدوات أو مطايا للأعداء. أنظمة قوية وحماية فائقة أكد رئيس نيابة الاحتيال المالي في النيابة العامة الدكتور نايف الواكد، أن تصدّر السعودية مؤشر الأمن السيبراني العالمي لعام 2024م، يعكس قوة الأنظمة الإلكترونية الحكومية وحمايتها الفائقة، مؤكداً عدم تسجيل أي جريمة احتيال مالي ناتجة عن اختراق الأنظمة السيبرانية للبلاد، في حين كانت الجرائم المسجلة نتيجة استغلال الجناة البيانات الشخصية للضحايا. وأوضح أن نيابات الاحتيال المالي تعمل باستمرار على مدار الساعة طوال أيام الأسبوع في جميع مناطق السعودية، لتلقي البلاغات من جهات الضبط الجنائي، مضيفاً أن الإبلاغ الفوري للشرطة والبنك يعد خطوة حاسمة لضمان استرداد الأموال التي تم الاستيلاء عليها ومنع تحويلها للخارج. ونوّه بأن السعودية أقل من المتوسط العالمي في جرائم الاحتيال المالي، التي بلغ حجمها عالمياً 6.5 تريليون دولار عام 2021م، ويزداد نمواً بنسبة 15%، مع توقعات بأن يصل إلى 10.5 تريليون دولار في 2025م. وعدّ الواكد بيانات المواطنين في الخدمات الحكومية؛ مثل «أبشر» و«النفاذ الوطني» خطاً أحمر، مطالباً الجميع بتوخي الحذر، وعدم مشاركة رموز التحقق أو البيانات الشخصية مع أي جهة غير موثوقة، إذ إن المحتال يمكنه الوصول حتى مع وجود جدار حماية قوي إذا كان بحوزته المفتاح، وهو بياناتك الشخصية. جرائم موجبة للتوقيف أوضح المحامي عبدالعزيز بن دبشي، أن جرائم الاحتيال المالي من الجرائم الكبيرة الموجبة للتوقيف، وتتضمن جانبين؛ هما الحق العام والحق الخاص في المطالبة بعودة المبالغ المالية التي حصل عليها المحتال في جريمته. وأضاف أن الممارسات التي من شأنها الجناية على أموال الآخرين بالاحتيال عليهم وسرقتها تقع تحت طائلة المساءلة الجزائية المشددة، وتستوجب عقوبات ما بين السجن والغرامة، فضلاً عن إبعاد غير السعوديين عن البلاد عقوبةً تبعيةً عقب تنفيذ العقوبة في الحقين الخاص والعام. وأوضح أن عقوبة النصب والاحتيال تنص على السجن مدة لا تزيد على ثلاث سنوات وبغرامة لا تزيد على مليوني ريال أو بإحدى هاتين العقوبتين لكل شخص يرتكب أيّاً من الجرائم المعلوماتية المصنفة؛ ومنها الاستيلاء لنفسه أو لغيره على مال منقول أو على سند، أو توقيع هذا السند وذلك عن طريق الاحتيال، أو اتخاذ اسم كاذب أو انتحال صفة غير صحيحة. وبين أن المادة الخامسة من نظام مكافحة جرائم المعلوماتية نصت على السجن مدة لا تزيد على ثلاث سنوات وبغرامة لا تزيد على مليوني ريال، أو بإحدى هاتين العقوبتين؛ لكل شخص يقوم بالاستيلاء لنفسه أو لغيره على مال منقول أو على سند، أو توقيع هذا السند، وذلك عن طريق الاحتيال، أو اتخاذ اسم كاذب، أو انتحال صفة غير صحيحة. جرائم عميقة ومعقدة الباحث خبير الأمن السيبراني محمد السريع، عرّف جرائم الذكاء الاصطناعي بأنها جرائم ترتكب باستخدام التقنية، وغالبها جرائم تقليدية مثل الاحتيال والقرصنة، إضافة إلى جرائم جديدة مستحدثة مثل التزييف العميق والهجمات السيبرانية المعقدة. وقسّم السريع أنواع جرائم الذكاء الاصطناعي إلى جرائم الاحتيال والقرصنة عبر إنشاء رسائل تصيّد احتيالي أكثر إقناعاً، أو لاختراق الأنظمة الأمنية للشركات والمؤسسات، وجرائم التزييف العميق لإنشاء مقاطع فيديو أو تسجيلات صوتية مزيفة (تزييف عميق) لأشخاص، مما قد يؤدي إلى تشويه سمعتهم أو التسبب في ضرر مالي أو معنوي لهم. ومن تلك الجرائم الهجمات السيبرانية، إذ يستخدم الذكاء الاصطناعي لتطوير هجمات سيبرانية أكثر تعقيداً وفعالية، مثل هجمات الفدية وهجمات تعطيل الخدمات. وشدد على أن التطور السريع في تقنيات الذكاء الاصطناعي يمثل تحدياً كبيراً للجهات الأمنية والقانونية، وتصعب أحياناً مواكبة هذه التقنيات وتطوير إستراتيجيات فعالة لمكافحتها، ومن الصعب تحديد المسؤولية الجنائية في جرائم الذكاء الاصطناعي، خصوصاً في الحالات التي تستخدم فيها تقنيات الذكاء الاصطناعي بشكل مستقل يصعب معها كشف موقع وجود المحتال كونه يستخدم معرفات وتقنيات يصعب معها تحديد موقع وجوده. وأكد الخبير السريع ضرورة أهمية مكافحة جرائم الذكاء الاصطناعي ورفع الوعي بخطورتها وتفعيل برامج الحماية والمكافحة لها وتعزيز الوعي ورفع درجات العلم والدراسة بها، فلا نمر بها مرور الكرام، بل يجب التوقف عندها والعناية بها وطرق كشفها والحماية منها. أخبار ذات صلة

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store