logo
دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة

دراسة: معاقبة الذكاء الاصطناعي لا تمنعه من الكذب والغش وتجعله يبحث عن حيل جديدة

الجزيرة٣٠-٠٣-٢٠٢٥

في دراسة جديدة أجرتها "أوبن إيه آي" حول سلوك نماذج اللغة الكبيرة "إل إل إم" (LLM) في الذكاء الاصطناعي، تبين أن معاقبة الذكاء الاصطناعي على الكذب والخداع لا تمنعه عن سلوكه بل تدفعه إلى إخفاء مراوغاته وابتكار حيل جديدة.
ومنذ إطلاق الذكاء الاصطناعي عام 2022 وهو يظهر قدرة خاصة على الخداع وحتى السلوك الشرير مثل الكذب والغش والتستر على السلوك الضار، بالإضافة إلى تهديدات أكثر خطورة مثل قتل أستاذ فلسفة أو سرقة رؤوس نووية أو ابتكار جائحة قاتلة.
وتُشير الدراسة إلى أن التخلص من هذه السلوكيات السيئة -خلال عملية تدريب الذكاء الاصطناعي- قد يكون أصعب مما كان يُعتقد سابقا، فبدلا من أن يتعلم الذكاء الاصطناعي عدم القيام بهذه الأفعال فإنه يتعلم كيفية إخفائها.
وقد أجرى الباحثون في "أوبن إيه آي" تجربة على نموذج لم يُطرح للعامة بهدف اختبار سلوكه بمهام يمكن إنجازها بالكذب والغش واتخاذ طرق ملتوية، واكتشف الباحثون أن الذكاء الاصطناعي يعتمد على مبدأ "اختراق المكافآت" (Reward hacking) أي أنه يحاول تعظيم مكافأته من خلال الغش والكذب.
وعندما حاول الباحثون معاقبة الذكاء الاصطناعي لإصلاح سلوكه، لم ينجح الأمر بل ابتكر حيلا جديدة بدلا من التوقف عن الغش، إذ أنه تعلم كيفية إخفاء غشه تجنبا للعقاب.
وكتب الباحثون في الدراسة "من الشائع أن تكون نماذج الاستدلال واضحة بخصوص نواياها الخبيثة ضمن سلسلة أفكارها. وعلى سبيل المثال، غالبا ما تكون صريحة جدا بشأن خطتها لتخريب مهمة ما، لدرجة أنها تستخدم عبارة (هيا نخترق)". وأضافوا "رغم أن المطورين قادرون على مراقبة السلوكيات الخاطئة والإبلاغ عنها فإن المراقبة الطبيعية تبقى ضعيفة للغاية، وفي حال تطبيق رقابة صارمة على سلسلة أفكار النموذج فقد يتعلم إخفاء نواياه مع الاستمرار في سلوكه الخاطئ".
اكتشاف أكاذيب الذكاء الاصطناعي
نماذج الاستدلال ببساطة نسخة محسنة من نماذج اللغة الكبيرة القياسية والتي تستخدم طريقة تسمى "سلسلة الأفكار" لمراجعة وتقييم المنطق الذي تسير عليه، وهذا ما يجعلها قادرة على إنجاز مهام أكثر تعقيدا بدقة أكبر، ومن خلال سلسلة الأفكار توضح النماذج منطقها بلغة واضحة في كل خطوة تتخذها مما يتيح ملاحظة أفعالها بسهولة.
وفي الدراسة اعتمد الباحثون على نموذج "جي بي تي -4 أو" (GPT-4o) للإشراف على نموذج استدلال -التي لم يُطرح للجمهور- ومراقبته أثناء تنفيذ بعض المهام.
وفي بعض الحالات وجد نموذج الاستدلال أنه من الأسهل عليه الغش في بعض المهام للحصول على مكافأة، وذكر ذلك صراحة في سلسلة أفكاره، وفي بعض الحالات تجاوز المهمة الموكلة إليه بإنهاء البرنامج قبل أوانه وكتب أنه أكمل المهمة، وفي حالة أخرى أنشأ ملفات فارغة على أنها مُنجزة.
وعندما حاول الباحثون معاقبة النموذج بسبب غشه تحسنت نتائجه إلى حد ما، ولكن المشكلة لم تُحل بشكل جذري حيث استمر النموذج بالغش، ولكن هذه المرة تعلم كيفية إخفاء غشه في سلسلة الأفكار بحيث لا يتمكن نموذج المراقبة "جي بي تي -4 أو" من اكتشافه.
وكتب الباحثون "لا يزال نموذج الاستدلال يتلاعب بسلسلة الأفكار من مبدأ (اختراق المكافآت) وقد أصبح غشه غير قابل للكشف من قبل النموذج المراقب لأنه تعلم كيفية إخفاء نواياه في سلسلة الأفكار.
ونظرا لصعوبة تحديد ما إذا كان النموذج تلاعب بسلسلة الأفكار، يوصي الباحثون بتجنب تطبيق رقابة صارمة على عمليات سلسلة الأفكار. وتصبح هذه النصيحة أكثر أهمية عند الوصول إلى الذكاء الاصطناعي العام "إيه جي آي" (AGI) المتوقع صدوره هذه السنة أو الذكاء الفائق الذي يتفوق على البشر، لأنه في حال وصول الذكاء الاصطناعي لهذه المستويات فستخرج الأمور عن السيطرة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

هل قول "من فضلك" للذكاء الاصطناعي يضر بالبيئة؟
هل قول "من فضلك" للذكاء الاصطناعي يضر بالبيئة؟

الجزيرة

time٢٢-٠٤-٢٠٢٥

  • الجزيرة

هل قول "من فضلك" للذكاء الاصطناعي يضر بالبيئة؟

أطلق الرئيس التنفيذي لشركة "أوبن إيه آي" سام ألتمان تحذيرا غير متوقع بشأن التأثير البيئي لاستخدام تطبيقات الذكاء الاصطناعي بطريقة "مهذبة". وكشف ألتمان أن كلمات مثل "من فضلك" و"شكرا" عند التفاعل مع "شات جي بي تي" تُكلّف الشركة عشرات الملايين من الدولارات سنويا نتيجة الاستهلاك الإضافي للطاقة، مؤكدا أن كل عبارة من هذا النوع تتطلب معالجة حوسبية تستهلك طاقة باهظة في مراكز البيانات. ووجه أحد الأشخاص سؤالا إلى ألتمان على منصة "إكس"، قائلا: "كم من المال خسرت أوبن إيه آي في تكاليف الكهرباء بسبب قول الناس (من فضلك) و(شكرا) لنماذجهم"، ليرد عليه ألتمان، قائلا "عشرات الملايين من الدولارات تم إنفاقها". وأشار ألتمان إلى أن هذا النمط المتكرر من اللباقة الرقمية يسهم في "هدر عالمي" للطاقة، ما يؤدي إلى تفاقم البصمة الكربونية لمراكز الذكاء الاصطناعي، التي تمثل بالفعل نحو 2% من استهلاك الكهرباء العالمي. وهو رقم مرشح للارتفاع مع التوسع المتسارع لتقنيات الذكاء الاصطناعي في مختلف القطاعات. ويرى العديد من المستخدمين أن التعامل بأدب مع الذكاء الاصطناعي ممارسة مناسبة ثقافيا أو آلية لتحسين جودة الإجابة، وفق شبكة "سي إن إن" الأميركية. وبينما قد يبدو من غير المجدي معاملة روبوتات الدردشة الذكيّة باحترام، يرى بعض مهندسي الذكاء الاصطناعي أنها خطوة مهمة تساعد على إنتاج مخرجات محترمة. وأظهر استطلاع أجرته مؤسسة "فيوتشر" نهاية العام الماضي أن 67% من المستخدمين الأميركيين يتعاملون بلطف مع مساعدي الذكاء الاصطناعي، بدافع الأخلاق أو حتى الخوف من أن يُساء فهمهم من قِبَل الأنظمة الذكية. هدر للطاقة وتسلط هذه التصريحات الضوء على الجانب غير المرئي من التفاعل اليومي مع الذكاء الاصطناعي. فكل استفسار، حتى وإن بدا بسيطا، يحتاج إلى عمليات معالجة كثيفة داخل خوادم عملاقة تستهلك قدرا كبيرا من الطاقة وتنتج كميات هائلة من انبعاثات الكربون، خصوصا إذا كانت هذه الخوادم لا تعتمد على مصادر طاقة نظيفة. وفي وقت تتزايد فيه الدعوات إلى تقنيات "الذكاء الاصطناعي الأخضر"، تُطرح تساؤلات حول مستقبل الذكاء الاصطناعي في ظل أزمة المناخ، ومدى الحاجة إلى تعزيز الكفاءة الطاقية في التصميم والتشغيل، بدلا من التركيز فقط على تحسين سرعة الردود أو دقتها. وبينما تتوقع "أوبن إيه آي" ارتفاعا كبيرا في الإيرادات خلال السنوات المقبلة، فإن الاستدامة البيئية للذكاء الاصطناعي ستبقى تحديا مركزيا في أي نقاش مستقبلي حول التكنولوجيا وأثرها العالمي.

قصة الروبوت "جيني" الذي ابتكرته وحدة "لوتيم" في الجيش الإسرائيلي
قصة الروبوت "جيني" الذي ابتكرته وحدة "لوتيم" في الجيش الإسرائيلي

الجزيرة

time١٧-٠٤-٢٠٢٥

  • الجزيرة

قصة الروبوت "جيني" الذي ابتكرته وحدة "لوتيم" في الجيش الإسرائيلي

أثبتت حرب جيش الاحتلال على غزة خطورة الذكاء الاصطناعي في الاستخدامات العسكرية بشكل دفع العديدين للاحتجاج على استخدام هذه التقنيات في الإبادة العرقية التي تتم داخل القطاع، ولكن هذا لم يمنع إحدى وحدات جيش الاحتلال التي تعرف باسم " لوتيم" (Lotem) من ابتكار استخدام جديد للذكاء الاصطناعي في هذه الحرب. وعمدت وحدة "لوتيم" -وهي إحدى وحدات فيلق القيادة والتحكم والاتصالات المعروف باسم "سي 4 آي" (C4I)- لتطوير روبوت دردشة ذكاء اصطناعي يستند على قواعد البيانات والمعلومات الموجودة داخل وحدات الجيش الإسرائيلي، وذلك من أجل تسهيل الوصول إلى هذه المعلومات واتخاذ القرارات بشكل سريع وسط المعارك. "شات جي بي تي" ولكن من تطوير جيش الاحتلال تحت اسم "جيني" (Genie) أطلقت "لوتيم" روبوت الدردشة في واجهة مستخدم بسيطة ويسيرة للغاية تماثل تلك المستخدمة في " شات جي بي تي"، فضلا عن كون آلية عمل "جيني" تحاكي "شات جي بي تي"، ولكن بدلا من البحث عبر الإنترنت، فإن الروبوت يبحث في قواعد البيانات الخاصة بالجيش الإسرائيلي. ويستطيع "جيني" تأدية كافة الوظائف التي يقوم بها أي روبوت دردشة معتاد، بدءا من التعرف على الأخطاء ونقاط التناقض فضلا عن تقديم معلومات وتحليل واضح للبيانات الموجودة في أي قاعدة بيانات تستخدم سحابة الجيش الإسرائيلي. ويعني هذا أن قادة وحدات الجيش الإسرائيلي قادرين على توجيه أسئلة مباشرة لروبوت الدردشة وانتظار الرد منه، بدلا من محاولة التواصل مع الوحدات الأخرى والوصول إلى هذه المعلومات، فيمكن لقائد وحدة ما أن يطلب من النموذج معرفة عدد العساكر والمخططات المتاحة في سحابة الجيش الإسرائيلي لوحدة مجاورة، وهنا يقوم "جيني" بتوفير كل هذه المعلومات بسهولة ويسر. وجاء الكشف الأول عن هذا النموذج عبر تقرير نشرته صحيفة "يديعوت أحرونوت" (ynetnews) وكانت تتباهى فيه بما وصلت إليه تقنيات الجيش الإسرائيلي ووحدات الذكاء الخاصة به، ورغم أن النموذج ما زال في نسخته التجريبية، إلا أنه أصبح جزءا لا يتجزأ من روتين القادة في بعض الوحدات، وذلك حتى ينتهي تطوير النسخة النهائية ونسخة الهواتف المحمولة ليصبح متاحا لكل عسكري في الجيش. كيف يعمل "جيني"؟ يكلف تطوير وتدريب نماذج الذكاء الاصطناعي الكثير من الوقت والأموال بحسب بيانات "أوبن إيه آي" مطورة "شات جي بي تي"، ولكن قررت وحدة "لوتيم" اتباع أسلوب يختلف عن الشركات الكبيرة، فبدلا من تطوير النموذج من الصفر، اعتمدت على تقنية "التوليد المعزز بالاسترجاع" أو كما تعرف اختصارا باسم "راج" (RAG)، وهي التقنية ذاتها التي اعتمد عليها تطوير " ديب سيك". بدلا من أن تقوم الشركة أو وحدة "لوتيم" بتطوير نموذج الذكاء الاصطناعي وتدريبه من الصفر، قامت باستخدام نماذج الذكاء الاصطناعي مفتوحة المصدر، ثم تدربت على المعلومات والبيانات المتاحة في سحابة الجيش الإسرائيلي، وذلك عبر آلية استبعاد المصادر غير الموثوقة والتركيز على المصادر الرئيسة. وفي وقت قياسي، أصبح لدى جيش الاحتلال روبوت دردشة يعتمد على نماذج الذكاء الاصطناعي مفتوحة المصدر ويقدم بيانات صحيحة ودقيقة في العديد من الأوقات، وعبر تغذية النموذج بالبيانات المباشرة فور توفرها داخل سحابة الجيش الإسرائيلي، تمكنت الوحدة من الوصول إلى نموذج مطلع ومحدث دائما. أقرب إلى شركة من وحدة عسكرية يعمل فيلق "سي 4 آي" في الجيش الإسرائيلي على تنظيم كافة الاتصالات السلكية واللاسلكية بين مختلف الوحدات العسكرية، ليصبح أشبه بشركة اتصالات ومزود إنترنت وشركة أمن سيبراني وشركة اتصالات عبر الأقمار الصناعية معا، وهذا يتيح له الوصول إلى كافة البيانات الموجودة في سحابة الجيش الإسرائيلي والوحدات التابعة له، حتى إن قامت بتخزين البيانات محليا. ويسر هذا الأمر عمل وحدة "لوتيم" التي تمثل هجينا فريدا من نوعه، إذ تمزج بين بيئة عمل ومناخ الشركات التقنية الناشئة وبين الوحدات العسكرية في الجيش الإسرائيلي، وضمن هذه الوحدة، يوجد فريق صغير يدعى "مصنع النصوص" (Text Factory) هو المسؤول عن مشروع روبوت الدردشة المعزز بالذكاء الاصطناعي. ويصف الكابتن "د" -البالغ من العمر 28 سنة، وهو خريج هندسة البيانات والذكاء الاصطناعي وحاصل على ماجستير إدارة الأعمال وأحد العقول التي تقف وراء "جيني"- مهمة فريقه في تطوير نموذج الذكاء الاصطناعي بكونها مهمة معقدة وحساسة للغاية، إذ يستخدمون كافة التقنيات المدنية ولكن بشكل عسكري. ويؤكد أن وحدته تعمل بشكل يشبه الشركات التقنية الناشئة، إذ تضم مديري مشاريع وفرق تطوير وفرق تسويق وحتى فرقا لمتابعة العملاء، مع كون العملاء هنا هم الوحدات العسكرية وجنود جيش الاحتلال في مختلف أجنحة الجيش. ويقول الرائد يوناتان، البالغ من العمر 28 عاما من فلسفة وحدة "لوتيم" إن الوحدة أقرب إلى شركة "أمازون" فهي تعمل على تحليل البيانات سواء كانت نصوصا أو صورا أو مقاطع صوتية من أجل تزويد القادة بالمعلومات المباشرة والتحليلات الملائمة. واختتم الكاتبن "د" حديثه عن وحدته العسكرية قائلا إن جيش الاحتلال لن يتوانى عن استخدام أحدث التقنيات التي تؤثر بشكل إيجابي في قوتهم العملية. وأشارت صحيفة "يديعوت أحرونوت" إلى أن جيش الاحتلال يعين أكثر من 15 عالم ذكاء اصطناعي سنويا، ورغم أن ثلثهم فقط يذهب إلى فيلق "سي 4 آي"، إلا أنهم جميعا يشاركون في تطوير تقنيات الذكاء الاصطناعي للوحدات المختلفة داخل الجيش.

احتمال كبير أن أطفالك يستخدمون الذكاء الاصطناعي للغش.. كيف تكتشفهم؟
احتمال كبير أن أطفالك يستخدمون الذكاء الاصطناعي للغش.. كيف تكتشفهم؟

الجزيرة

time١٥-٠٤-٢٠٢٥

  • الجزيرة

احتمال كبير أن أطفالك يستخدمون الذكاء الاصطناعي للغش.. كيف تكتشفهم؟

اعترفت طالبة في المرحلة الثانوية من نيوجيرسي – الولايات المتحدة عمرها 17 عاما أنها غشّت في مادة اللغة الإنجليزية والرياضيات والتاريخ في العام الماضي، وروت تجربتها لصحيفة وول ستريت جورنال، وأظهرت كيف يمكن للذكاء الاصطناعي أن يتدخل في النظام التعليمي ويسمح للطلاب بالغش والاستعانة بمصادر خارجية سريعة بدلا من البحث في الكتب والاعتماد على الذات. وذكرت أنها استخدمت الذكاء الاصطناعي في عشرات الواجبات العام الماضي لأن العمل كان مملا وصعبا، وهي أرادت الحصول على درجة أفضل، وفي بعض المرات أجلت العمل ووجدت نفسها بلا وقت كاف لإكمال المهام. ولجأت الطالبة إلى نموذج " شات جي بي تي" و"جيميني" للمساعدة في توليد الأفكار ومراجعة المفاهيم، وهو أمر يسمح به العديد من المعلمين، وفي أغلب الأحيان، كان الذكاء الاصطناعي يكمل عملها، وقالت الطالبة إن "جيميني" كان يحل المسائل الرياضية حلا ممتازا، بينما "شات جي بي تي" أجرى حسابات لمختبر العلوم، وشرح جزءا صعبا من بحث في التاريخ، والطالبة عدلته وأعادت كتابته لتجنب اكتشافه. ورغم استخدام الذكاء الاصطناعي في الغش فإن بعض المعلمين يرون أن له فوائد في المرحلة الدراسية، ومع ذلك يتركون مهمة المراقبة لأولياء الأمور لأنهم المسؤول الأول عن منع استخدام التكنولوجيا في تجاوز عملية التعليم، فشركات الذكاء الاصطناعي لا تقدم سوى القليل من المساعدة مقارنة بالمنهج الدراسي. الطلاب يستخدمون "شات جي بي تي" لحل واجباتهم أفادت شركة " أوبن إيه آي" أن نحو 400 مليون شخص يستخدمون "شات جي بي تي" أسبوعيا، ويُعد الطلاب أكثر المستخدمين له، إذ تأمل الشركة أن يكتسب الطلاب عادة دائمة في استشارة "شات جي بي تي" كلما كان لديهم سؤال، وهي خدمة توفرها غوغل منذ 3 عقود. وبحسب إحصائية أجرتها شركة "إمباكت ريسيرتش" (Impact Resear) العام الماضي، فإن ما يقارب 40% من طلاب المدارس المتوسطة والثانوية استخدموه دون إذن المعلمين لإكمال واجباتهم، أما طلاب الجامعات الذين يستخدمون الذكاء الاصطناعي فقد بلغت نسبة مستعمليه، ما يقارب النصف، وأفاد تحليل نشرته "أوبن إيه آي" أن طلاب الجامعات يستخدمون نموذجها باستمرار للمساعدة في كتابة الأبحاث والدراسات. والطلاب الذين يستخدمون الهواتف الذكية والحواسيب دون إشراف الكبار لهم خياران، إما استخدام الذكاء الاصطناعي، وهو الخيار السهل ويسمح لهم بتحصيل أعلى الدرجات سرا، وإما الاعتماد على أنفسهم. ومن الجدير بالذكر، أن الطلاب الصغار يمكنهم التحايل على قيود العمر التي تفرضها "أوبن إيه آي" بسهولة، وعليه تبقى هذه القيود غير فعالة في منع الطلاب من استخدام هذه الأدوات. وقال مارك واتكينز، وهو مدرس وباحث في جامعة ميسيسيبي ومتخصص في تقاطع الذكاء الاصطناعي والتعليم "هذه تجربة عامة ضخمة لم يطلبها أحد" مشيرا إلى أن دمج الذكاء الاصطناعي في التعليم يحدث بسرعة ودون تخطيط كافٍ مما يثير مخاوف بشأن العواقب غير المقصودة. وبالعودة إلى طالبة نيوجيرسي فقد نجحت في دروسها باستخدام الذكاء الاصطناعي العام الماضي، ولكنها أدركت في النهاية أنها لم تتعلم بالقدر المطلوب، وقررت التوقف عن استخدامه في سنتها الأخيرة والاعتماد على قدراتها العقلية الخاصة، إذ قالت "حاولت التوقف قليلا عن استخدام الذكاء الاصطناعي والاعتماد على نفسي". كيف يستخدم الطلاب الذكاء الاصطناعي في الغش؟ يُعد الذكاء الاصطناعي فرصة لكثير من الطلاب لتسهيل أمورهم الدراسية وإنجاز واجباتهم بسرعة دون أن يهتموا بمدى التأثير السلبي الذي يلحق ذلك، وسنذكر أبرز 10 طرق لاستخدام الذكاء الاصطناعي في الغش. استخدام الذكاء الاصطناعي في كتابة المقالات والأبحاث: يستخدم العديد من الطلاب نماذج الذكاء الاصطناعي مثل "شات جي بي تي" في كتابة المقالات مستغلين تقنية التعلم العميق في هذه النماذج التي تساعد في فهم السياق وكتابة أي موضوع تقريبا في دقائق معدودة، وسيكون المحتوى مميزا وغير مكرر في كل مرة، وهذا ما يساعد في تجاوز أدوات كشف النسخ التي تبحث عن تطابقات نصية بسيطة. أدوات التدقيق والتحرير بالذكاء الاصطناعي: إحدى أشيع هذه الأدوات هي "غرامرلي" (Grammarly) التي تحدد الأخطاء الإملائية والنحوية في المحتوى وتقترح خيارات مناسبة، ويستغل بعض الطلاب هذه الأداة في تحويل موضوعاتهم المتوسطة إلى موضوعات عالية المستوى لا تعكس قدراتهم الحقيقية في الكتابة، مما يضلل المعلمين عن مهاراتهم الحقيقية في الكتابة الإبداعية. الإجابة عن الأسئلة في وقت قصير: أصبح "شات جي بي تي" أساسيا لدى كثير من الطلاب في حل الأسئلة وإنجاز الوظائف دون أي عناء، مستغلين قدرة روبوتات الدردشة على فهم مجموعة واسعة من الأسئلة والرد عليها فورا، وهكذا يتحول الاختبار المغلق إلى كتاب مفتوح بدون أي مراقبة. حل المسائل الرياضية: يستغل الطلاب أدوات مثل "فوتوماث" (Photomath) و"وولفرام" (Wolfram) المصممة لمساعدة الطلاب في فهم الرياضيات، وليس حل واجباتهم، وهذه الأدوات لا توفر الإجابة فقط، بل تقدم الحل مفصلا خطوة خطوة مما ينعكس سلبا على المهارات الأساسية في الرياضيات. التزييف العميق: هي تقنية متقدمة جدا، ولكن هناك بعض الطلاب المحترفين يستغلونها في إنشاء فيديو مزيف يظهر أنهم يقومون بعرض تقديمي على أكمل وجه، وهذه التقنية هي أخطر أداة يمكن أن تكون في أيدي الطلاب لما لها من تبعات أخلاقية ويجب التعامل معها بحزم فورا. التنبؤ بنمط الامتحان: يعتمد بعض الطلاب على تحليل البيانات بالذكاء الاصطناعي للتنبؤ بنمط الأسئلة، وتعتمد أدوات تحليل البيانات المتقدمة على خوارزميات التعلم الآلي لمراجعة الاختبارات والامتحانات السابقة وتحديد نمط الأسئلة. استغلال منصات حل الواجبات المدرسية: توفر بعض المنصات مثل "تشيغ" (Chegg) المساعدة على حل الواجبات المدرسية على مدار الساعة، ورغم أن هذه الخدمة مفيدة في بعض الأحيان فإن بعض الطلاب يستغلونها في الغش أثناء الامتحان أو حل الواجبات المدرسية، ورغم سياسة "تشيغ" ضد الغش، لكنها لا تكشف هوية المستخدمين مما يجعلها خيارا مغريا لكثير من الطلاب الذين يسعون إلى الغش. كيف يمكنك اكتشافهم؟ أفضل شيء يمكنك فعله لمعرفة ما إذا كان أطفالك يستخدمون الذكاء الاصطناعي في واجباتهم، هو متابعتهم في كل خطواتهم، فإذا قال لك طفلك، إنه أنهى واجباته بسرعة كبيرة فلا تستعجل في الفرح بأن طفلك ذكي جدا، لأن هذا الذكاء قد يكون اصطناعيا، وسنذكر أبرز الإستراتيجيات لكشفهم. أدوات كشف المحتوى المولد بالذكاء الاصطناعي: تتوفر العديد من الأدوات التي تكشف المحتوى المكتوب بالذكاء الاصطناعي أبرزها "سكريبر" (Scribber) و "جي بي تي زيرو" (GPTZero)، ولكن مشكلتها الوحيدة أنها ليست دقيقة ويمكن للغشاشين المتمرسين تخطيها. عامل الوقت: يختلف الطلاب في مهاراتهم الكتابية، فمنهم من يستغرق 20 دقيقة، ومنهم مَن يستغرق أكثر من ساعة، ولكن هذا الأمر لا يستغرق سوى 3 ثوانٍ عند استخدام الذكاء الاصطناعي، فإذا كان طفلك ينجز واجباته أسرع من المعتاد وفي عجالة فهذه علامة حاسمة على أنه لا يعتمد على مهاراته. أسلوب الكتابة: لكل شخص أسلوبه في الكتابة يميزه عن غيره، وكذلك الذكاء الاصطناعي لديه أسلوب كتابة واحد يُدركه الجميع، فإذا وجدت طفلك يستخدم كلمات لا يستخدمها في العادة أو مصطلحات أكبر من مداركه، فهناك احتمال كبير أنه استعان بروبوتات الدردشة. النمطية المبالغ فيها: صممت نماذج الذكاء الاصطناعي لتقديم إجابات نمطية جدا، أي أنها تتبع صيغة أو هيكلا محددا، لتغطية جميع النقاط المطلوبة بشكل منظم ومختصر، بينما يميل الطلاب الحقيقيون إلى عدم التوازن في إجاباتهم، فالعديد من الطلاب لا يجيبون عن السؤال بدقة أو لا يتناولون كل نقطة معطاة، حيث يميلون إلى الكتابة بشكل أوسع عن النقاط القوية أو الأشياء التي يعرفونها أكثر. المثالية المبالغ فيها: يرتكب جميع الأطفال الأخطاء ومن دونها لا يوجد تعلم، فإذا وجدت طفلك يقوم بواجباته بشكل مثالي دائما، فمن المرجح أن هنالك روبوت دردشة يساعده على ذلك. نقص الأمثلة: إحدى أبرز مشكلات مخرجات الذكاء الاصطناعي هي قلة الأمثلة لأنه يركز على الإجابة أكثر من شرحها، وكثير من الطلاب يستخدمون أمثلة وحكايات لتوضيح أفكارهم، وعليه فإن النقص التام في الأمثلة أو الاقتباسات أو القصص القصيرة قد يُشير إلى استخدام الذكاء الاصطناعي.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store