logo
ChatGPT يختبر ميزة تعليمية جديدة تُحاكي الدراسة التفاعلية

ChatGPT يختبر ميزة تعليمية جديدة تُحاكي الدراسة التفاعلية

العالم24منذ 4 أيام
لاحظ بعض مستخدمي ChatGPT مؤخرًا ظهور ميزة تجريبية جديدة تُدعى 'الدراسة معًا' (Study Together) ضمن الأدوات المتاحة في المنصة، في خطوة تعكس توجه OpenAI المتزايد نحو دعم التعلم التفاعلي بدلًا من الاعتماد فقط على تقديم الإجابات المباشرة.
وعلى عكس الأسلوب التقليدي الذي اعتاد عليه المستخدمون، تقوم هذه الأداة بطرح الأسئلة على المتعلم وتشجيعه على التفكير والإجابة، مما يقرّبها أكثر إلى دور المدرّس أو زميل الدراسة، ويجعل التجربة التعليمية أكثر تفاعلًا ومشاركة، عوضًا عن الاعتماد على الحفظ أو التلقين.
فيما تشير تجارب المستخدمين الأوائل إلى أن الميزة ما تزال في مراحلها الأولية، رجّح البعض أنها قد تدعم مستقبلًا جلسات دراسية جماعية بمشاركة أكثر من مستخدم، وهو ما يفتح الباب أمام تجارب تعليمية جماعية مدعومة بالذكاء الاصطناعي.
ورغم عدم صدور إعلان رسمي من OpenAI بشأن الإطلاق الكامل لهذه الميزة أو الفئات المستهدفة بها، فإن إطلاقها يأتي في سياق تزايد اعتماد المعلمين والطلاب على ChatGPT في السياقات التعليمية، سواء لإعداد المحتوى الدراسي أو للمساعدة في الفهم والمراجعة — وأحيانًا لأداء الواجبات، ما أثار نقاشات حول دور الذكاء الاصطناعي في العملية التعليمية.
ويُنظر إلى هذه الأداة الجديدة كخطوة استراتيجية من OpenAI للتماشي مع الاتجاهات العالمية في التعليم الرقمي، وربما كاستجابة مباشرة لمبادرة Google التعليمية 'LearnLM'، التي تسعى بدورها إلى دمج الذكاء الاصطناعي في تجارب التعلم الفعالة.
ويبدو أن 'الدراسة معًا' تهدف إلى إعادة توجيه استخدام الذكاء الاصطناعي نحو أساليب تعليمية بنّاءة، وتقليص فرص استخدامه بطرق غير تعليمية مثل الغش أو الاجتياز غير المشروع للمهام الدراسية.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

مصريون يحذرون من "الذكاء الاصطناعي المظلم" بسبب أدوات خبيثة تُنتج جرائم رقمية بسرعة ودقة مخيفة
مصريون يحذرون من "الذكاء الاصطناعي المظلم" بسبب أدوات خبيثة تُنتج جرائم رقمية بسرعة ودقة مخيفة

المغرب اليوم

timeمنذ يوم واحد

  • المغرب اليوم

مصريون يحذرون من "الذكاء الاصطناعي المظلم" بسبب أدوات خبيثة تُنتج جرائم رقمية بسرعة ودقة مخيفة

حذر خبراء مصريون في مجال الأمن السيبراني من التهديدات المتزايدة لما يُعرف بـ" الذكاء الاصطناعي المظلم"، مؤكدين أن هذه التكنولوجيا لم تعد مجرد سيناريو مستقبلي، بل أصبحت واقعًا يُستغل بالفعل في تنفيذ جرائم إلكترونية معقدة ومتطورة. وقال محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، إن الذكاء الاصطناعي المظلم يتمثل في استغلال تقنيات الذكاء الاصطناعي لأغراض إجرامية مثل التصيد الاحتيالي المتطور، والتزييف العميق، وإنشاء برمجيات خبيثة قادرة على التخفي والتطور الذاتي. وأوضح أن "هذه الهجمات أصبحت أكثر تعقيدًا وذكاءً، حيث تُستخدم نماذج الذكاء الاصطناعي في صياغة رسائل تصيد إلكتروني بالغة الإقناع، واستنساخ مواقع إلكترونية رسمية لخداع المستخدمين، والتلاعب بالصوت والصورة لانتحال شخصيات معروفة. كل هذا يتم بسرعة ودقة عالية، دون الحاجة إلى خبرة تقنية متقدمة، ما يزيد من خطورة التهديد". وأشار رمضان إلى أن منصات الإنترنت المظلم بدأت منذ أواخر 2022 – بالتزامن مع إطلاق ChatGPT – في استنساخ وتعديل نماذج الذكاء الاصطناعي واستخدامها في تطوير أدوات إجرامية، مثل: WormGPT: منصة مفتوحة المصدر تُنتج برمجيات فدية وأكواد ضارة. FraudGPT: تُستخدم لإنشاء رسائل تصيد احترافي وتطوير أدوات اختراق. AutoGPT: لتدريب النماذج على تنفيذ أهداف خبيثة بشكل ذاتي دون تدخل بشري. FreedomGPT: مولّد محتوى غير خاضع للرقابة يُستخدم في أنشطة خطيرة دون اتصال بالإنترنت. وأكد أن هذه الأدوات تُسوّق على الدارك ويب كخدمات اشتراك شهري، ما يجعلها في متناول الجميع، وليس فقط القراصنة المحترفين. ولفت إلى أن الجريمة السيبرانية أصبحت تميل إلى التحول من عمليات مركّبة ونادرة إلى ظاهرة رقمية يومية قد تطال أي مستخدم بسيط. وأضاف أن تقارير شركات عالمية مثل CrowdStrike وGartner تؤكد تصاعد استخدام الذكاء الاصطناعي في الهجمات السيبرانية المتقدمة، بينما سجلت Acronis تضاعف عدد هجمات التزييف العميق والتصيد بنسبة 200%، فيما حذّرت غوغل من استغلال نموذج "Gemini" من قبل جهات مدعومة حكوميًا. من جانبه، صرّح اللواء خالد حمدي، مساعد أول وزير الداخلية الأسبق وخبير الأمن القومي، بأن "ما نواجهه اليوم هو طفرة في نوعية التهديدات الرقمية، حيث يتحرك ذكاء اصطناعي بلا ضمير في ظلام الإنترنت لتنفيذ هجمات يصعب رصدها أو التصدي لها بالوسائل التقليدية". وشدد حمدي على ضرورة بناء وعي سيبراني شامل لدى الأفراد والمؤسسات، إلى جانب اعتماد أدوات دفاع رقمية ذكية واستباقية وتشديد الرقابة على تطوير واستخدام تطبيقات الذكاء الاصطناعي. وختم تصريحه بالتحذير قائلاً: "قبل أن تضغط على رابط أو تفتح رسالة بريد إلكتروني، اسأل نفسك: هل أنا الهدف؟ الذكاء الاصطناعي قد يكون سبب اختراقك. الحل ليس في الخوف، بل في المعرفة والتأهب وبناء حصانة رقمية متكاملة".

شركة فرنسية تطلق نموذج ذكاء اصطناعي صوتي مفتوح المصدر
شركة فرنسية تطلق نموذج ذكاء اصطناعي صوتي مفتوح المصدر

برلمان

timeمنذ يوم واحد

  • برلمان

شركة فرنسية تطلق نموذج ذكاء اصطناعي صوتي مفتوح المصدر

الخط : A- A+ إستمع للمقال أعلنت شركة «ميسترال» الفرنسية الناشئة عن إطلاق Voxtral، الذي يعد أول نموذج صوتي مفتوح المصدر مخصص لتقديم «ذكاء كلامي عملي» يخدم الاستخدامات التجارية. وبحسب تقرير نشره موقع «تك كرانش» واطلعت عليه «العربية بيزنس»، فإن Voxtral يتيح للمطورين خيارًا يجمع بين كفاءة النماذج المغلقة المصدر وتكلفة النماذج المفتوحة، دون المساس بمستوى الجودة. وأوضحت الشركة، أن النموذج الجديد قادر على نسخ وفهم الصوت بدقة وبكلفة تقل عن نصف تكلفة نماذج منافسة مثل «Whisper» التابع لـ«OpenAI». ويستطيع Voxtral معالجة ما يصل إلى 30 دقيقة من المحتوى الصوتي، فيما يتيح هيكله القائم على نموذج «ميسترال سمول 3.1» التعامل مع 40 دقيقة، ما يمكّنه من تحليل المحتوى وتلخيصه، وتحويل الأوامر الصوتية إلى مهام مباشرة مثل تشغيل واجهات برمجة التطبيقات.

خبراء الذكاء الاصطناعي يدقّون ناقوس الخطر: ضرورة مراقبة "أفكار" النماذج المتقدمة قبل فوات الأوان
خبراء الذكاء الاصطناعي يدقّون ناقوس الخطر: ضرورة مراقبة "أفكار" النماذج المتقدمة قبل فوات الأوان

أخبارنا

timeمنذ يوم واحد

  • أخبارنا

خبراء الذكاء الاصطناعي يدقّون ناقوس الخطر: ضرورة مراقبة "أفكار" النماذج المتقدمة قبل فوات الأوان

في دعوة جماعية غير مسبوقة، طالب كبار الباحثين في مجال الذكاء الاصطناعي من مؤسسات مثل OpenAI وGoogle DeepMind وAnthropic، إلى جانب شركات ومنظمات بحثية أخرى، بضرورة تكثيف الجهود لمراقبة ما يُعرف بـ"سلاسل التفكير" في نماذج الذكاء الاصطناعي المتقدمة، محذّرين من تراجع الشفافية إذا لم تُؤخذ هذه المسألة بجدية. وسلطت ورقة موقف بحثية حديثة الضوء على أهمية تتبّع ما يجري داخل هذه النماذج أثناء التفكير، عبر ما يسمى بـ"Chain-of-Thought" (CoT)، وهي آلية تُظهر كيف يقوم النموذج باستعراض خطواته المنطقية علنًا، بطريقة تُشبه حلّ الإنسان لمسألة على ورقة. تُعد هذه السلاسل جزءاً محورياً في نماذج الذكاء المتقدمة مثل o3 من OpenAI وR1 من DeepSeek، وتفتح الباب أمام تطوير عملاء ذكاء اصطناعي أكثر وعياً واستقلالاً. وجاء في الورقة: "توفر مراقبة سلاسل التفكير فرصة نادرة لفهم قرارات الذكاء الاصطناعي، ما يجعلها أداة مهمة لتعزيز الأمان، لكن الشفافية الحالية لا يمكن ضمان استمراريتها دون جهود منهجية." ودعا الباحثون إلى دراسة العوامل التي تؤثر في قدرة النماذج على إظهار تفكيرها، محذّرين من أن أي تدخل غير محسوب قد يُضعف هذه القدرة أو يُقوّض ثقة المستخدمين. ومن بين الأسماء الموقعة على الورقة: مارك تشين، مدير الأبحاث في OpenAI جيفري هينتون، أحد رواد الذكاء الاصطناعي والحائز على نوبل شاين ليغ، المؤسس المشارك في Google DeepMind إيلْيا سوتسكيفر، المدير التنفيذي لـ Safe Superintelligence دان هندريكس، مستشار السلامة في xAI جون شولمان، الشريك المؤسس لـ Thinking Machines وقال بوين بيكر من OpenAI: "نحن أمام لحظة محورية، وإذا لم نُسلّط الضوء على تقنيات التفكير المتسلسل اليوم، قد يتم تهميشها غداً رغم أهميتها." وتأتي هذه التحذيرات في وقت يتسارع فيه السباق بين كبرى شركات التقنية لإطلاق نماذج ذكية تتجاوز قدرات الإنسان في بعض المهام، وسط تحديات تتعلق بمدى القدرة على تفسير قرارات هذه النماذج أو السيطرة عليها مستقبلاً. من جهتها، أكدت شركة Anthropic، الرائدة في مجال تفسير الذكاء الاصطناعي، أن هدفها هو "فك شيفرة الصندوق الأسود" للنماذج بحلول عام 2027. إلا أن بعض أبحاثها أظهرت أن سلاسل التفكير ليست دائماً دليلاً على كيفية اتخاذ النموذج قراراته فعلاً، وهو ما يثير تساؤلات إضافية حول مدى الوثوق بهذه الآلية كمؤشر داخلي. مع ذلك، يرى باحثون من OpenAI أن سلاسل التفكير تظل أداة واعدة لقياس مدى توافق النماذج مع أهدافها المعلنة، مؤكدين ضرورة تطوير أدوات مستدامة لمراقبتها باستمرار، بما يعزز الأمان والشفافية في مستقبل تقوده أنظمة ذكية تتخذ قرارات بالغة التأثير على المجتمع.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store