logo
تشات جي بي تي يضعف مهارات التفكير النقدي.. دراسة

تشات جي بي تي يضعف مهارات التفكير النقدي.. دراسة

الغدمنذ 7 ساعات

أظهرت دراسة جديدة أجراها باحثون في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا أن الاعتماد على روبوت الدردشة ChatGPT لكتابة مقالات يُسهم في تراجع مستويات التفاعل العصبي والأداء اللغوي والسلوكي، مقارنةً بالكتابة اليدوية أو البحث عبر غوغل.
اضافة اعلان
وفقاً للدراسة، التي شارك فيها 54 متطوعاً تتراوح أعمارهم بين 18 و39 عاماً من منطقة بوسطن، قُسِّم المشاركون إلى ثلاث مجموعات متساوية: الأولى استخدمت ChatGPT لكتابة ثلاث مقالات على غرار أسئلة اختبار SAT، والثانية اعتمدت على Google Search، والثالثة كتبت يدوياً دون أي مساعدة تقنية.
وخلال الكتابة، سجّل الباحثون نشاط الدماغ في 32 منطقة باستخدام تخطيط كهربية الدماغ (EEG).
أدنى مستويات التفاعل الدماغي وكسل فكري
أظهرت النتائج أن مجموعة مستخدمي ChatGPT سجّلت أقل نشاط عصبي عبر موجات ألفا (الإبداع)، وثيتا (الذاكرة)، ودلتا (المعالجة الدلالية)، مع أداء لغوي وسلوكي 'متواضع باستمرار'. ومع تقدم المشاركين في كتابة المقالات، لجأ معظمهم إلى نسخ ولصق إجابات الروبوت بدلاً من الصياغة الذاتية⁵.على النقيض، سجلت المجموعة التي كتبت المقالات يدوياً أعلى مستويات تواصل عصبي في نطاقات EEG الثلاث، وأظهرت حماساً وفضولاً أكبر ورضاً شخصياً عن مقالاتهم.
أداء غوغل بين المجموعتين
حققت مجموعة البحث عبر غوغل نشاطاً عصبياً فعالاً ورضاً ملحوظاً، ما يشير إلى أن البحث التقليدي لا يزال يحفّز التفكير النقدي بشكل أقوى من الاعتماد الكامل على أدوات الذكاء الاصطناعي.
إلى ماذا تُشير إعادة الصياغة؟
عندما طُلب من مجموعة ChatGPT إعادة كتابة أحد مقالاتهم دون الأداة، تذكّر المشاركون القليل من مضمونها وظهر ضعف في موجات ألفا وثيتا، ما يعكس ضعف تكامل التعلم في الذاكرة.
وحذّرت المؤلفة الرئيسية، الدكتورة ناتاليا كوزمينا، من 'خطر الاعتماد على أدوات الراحة الفورية لدى الأدمغة النامية'، ودعت إلى 'تنشئة تعليمية متوازنة تجمع بين الطرق التناظرية والرقمية'. وتشدد الدراسة على ضرورة اختبار هذه الأدوات وتشريع استخدامها في المؤسسات التعليمية قبل تعميمها.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

اكتشاف سبب محوري لـ"تحيّز" الشبكات العصبية في معالجة المعلومات
اكتشاف سبب محوري لـ"تحيّز" الشبكات العصبية في معالجة المعلومات

أخبارنا

timeمنذ 7 ساعات

  • أخبارنا

اكتشاف سبب محوري لـ"تحيّز" الشبكات العصبية في معالجة المعلومات

أخبارنا : كشف باحثون من معهد "ماساتشوستس" عن سبب ميل النماذج اللغوية الكبيرة مثل ChatGPT أو DeepSeek إلى المبالغة في تقدير المعلومات الموجودة في بداية ونهاية النص مع إهمال منتصفه. وهذه الظاهرة التي تُسمى "تحيز الموضع" قد تعيق المستخدمين الذين يبحثون عن عبارات مفتاحية في المستندات الطويلة. وطور فريق علمي بقيادة الباحث شين يي وو من معهد "ماساتشوستس" التكنولوجي نمطا يفسر سبب تركيز النماذج اللغوية الكبيرة مثل ChatGPT على بداية ونهاية النص. فهي تقرأ النص على أجزاء و"تُركز" على الكلمات الأكثر أهمية لفهمه، لكن بعض الإعدادات التقنية، مثل قدرتها على رؤية الكلمات السابقة فقط أو توجيهات ترتيب الكلمات، تخلق تحيزا. والسبب الرئيسي لاهتمامها ببداية النص مرتبط بالمعالجة التسلسلية، حيث تأخذ النماذج في الاعتبار الكلمات السابقة فقط، مما يجعل الأجزاء الأولية تبدو أكثر تأثيرا. وعلى سبيل المثال ففي وثيقة متكونة من 30 صفحة، تصل احتمالية العثور على المعلومة المطلوبة في البداية أو النهاية إلى 85%، بينما في المنتصف لا تتجاوز 60%. وكشفت الدراسات أن دقة التحليل أعلى عند حوافي النص وتنخفض بشكل ملحوظ في منتصفه، وهي ظاهرة سُميت "تأثير الشكل U، ويتجلى ذلك أكثر في النماذج المعقدة مثل GPT-4 بطبقاتها الـ96 للمعالجة. وعلى الرغم من أن آليات مثل "التلميحات الموضعية" تساعد في فهم السياق، إلا أن فعاليتها محدودة في النماذج الضخمة.

أسئلة تدفع الذكاء الإصطناعي إلى إنتاج كميات "صادمة" من الانبعاثات الكربونية
أسئلة تدفع الذكاء الإصطناعي إلى إنتاج كميات "صادمة" من الانبعاثات الكربونية

أخبارنا

timeمنذ 7 ساعات

  • أخبارنا

أسئلة تدفع الذكاء الإصطناعي إلى إنتاج كميات "صادمة" من الانبعاثات الكربونية

أخبارنا : اكتشف باحثون ألمان أن طرح أسئلة تحتاج إلى تفكير عميق على روبوتات الدردشة مثل ChatGPT يجعلها تستهلك طاقة أكبر ما يؤدي لانبعاثات كربونية أعلى بكثير من الأسئلة البسيطة. ويشير الباحثون من جامعة ميونخ للعلوم التطبيقية بألمانيا إلى أن كل استفسار يتم إدخاله إلى نموذج لغوي كبير مثلChatGPT يتطلب طاقة ويؤدي إلى انبعاثات ثاني أكسيد الكربون. ويؤكد الباحثون أن مستويات الانبعاثات تعتمد على روبوت الدردشة والمستخدم وموضوع السؤال. وقارنت الدراسة بين 14 نموذجا للذكاء الاصطناعي وتخلص إلى أن الإجابات التي تتطلب استدلالا معقدا تسبب انبعاثات كربونية أكبر من الإجابات البسيطة. الاستفسارات التي تحتاج إلى استدلال مطول، مثل الجبر المجرد أو الفلسفة، تتسبب في انبعاثات تصل إلى 6 أضعاف تلك الناتجة عن مواضيع أكثر بساطة مثل السئلة التاريخية. ويوصي الباحثون المستخدمين باستمرار لروبوتات الدردشة الذكاء الاصطناعي بتعديل نوع الأسئلة التي يطرحونها للحد من الانبعاثات الكربونية. وقامت الدراسة بتقييم ما يصل إلى 14 نموذجا لغويا كبيرا على 1000 سؤال موحد عبر مواضيع مختلفة لمقارنة انبعاثاتها الكربونية. ويوضح مؤلف الدراسة ماكسيميليان داونر: "التأثير البيئي لاستجواب النماذج اللغوية الكبيرة المدربة يتحدد بشكل كبير من خلال منهجيتها في الاستدلال، حيث تزيد عمليات الاستدلال الصريح بشكل كبير من استهلاك الطاقة وانبعاثات الكربون". ويضيف: "وجدنا أن النماذج المزودة بقدرات استدلالية تنتج انبعاثات ثاني أكسيد الكربون أكثر بـ50 مرة من النماذج التي تقدم إجابات موجزة". وعندما يطرح المستخدم سؤالا على روبوت دردشة الذكاء الاصطناعي، يتم تحويل الكلمات أو أجزاء من الكلمات في الاستفسار إلى سلسلة من الأرقام ومعالجتها بواسطة النموذج. وهذه العملية التحويلية وغيرها من عمليات الحوسبة للذكاء الاصطناعي تنتج انبعاثات كربونية. فالنماذج التي تعتمد على تحليل متعمق وتفكير استدلالي معقد تستهلك طاقة أكبر بشكل ملحوظ، إذ تصل إلى إنتاج 543 رمزا في المتوسط لكل إجابة، مقارنة بنحو 40 رمزا فقط في حالة النماذج التي تقدم إجابات مختصرة ومباشرة. ويكشف التحليل المفصل عن مفارقة صارخة بين الدقة والاستدامة في نماذج الذكاء الاصطناعي. فنجد أن نموذج Cogito الذي يتميز بدقة تصل إلى 85%، ينتج انبعاثات كربونية تزيد 3 مرات عن تلك الصادرة عن نماذج مماثلة الحجم تقدم إجابات موجزة. وفي المقابل، لم تتمكن أي من النماذج التي حافظت على انبعاثات أقل من 500 غرام من مكافئ ثاني أكسيد الكربون (وهو وحدة قياس تأثير الغازات الدفيئة على المناخ) من تجاوز نسبة 80% من الدقة في الإجابات. ولتوضيح حجم المشكلة بشكل ملموس، يقدم الباحثون مقارنة عملية صادمة: فمجرد طرح 600 ألف سؤال على نموذج DeepSeek R1 يولد انبعاثات كربونية تعادل تلك الناتجة عن رحلة طيران ذهابا وإيابا بين لندن ونيويورك. أما إذا استخدمنا نموذج Qwen 2.5 من Alibaba Cloud للإجابة على نفس الأسئلة، فيمكن الحصول على أكثر من ثلاثة أضعاف عدد الإجابات بنفس مستوى الدقة مع الحفاظ على نفس كمية الانبعاثات. ويؤكد الدكتور داونر أن المستخدمين العاديين يمكنهم لعب دور مهم في تخفيف هذه الآثار البيئية، من خلال تبني ممارسات أكثر استدامة في تفاعلهم مع أنظمة الذكاء الاصطناعي. وينصح في هذا الصدد باللجوء إلى نمط الاستخدام الواعي الذي يركز على طلب الإجابات المختصرة عندما لا تكون هناك حاجة للتفاصيل، وحصر استخدام النماذج عالية الاستهلاك للطاقة في المهام التي تتطلب فعلا قدرات معالجة معقدة. المصدر: إندبندنت

ميتا تسلّم 90% من قرارات مراجعة المخاطر للذكاء الاصطناعي
ميتا تسلّم 90% من قرارات مراجعة المخاطر للذكاء الاصطناعي

الغد

timeمنذ 7 ساعات

  • الغد

ميتا تسلّم 90% من قرارات مراجعة المخاطر للذكاء الاصطناعي

تقوم شركة ميتا بإعادة تشكيل جوهرية لطريقة تعاملها مع سلامة المنتجات والخصوصية، إذ تخطط لأن يدير نظام ذكاء اصطناعي ما يصل إلى 90% من تقييمات المخاطر المتعلقة بالتحديثات على تطبيقاتها واسعة الاستخدام مثل إنستغرام وواتساب. اضافة اعلان ويهدف هذا التحوّل التشغيلي الكبير، المستند إلى وثائق داخلية كشف عنها تحقيق أجرته NPR، إلى تسريع وتيرة تطوير المنتجات. ومع أن المستخدمين قد يلاحظون وصول ميزات جديدة بوتيرة أسرع، إلا أن هذه الخطوة أثارت مخاوف تتعلق بعمق مراجعات السلامة والخصوصية. النهج الجديد القائم على الذكاء الاصطناعي سيسمح لميتا بإطلاق تحديثات لمنتجاتها بسرعة أكبر، إلا أن أحد المدراء التنفيذيين السابقين في الشركة صرّح لـNPR بأن هذا التحوّل "يرفع من المخاطر"، إذ "تصبح الآثار الجانبية السلبية لتغييرات المنتجات أقل قابلية للمنع قبل أن تبدأ بالتسبب بمشكلات فعلية في العالم." وبحسب التقرير، فإن العملية الجديدة المدفوعة بالذكاء الاصطناعي – والتي بدأت بالتصاعد خلال شهري أبريل ومايو – تتضمن قيام فرق المنتجات بتعبئة استبيان تتبعه "قرار فوري" من الذكاء الاصطناعي، يحدد المخاطر ويعرض متطلبات الإطلاق المسبقة. ويأتي هذا التحوّل في ظل اتفاق أبرمته ميتا (فيسبوك سابقًا) عام 2012 مع لجنة التجارة الفيدرالية الأميركية (FTC)، يلزمها بإجراء مراجعات خصوصية دقيقة – وهي مهام كانت تُنفذ سابقًا من قبل موظفين بشريين. وردًا على هذه المخاوف، صرّح متحدث باسم ميتا: "لقد استثمرنا أكثر من 8 مليارات دولار في برنامج الخصوصية الخاص بنا، ونحن ملتزمون بتقديم منتجات مبتكرة تلبي احتياجات المستخدمين، مع الامتثال الكامل للالتزامات التنظيمية." وأضاف المتحدث: "مع تطور المخاطر ونضوج برنامجنا، نعمل على تحسين عملياتنا لتحديد المخاطر بشكل أدق، وتبسيط اتخاذ القرار، وتحسين تجربة المستخدمين. نحن نستفيد من التكنولوجيا لتوفير الثبات والتوقع في القرارات منخفضة المخاطر، بينما نعتمد على الخبرة البشرية للتقييمات الصارمة والإشراف على القضايا الجديدة والمعقدة." التحوّل إلى إشراف قائم على الذكاء الاصطناعي تُعد أتمتة تقييم المخاطر جزءًا أساسيًا من استراتيجية ميتا الأشمل لدمج الذكاء الاصطناعي في مختلف عملياتها، وهي توجه واضح منذ مطلع 2025. وتشمل هذه الاستراتيجية التزامًا ماليًا كبيرًا، إذ تعتزم الشركة استثمار نحو 65 مليار دولار في الذكاء الاصطناعي هذا العام. وتترافق هذه الاستثمارات مع إعادة هيكلة تنظيمية كبرى، تتضمن توظيف مئات من مهندسي الذكاء الاصطناعي، مقابل خفض 5% من القوة العاملة الإجمالية. وكتب ميشيل بروتي، رئيس قسم الخصوصية في ميتا، في منشور داخلي خلال شهر مارس: "نحن نُمكّن فرق المنتجات ونتطور في إدارة المخاطر داخل ميتا". وأوضح بروتي أن الهدف هو "تبسيط اتخاذ القرار" عبر أتمتة مراجعات المخاطر في معظم الحالات، بحسب تحقيق NPR. هذا التوجه الداخلي نحو السرعة والكفاءة يشمل أيضًا الإشراف على المحتوى. وفي تقرير النزاهة الفصلي الأخير للشركة – الذي استندت إليه NPR – تزعم ميتا أن نماذج اللغة الكبيرة (LLMs) "تعمل بمستوى يفوق الأداء البشري في بعض السياسات"، وتُستخدم لتصفية المنشورات التي من المحتمل بدرجة عالية ألا تنتهك القواعد. لكن الوثائق الداخلية التي استعرضتها NPR تشير إلى أن ميتا تفكر في أتمتة مراجعات حتى في مجالات حساسة مثل سلامة الذكاء الاصطناعي، ومخاطر الشباب، و"النزاهة" – التي تشمل المحتوى العنيف والمعلومات المضللة – رغم التصريحات العامة التي تؤكد اقتصار الأتمتة على القرارات منخفضة المخاطر. موازنة الابتكار والسلامة والرقابة التنظيمية يبدو أن هذا التوجه نابع من شدة التنافس في سوق التكنولوجيا. فقد دفعت نماذج منافسة مثل R1 من DeepSeek ميتا إلى تسريع تحركاتها.ووصف أحد المهندسين الوضع بأنه "سباق جنوني لمجاراة هذا المستوى من الكفاءة". هذا المناخ التنافسي هو سبب رئيسي في قرارات ميتا الاستراتيجية، بما في ذلك تعيين لوريدانا كريسان – الرئيسة السابقة لتطبيق ماسنجر – للإشراف على قسم الذكاء الاصطناعي التوليدي. وتُطور ميتا حوكمة الذكاء الاصطناعي منذ فترة، إذ أطلقت في فبراير "إطار عمل الذكاء الاصطناعي الحدودي"، لتصنيف نماذجها إلى فئات "عالية الخطورة" و"حرجة الخطورة". وأكدت عند إطلاقه أنها "من خلال هذا الإطار، ستُعطي الأولوية للتقليل من المخاطر الكارثية مع الحفاظ على الابتكار والتقدّم." وقد جاء هذا التوجه استجابةً لحوادث سابقة، مثل إساءة استخدام نماذج LLaMA، وكذلك الضغوط التنظيمية المتزايدة، خصوصًا من قانون الخدمات الرقمية الأوروبي (DSA). وقال زفيكا كريغر، مدير سابق في ميتا، في تصريح لموقع NewsBytes: "رغم أن الأتمتة تُسرّع المراجعات، فإن الإفراط فيها سيؤدي حتمًا إلى تراجع جودة التقييم والنتائج." ومن اللافت أن إعلانًا داخليًا من ميتا أفاد بأن قرارات المنتجات وبيانات المستخدمين في الاتحاد الأوروبي ستظل خاضعة لمقر الشركة في إيرلندا، ما قد يعزل مستخدمي أوروبا عن بعض هذه التغييرات، حسب تقرير NPR. توسع أكبر في التكامل والشراكات تتجاوز طموحات ميتا في الذكاء الاصطناعي حدود عملياتها الداخلية ومنتجاتها للمستهلكين. ففي نوفمبر 2024، حدّثت الشركة سياسة "الاستخدام المقبول"، وسمحت لشركات الدفاع الأميركية باستخدام نماذجها اللغوية الكبرى. وبين الشركات المستفيدة: لوكهيد مارتن، وبوز ألين هاملتون، وبالانتير تكنولوجيز، وأندريل إندستريز. وتشمل الشراكات تطوير معدات عسكرية متقدمة، مثل خوذات مدعومة بالواقعين الافتراضي والمعزز. وأظهر تقرير تطبيق معايير المجتمع للربع الأول من 2025 انخفاضًا بنحو 50% في أخطاء التطبيق داخل الولايات المتحدة مقارنةً بالربع السابق، ويُعزى ذلك إلى التركيز على الانتهاكات عالية الخطورة وتحسين الدقة من خلال تدقيق الأنظمة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store