logo
OpenAI تطلق 'وضع التسجيل' في تطبيق ChatGPT لتحويل المحادثات الصوتية إلى نصوص دقيقة

OpenAI تطلق 'وضع التسجيل' في تطبيق ChatGPT لتحويل المحادثات الصوتية إلى نصوص دقيقة

صحيفة مالمنذ 6 ساعات

أعلنت شركة OpenAI رسميا عن إطلاق ميزة 'وضع التسجيل Record Mode' لمشتركي خطط Pro وEnterprise وEdu، بعد أن كانت متاحة سابقا لمستخدمي خطة Team فقط، في خطوة تعزز من قدرات تطبيق 'ChatGPT' على نظام macOS.
وتتيح الميزة الجديدة تسجيل المحادثات الصوتية وتحويلها إلى نصوص دقيقة وواضحة لحظيا، بالاعتماد على تقنيات ذكاء اصطناعي متقدمة.
وتعد هذه الخاصية مثالية لتوثيق الاجتماعات، وجلسات العصف الذهني، وتسجيل الملاحظات السريعة، إذ تدعم تسجيلات صوتية تصل إلى 120 دقيقة، مع توليد فوري للنصوص أثناء الحديث.

وبعد انتهاء التسجيل، يقوم ChatGPT تلقائيا بإنتاج ملخص منظم لأبرز النقاط التي نوقشت، إلى جانب حفظ النص الكامل ضمن سجل المحادثات، ما يسهل على المستخدمين العودة إلى المعلومات أو متابعة العمل من حيث توقفوا.
وتوفر الميزة كذلك إمكانية تعديل النص يدويا أو طلب تحسينه من ChatGPT، فضلا عن تحليل الحوارات واستخلاص المهام وتحويلها إلى خطط عمل أو حتى أكواد برمجية، ما يجعلها أداة فعالة لمطوري البرمجيات، ومديري المشاريع، وغيرهم من المهنيين.
وأكدت 'OpenAI أن التسجيلات الصوتية لا تستخدم في تدريب نماذج الذكاء الاصطناعي بشكل تلقائي، إلا في حال تفعيل خيار 'تحسين النموذج للجميع' من قبل المستخدم، بما يضمن مراعاة خصوصية البيانات.
ويقتصر توفر ميزة 'Record Mode' حاليا على تطبيق 'ChatGPT لأجهزة ماك، مع أداء مثالي باللغة الإنجليزية، فيما تعمل الشركة على تحسين دعم اللغات الأخرى تدريجيا، إلى جانب التوسع المستقبلي لإطلاق الميزة على أنظمة ويندوز وتطبيقات الهواتف الذكية.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

OpenAI تطلق 'وضع التسجيل' في تطبيق ChatGPT لتحويل المحادثات الصوتية إلى نصوص دقيقة
OpenAI تطلق 'وضع التسجيل' في تطبيق ChatGPT لتحويل المحادثات الصوتية إلى نصوص دقيقة

صحيفة مال

timeمنذ 6 ساعات

  • صحيفة مال

OpenAI تطلق 'وضع التسجيل' في تطبيق ChatGPT لتحويل المحادثات الصوتية إلى نصوص دقيقة

أعلنت شركة OpenAI رسميا عن إطلاق ميزة 'وضع التسجيل Record Mode' لمشتركي خطط Pro وEnterprise وEdu، بعد أن كانت متاحة سابقا لمستخدمي خطة Team فقط، في خطوة تعزز من قدرات تطبيق 'ChatGPT' على نظام macOS. وتتيح الميزة الجديدة تسجيل المحادثات الصوتية وتحويلها إلى نصوص دقيقة وواضحة لحظيا، بالاعتماد على تقنيات ذكاء اصطناعي متقدمة. وتعد هذه الخاصية مثالية لتوثيق الاجتماعات، وجلسات العصف الذهني، وتسجيل الملاحظات السريعة، إذ تدعم تسجيلات صوتية تصل إلى 120 دقيقة، مع توليد فوري للنصوص أثناء الحديث. اقرأ المزيد وبعد انتهاء التسجيل، يقوم ChatGPT تلقائيا بإنتاج ملخص منظم لأبرز النقاط التي نوقشت، إلى جانب حفظ النص الكامل ضمن سجل المحادثات، ما يسهل على المستخدمين العودة إلى المعلومات أو متابعة العمل من حيث توقفوا. وتوفر الميزة كذلك إمكانية تعديل النص يدويا أو طلب تحسينه من ChatGPT، فضلا عن تحليل الحوارات واستخلاص المهام وتحويلها إلى خطط عمل أو حتى أكواد برمجية، ما يجعلها أداة فعالة لمطوري البرمجيات، ومديري المشاريع، وغيرهم من المهنيين. وأكدت 'OpenAI أن التسجيلات الصوتية لا تستخدم في تدريب نماذج الذكاء الاصطناعي بشكل تلقائي، إلا في حال تفعيل خيار 'تحسين النموذج للجميع' من قبل المستخدم، بما يضمن مراعاة خصوصية البيانات. ويقتصر توفر ميزة 'Record Mode' حاليا على تطبيق 'ChatGPT لأجهزة ماك، مع أداء مثالي باللغة الإنجليزية، فيما تعمل الشركة على تحسين دعم اللغات الأخرى تدريجيا، إلى جانب التوسع المستقبلي لإطلاق الميزة على أنظمة ويندوز وتطبيقات الهواتف الذكية.

"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار
"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار

Independent عربية

timeمنذ 9 ساعات

  • Independent عربية

"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار

سعت "OpenAI" منذ بداياتها إلى تطوير الذكاء الاصطناعي بما يخدم البشرية جمعاء، واضعة الصالح العام في صميم أهدافها، غير أن رحلتها نحو بناء "الذكاء الاصطناعي العام" قادتها لاحقاً إلى تبني نموذج ربحي محدود، أثار نقاشاً واسعاً حول توازن الابتكار والمسؤولية. أُسست الشركة في الـ15 من ديسمبر (كانون الأول) 2015 على يد سام ألتمان وإيلون ماسك ومجموعة من الشركاء، من بينهم شركتا "أمازون ويب سيرفيسز" و"إنفوسيس" الهندية. ووفقاً للميثاق التأسيسي فإن مهمة "OpenAI" الأساسية هي "ضمان أن يستفيد جميع البشر من الذكاء الاصطناعي العام (AGI)". وتشير الشركة في وثائقها الرسمية إلى أن "من الصعب تخيل حجم الفائدة التي قد يجلبها الذكاء الاصطناعي على مستوى الإنسان للمجتمع"، مؤكدة في الوقت ذاته أن "من الصعب بالقدر نفسه إدراك حجم الضرر الذي قد يلحقه بالمجتمع إذا بُني أو استُخدم بطريقة خاطئة". وتضيف "نظراً إلى التاريخ المفاجئ لتطور الذكاء الاصطناعي، فمن الصعب التنبؤ بموعد اقترابه من مستوى الذكاء البشري. وعندما يحدث ذلك سيكون من المهم وجود مؤسسة بحثية رائدة تضع الصالح العام فوق مصالحها الذاتية". وفي هذا السياق، توقع الرئيس المشارك سام ألتمان أن المشروع "سيستغرق عقوداً"، وقد "يتجاوز في نهاية المطاف الذكاء البشري". عقد بقيمة 200 مليون أعلنت وزارة الدفاع الأميركية (البنتاغون) في الـ18 من يونيو (حزيران) الجاري توقيع عقد بقيمة 200 مليون دولار مع شركة "OpenAI"، لتطوير أدوات ذكاء اصطناعي تُستخدم في الدفاع السيبراني وتحسين الكفاءة الإدارية والعسكرية. وذكر بيان الوزارة أن "OpenAI" ستطوّر نماذج أولية لمعالجة تحديات الأمن القومي، في حين أوضحت الشركة أن هذا التعاون يأتي ضمن مبادرة جديدة لإتاحة نماذجها للحكومة الأميركية، مع التزام عدم استخدامها في تطوير الأسلحة أو الإضرار بالأشخاص. الصفقة أعادت الجدل في شأن تعديل "OpenAI" لشروط الاستخدام العام الماضي، وإزالة الحظر على التطبيقات العسكرية، مما أثار انتقادات داخل الأوساط الأكاديمية. وأشارت الشركة إلى أن أدواتها ستُسهم أيضاً في تحسين خدمات الرعاية الصحية العسكرية، وتعزيز الدفاع السيبراني الاستباقي. وتأتي هذه الخطوة بعد شراكة مماثلة أبرمتها "OpenAI" مع شركة "Anduril" لتطوير تقنيات مواجهة الطائرات المسيّرة، في وقت تخفف فيه شركات مثل "Anthropic" و"Google" و"Meta" قيودها على الاستخدامات العسكرية للذكاء الاصطناعي. تحول تدريجي نحو الربحية في عام 2019، أعلنت "OpenAI" تحولها إلى نموذج "ربحي محدود العائد" (Capped-Profit)، يحدد سقف أرباح المستثمرين عند 100 ضعف قيمة استثماراتهم الأصلية. ووفقاً للشركة، فإن هذا النموذج "يتيح جذب الاستثمارات من صناديق رأس المال الجريء بصورة قانونية، كذلك يسمح بمنح الموظفين حصصاً في الشركة". وفي إطار هذا التحول، أطلقت "OpenAI" شراكة استراتيجية مع شركة "مايكروسوفت" شملت استثماراً بقيمة مليار دولار، لكن ألتمان أشار لاحقاً إلى أن هذا المبلغ "قد لا يكون كافياً"، مضيفاً أن المشروع "قد يتطلب رأس مال يفوق ما جمعته أي منظمة غير ربحية في التاريخ". وعلى رغم الانتقال إلى نموذج ربحي، أبقت الشركة على بنيتها القانونية لضمان التزامها الرسالة العامة، إذ تعد "OpenAI, Inc" – وهي المنظمة غير الربحية – المساهم المسيطر في الشركة التجارية "OpenAI Global, LLC"، مما يمنحها سلطة قانونية للحفاظ على أهداف الميثاق غير الربحي. تحول غير ناضج أم تمويه استثماري؟ يثير نموذج "الربح المحدد" الذي تتبناه "OpenAI" تساؤلات متزايدة في الأوساط التقنية والأكاديمية، حول ما إذا كان بالفعل يحد من جشع المستثمرين كما تدعي الشركة، أم أنه مجرد غلاف تسويقي يتيح تحقيق أرباح ضخمة تصل إلى 100 ضعف قيمة الاستثمار الأصلي، من دون رقابة حقيقية أو إفصاح شفاف أمام الرأي العام. وتعقد البنية المؤسسية للشركة هذا الجدل، إذ تتولى المنظمة غير الربحية "OpenAI, Inc" السيطرة الكاملة على الكيان الربحي "OpenAI Global, LLC"، في صيغة إدارية هجينة يرى بعض المتابعين أنها تفتقر إلى الوضوح وتفتح الباب أمام تضارب المصالح. وقد زادت الشكوك مع التغيرات التي طرأت على مجلس الإدارة، إذ استبدلت ببعض الشخصيات العلمية وجوهاً ذات خلفيات تجارية واستثمارية، مما أثار مخاوف في شأن تغير الأولويات داخل المؤسسة. كذلك يحذر متخصصون من تداعيات احتكار النماذج المتقدمة والبيانات الحساسة من قبل شركة واحدة، مما قد يقوض مبدأ "الابتكار المفتوح" الذي نشأت عليه "OpenAI"، ويحد من فرص الباحثين والأكاديميين المستقلين في الوصول إلى أدوات الذكاء الاصطناعي المتطورة. وهو ما يفتح الباب أمام تساؤلات أوسع: من يمثل المستخدمين أو الصالح العام داخل منظومة باتت تدار بقرارات مغلقة ومصالح استثمارية متسارعة؟ وفي هذا السياق، يوضح أستاذ علوم الحاسوب والذكاء الاصطناعي في جامعة الكويت، محمد علي الملا، أن استخدام "OpenAI" للبيانات العامة المتاحة على الإنترنت لتدريب نماذجها، ثم تحويل هذه النماذج إلى منتجات تجارية، يثير إشكالات متعددة "أخلاقية وقانونية وتقنية – اقتصادية"، على حد وصفه. ويضيف الملا "أخلاقياً، يعد استخدام المحتوى الإبداعي أو الابتكاري، مثل المقالات والصور والبرمجيات المفتوحة المصدر، من دون إذن أو تعويض، نوعاً من الاستغلال غير العادل. أما من الناحية القانونية فلا تزال معظم التشريعات حول العالم غير محدثة بما يتوافق مع تطورات الذكاء الاصطناعي، مع الإشارة إلى وجود فارق قانوني دقيق بين مجرد الاطلاع على المحتوى واستخدامه لإنتاج بديل ربحي مغلق". ويتابع قائلاً "من الجانب التقني – الاقتصادي يمكن النظر إلى المسألة بصورة أكثر مرونة إذا استخدمت البيانات العامة لتطوير أدوات تخدم المصلحة العامة، مثل إتاحة نماذج مجانية من ChatGPT، أو دعم أبحاث غير ربحية، كذلك يمكن تقنين هذا الاستخدام من خلال تعويض منشئي المحتوى عبر اتفاقات أو تراخيص عادلة تضمن حقوقهم". تحذير من "احتكار العقول" في عصر الذكاء الاصطناعي يحذر أستاذ الذكاء الاصطناعي بجامعة الكويت، محمد الملا، من تداعيات احتكار نماذج الذكاء الاصطناعي المتقدمة من قبل عدد محدود من الشركات الكبرى مثل "OpenAI" و"غوغل" و"Anthropic"، معتبراً أن استمرار هذا التوجه سيجعل الابتكار موجهاً لمصالح السوق على حساب الاستخدامات العامة، كتحسين التعليم في الدول الفقيرة أو دعم القضايا البيئية. ويؤكد الملا أن ما نشهده اليوم يتجاوز احتكار البيانات نحو "احتكار العقول"، إذ باتت هذه النماذج قادرة على إنتاج المعرفة وتقديم الاستشارات وكتابة الأكواد وتحليل البيانات المالية، مما يمنح الشركات المالكة لها سلطة شبه شاملة على القرار الفردي والمجتمعي. ويضيف "نحن أمام جيل جديد من الإمبراطوريات التقنية، لكن الأخطر أنها لا تسيطر على وقتك أو سلوكك فحسب، بل على طريقة تفكيرك". ويختتم بالقول إن إدارة الذكاء الاصطناعي يجب أن تعامل كمنفعة عامة لا كسلعة تجارية، محذراً من "استعمار معرفي" قد يفرض إذا لم تفتح هذه النماذج بصورة تدريجية ومدروسة وتحت رقابة عالمية. أزمة قيادة وتمويل محفوفة بالتحديات في نوفمبر (تشرين الثاني) 2023 واجهت "OpenAI" واحدة من كبرى أزماتها الإدارية، حين قرر مجلس الإدارة إقالة الرئيس التنفيذي سام ألتمان بدعوى "فقدان الثقة"، مما أدى إلى موجة استقالات شملت كبار الباحثين، وتهديد نحو 95 في المئة من الموظفين بالاستقالة والانضمام إلى "مايكروسوفت" ما لم يعد ألتمان إلى منصبه. وتحت ضغط داخلي وخارجي عاد ألتمان لاحقاً إلى موقعه، مع إعادة تشكيل مجلس الإدارة. وأشارت تقارير لاحقة إلى أن الخلافات تمحورت حول مشروع سري يعمل على تطوير قدرات الذكاء الاصطناعي في مجالي المنطق والرياضيات، مما أثار مخاوف تتعلق بالسلامة. في موازاة ذلك تواجه الشركة تحديات تمويلية كبيرة في ظل كلف تشغيلية مرتفعة تشمل بناء مراكز بيانات وتأمين خبرات تقنية متقدمة. ويبدو أن الاستمرار بنموذج غير ربحي لم يعد خياراً واقعياً، في وقت تتجه فيه شركات منافسة مثل "xAI" التابعة لإيلون ماسك، إلى جمع تمويلات ضخمة تجاوزت 14 مليار دولار منذ عام 2023، مع خطط لجمع مزيد عبر الأسهم والديون. نماذج متباينة في سباق الذكاء الاصطناعي يتسارع التنافس بين شركات الذكاء الاصطناعي حول العالم، وسط تباين في الفلسفات بين الربحية والانفتاح والسلامة. ففي حين تتبنى "OpenAI" نموذجاً مختلطاً بين الربح والمسؤولية، اختارت "Anthropic" نهج "الذكاء الاصطناعي الدستوري" مع تركيز واضح على الحوكمة الأخلاقية، أما "DeepMind" التابعة لـ"غوغل"، فانتقلت تدريجاً من مشروع بحثي إلى ذراع تجاري، في حين تبنت "Meta" الانفتاح الكامل عبر نماذج LLaMA مفتوحة المصدر. في المقابل، تتبنى شركات مثل "xAI" و"مسترال" نهجاً أكثر تحرراً في تطوير ونشر النماذج، بينما تبرز "DeepSeek" الصينية باهتمامها بالشفافية وإتاحة أدوات قوية مفتوحة المصدر في مجالات عدة. هذا التنوع يعكس معادلة معقدة تجمع بين الطموح التقني ومتطلبات الأمان والحوكمة العالمية. مع احتدام المنافسة بين شركات كبرى مثل "OpenAI" للوصول إلى الذكاء الاصطناعي العام (AGI)، تزداد المخاوف من أن تسارع الخطى بدافع الربح قد يتجاوز معايير السلامة والأخلاقيات، في ظل غياب جهة رقابية دولية موحدة. وهو ما يفتح الباب أمام دعوات متزايدة لتأسيس ميثاق عالمي أو هيئة أممية، على غرار "الوكالة الدولية للطاقة الذرية"، لضبط هذا السباق ووضع معايير شفافة للمساءلة واستخدام الموارد. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) وفي ظل هذا الفراغ الرقابي، تطرح ثلاثة مسارات محتملة: اتفاق دولي ملزم، أو هيئة مستقلة لمراقبة تطور AGI، أو تنسيق متعدد الأطراف عبر مؤسسات قائمة مثل الشراكة العالمية للذكاء الاصطناعي (GPAI). على المستوى العربي، يرى محمد الملا أن تطوير بدائل مفتوحة المصدر ممكن، شرط وجود دعم حكومي واستثمار منظم في البحث والبنية التحتية. ويؤكد أن الكفاءات العربية موجودة، كما أثبت نجاح نماذج في دول مثل الهند وتركيا، لكن المطلوب اليوم هو رؤية استراتيجية تدمج التشريعات والتمويل والتدريب، لبناء منظومات ذكاء اصطناعي محلية قادرة على المنافسة. ومع تصاعد نفوذ شركات الذكاء الاصطناعي في تشكيل المشهد المعرفي والاقتصادي، يبرز سؤال جوهري: هل يمكن للعالم أن يواكب هذا التحول بأدوات رقابية وتشريعية تضمن العدالة والشفافية؟ أم أن السباق نحو "الذكاء العام" سيبقى مفتوحاً أمام من يمتلك القدرة، لا من يستحق القرار؟

دراسة: ChatGPT يتسبب في تآكل مهارات التفكير النقدي
دراسة: ChatGPT يتسبب في تآكل مهارات التفكير النقدي

الشرق السعودية

timeمنذ 17 ساعات

  • الشرق السعودية

دراسة: ChatGPT يتسبب في تآكل مهارات التفكير النقدي

أظهرت دراسة جديدة أجراها باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) أن استخدام أدوات الذكاء الاصطناعي يؤثر على التفكير النقدي، إذ يضر بالتفاعل الدماغي، ويضعف أداء مستخدميه على المستويات العصبية، واللغوية، والسلوكية، حسب تقرير مجلة "تايم" الأميركية. قسمت الدراسة 54 مشاركاً تتراوح أعمارهم بين 18، و39 عاماً إلى 3 مجموعات، المجموعة الأولى طٌلب منهم كتابة عدة مقالات لاختبار الالتحاق بالجامعات الأميركية SAT باستخدام أداة ChatGPT من شركة OpenAI، والمجموعة الثانية استخدام محرك بحث جوجل، بينما لم يتح للمجموعة الثالثة الاستعانة بأي شيء. استخدم الباحثون تخطيط كهربية الدماغ لتسجيل نشاط أدمغة الكُتّاب في 32 منطقة، ووجدوا أن مستخدمي ChatGPT من بين المجموعات الثلاث كان لديهم أدنى تفاعل دماغي، وكان أداؤهم "ضعيفاً باستمرار على المستويات العصبية واللغوية والسلوكية". خطر على أدمغة الأطفال وعلى مدار عدة أشهر، ازداد كسل مستخدمي ChatGPT مع كل مقال لاحق، وغالباً ما لجأوا إلى النسخ واللصق بنهاية فترة الرصد، وتُشير الدراسة إلى أن النماذج اللغوية الضخمة قد تضر بالتعلم، وخاصةً للمستخدمين الأصغر سناً. لم تخضع الدراسة لمراجعة الأقران بعد، وحجم العينة صغير نسبياً، لكن ناتاليا كوزمينا، المؤلفة الرئيسية للورقة البحثية، رأت أهمية نشر النتائج لإثارة المخاوف من أنه مع اعتماد المجتمع المتزايد على النماذج اللغوية، قد يُضحى بنمو الدماغ على المدى الطويل في هذه العملية. ونقلت مجلة "تايم" عن كوزمينا قولها: "ما دفعني حقاً لنشرها الآن قبل انتظار مراجعة الأقران الكاملة هو أنني أخشى أنه بعد 6-8 أشهر، سيكون هناك أحد صانعي السياسات الذي يقرر تطبيق برنامج GPT في رياض الأطفال.. أعتقد أن ذلك سيكون سيئاً وضاراً للغاية"، موضحة أن "الأدمغة النامية هي الأكثر عرضة للخطر". خصص مختبر الوسائط التابع لمعهد ماساتشوستس للتكنولوجيا (MIT) مؤخراً موارد كبيرة لدراسة التأثيرات المختلفة لأدوات الذكاء الاصطناعي التوليدية، وعلى سبيل المثال، وجدت دراسات أجريت في وقت سابق من هذا العام أنه كلما زاد الوقت الذي يقضيه المستخدمون في التحدث إلى ChatGPT، زاد شعورهم بالوحدة. أرادت كوزمينا، التي تعمل باحثة علمية متفرغة في المختبر منذ عام 2021، استكشاف آثار استخدام الذكاء الاصطناعي في الواجبات المدرسية تحديداً، نظراً لتزايد عدد الطلاب الذين يستخدمون الذكاء الاصطناعي، لذا طلبت هي وزملاؤها من المشاركين كتابة مقالات مدتها 20 دقيقة بناءً على أسئلة اختبار الالتحاق بالجامعات، بما في ذلك مقالات حول أخلاقيات العمل الخيري، ومخاطر كثرة الخيارات. قدّمت المجموعة التي كتبت المقالات باستخدام ChatGPT مقالات متشابهة للغاية تفتقر إلى الفكر الأصيل، معتمدةً على نفس التعبيرات والأفكار، وصفها اثنان من معلمي اللغة الإنجليزية الذين قيّموا المقالات بأنها "بلا روح" إلى حد كبير. وكشف تخطيط كهربية الدماغ عن ضعف في التحكم التنفيذي وانخراط الانتباه، وبحلول مقالهم الثالث، قدّم العديد من الكُتّاب الإجابة ببساطة إلى ChatGPT، وتركوه يقوم بمعظم العمل، وتقول كوزمينا: "كان الأمر أشبه بقول: أعطني المقال، حسّن هذه الجملة، عدّلها، وسأنتهي". على العكس من ذلك، أظهرت المجموعة التي استخدمت الدماغ فقط أعلى مستوى من الاتصال العصبي، وخاصةً في النطاقات المرتبطة بالإبداع وتكوين الأفكار، وتحميل الذاكرة، والمعالجة الدلالية، ووجد الباحثون أن هذه المجموعة كانت أكثر تفاعلاً وفضولاً، والمجموعة الثالثة، التي استخدمت بحث جوجل، أبدت أيضاً نشاطاً في وظائف الدماغ. إعادة الكتابة بعد كتابة المقالات الثلاثة، طُلب من المشاركين إعادة كتابة أحد أعمالهم السابقة، ولكن اضطرت مجموعة ChatGPT إلى القيام بذلك بدون الأداة، بينما تمكنت مجموعة الدماغ فقط من استخدام ChatGPT. تذكرت المجموعة الأولى القليل من مقالاتها، وأظهرت موجات دماغية أضعف، مما يعكس على الأرجح تجاوزاً لعمليات الذاكرة العميقة، وتقول كوزمينا: "تم تنفيذ المهمة، ويمكن القول إنها كانت فعالة ومريحة. ولكن كما أوضحنا في البحث، لم يتم دمج أي منها في شبكات الذاكرة". على النقيض من ذلك، كان أداء المجموعة الثانية التي استخدمت جوجل جيداً، إذ أظهرت زيادة كبيرة في اتصال الدماغ عبر جميع نطاقات تردد تخطيط كهربية الدماغ، وهذا يبعث على الأمل في أن الذكاء الاصطناعي، إذا استُخدم بشكل صحيح، يمكن أن يعزز التعلم بدلًا من إضعافه. تعد هذه أول ورقة بحثية تُصدرها كوزمينا بعد مراجعة أولية، وقدّم فريقها الورقة لمراجعة الأقران، لكنه لم تريد انتظار الموافقة، التي قد تستغرق ثمانية أشهر أو أكثر، لتسليط الضوء على مشكلة تعتقد كوزمينا أنها تؤثر على الأطفال الآن. تقول كوزمينا: "إن التثقيف حول كيفية استخدامنا لهذه الأدوات، والتأكيد على أن الدماغ يحتاج إلى التطور بطريقة أكثر تناظرية، أمر بالغ الأهمية"، وأضافت: "نحن بحاجة إلى تشريعات فعّالة ومتزامنة، والأهم من ذلك، اختبار هذه الأدوات قبل تطبيقها". وأوضحت كوزمينا أنها وزملاؤها يعملون الآن على بحث مماثل آخر يختبر نشاط الدماغ في هندسة البرمجيات والبرمجة مع أو بدون الذكاء الاصطناعي، وتضيف أن "النتائج حتى الآن أسوأ". وأشارت إلى أن هذه الدراسة قد يكون لها آثار على العديد من الشركات التي تأمل في استبدال مبرمجيها المبتدئين بالذكاء الاصطناعي، وتجادل بأنه حتى لو ارتفعت الكفاءة، فإن الاعتماد المتزايد على الذكاء الاصطناعي قد يُقلل من التفكير النقدي والإبداع وحل المشكلات لدى القوى العاملة المتبقية.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store