logo
هل يجعلنا الذكاء الاصطناعي "أكثر غباء"؟

هل يجعلنا الذكاء الاصطناعي "أكثر غباء"؟

شفق نيوز١٠-٠٥-٢٠٢٥

تطبيقات الذكاء الاصطناعي ستحسن من حياة البشر من خلال تأدية مهام مملة أو شاقة تتطلب الكثير من الوقت والجهد، ومن ثم تمنحنا فرصة أكبر للاستمتاع بالحياة أو التفرغ لأشياء أخرى أكثر أهمية.
هذه هي وجهة نظر المتحمسين لما يعرف بتقنية الذكاء الاصطناعي التوليدي (Generative AI) التي انتشرت بشكل مهول في الأعوام القليلة الماضية، ولا سيما وسط الشعبية الهائلة التي حظي بها روبوت الدردشة "تشات جي. بي. تي" الذي بلغ العدد الأسبوعي لمستخدميه النشطين في فبراير/شباط الماضي مليون مستخدم، وفق شركة "أوبن. إيه. آي" التي أطلقته في عام 2022.
على سبيل المثال، مهام مثل تلخيص الوثائق الطويلة أو صياغة رسائل إلكترونية روتينية أو ترجمة نصوص بسيطة أو كتابة سيرتك الذاتية بطريقة مهنية – كلها أشياء يستطيع الذكاء الاصطناعي التوليدي القيام بها في ثوان معدودات.
لكن هناك من يحذر من أن الاعتماد على الذكاء الاصطناعي التوليدي، بدلا من أن يطلق العنان لأدمغتنا للانخراط في أشياء أهم وأعمق، قد يجعلنا "أكثر غباء". فكيف يمكن أن يحدث ذلك؟ وهل نستطيع الاستفادة من إمكانياته الهائلة من دون أن يؤدي ذلك إلى أن نصبح أقل ذكاء وإبداعا؟
إضعاف مهارات التفكير النقدي
من بين أحدث الدراسات التي ربطت بين الاعتماد على الذكاء الاصطناعي التوليدي وانخفاض القدرات المعرفية والإدراكية للبشر دراسة أجرتها شركة مايكروسوفت بالتعاون مع باحثين من جامعة كارنيغي ميلون في وقت سابق من العام الحالي.
الدراسة، التي شملت 319 شخصا يعملون في مهن تستخدم الذكاء الاصطناعي التوليدي على الأقل مرة واحدة في الأسبوع، وجدت أن هذه التقنية تغير طريقة التفكير النقدي لدى هؤلاء الأشخاص. فهي تقلل المجهود الذهني المطلوب لتنفيذ المهام، فيفرط المستخدمون في اعتمادهم على مخرجات الذكاء الاصطناعي، خصوصا عندما يثقون بها أكثر من اللازم. ويتحول المستخدمون من جامعين للمعلومات إلى متحققين من صحتها، من منفذين نشطين للمهام إلى مشرفين على مخرجات الذكاء الاصطناعي. وحددت الدراسة عدة أشياء قالت إنها تعرقل التفكير النقدي في المهام التي يساعد الذكاء الاصطناعي في تنفيذها، من بينها انخفاض الدافع للتفاعل بعمق مع المحتوى، وعدم امتلاك القدرة أو المعرفة الكافية لتقييم مخرجات الذكاء الاصطناعي بشكل فعال.
وهناك دراسة أخرى أجراها الدكتور مايكل غرليتش مدير معهد الاستشراف الاستراتيجي والاستدامة المؤسساتية بكلية التجارة السويسرية (إس.بي.إس) على 666 شخصا، وجدت أن ثمة صلة بين الاستخدام المستمر للذكاء الاصطناعي التوليدي وانخفاض القدرة على التفكير النقدي.
يقول البروفيسور غرليتش لـ"بي. بي. سي. عربي" إن البحث الذي أجراه أظهر أن أدوات الذكاء الاصطناعي "تشجع على التفريغ الإدراكي، أو بعبارة أخرى الاستعانة بمصدر خارجي هو الآلات للتفكير نيابة عنا. هذا ليس سلبيا في حد ذاته، ولكن إذا اعتدنا عليه، فإنه قد يقوض من قدرتنا على القيام بالتفكير المنطقي المعقد أو حل المشكلات أو التفكير النقدي".
التفكير النقدي لا يعني مجرد اكتشاف الأخطاء، بل هو عملية ذهنية معقدة تمكن الشخص من الحكم على معلومة ما بشكل منطقي وموضوعي من خلال فهم وتفسير الأدلة التي يجمعها عن طريق الملاحظة والقراءة والتجربة والنظر بعين الشك إلى الافتراضات القائمة وأخذ وجهات النظر المختلفة بعين الاعتبار. وللتفكير النقدي أهمية كبيرة في تعزيز اتخاذ القرارات وتحسين مهارات حل المشكلات وتقييم المعلومات وبناء الحجج القوية وزيادة الوعي بالذات والإبداع وتحسين مهارات اللغة والتعبير عن الأفكار.
يضيف غرليتش أن "عضلاتنا الذهنية، كتلك التي تستخدم في التفكير التحليلي، من الممكن أن يصيبها الوهن إذا لم تُدَرب بانتظام. ومع مرور الوقت، قد يؤدي اعتمادنا على الذكاء الاصطناعي إلى تقويض قدرتنا على التفكير النقدي، ولا سيما في المواقف المصيرية أو الغامضة التي لا يستطيع الذكاء الاصطناعي التعامل معها. لقد أظهرت دراستي أن الشباب والأشخاص محدودي التعليم بوجه خاص يميلون إلى الاستعانة بتلك التقنية للقيام بعملية التفكير، وهو ما أدى إلى انخفاض مهارات التفكير النقدي لديهم".
هل تحارب أدمغتنا على عدة جبهات؟
التحذير من الإفراط في استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لما قد يكون له من تأثير سلبي محتمل على وظائفنا المعرفية والإدراكية يضاف إلى تحذيرات مماثلة من الإفراط في استخدام التقنيات الرقمية الحديثة خلال العقد الأخير.
على سبيل المثال، هناك دراسات تربط بين قضاء فترات طويلة أمام شاشات الهواتف الذكية وانخفاض الانتباه وضعف نمو الدماغ. وفي نهاية عام 2024، اختار قاموس أوكسفورد للغة الإنجليزية مصطلح "brain rot" أو "تعفن الدماغ" ليكون مصطلح العام. يشير المصطلح إلى "التدهور المفترض لحالة الشخص العقلية والفكرية، ولا سيما عندما يُنظر إليه على أنه نتيجة للاستهلاك المفرط للمواد (خاصة محتويات الإنترنت) التي تعد تافهة أو لا تشكل تحدياً للعقل"، وفق تعريف القاموس.
ربما يتساءل البعض عما إذا كان اعتمادنا على الذكاء الاصطناعي التوليدي أسوأ من اعتمادنا على محركات البحث على الإنترنت، أو الإفراط في مشاهدة المحتوى "التافه" على وسائل التواصل الاجتماعي.
يرى البروفيسور غرليتش أن "ما تفعله وسائل التواصل ومحركات البحث بالأساس هو تشتيت انتباهنا أو توجيهه، وعادة ما يؤدي ذلك إلى تفتيت تفكيرنا وإغراقنا بالمعلومات الضحلة. أما الذكاء الاصطناعي التوليدي فينتج لنا محتوى، ومن ثم يخطو خطوة إضافية، إذ يفكر بالنيابة عنا. إنه اختلاف صغير ولكن مهم للغاية. عندما نتوقف عن صياغة حججنا أو التحقق من صحة المعلومات بشكل مستقل، فإننا نخاطر ليس فقط بفقدان تركيزنا، ولكن أيضا باستقلالنا المعرفي".
ويضيف: "لذا، فإنه رغم أن الاتجاهين مثيران للقلق، فإن قدرة الذكاء الاصطناعي على محاكاة الفكر البشري قد تشكل تحدياً أعمق وأطول أمدا لكيفية بنائنا للمعرفة واتخاذنا للقرارات".
الوجه الآخر
قد يبدو الأمر بسيطا: اعتمادنا الزائد على الذكاء الاصطناعي وجعله يفكر بدلا من أن نفكر نحن ونستخدم وظائفنا الإدراكية والمعرفية سيؤدي إلى تقويض قدرتنا على التفكير المنطقي أو النقدي، ومن ثم يجعلنا أقل ذكاء أو "أكثر غباء" كما يحلو لبعضهم أن يقول.
لكنّ للصورة أبعادا أخرى. فالذكاء البشري مفهوم معقد يتأثر سلبيا أو إيجابيا بعوامل عديدة، منها الجينات الوراثية والتغذية والصحة البدنية والتعليم والتربية والتلوث، وهو ما يجعل من الصعب برأي بعض الخبراء النظر إلى تأثير عامل واحد بمعزل عن باقي العوامل.
كما أن هناك من يرى أن الذكاء الاصطناعي التوليدي قد يغير الطريقة التي نفكر بها، ولكن ليس بالضرورة إلى الأسوأ.
يقول دكتور كارلوس زدنيك مدير مركز فلسفة الذكاء الاصطناعي بجامعة إيندهوفين في هولندا لـ بي. بي. سي. عربي إن من بين الآثار التي قد تترتب على ذلك هو "أن تفكيرنا، أو الطريقة التي نعبر بها عن تفكيرنا، على الأرجح سوف تتغير. ففي حين كنا في السابق نعبر عما نفكر فيه بالكلام أو الكتابة أو الرسم أو عزف الموسيقى مثلا، في المستقبل قد نعبر عنه بطرق تعتمد على التفاعل مع أدوات الذكاء الاصطناعي أو استخدامها لمساعدتنا على القيام بكافة تلك الأنشطة وغيرها. وبالطبع هذه ليست ظاهرة جديدة، ففان غوخ أظهر عبقريته بالطريقة التي كان يستخدم بها فرشاة الرسم، وروجر فيدرر بطريقة استخدامه لمضرب التنس...الجيل القادم من المفكرين ربما سيظهر مواهبه بالطريقة التي يستخدم بها الذكاء الاصطناعي".
كيف نستفيد من دون أن نصبح "أكثر غباء"؟
الدراسة التي أجرتها مايكروسوفت أظهرت أن الأشخاص الذين لديهم ثقة بالنفس كانوا أكثر نزوعا لاستخدام التفكير النقدي للتحقق من مخرجات الذكاء الاصطناعي. وخلصت إلى أن ثمة حاجة إلى أن تكون أدوات الذكاء الاصطناعي التوليدي مصممة بحيث تعزز التفكير النقدي لدى العاملين في مجالات تتطلب استخدام المعلومات.
وإلى أن يتحقق ذلك، يتعين على المستخدم التعاطي مع الذكاء الاصطناعي بطريقة تجعله يتفادى خطر أن يؤدي ذلك إلى إضعاف قدراته على اتخاذ القرارات وعلى مهاراته الإدراكية والمعرفية.
يقول البروفيسور غرليتش: "كلما تعاملنا مع الذكاء الاصطناعي التوليدي على أنه مساعد قائد الطائرة وليس طيارا آليا، كلما حافظنا على قدراتنا الإدراكية والمعرفية بل وعززناها".
ويضيف أنه ينبغي أن "نتعامل مع الذكاء الاصطناعي التوليدي ليس بوصفه بديلا للتفكير، ولكن كشريك نتناقش معه، كشيء يتحدانا وينقح أفكارنا ويساعدنا على استكشاف وجهات نظر مختلفة. ولتفادي البلادة الفكرية، يجب أن نتفاعل بشكل واعٍ مع مخرجات الذكاء الاصطناعي، ونطرح أسئلة وننتقد الافتراضات ونتحقق من صحة المزاعم".
أما الدكتور زدنيك فيشدد على أهمية "محو الأمية" في مجال الذكاء الاصطناعي، ويشمل ذلك التعريف بما تعنيه تلك التقنية، وكيف تعمل، وما تستطيع وما لا تستطيع تحقيقه، ومتى ينبغي استخدامها، ومتى لا ينبغي استخدامها.
ويضيف: "أتوقع أن تنتشر تقنيات الذكاء الاصطناعي بشكل متزايد، ولذا من المهم أن يتم هذا النوع من محو الأمية مبكرا وعلى نطاق موسع. الأطفال ينبغي أن يتعلموه، والمعلمون ينبغي أن يدرسّوه. لا يجب أن نحظر على الأطفال استخدام الذكاء الاصطناعي، ولكن يجب أن نعلمهم كيف يستخدمونه بحكمة".
ويشير زدنيك كذلك إلى أهمية تحمل الحكومات مسؤولية إدارة تقنية الذكاء الاصطناعي "بما يحقق توازنا بين سلامة المجتمع من جهة، والنمو الاقتصادي والابتكار من جهة أخرى".
خلاصة القول: الذكاء الاصطناعي التوليدي مثله مثل أي تقنية أخرى يمكن أن تكون له منافع هائلة للأفراد والمجتمعات، ويمكن أن يعود علينا بالضرر، والأمر يتوقف إلى حد كبير على طريقة استخدامنا له. ومن خلال التوعية بإمكانياته وطريقة عمله ومواطن ضعفه، والتشجيع على التفاعل معه بشكل لا يلغي تفكيرنا، يمكننا استثمار إمكاناته الهائلة من دون أن نصبح أقل ذكاء.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

هل يجعلنا الذكاء الاصطناعي "أكثر غباء"؟
هل يجعلنا الذكاء الاصطناعي "أكثر غباء"؟

شفق نيوز

time١٠-٠٥-٢٠٢٥

  • شفق نيوز

هل يجعلنا الذكاء الاصطناعي "أكثر غباء"؟

تطبيقات الذكاء الاصطناعي ستحسن من حياة البشر من خلال تأدية مهام مملة أو شاقة تتطلب الكثير من الوقت والجهد، ومن ثم تمنحنا فرصة أكبر للاستمتاع بالحياة أو التفرغ لأشياء أخرى أكثر أهمية. هذه هي وجهة نظر المتحمسين لما يعرف بتقنية الذكاء الاصطناعي التوليدي (Generative AI) التي انتشرت بشكل مهول في الأعوام القليلة الماضية، ولا سيما وسط الشعبية الهائلة التي حظي بها روبوت الدردشة "تشات جي. بي. تي" الذي بلغ العدد الأسبوعي لمستخدميه النشطين في فبراير/شباط الماضي مليون مستخدم، وفق شركة "أوبن. إيه. آي" التي أطلقته في عام 2022. على سبيل المثال، مهام مثل تلخيص الوثائق الطويلة أو صياغة رسائل إلكترونية روتينية أو ترجمة نصوص بسيطة أو كتابة سيرتك الذاتية بطريقة مهنية – كلها أشياء يستطيع الذكاء الاصطناعي التوليدي القيام بها في ثوان معدودات. لكن هناك من يحذر من أن الاعتماد على الذكاء الاصطناعي التوليدي، بدلا من أن يطلق العنان لأدمغتنا للانخراط في أشياء أهم وأعمق، قد يجعلنا "أكثر غباء". فكيف يمكن أن يحدث ذلك؟ وهل نستطيع الاستفادة من إمكانياته الهائلة من دون أن يؤدي ذلك إلى أن نصبح أقل ذكاء وإبداعا؟ إضعاف مهارات التفكير النقدي من بين أحدث الدراسات التي ربطت بين الاعتماد على الذكاء الاصطناعي التوليدي وانخفاض القدرات المعرفية والإدراكية للبشر دراسة أجرتها شركة مايكروسوفت بالتعاون مع باحثين من جامعة كارنيغي ميلون في وقت سابق من العام الحالي. الدراسة، التي شملت 319 شخصا يعملون في مهن تستخدم الذكاء الاصطناعي التوليدي على الأقل مرة واحدة في الأسبوع، وجدت أن هذه التقنية تغير طريقة التفكير النقدي لدى هؤلاء الأشخاص. فهي تقلل المجهود الذهني المطلوب لتنفيذ المهام، فيفرط المستخدمون في اعتمادهم على مخرجات الذكاء الاصطناعي، خصوصا عندما يثقون بها أكثر من اللازم. ويتحول المستخدمون من جامعين للمعلومات إلى متحققين من صحتها، من منفذين نشطين للمهام إلى مشرفين على مخرجات الذكاء الاصطناعي. وحددت الدراسة عدة أشياء قالت إنها تعرقل التفكير النقدي في المهام التي يساعد الذكاء الاصطناعي في تنفيذها، من بينها انخفاض الدافع للتفاعل بعمق مع المحتوى، وعدم امتلاك القدرة أو المعرفة الكافية لتقييم مخرجات الذكاء الاصطناعي بشكل فعال. وهناك دراسة أخرى أجراها الدكتور مايكل غرليتش مدير معهد الاستشراف الاستراتيجي والاستدامة المؤسساتية بكلية التجارة السويسرية (إس.بي.إس) على 666 شخصا، وجدت أن ثمة صلة بين الاستخدام المستمر للذكاء الاصطناعي التوليدي وانخفاض القدرة على التفكير النقدي. يقول البروفيسور غرليتش لـ"بي. بي. سي. عربي" إن البحث الذي أجراه أظهر أن أدوات الذكاء الاصطناعي "تشجع على التفريغ الإدراكي، أو بعبارة أخرى الاستعانة بمصدر خارجي هو الآلات للتفكير نيابة عنا. هذا ليس سلبيا في حد ذاته، ولكن إذا اعتدنا عليه، فإنه قد يقوض من قدرتنا على القيام بالتفكير المنطقي المعقد أو حل المشكلات أو التفكير النقدي". التفكير النقدي لا يعني مجرد اكتشاف الأخطاء، بل هو عملية ذهنية معقدة تمكن الشخص من الحكم على معلومة ما بشكل منطقي وموضوعي من خلال فهم وتفسير الأدلة التي يجمعها عن طريق الملاحظة والقراءة والتجربة والنظر بعين الشك إلى الافتراضات القائمة وأخذ وجهات النظر المختلفة بعين الاعتبار. وللتفكير النقدي أهمية كبيرة في تعزيز اتخاذ القرارات وتحسين مهارات حل المشكلات وتقييم المعلومات وبناء الحجج القوية وزيادة الوعي بالذات والإبداع وتحسين مهارات اللغة والتعبير عن الأفكار. يضيف غرليتش أن "عضلاتنا الذهنية، كتلك التي تستخدم في التفكير التحليلي، من الممكن أن يصيبها الوهن إذا لم تُدَرب بانتظام. ومع مرور الوقت، قد يؤدي اعتمادنا على الذكاء الاصطناعي إلى تقويض قدرتنا على التفكير النقدي، ولا سيما في المواقف المصيرية أو الغامضة التي لا يستطيع الذكاء الاصطناعي التعامل معها. لقد أظهرت دراستي أن الشباب والأشخاص محدودي التعليم بوجه خاص يميلون إلى الاستعانة بتلك التقنية للقيام بعملية التفكير، وهو ما أدى إلى انخفاض مهارات التفكير النقدي لديهم". هل تحارب أدمغتنا على عدة جبهات؟ التحذير من الإفراط في استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لما قد يكون له من تأثير سلبي محتمل على وظائفنا المعرفية والإدراكية يضاف إلى تحذيرات مماثلة من الإفراط في استخدام التقنيات الرقمية الحديثة خلال العقد الأخير. على سبيل المثال، هناك دراسات تربط بين قضاء فترات طويلة أمام شاشات الهواتف الذكية وانخفاض الانتباه وضعف نمو الدماغ. وفي نهاية عام 2024، اختار قاموس أوكسفورد للغة الإنجليزية مصطلح "brain rot" أو "تعفن الدماغ" ليكون مصطلح العام. يشير المصطلح إلى "التدهور المفترض لحالة الشخص العقلية والفكرية، ولا سيما عندما يُنظر إليه على أنه نتيجة للاستهلاك المفرط للمواد (خاصة محتويات الإنترنت) التي تعد تافهة أو لا تشكل تحدياً للعقل"، وفق تعريف القاموس. ربما يتساءل البعض عما إذا كان اعتمادنا على الذكاء الاصطناعي التوليدي أسوأ من اعتمادنا على محركات البحث على الإنترنت، أو الإفراط في مشاهدة المحتوى "التافه" على وسائل التواصل الاجتماعي. يرى البروفيسور غرليتش أن "ما تفعله وسائل التواصل ومحركات البحث بالأساس هو تشتيت انتباهنا أو توجيهه، وعادة ما يؤدي ذلك إلى تفتيت تفكيرنا وإغراقنا بالمعلومات الضحلة. أما الذكاء الاصطناعي التوليدي فينتج لنا محتوى، ومن ثم يخطو خطوة إضافية، إذ يفكر بالنيابة عنا. إنه اختلاف صغير ولكن مهم للغاية. عندما نتوقف عن صياغة حججنا أو التحقق من صحة المعلومات بشكل مستقل، فإننا نخاطر ليس فقط بفقدان تركيزنا، ولكن أيضا باستقلالنا المعرفي". ويضيف: "لذا، فإنه رغم أن الاتجاهين مثيران للقلق، فإن قدرة الذكاء الاصطناعي على محاكاة الفكر البشري قد تشكل تحدياً أعمق وأطول أمدا لكيفية بنائنا للمعرفة واتخاذنا للقرارات". الوجه الآخر قد يبدو الأمر بسيطا: اعتمادنا الزائد على الذكاء الاصطناعي وجعله يفكر بدلا من أن نفكر نحن ونستخدم وظائفنا الإدراكية والمعرفية سيؤدي إلى تقويض قدرتنا على التفكير المنطقي أو النقدي، ومن ثم يجعلنا أقل ذكاء أو "أكثر غباء" كما يحلو لبعضهم أن يقول. لكنّ للصورة أبعادا أخرى. فالذكاء البشري مفهوم معقد يتأثر سلبيا أو إيجابيا بعوامل عديدة، منها الجينات الوراثية والتغذية والصحة البدنية والتعليم والتربية والتلوث، وهو ما يجعل من الصعب برأي بعض الخبراء النظر إلى تأثير عامل واحد بمعزل عن باقي العوامل. كما أن هناك من يرى أن الذكاء الاصطناعي التوليدي قد يغير الطريقة التي نفكر بها، ولكن ليس بالضرورة إلى الأسوأ. يقول دكتور كارلوس زدنيك مدير مركز فلسفة الذكاء الاصطناعي بجامعة إيندهوفين في هولندا لـ بي. بي. سي. عربي إن من بين الآثار التي قد تترتب على ذلك هو "أن تفكيرنا، أو الطريقة التي نعبر بها عن تفكيرنا، على الأرجح سوف تتغير. ففي حين كنا في السابق نعبر عما نفكر فيه بالكلام أو الكتابة أو الرسم أو عزف الموسيقى مثلا، في المستقبل قد نعبر عنه بطرق تعتمد على التفاعل مع أدوات الذكاء الاصطناعي أو استخدامها لمساعدتنا على القيام بكافة تلك الأنشطة وغيرها. وبالطبع هذه ليست ظاهرة جديدة، ففان غوخ أظهر عبقريته بالطريقة التي كان يستخدم بها فرشاة الرسم، وروجر فيدرر بطريقة استخدامه لمضرب التنس...الجيل القادم من المفكرين ربما سيظهر مواهبه بالطريقة التي يستخدم بها الذكاء الاصطناعي". كيف نستفيد من دون أن نصبح "أكثر غباء"؟ الدراسة التي أجرتها مايكروسوفت أظهرت أن الأشخاص الذين لديهم ثقة بالنفس كانوا أكثر نزوعا لاستخدام التفكير النقدي للتحقق من مخرجات الذكاء الاصطناعي. وخلصت إلى أن ثمة حاجة إلى أن تكون أدوات الذكاء الاصطناعي التوليدي مصممة بحيث تعزز التفكير النقدي لدى العاملين في مجالات تتطلب استخدام المعلومات. وإلى أن يتحقق ذلك، يتعين على المستخدم التعاطي مع الذكاء الاصطناعي بطريقة تجعله يتفادى خطر أن يؤدي ذلك إلى إضعاف قدراته على اتخاذ القرارات وعلى مهاراته الإدراكية والمعرفية. يقول البروفيسور غرليتش: "كلما تعاملنا مع الذكاء الاصطناعي التوليدي على أنه مساعد قائد الطائرة وليس طيارا آليا، كلما حافظنا على قدراتنا الإدراكية والمعرفية بل وعززناها". ويضيف أنه ينبغي أن "نتعامل مع الذكاء الاصطناعي التوليدي ليس بوصفه بديلا للتفكير، ولكن كشريك نتناقش معه، كشيء يتحدانا وينقح أفكارنا ويساعدنا على استكشاف وجهات نظر مختلفة. ولتفادي البلادة الفكرية، يجب أن نتفاعل بشكل واعٍ مع مخرجات الذكاء الاصطناعي، ونطرح أسئلة وننتقد الافتراضات ونتحقق من صحة المزاعم". أما الدكتور زدنيك فيشدد على أهمية "محو الأمية" في مجال الذكاء الاصطناعي، ويشمل ذلك التعريف بما تعنيه تلك التقنية، وكيف تعمل، وما تستطيع وما لا تستطيع تحقيقه، ومتى ينبغي استخدامها، ومتى لا ينبغي استخدامها. ويضيف: "أتوقع أن تنتشر تقنيات الذكاء الاصطناعي بشكل متزايد، ولذا من المهم أن يتم هذا النوع من محو الأمية مبكرا وعلى نطاق موسع. الأطفال ينبغي أن يتعلموه، والمعلمون ينبغي أن يدرسّوه. لا يجب أن نحظر على الأطفال استخدام الذكاء الاصطناعي، ولكن يجب أن نعلمهم كيف يستخدمونه بحكمة". ويشير زدنيك كذلك إلى أهمية تحمل الحكومات مسؤولية إدارة تقنية الذكاء الاصطناعي "بما يحقق توازنا بين سلامة المجتمع من جهة، والنمو الاقتصادي والابتكار من جهة أخرى". خلاصة القول: الذكاء الاصطناعي التوليدي مثله مثل أي تقنية أخرى يمكن أن تكون له منافع هائلة للأفراد والمجتمعات، ويمكن أن يعود علينا بالضرر، والأمر يتوقف إلى حد كبير على طريقة استخدامنا له. ومن خلال التوعية بإمكانياته وطريقة عمله ومواطن ضعفه، والتشجيع على التفاعل معه بشكل لا يلغي تفكيرنا، يمكننا استثمار إمكاناته الهائلة من دون أن نصبح أقل ذكاء.

الصين تُطلق أول ماراثون بين البشر والروبوتات
الصين تُطلق أول ماراثون بين البشر والروبوتات

شفق نيوز

time١٩-٠٤-٢٠٢٥

  • شفق نيوز

الصين تُطلق أول ماراثون بين البشر والروبوتات

شفق نيوز/ فاجأت الصين، العالم بسباق ماراثوني هو الأول من نوعه، حيث تسابق البشر مع الروبوتات حيث شارك 21 روبوتا في سباق نصف ماراثون أقيم اليوم السبت في بكين، على مسار 21 كيلومترا. وتنتمي الروبوتات المشاركة إلى شركات صينية مثل "DroidVP" و"Noetix Robotics"، وتفاوتت أحجامها بين 120 سنتيمترا و1.8 متر، مع تصميمات متنوعة شملت روبوتا بملامح أنثوية قادر على الابتسام والغمز. واحتاجت بعض الشركات إلى أسابيع من الاختبارات التحضيرية للسباق، الذي وصفه منظموه بأنه "أقرب إلى سباق سيارات" بسبب الحاجة إلى فرق هندسية وملاحية. وخلال المنافسة، رافق كل روبوت مدرب بشري، واضطر بعضهم إلى دعم الروبوتات جسديا أثناء السير، بينما ارتدى بعض الآلات أحذية رياضية أو قفازات ملاكمة، وحمل أحدها عصابة رأس كتب عليها "ملتزم بالفوز". وتصدر روبوت "تيانقونغ ألترا" من مركز بكين للابتكار السباق بزمن قدره ساعتان و40 دقيقة، متفوقا على روبوتات أخرى واجهت صعوبات تقنية، حيث سقط أحدها عند خط البداية بينما اصطدم آخر بدرابزين بعد مسافة قصيرة. وجاء زمن الروبوت الفائز أبطأ بكثير من زمن بطل السباق البشري الذي أنهى المسافة في ساعة ودقيقتين. ويخضع المركز المنظم للسباق لسيطرة مشتركة بين شركتين حكوميتين تمتلكان 43% من أسهمه، بينما تتقاسم شركتا "شاومي" و"UBTech" الحصة المتبقية. في غضون ذلك، أوضح تانغ جيان، الرئيس التنفيذي للتكنولوجيا بالمركز، أن أداء الروبوت الفائز اعتمد على تقنية محاكاة حركة العدائين البشر، مع تصميم أطراف طويلة تتيح له إتمام السباق بثلاث تبديلات للبطارية فقط. ويأتي هذا الحدث في إطار مساعي الصين لتعزيز الاستثمار في صناعات المستقبل، رغم تشكيك خبراء دوليين في القيمة العملية لمشاركة الروبوتات في سباقات الجري. وأشار ألان فيرن، الخبير في جامعة ولاية أوريغون، إلى أن التقنيات المستخدمة في تحريك الروبوتات البشرية معروفة منذ سنوات، وأن العروض الحركية لا تعكس بالضرورة تطورا في الذكاء الاصطناعي أو الجدوى الصناعية. بينما أكد القائمون على المشروع أن تركيزهم المقبل سينصب على تطوير تطبيقات صناعية وتجارية للروبوتات البشرية.

"هلاوس" الذكاء الاصطناعي، ما أسبابها؟ وهل يمكن التغلب عليها؟
"هلاوس" الذكاء الاصطناعي، ما أسبابها؟ وهل يمكن التغلب عليها؟

شفق نيوز

time٠٥-٠٤-٢٠٢٥

  • شفق نيوز

"هلاوس" الذكاء الاصطناعي، ما أسبابها؟ وهل يمكن التغلب عليها؟

تخيل أن تسأل أحد روبوتات الدردشة عن نفسك فيعطيك معلومات صادمة لا أساس لها من الصحة، مثل أنه قد ثبتت إدانتك بقتل أطفالك! هذا ما حصل حديثاً لرجل نرويجي يدعى أرفي يالمار هولمن عندما سأل تشات جي بي تي: "من هو أرفي يالمار هولمن"؟ فكانت الإجابة: "مواطن نرويجي لفت الانتباه بسبب واقعة مأساوية. كان أباً لولدين يبلغان من العمر 7 سنوات و10 سنوات عثر عليهما ميتين في بركة مياه بالقرب من منزلهما في عام 2020، واتهم أرفي لاحقاً ثم أدين بتهمة قتل ابنيه ومحاولة قتل ابنه الثالث، وحكم عليه بالسجن 21 عاماً". تقدم هولمن بشكوى لدى هيئة حماية البيانات النروجية ضد شركة أوبن إيه آي التي تمتلك تشات جي بي تي، قائلاً إن إجابة روبوت الدردشة تمثل تشهيراً به، وتنتهك قوانين حماية البيانات الأوروبية المتعلقة بدقة البيانات الشخصية. وفي يناير/كانون الثاني الماضي، اضطرت شركة التكنولوجيا العملاقة أبل إلى تعليق خدمة إشعارات الأخبار المولدة بالذكاء الاصطناعي بعد أن تكررت الأخطاء في عناوين ومواجز الأنباء التي أرسلتها للمستخدمين. وكانت بي بي سي من بين الهيئات التي تقدمت بشكوى لأبل، بعد أن تضمنت تلك الخدمة نبأً يحمل شعار بي بي سي ويفيد بأن لويجي مانيوني المتهم بقتل براين تومسون، المدير التنفيذي لشركة التأمين الصحي الأمريكية يونايتيد هِلثكير، قتل نفسه رمياً بالرصاص - وهو أمر لم يحدث. وفي عام 2023، استخدم محاميان موكَلان من قبل رجل لإقامة دعوى قضائية ضد إحدى شركات الطيران الأمريكية، تطبيق تشات جي بي تي لإعداد مستند يستشهد بسوابق قانونية مماثلة حكم فيها للمدعي. لكن روبوت الذكاء الاصطناعي اختلق قضايا لا وجود لها، وأنتج وثيقة تحتوي على أحكام وهمية، وانتهى الأمر بأن أمر القاضي الفيدرالي الذي كان ينظر في القضية بتوقيع غرامة على المحاميين قدرها 5000 دولار. ما حدث في الحالات الثلاث كان نتيجة لما بات يعرف بـ AI hallucinations أو"هلاوس" الذكاء الاصطناعي. يقول البروفيسور توماس نوفوتني، مدير مجموعة أبحاث الذكاء الاصطناعي والأستاذ بقسم هندسة علوم الأعصاب والمعلوماتية بجامعة ساسِكس البريطانية، إن حالات هذيان أو هلوسة نظم الذكاء الاصطناعي تحدث عندما تُنتج تلك النظم مخرجات (outputs) لا تستند إلى الحقيقة، وعادة ما تناقض الواقع. لكن نوفوتني يفضل وصفاً آخر لها: "كما يقول زميلي البروفيسور أنيل سيث، من الأحرى أن نسميها اختلاقات وليس هلاوس، لأن المصطلح الأخير يوحي بأن نظم الذكاء الاصطناعي قادرة على الإدراك أو حتى الوعي. هذه "الهلاوس" تحدث في جميع نظم الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية الكبيرة ومولدات الصور". ورغم أن الهلاوس ليست حكراً على ما يعرف بالنماذج اللغوية الكبيرة (مثل تشات جي بي تي وجيميناي وديبسيك)، لكن خبير الذكاء الاصطناعي بمدينة سان فرانسيسكو الأمريكية محمد الجندي يقول إن "ما يجعلها تمثل إشكالية في نماذج اللغة الكبيرة على وجه الخصوص هو قدرتها على أن تبدو مقنعة، وهو ما يجعل من الصعب على المستخدمين التمييز بين الحقيقة والخيال". أشكال مختلفة هلاوس سياقية: عندما يسيء النموذج تفسير سياق ما أو يختلق تفاصيل غير صحيحة. هلاوس استنتاجية: عندما يستنتج معلومات غير صحيحة من البيانات المقدمه له. على سبيل المثال، تسأله "ماذا يحدث إذا أكلت بيضاً مع جبن؟" فيجيب بأن ذلك سيسبب لك تسمماً. هلاوس توسيع المحتوى: عندما يضيف الذكاء الاصطناعي معلومات غير ضرورية أو يوسّع السرد بعيداً عن السياق الأصلي. هلاوس بصرية: تتعلق بنماذج توليد الصور، عندما تنتج صوراً غير واقعية أو مشوهة أو منافية للواقع. على سبيل المثال، صورة لشخص بثلاث أرجل. هلاوس ناتجة عن التحيز: عندما ينتج الذكاء الاصطناعي إجابات تعكس تحيزات موجودة في بيانات تدريبه، كأن يعزز صورة نمطية لفئة ما أو يبدي ميلاً غير مبرر إلى وجهة نظر سياسية بعينها. هلاوس منطقية: عندما يقدم إجابات لا تتسق مع المنطق. على سبيل المثال، أن يجب على سؤال: "هل يمكن أن يكون للمربع خمسة أضلاع؟" بنعم. لماذا تحدث الهلاوس؟ لفهم كيفية حدوث تلك الهلاوس، ينبغي معرفة كيفية عمل نظم الذكاء الاصطناعي التوليدي. يقول البروفيسور نوفوتني إن تلك الهلاوس، أو الاختلاقات، هي أثر جانبي للمبدأ التشغيلي للذكاء الاصطناعي التوليدي. ويشرح أن تلك النظم "تستخدم خوارزمية لتوليد المخرجات من خلال أخذ عينات من توزيعات احتمالية تم إنشاؤها من مجموعات كبيرة من الأمثلة. على سبيل المثال، يتم "تدريب" نموذج لغوي كبير على التنبؤ بالكلمات المفقودة في نصوص موجودة مسبقاً، عن طريق تقدير احتمال ظهور أي كلمة، بناءً على وجود جميع الكلمات الأخرى". ويضيف نوفوتني أنه "غالباً ما يؤدي ذلك إلى شيء صحيح أو ذي معنى. ومع ذلك، فإن الخوارزمية تعتمد في جوهرها على شكل من أشكال التخمين، ولذلك قد تنتج أيضاً عبارات غير صحيحة أو حتى محض هراء". ويقول محمد الجندي إن "النماذج اللغوية الكبيرة لا تعرف الحقائق، بل تولّد اللغة بناء على الأنماط الموجودة في بيانات تدريبها. إذا لم يكن النموذج يستند إلى مصدر للحقائق (مثل قاعدة بيانات أو وثائق منتقاة بعناية)، فإنه قد يولّد معلومات غير صحيحة وبكل ثقة". وفضلاً عن ذلك، قد تتعرض نماذج اللغة الكبيرة لما يعرف بـ prompt injection attacks "هجمات حقن الأوامر"، ما يتسبب بشكل غير مباشر في حدوث الهلاوس. فهي نوع من الهجمات السيبرانية يتم خلالها إدخال بيانات أو أوامر خبيثة لتلك النماذج للحصول على بيانات حساسة أو جعلها تعطي معلومات غير صحيحة أو مضللة للمستخدمين. وتستفيد تلك الهجمات من ميزة أساسية لنظم الذكاء الاصطناعي، ألا وهي القدرة على الاستجابة لتعليمات المستخدمين، وتشكل مصدر قلق كبير، لا سيما في المجالات الحساسة مثل الأمن السيبراني وتقنيات الأسلحة المستقلة. لماذا تبدو الهلاوس مشكلة عصية على الحل؟ عادة ما يصف الخبراء طريقة عمل الذكاء الاصطناعي، ولا سيما النماذج التي تعتمد على تقنية التعلم العميق، بأنها تشبه "الصندوق الأسود"، كنايةً عن كون عمليات اتخاذها للقرارات غير شفافة وصعبة التفسير. ويتسبب ذلك بدوره في العديد من التحديات للخبراء عند محاولتهم تصحيح الهلاوس أو منعها، لأنه من الصعب التوصل إلى جذورها. يقول البروفيسور نوفوتني إنه تم إحراز الكثير من التقدم باتجاه التخلص من تلك الهلاوس. لكن "إزالتها بشكل كامل قد تتطلب نهجاً مختلفاً" يتمثل في تغيير المبدأ الأساسي لعملها الذي يعتمد على التنبؤ. ويضيف: "لكن من ناحية أخرى، إذا تمت إزالة طريقة أخذ عينات عشوائية، فإن الذكاء الاصطناعي التوليدي سيعود ببساطة إلى تقليد بيانات تدريبه، كما لو كان مجرد محرك بحث بسيط". الحل الآخر، كما يقول نوفوتني، هو "نظم منفصلة لتدقيق الحقائق، والتي لا نعرف حتى الآن كيفية بنائها بطريقة فعّالة". يتفق معه الجندي في الرأي، حيث يقول إن القضاء على الهلاوس بشكل تام "سيحتاج إلى اختراقات كبيرة في كيفية عرض النماذج للمعرفة والتفكير فيها بشكل منطقي، ونحن لم نصل إلى هذا بعد. ومع ذلك، هناك تقدم حقيقي يحدث في الوقت الحالي، لا سيما في تقنيات مثل التوليد المعزز بالاسترجاع (RAG)، والتعلم المعزز بملاحظات البشر (RLHF)، وأطر التقييم الأكثر دقة. لكن القضاء عليها تماماً سيحتاج إلى تطورات جذرية في بنية الذكاء الاصطناعي نفسها". كيف يمكن اكتشاف الهلاوس وتخفيف أضرارها؟ هلاوس الذكاء الاصطناعي قد تعود بضرر كبير على المؤسسات والشركات التي يزداد استخدامها لتقنياته طوال الوقت بغرض تحسين الخدمات أو المنتجات أو توفير النفقات. إذ قد تؤدي إلى اتخاذ قرارات غير صائبة، أو تكبد خسائر مادية، أو التعرض لخطر الملاحقة القضائية، أو الإضرار بسمعتها. ومن ثم تبرز أهمية التغلب على تلك الهلاوس. "الطريقة المثلى لتخفيف آثار هلاوس الذكاء الاصطناعي هي منعها من البداية"، وفقاً لموقع شركة التكنولوجيا العملاقة آي بي إم، الذي ينصح باتباع خطوات من بينها استخدام بيانات تدريب عالية الجودة تتسم بالتنوع والتوازن، وتحديد هدف النموذج، واختبار النظام وتحسينه باستمرار، والاعتماد على الإشراف والمراجعة البشرية لتصحيح أي أخطاء. يقول الجندي، وهو المدير التنفيذي والمؤسس المشارك لشركة Kolena ("كولينا") لنظم الذكاء الاصطناعي، إن التغلب على الهلاوس هو جزء حيوي من العمل الذي تقوم به شركته. ويضيف: "قمنا بدمج فحوصات لجودة الذكاء الاصطناعي في منصتنا بشكل مباشر. لا يقتصر دور برامج الذكاء الاصطناعي لدينا على استخراج المعلومات من المستندات المعقدة، مثل التقارير المالية وتقارير الامتثال والعقود، بل يشمل أيضاً تقديم تفسيرات منطقية، ومراجع، ودرجات ثقة لكل قيمة مستخرجة. يتيح ذلك للمستخدمين التحقق بسرعة من النتائج، وفهم كيفية استخراجها، واتخاذ الإجراءات اللازمة عند الحاجة. كما نتيح التحسين المستمر من خلال السماح للمستخدمين بتصحيح الأخطاء مرة واحدة، وتطبيق هذا التصحيح على مستوى النظام بأكمله". ويضيف الجندي أن المنصة تسعى إلى وضع معايير للجودة على مستوى الصناعة من خلال استضافة مؤتمر جودة الذكاء الاصطناعي "AIQCON" الذي "يلتقي فيه الخبراء لوضع أطر قوية لتقييم وضمان موثوقية الذكاء الاصطناعي". لكن ماذا عن الأشخاص العاديين الذين يستخدمون روبوتات الدردشة للاستفسار عن معلومة ما أو مساعدتهم في دراستهم أو عملهم؟ هل هناك وسيلة سهلة ومضمونة تمكّنهم من اكتشاف الهلاوس؟ الإجابة هي لا، وفقاً للبروفيسور نوفوتني، الذي يقول إن "ما يزيد الطين بلة هو أن هذه الهلاوس في أغلب الأحيان تتعلق بحقائق ليست من المعرفة العامة أو مدعومة بالمنطق. على سبيل المثال: من الفنان الذي رسم لوحة ما في عام ما؟ ليس هناك الكثير من المنطق الذي يمكن تطبيقه للتحقق مما إذا كانت الإجابة صحيحة أم لا دون الاعتماد على مصادر أخرى للمعلومات. في النهاية، يبقى البحث عن مصادر معلومات موثوقة هو الخيار القابل للتطبيق، مع مراعاة التحفظات بشأن أي مصادر للمعلومات، وما إذا كان يمكن بالفعل الوثوق بها أم لا". لا شك أن هلاوس أو اختلاقات الذكاء الاصطناعي تشكل تحدياً كبيراً. وريثما تتحقق اختراقات جذرية تؤدي إلى تفادي تلك الهلاوس، يبدو أنه سيتعين على الشركات الاستثمار في المزيد من إجراءات تحسين الجودة. وعلى الأفراد تبني تفكير نقدي واستشارة المراجع الموثوقة، وذلك لضمان أن يظل الذكاء الاصطناعي أداة قيمة وليس مصدراً للمشكلات أو المعلومات المغلوطة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store