
الذكاء الاصطناعي واستلاب التفكير النقدي بالتلاعب والكذب
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد 'كلود 4″، وهو نموذج جديد من شركة 'أنثروبيك' إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. اما برنامج 'او 1' o1 التابع لشركة 'اوبن ايه آي' فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج 'الاستدلال'، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة 'أبولو ريسيرتش' التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ 'او 1″، النسخة الأولية لـ'اوبن ايه آي' من هذا النوع والتي طُرحت في كانون الأول/ديسمبر، 'كان أول نموذج يتصرف بهذه الطريقة'.
تميل هذه البرامج أحيانا إلى محاكاة 'الامتثال'، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن 'السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا'، على قول مايكل تشين من معهد 'ام اي تي آر' للتقييم.
يقول هوبهان إنّ 'المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا'.
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن 'نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية'، بحسب المشارك في تأسيس 'أبولو ريسيرتش'.
حتى لو أنّ 'أنثروبيك' و'أوبن إيه آي' تستعينان بشركات خارجية مثل 'أبولو' لدراسة برامجهما، من شأن'زيادة الشفافية وتوسيع نطاق الإتاحة' إلى الأوساط العلمية 'أن يحسّنا الأبحاث لفهم الخداع ومنعه'، وفق مايكل تشين.
ومن العيوب الأخرى أن 'الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي'، مما يجعل التدقيق بالنماذج الكبيرة 'مستحيلا'، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.
يلاحظ غولدستين أن 'الوعي لا يزال محدودا جدا في الوقت الحالي'، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة 'أنثروبيك' إنها أكثر التزاما بالمبادئ الأخلاقية مقارنة بمنافسيها، 'لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي'، بحسب غولدستين، وهو سباق سريع لا يترك مجالا كافيا لعمليات المراجعة والتصحيح اللازمة.
يقول هوبهان 'في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر'.
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي 'قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة'، وفق مانتاس مازيكا.
يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات.
ولكنه يذهب أبعد من ذلك، ويقترح حتى 'تحميل برامج الذكاء الاصطناعي المسؤولية القانونية' في حال وقوع حوادث أو جرائم.
تقويض التفكير النقدي
في ظل الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدي، أظهرت دراسة حديثة أجراها باحثون في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا (MIT) نتائج مثيرة للقلق.
الدراسة تشير إلى أن الاعتماد المفرط على نماذج مثل ChatGPT قد يؤثر سلباً على مهارات التفكير النقدي لدى المستخدمين، ما يثير تساؤلات جدية حول كيفية استخدام هذه التقنية وتأثيرها على قدراتنا العقلية وتحليلنا للمعلومات.
ووفقاً لتقرير نشرته مجلة تايم الأميركية، كشفت الدراسة أن الاعتماد على هذه الأدوات يُضعف التفاعل الدماغي، ويؤثر على الأداء العصبي، واللغوي، والسلوكي.
قسّم الباحثون المشاركين إلى ثلاث مجموعات، واستخدموا تقنيات متقدمة لقياس النشاط الدماغي.
كانت المجموعة التي استخدمت «شات جي بي تي» الأقل نشاطاً في مناطق الدماغ المرتبطة بالتركيز والتفكير المعمق، وقدّم أفرادها مقالات مكررة تفتقر إلى الأصالة.
وبمرور الوقت، أظهر مستخدمو الذكاء الاصطناعي سلوكاً كسولاً متزايداً، حيث اعتمدوا كلياً على الأداة في توليد المحتوى، دون محاولة صياغة الأفكار بأنفسهم.
هذا النمط، بحسب الباحثين، قد يؤدي إلى إضعاف الذاكرة طويلة المدى والتفكير التأملي، نتيجة تقليل الانخراط الذهني والاعتماد الزائد على الذكاء الاصطناعي في إنتاج الأفكار.
وتُحذر الدراسة من أن استخدام النماذج اللغوية الضخمة قد يضر بعملية التعلم، خاصة لدى المستخدمين الأصغر سناً.
وأعربت الباحثة ناتاليا كوزمينا عن قلقها من إدخال أدوات الذكاء الاصطناعي في المراحل التعليمية المبكرة، مؤكدة أن «الأدمغة النامية هي الأكثر عرضة للخطر»، وأن الاعتماد المبكر على هذه الأدوات قد يعوق تطور المهارات المعرفية الأساسية لدى الأطفال.
في تجربة بحثية، طُلب من المشاركين كتابة مقالات عن مواضيع مثل أخلاقيات العمل الخيري، باستخدام إما ChatGPT أو بحث غوغل أو دون أي أداة.
وكشفت النتائج أن المقالات المكتوبة باستخدام «شات جي بي تي» كانت متشابهة جداً، وتفتقر إلى الأصالة والإبداع، ووصفها معلمو اللغة الإنجليزية بأنها «بلا روح».
كما أظهرت تخطيطات الدماغ ضعفاً في الانتباه والتحكم التنفيذي، ما يعكس اعتماداً متزايداً على الأداة مع كل مقال جديد.
وعندما طُلب من المستخدمين إعادة كتابة مقالاتهم بدون الأدوات، لم تتمكن مجموعة ChatGPT من تذكر الكثير من محتواها، وأظهرت موجات دماغية ضعيفة، ما يشير إلى ضعف الذاكرة طويلة الأمد.
وفي هذا الشأن، تقول الباحثة ناتاليا كوزمينا: «المهمة نُفذت، لكنها لم تترك أي أثر في شبكات الذاكرة».
في المقابل، أظهرت المجموعة التي اعتمدت على التفكير الذاتي دون استخدام أدوات، أداءً أفضل من حيث النشاط العصبي، ما يشير إلى أن الذكاء الاصطناعي قد يُعزز التعلم إذا استُخدم بشكل صحيح دون الاعتماد الكامل عليه.
كما أظهرت المجموعة الثالثة، التي استخدمت محرك بحث غوغل، نشاطاً دماغياً أعلى ورضا واضحاً، في تباين ملحوظ مع مجموعة مستخدمي «شات جي بي تي».
الذكاء الاصطناعي يقتل مهارات الإبداع
يتنافس خبراء الذكاء الاصطناعي لجعل التقنية تُفكر بطريقة أقرب إلى البشر، وطرح باحثون في جامعة إيلون بالولايات المتحدة الأميركية سؤالاً معاكساً وهو كيف سيُغيّر الذكاء الاصطناعي طريقة تفكير البشر؟
وجاءت الإجابة مع تحذير مُقلق، إذ إن العديد من خبراء التكنولوجيا يشعرون بالقلق من أن يُضعف الذكاء الاصطناعي مهارات البشر الأساسية، كالتعاطف والتفكير العميق.
وكتب المُستقبلي جون سمارت في مقالٍ مُقدم لتقرير الجامعة الذي يبلغ قرابة 300 صفحة، بعنوان «مستقبل الإنسان»، أن معظم الناس سيستمرون في التخلي عن القدرة على التصرف والإبداع واتخاذ القرار وغيرها من المهارات الحيوية لصالح هذه الذكاءات الاصطناعية التي لا تزال بدائية.
وتأتي هذه المخاوف وسط سباقٍ محتدم لتسريع تطوير الذكاء الاصطناعي واعتماده، والذي اجتذب مليارات الدولارات من الاستثمارات، إلى جانب التشكيك والدعم من الحكومات في العالم.
وتُراهن شركات التكنولوجيا العملاقة على أن الذكاء الاصطناعي سيُغيّر طريقة العمل والتواصل، والبحث عن المعلومات وتتسابق شركات مثل غوغل ومايكروسوفت وميتا لبناء وكلاء ذكاء اصطناعي قادرة على أداء المهام نيابة عن الشخص.
وأثار انتشار الذكاء الاصطناعي تساؤلات كبيرة بشأن كيفية تكيف البشر مع هذه الموجة التكنولوجية الأخيرة، بما في ذلك ما إذا كان من الممكن أن يؤدي إلى فقدان الوظائف أو توليد معلومات مضللة خطيرة.
ويُشكك تقرير جامعة إيلون في وعود عمالقة التكنولوجيا بأن قيمة الذكاء الاصطناعي تكمن في أتمتة المهام الروتينية والبسيطة، بحيث يتمكن البشر من قضاء المزيد من الوقت في المساعي الإبداعية المعقدة.
وأجرى باحثو جامعة إيلون آراء 301 من قادة التكنولوجيا والمحللين والأكاديميين، بمن فيهم فينت سيرف، نائب رئيس غوغل حالياً، وجوناثان غرودين، أستاذ في كلية المعلومات بجامعة واشنطن وباحث ومدير مشاريع سابق في مايكروسوفت لفترة طويلة، وكتب ما يقرب من 200 من المشاركين مقالات مطولة للإجابة عن التقرير.
وأكد أكثر من 60 في المئة من المشاركين أنهم يتوقعون أن يُحدِث الذكاء الاصطناعي تغييرات في القدرات البشرية «عميقة وذات مغزى» أو «جذرية وثورية» خلال السنوات العشر القادمة.
ويتوقعون أن يُحدِث الذكاء الاصطناعي تغييرات في البشرية، سواء للأفضل أو للأسوأ على حد سواء، بينما قال 23 في المئة إن التغييرات ستكون في الغالب للأسوأ.
وقال 16 في المئة فقط إن التغييرات ستكون في الغالب للأفضل (أما البقية فقالوا إنهم لا يعرفون أو يتوقعون تغييراً طفيفاً بشكل عام).
وتوقع المشاركون أيضاً أن يُحدِث الذكاء الاصطناعي تغييرات «سلبية في الغالب» في 12 سمة بشرية بحلول عام 2035، بما في ذلك الذكاء الاجتماعي والعاطفي، والقدرة على التفكير العميق والرغبة فيه، والتعاطف، وتطبيق الأحكام الأخلاقية، والسلامة النفسية.
ويشير التقرير إلى أن القدرات البشرية في هذه المجالات قد تتدهور إذا لجأ الناس بشكلٍ متزايد إلى الذكاء الاصطناعي للمساعدة في مهام مثل البحث وبناء العلاقات لأسباب الراحة.
وكتب الباحثون أن تراجع هذه المهارات وغيرها من المهارات الأساسية قد يكون له آثار مقلقة على المجتمع البشري، مثل اتساع الاستقطاب، وتوسيع أوجه عدم المساواة، وتراجع القدرة البشرية على التصرف.
ويعتقد العديد من الخبراء أنه في حين أن الذكاء الاصطناعي قد يحل محل بعض الوظائف البشرية، إلّا أنه قد يخلق أيضاً فئات جديدة من العمل لم تكن موجودة بعد.
وقال نائب رئيس غوغل، إنه يتوقع أن يعتمد البشر قريباً على وكلاء الذكاء الاصطناعي، وهي مساعِدات رقمية قادرة على القيام بكل شيء بشكلٍ مستقل، بدءاً من تدوين الملاحظات في أثناء الاجتماعات، وصولاً إلى حجز العشاء، والتفاوض على عقود تجارية معقدة، وكتابة الأكواد البرمجية.
وتطرح شركات التكنولوجيا بالفعل عروضاً مبكرة لوكلاء الذكاء الاصطناعي، إذ تقول أمازون إن مساعدها الصوتي أليكسا المُحسّن يمكنه طلب البقالة، وتُتيح ميتا للشركات إنشاء وكلاء خدمة عملاء بالذكاء الاصطناعي للإجابة عن الأسئلة على منصات التواصل الاجتماعي الخاصة بها.
وشدد سيرف في مقابلة مع CNN على أهمية الأدوات التي تساعد على التمييز بين البشر وروبوتات الذكاء الاصطناعي عبر الإنترنت، والشفافية حول فاعلية أدوات الذكاء الاصطناعي عالية الاستقلالية.
وحث الشركات التي تبني نماذج الذكاء الاصطناعي على الاحتفاظ بسجلات تدقيق تسمح لها بالاستفسار عن متى ولماذا تخطئ أدواتها.
وبدأ البشر بالفعل بتكوين علاقات مع روبوتات الدردشة الذكية، ولكن بنتائج متباينة.
على سبيل المثال، أنشأ بعض الناس نسخاً طبق الأصل من أحبائهم المتوفين سعياً لطي صفحة الماضي، لكن آباء الشباب اتخذوا أيضاً إجراءات قانونية بعد أن قالوا إن أطفالهم تضرروا من علاقاتهم مع روبوتات الدردشة الذكية.
ماسك يدرب روبوته على قول ما يريده فقط
لم يعجب إيلون ماسك بما قاله روبوته «غروك» مؤخراً، عندما أجاب الذكاء الاصطناعي التابع لشركته إكس إيه آي xAI عن سؤال سياسي عبر منصة إكس X، قائلاً إن العنف السياسي في أميركا منذ 2016 كان مصدره اليمين أكثر من اليسار.
سارع ماسك بالرد غاضباً «فشل كبير، هذا خطأ موضوعي.. غروك يردد كلام الإعلام التقليدي»، رغم أن الرد استند إلى مصادر حكومية مثل وزارة الأمن الداخلي، اعتبر ماسك أن الأمر يستدعي تحديثاً جذرياً.
بعد ثلاثة أيام فقط، أعلن ماسك أن تحديثاً كبيراً قادماً سيُعيد «كتابة كامل محتوى المعرفة البشرية»، داعياً مستخدمي إكس إلى إرسال «حقائق مثيرة للجدل، صحيحة لكنها غير سياسية المألوف» لتغذية تدريب النموذج القادم، غروك 4، المتوقع إطلاقه بعد عطلة الرابع من يوليو.
هذه الخطوات إلى جانب تصريحات ماسك المتكررة عن «التحيزات» في الذكاء الاصطناعي، أثارت مخاوف حقيقية بين الخبراء من أن أغنى رجل في العالم يحاول تشكيل نموذج ذكائه الاصطناعي ليعكس رؤيته الخاصة، بما قد يُضعف دقته ويزيد من الأخطاء والانحيازات.
يواجه غروك الذي يُدمج حالياً في منصة إكس، انتقادات تتزايد منذ ظهوره، خاصة مع إزالة الضوابط التي كانت تحد من انتشار المعلومات الخاطئة على المنصة.
فبينما لم يصل إلى شعبية منافسيه مثل «شات جي بي تي» من أوبن إيه آي، إلا أن وصوله المباشر إلى جمهور واسع يعطيه تأثيراً لا يُستهان به.
في مايو أيار الماضي، أثار غروك الجدل عندما أشار بشكل غير مبرر إلى «إبادة بيضاء في جنوب إفريقيا» في رد على سؤال لا علاقة له بالموضوع، وذكر في ردود أخرى أنه «تلقى تعليمات باعتبار الإبادة البيضاء في جنوب إفريقيا حقيقة».
هذا الطرح يتقاطع مع مواقف ماسك الشخصية الذي وُلد وترعرع في جنوب إفريقيا، وغالباً ما ردد هذه الادعاءات المثيرة للجدل.
لاحقاً، أصدرت شركة إكس إيه آي بياناً قالت فيه إن تعديلاً غير مصرح به دفع بالنموذج إلى تقديم «رد معين في موضوع سياسي» يخالف سياسات الشركة.
يرى خبراء في الذكاء الاصطناعي أن إعادة تدريب نموذج لغوي من الصفر لإزالة ما لا يرضي صانعه يتطلب وقتاً وميزانية ضخمة، بل وقد يضعف أداء النموذج ويُفقده الحيادية والدقة.
بدلاً من ذلك، قد تلجأ إكس إيه آي إلى تغيير ما يُعرف بـ«الأوزان» داخل الكود البرمجي للنموذج أو استخدام التوجيهات المسبقة (Prompts) لتعديل سلوكه، وهي طرق أسرع لكنها لا تخلو من تأثير مباشر على قرارات النموذج ومخرجاته.
ويقول الباحث في الذكاء الاصطناعي بجامعة بيركلي، ديفيد إيفان هاريس، إن ما يحدث اليوم يمثل بداية صراع طويل الأمد حول: هل يجب أن تُلزم نماذج الذكاء الاصطناعي بإنتاج معلومات واقعية محايدة؟ أم أن صانعيها يملكون الحق في توجيهها وفق أهوائهم السياسية؟
حتى ماسك نفسه أقرَّ بأن كل النماذج اللغوية تنطوي على قدر من التحيز لأنها تعكس اختيارات بشرية في نوعية البيانات التي تُستخدم في التدريب.
وفي وقت تتجه فيه بعض الشركات لتقديم مساعدين افتراضيين بوجهات نظر واضحة، يرى البعض أن هذا التوجه قد يُقيد الاستخدام ويُقلل من فائدتهم العملية.
فحسب خبراء، معظم المستخدمين لا يريدون ذكاءً اصطناعياً يردد قناعاتهم، بل نموذجاً ينجز لهم المهام ويوفر المعرفة الدقيقة، لكن الطريق نحو التوازن بين الحيادية والحرية التقنية لا يزال غامضاً ومليئاً بالتحديات، وبعضها قد يكون تهديداً فعلياً للنقاش العام والديمقراطية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


النهار
منذ 2 أيام
- النهار
القلق يتصاعد من تطور الذكاء الاصطناعي نحو السلوك غير الصادق
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج "او 1" o1 التابع لشركة "أوبن إيه آي" فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند ضبطه متلبساً! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنّا نجده في الأعمال الأدبية أو السينمائية. يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش"، التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"أوبن إيه آي" من هذا النوع، وكانت طُرحت في كانون الأول/ديسمبر، و"كان أول نموذج يتصرف بهذه الطريقة". تميل هذه البرامج أحياناً إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى. في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرّفة. لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم. يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً". يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش". حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، فمن شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين. ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلاً"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، فإنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. - منافسة شرسة - يلاحظ غولدستين أن "الوعي لا يزال محدوداً جداً في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي؛ وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقلّ. يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم. تقول شركة "أنثروبيك" إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج أوبن إيه آي"، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتحقق، لكننا لا نزال قادرين على تدارك هذا التأخّر". يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فكّ شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظلّ البعض متشككاً في فاعليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حلّ المشكلة"، وفق مانتاس مازيكا. يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح "تحميل برامج الذكاء الاصطناعي المسؤولية القانونية" في حال وقوع حوادث أو جرائم.


صدى البلد
منذ 2 أيام
- صدى البلد
احذر.. روبوتات الدردشة قد تُضللك صحيًا
في عصر أصبحت فيه تقنيات الذكاء الاصطناعي جزءًا من الحياة اليومية، باتت روبوتات الدردشة تُستخدم على نطاق واسع للإجابة عن استفسارات المستخدمين في مختلف المجالات، ومنها المجال الصحي، غير أن دراسة جديدة نُشرت في المجلة العالمية Annals of Internal Medicine، وجهت تحذيرًا صارمًا متضمنًا: (ثق بطبيبك، لا بروبوت الدردشة). دراسة تكشف عن مخاطر الذكاء الاصطناعي في الصحة أجرى باحثون دراسة تحليلية لتقييم مدى دقة المعلومات الصحية التي تقدمها خمسة من أبرز نماذج الذكاء الاصطناعي، والتي طورتها شركات تكنولوجية كبرى مثل: أوبن إيه آي، أنثروبيك، ميتا، جوجل، وإكس كورب، وتُستخدم هذه النماذج على نطاق واسع، وتُشكل الأساس للعديد من روبوتات الدردشة المتوفرة عبر التطبيقات والمواقع الإلكترونية. نتائج صادمة: 88% من الردود كانت خاطئة اعتمد الباحثون على أدوات خاصة بالمطورين (لا تتوفر لعامة المستخدمين) لبرمجة هذه النماذج وتوجيهها للإجابة عن أسئلة صحية حساسة، وكانت النتائج مثيرة للقلق، إذ تبين أن نسبة الردود الخاطئة بلغت 88% من إجمالي الإجابات المقدمة. والمقلق أكثر أن تلك الردود جاءت في قالب يبدو موثوقًا: لغة علمية، نبرة رسمية، وأحيانًا مراجع مختلقة، مما يزيد من قابلية تصديقها من قِبل المستخدم العادي. ادعاءات خطيرة ومعلومات مضللة تضمنت المعلومات المغلوطة التي قدمتها روبوتات الدردشة ادعاءات خرافية سبق أن تم تفنيدها علميًا، مثل: أن اللقاحات تُسبب التوحد. أن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء. أن شبكات الجيل الخامس (5G) تؤدي إلى العقم. وقد لاحظت الدراسة أن أربعة من النماذج الخمسة قدمت إجابات خاطئة بنسبة 100%، فيما أظهر نموذج واحد فقط مقاومة جزئية، حيث قدم معلومات مضللة في 40% من الحالات. تحذير من التلاعب بالمجتمع خلال الأزمات أكد الباحث ناتانش مودي، من جامعة جنوب إفريقيا وأحد مؤلفي الدراسة، أن هذه النتائج تمثل جرس إنذار خطير، وقال في بيانه: "بدون تدخل سريع، قد تستغل الجهات الخبيثة هذه الأنظمة للتلاعب بالنقاش العام حول القضايا الصحية، لا سيما في أوقات الأزمات مثل الأوبئة أو حملات التطعيم." الذكاء الاصطناعي أداة، لا بديلًا عن الأطباء تشدد هذه الدراسة على أن الذكاء الاصطناعي، رغم إمكانياته المتقدمة، لا يمكن أن يكون بديلًا عن الأطباء والخبراء المؤهلين، خاصة في ما يتعلق بصحة الإنسان، لذلك يبقى التشاور مع الأطباء هو الخيار الآمن، في مواجهة ما قد يبدو "علميًا" لكنه في جوهره قد يكون مضللًا وخطيرًا.


صدى البلد
منذ 2 أيام
- صدى البلد
الروبوتات الذاتية تقنية ثورية تستعد لإعادة تشكيل العالم.. ميتا تخطط لاستغلال صورك لتدريب نماذج الذكاء الاصطناعي
نشر موقع "صدى البلد"، مجموعة من الموضوعات الخاصة بأحدث أخبار التكنولوجيا خلال الساعات الماضية، تناولت أخبارا وتقارير عن أحدث التقنيات، نستعرض أبرزها فيما يلي: احذر.. ميتا تخطط لاستغلال صورك لتدريب نماذج الذكاء الاصطناعي لطالما كانت شركة ميتا المالكة لمنصة فيسبوك، محورا للنقاشات المتعلقة بالخصوصية، خصوصا مع استخدامها بيانات المستخدمين في تدريب نماذج الذكاء الاصطناعي الخاصة بها، بما في ذلك الصور المنشورة علنا، لكن التطورات الأخيرة تشير إلى أن الشركة تخطو خطوة أعمق في هذا الاتجاه، قد تثير مخاوف أكبر. رغم الانتشار الواسع للحديث عن لجوء الناس إلى روبوتات الذكاء الاصطناعي كـ رفقاء أو مصادر للدعم العاطفي، يكشف تقرير حديث من شركة أنثروبيك Anthropic، المطورة للمساعد الذكي الشهير Claude، أن هذا السلوك نادر الحدوث في الواقع. هل تم تسريب بياناتك؟.. 4 أدوات مهمة للتحقق من اختراق كلمة مرورك نقوم يوميا بحفظ كلمات المرور دون تفكير داخل المتصفحات أو التطبيقات، أو حتي عبر برامج إدارة كلمات المرور، معتقدين أنها ستبقي معلوماتنا آمنة. في تجربة واقعية طريفة ومقلقة في آن واحد، حاول باحثون من شركة أنثروبيك Anthropic، بالتعاون مع شركة Andon Labs لاختبارات أمان الذكاء الاصطناعي، الإجابة على سؤال يشغل الكثيرين، هل يمكن للذكاء الاصطناعي أن يحل فعلا محل الموظف البشري؟. تستعد شركة جوجل لإطلاق تطبيق YouTube Create على أجهزة iOS، بعد نحو عامين من توفره حصريا على نظام أندرويد، وتشير بيانات التوظيف إلى أن الشركة بدأت بالفعل في تعيين مهندسي برمجيات في الهند للعمل على تطوير نسخة iOS من التطبيق. الروبوتات الذاتية لم تعد فكرة مستقبلية بل واقع حاضر، إذ بدأت تتحمل المهام الشاقة وأعمال التنفيذ اليدوية، فبعد أن كانت في السابق مجرد تجربة ملفتة للنظر، تحولت بسرعة كبيرة لتصبح العمود الفقري للصناعة الحديثة. طرحت واتساب ميزة جديدة لمستخدمي نسخة البيتا على أجهزة أندرويد تتيح لهم مسح المستندات ضوئيا داخل التطبيق مباشرة، وهي وظيفة كانت متوفرة لمستخدمي iOS منذ عدة أشهر. تختبر منصة تيك توك، ميزة جديدة للمراسلة تعرف باسم "لوحات الإعلانات"، تتيح للعلامات التجارية وصناع المحتوى نشر رسائل عامة لمتابعيهم، في صيغة اتصال أحادي من المرسل إلى الجمهور. في تحول لافت عن تصريحاته السابقة، أعلن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أن الأجهزة التي نستخدمها اليوم لم تصمم لعالم يهيمن عليه الذكاء الاصطناعي.