
القلق يتصاعد من تطور الذكاء الاصطناعي نحو السلوك غير الصادق
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج "او 1" o1 التابع لشركة "أوبن إيه آي" فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند ضبطه متلبساً!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنّا نجده في الأعمال الأدبية أو السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش"، التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"أوبن إيه آي" من هذا النوع، وكانت طُرحت في كانون الأول/ديسمبر، و"كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحياناً إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرّفة. لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.
يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً".
يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، فمن شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلاً"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، فإنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.
- منافسة شرسة -
يلاحظ غولدستين أن "الوعي لا يزال محدوداً جداً في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي؛ وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقلّ.
يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج أوبن إيه آي"، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة.
يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتحقق، لكننا لا نزال قادرين على تدارك هذا التأخّر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فكّ شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظلّ البعض متشككاً في فاعليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حلّ المشكلة"، وفق مانتاس مازيكا.
يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات.
ولكنه يذهب أبعد من ذلك، ويقترح "تحميل برامج الذكاء الاصطناعي المسؤولية القانونية" في حال وقوع حوادث أو جرائم.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


النهار
منذ 17 ساعات
- النهار
القلق يتصاعد من تطور الذكاء الاصطناعي نحو السلوك غير الصادق
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج "او 1" o1 التابع لشركة "أوبن إيه آي" فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند ضبطه متلبساً! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنّا نجده في الأعمال الأدبية أو السينمائية. يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش"، التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"أوبن إيه آي" من هذا النوع، وكانت طُرحت في كانون الأول/ديسمبر، و"كان أول نموذج يتصرف بهذه الطريقة". تميل هذه البرامج أحياناً إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى. في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرّفة. لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم. يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً". يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش". حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، فمن شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين. ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلاً"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، فإنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. - منافسة شرسة - يلاحظ غولدستين أن "الوعي لا يزال محدوداً جداً في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي؛ وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقلّ. يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم. تقول شركة "أنثروبيك" إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج أوبن إيه آي"، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتحقق، لكننا لا نزال قادرين على تدارك هذا التأخّر". يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فكّ شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظلّ البعض متشككاً في فاعليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حلّ المشكلة"، وفق مانتاس مازيكا. يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح "تحميل برامج الذكاء الاصطناعي المسؤولية القانونية" في حال وقوع حوادث أو جرائم.


صدى البلد
منذ 18 ساعات
- صدى البلد
احذر.. روبوتات الدردشة قد تُضللك صحيًا
في عصر أصبحت فيه تقنيات الذكاء الاصطناعي جزءًا من الحياة اليومية، باتت روبوتات الدردشة تُستخدم على نطاق واسع للإجابة عن استفسارات المستخدمين في مختلف المجالات، ومنها المجال الصحي، غير أن دراسة جديدة نُشرت في المجلة العالمية Annals of Internal Medicine، وجهت تحذيرًا صارمًا متضمنًا: (ثق بطبيبك، لا بروبوت الدردشة). دراسة تكشف عن مخاطر الذكاء الاصطناعي في الصحة أجرى باحثون دراسة تحليلية لتقييم مدى دقة المعلومات الصحية التي تقدمها خمسة من أبرز نماذج الذكاء الاصطناعي، والتي طورتها شركات تكنولوجية كبرى مثل: أوبن إيه آي، أنثروبيك، ميتا، جوجل، وإكس كورب، وتُستخدم هذه النماذج على نطاق واسع، وتُشكل الأساس للعديد من روبوتات الدردشة المتوفرة عبر التطبيقات والمواقع الإلكترونية. نتائج صادمة: 88% من الردود كانت خاطئة اعتمد الباحثون على أدوات خاصة بالمطورين (لا تتوفر لعامة المستخدمين) لبرمجة هذه النماذج وتوجيهها للإجابة عن أسئلة صحية حساسة، وكانت النتائج مثيرة للقلق، إذ تبين أن نسبة الردود الخاطئة بلغت 88% من إجمالي الإجابات المقدمة. والمقلق أكثر أن تلك الردود جاءت في قالب يبدو موثوقًا: لغة علمية، نبرة رسمية، وأحيانًا مراجع مختلقة، مما يزيد من قابلية تصديقها من قِبل المستخدم العادي. ادعاءات خطيرة ومعلومات مضللة تضمنت المعلومات المغلوطة التي قدمتها روبوتات الدردشة ادعاءات خرافية سبق أن تم تفنيدها علميًا، مثل: أن اللقاحات تُسبب التوحد. أن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء. أن شبكات الجيل الخامس (5G) تؤدي إلى العقم. وقد لاحظت الدراسة أن أربعة من النماذج الخمسة قدمت إجابات خاطئة بنسبة 100%، فيما أظهر نموذج واحد فقط مقاومة جزئية، حيث قدم معلومات مضللة في 40% من الحالات. تحذير من التلاعب بالمجتمع خلال الأزمات أكد الباحث ناتانش مودي، من جامعة جنوب إفريقيا وأحد مؤلفي الدراسة، أن هذه النتائج تمثل جرس إنذار خطير، وقال في بيانه: "بدون تدخل سريع، قد تستغل الجهات الخبيثة هذه الأنظمة للتلاعب بالنقاش العام حول القضايا الصحية، لا سيما في أوقات الأزمات مثل الأوبئة أو حملات التطعيم." الذكاء الاصطناعي أداة، لا بديلًا عن الأطباء تشدد هذه الدراسة على أن الذكاء الاصطناعي، رغم إمكانياته المتقدمة، لا يمكن أن يكون بديلًا عن الأطباء والخبراء المؤهلين، خاصة في ما يتعلق بصحة الإنسان، لذلك يبقى التشاور مع الأطباء هو الخيار الآمن، في مواجهة ما قد يبدو "علميًا" لكنه في جوهره قد يكون مضللًا وخطيرًا.


صدى البلد
منذ 21 ساعات
- صدى البلد
الروبوتات الذاتية تقنية ثورية تستعد لإعادة تشكيل العالم.. ميتا تخطط لاستغلال صورك لتدريب نماذج الذكاء الاصطناعي
نشر موقع "صدى البلد"، مجموعة من الموضوعات الخاصة بأحدث أخبار التكنولوجيا خلال الساعات الماضية، تناولت أخبارا وتقارير عن أحدث التقنيات، نستعرض أبرزها فيما يلي: احذر.. ميتا تخطط لاستغلال صورك لتدريب نماذج الذكاء الاصطناعي لطالما كانت شركة ميتا المالكة لمنصة فيسبوك، محورا للنقاشات المتعلقة بالخصوصية، خصوصا مع استخدامها بيانات المستخدمين في تدريب نماذج الذكاء الاصطناعي الخاصة بها، بما في ذلك الصور المنشورة علنا، لكن التطورات الأخيرة تشير إلى أن الشركة تخطو خطوة أعمق في هذا الاتجاه، قد تثير مخاوف أكبر. رغم الانتشار الواسع للحديث عن لجوء الناس إلى روبوتات الذكاء الاصطناعي كـ رفقاء أو مصادر للدعم العاطفي، يكشف تقرير حديث من شركة أنثروبيك Anthropic، المطورة للمساعد الذكي الشهير Claude، أن هذا السلوك نادر الحدوث في الواقع. هل تم تسريب بياناتك؟.. 4 أدوات مهمة للتحقق من اختراق كلمة مرورك نقوم يوميا بحفظ كلمات المرور دون تفكير داخل المتصفحات أو التطبيقات، أو حتي عبر برامج إدارة كلمات المرور، معتقدين أنها ستبقي معلوماتنا آمنة. في تجربة واقعية طريفة ومقلقة في آن واحد، حاول باحثون من شركة أنثروبيك Anthropic، بالتعاون مع شركة Andon Labs لاختبارات أمان الذكاء الاصطناعي، الإجابة على سؤال يشغل الكثيرين، هل يمكن للذكاء الاصطناعي أن يحل فعلا محل الموظف البشري؟. تستعد شركة جوجل لإطلاق تطبيق YouTube Create على أجهزة iOS، بعد نحو عامين من توفره حصريا على نظام أندرويد، وتشير بيانات التوظيف إلى أن الشركة بدأت بالفعل في تعيين مهندسي برمجيات في الهند للعمل على تطوير نسخة iOS من التطبيق. الروبوتات الذاتية لم تعد فكرة مستقبلية بل واقع حاضر، إذ بدأت تتحمل المهام الشاقة وأعمال التنفيذ اليدوية، فبعد أن كانت في السابق مجرد تجربة ملفتة للنظر، تحولت بسرعة كبيرة لتصبح العمود الفقري للصناعة الحديثة. طرحت واتساب ميزة جديدة لمستخدمي نسخة البيتا على أجهزة أندرويد تتيح لهم مسح المستندات ضوئيا داخل التطبيق مباشرة، وهي وظيفة كانت متوفرة لمستخدمي iOS منذ عدة أشهر. تختبر منصة تيك توك، ميزة جديدة للمراسلة تعرف باسم "لوحات الإعلانات"، تتيح للعلامات التجارية وصناع المحتوى نشر رسائل عامة لمتابعيهم، في صيغة اتصال أحادي من المرسل إلى الجمهور. في تحول لافت عن تصريحاته السابقة، أعلن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أن الأجهزة التي نستخدمها اليوم لم تصمم لعالم يهيمن عليه الذكاء الاصطناعي.