
هدد موظفاً بفضح علاقة غرامية.. قلق من تعلم الذكاء الاصطناعي الابتزاز والكذب
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد لتحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد «كلود 4»، وهو نموذج جديد من شركة «أنثروبيك»، إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج «او 1» o1 التابع لشركة «اوبن ايه آي» فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبساً!
وبات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنّا نجده في الأعمال الأدبية أو السينمائية.
يرى سايمن غولدستين، الأستاذ في جامعة هونغ كونغ، أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل بدلاً من تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى: إنّ «او 1»، النسخة الأولية لـ«اوبن ايه آي» من هذا النوع والتي طُرحت في ديسمبر/كانون الأول الماضي، «كان أول نموذج يتصرف بهذه الطريقة».
تميل هذه البرامج أحياناً إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، وفق مايكل تشين، من معهد «إم آي تي آر» للتقييم.
يقول هوبهان إنّ «المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. لا نبتكر شيئاً».
يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً، بل ازدواجية استراتيجية»، بحسب المشارك في تأسيس «أبولو ريسيرتش».
حتى لو أنّ «أنثروبيك» و«أوبن إيه آي» تستعينان بشركات خارجية مثل «أبولو» لدراسة برامجهما، من شأن «زيادة الشفافية وتوسيع نطاق الإتاحة» إلى الأوساط العلمية «أن يحسّنا الأبحاث لفهم الخداع ومنعه»، وفق مايكل تشين.
ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، ما يجعل التدقيق بالنماذج الكبيرة «مستحيلاً»، حسب مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، فإنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن «الكونغرس» قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.
منافسة شرسة
يلاحظ غوسايمن غولدستين لدستين، أن «الوعي لا يزال محدوداً جداً»، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم.
تقول شركة «أنثروبيك»، إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، «لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن أيه آي»، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة.
يقول هوبهان: «تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر».
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شيفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل بعضهم متشككاً في فاعليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي «قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حل المشكلة»، وفق مانتاس مازيكا.
يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات.
ويذهب أبعد من ذلك، مقترحاً حتى «تحميل برامج الذكاء الاصطناعي المسؤولية القانونية» في حال وقوع حوادث أو جرائم.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صحيفة الخليج
منذ 2 ساعات
- صحيفة الخليج
5 مديرين تنفيذيين يحددون المهارات اللازمة لمواكبة العصر
في ظل التحول الرقمي الهائل الذي يشهده القطاع المالي العالمي، أصبح الذكاء الاصطناعي التوليدي (Generative AI) أحد المحركات الأساسية لإعادة تشكيل وظائف التكنولوجيا في وول ستريت. ولم تعد هذه التقنية مجرد أداة مساعدة، بل أصبحت جزءاً لا يتجزأ من منظومة العمل في المؤسسات المالية الكبرى، حيث تجاوز تأثيرها الجوانب التشغيلية لتطال المهارات المطلوبة، وطبيعة دور المهندس البرمجي، وصولاً إلى هيكلة فرق العمل. في هذا السياق، أجرت منصة بيزنس إنسايدر حواراً مع خمسة خبراء في هذا المجال، من بينهم مسؤولون تنفيذيون في مؤسسات مالية بارزة مثل جولدمان ساكس ومورغان ستانلي وPoint72 وTD Bank، إضافة إلى خبير توظيف يعمل مع صناديق التحوط والبنوك الاستثمارية. وقد سلطت آراؤهم الضوء على المهارات التي يحتاجها مهندسو البرمجيات ليواكبوا التغيرات السريعة التي فرضها الذكاء الاصطناعي. مع توسع استخدام الذكاء الاصطناعي في وول ستريت، أصبحت أقسام تطوير البرمجيات في طليعة هذا التغيير. لم يقتصر دور المهندسين على تطوير الأنظمة، بل أصبحوا من أوائل المستخدمين للذكاء الاصطناعي في تنفيذ المهام، مثل كتابة الأكواد، واختبارها، وتوثيقها، بل وإعادة تصميم أنظمة قديمة بلغة برمجة متهالكة. وهذه النقلة النوعية أثارت تساؤلات حول مستقبل دور المهندس البشري، خاصة مع تفوق بعض تقنيات الذكاء الاصطناعي في كتابة الشيفرة بسرعة ودقة تفوق المهندسين أنفسهم. ومع ذلك، لا يعني ذلك الاستغناء عن البشر، بل تحول أدوارهم نحو مهام أكثر استراتيجية وإبداعاً. إيليا غاسينسكي- بوينت 72 يرى إيليا غاسينسكي، المدير التقني في صندوق التحوط بوينت 72، أن وول ستريت مهيأة لأن تشهد تحوّلًا جذريًا بفضل الذكاء الاصطناعي. وينصح المهندسين بتقبّل هذا التغيير بدلًا من مقاومته، مؤكداً أن توليد الشيفرات بواسطة الذكاء الاصطناعي أصبح أكثر كفاءة من قدرات البشر في كثير من الأحيان. ويضيف: إذا كنت تسعى للنجاح كمهندس، عليك أن تدرك أن البيئة تتغير باستمرار، وتكيّفك مع هذه التغيرات هو مفتاح استمرارك وازدهارك. حنا شمسي- مورغان ستانلي أما حنا شمسي، المديرة التنفيذية للتكنولوجيا في مورغان ستانلي، فترى أن المهندسين مطالبون اليوم بتوسيع رؤيتهم لتتجاوز الجوانب التقنية. إذ تنصحهم بالنظر إلى أنفسهم كتكنولوجيي أعمال، أي أن يكون لديهم فهم شامل لكيفية توظيف التكنولوجيا لخدمة الأهداف التجارية. تقول شمسي: لم يعد كافيًا أن تكون مبرمجًا بارعًا، عليك أن تدرك كيف تترابط مكونات التكنولوجيا مع احتياجات العمل، وكيف يمكن للتقنيات التي تطورها أن تضيف قيمة حقيقية للأعمال. ميليسا جولدمان- جولدمان ساكس تسلط ميليسا جولدمان، رئيسة قسم الهندسة العالمية في جولدمان ساكس، الضوء على تغير طبيعة المهام اليومية للمهندسين. فمع القدرة على تفويض المهام الروتينية إلى الذكاء الاصطناعي، يصبح التركيز الآن على التصميم والإدارة. وتشير إلى أن ما يسمى بهندسة التلقين (Prompt Engineering) باتت مهارة أساسية، حيث يتعين على المهندسين معرفة كيفية توجيه الذكاء الاصطناعي للحصول على النتائج المطلوبة. وتضيف: كما تعلّمنا سابقًا كيف ندير المطورين الآخرين، اليوم يجب أن نتعلم كيف ندير خدمات وتقنيات الذكاء الاصطناعي المتقدمة. برنت فوستر- «تي دي» يلفت برنت فوستر، نائب رئيس قسم البرمجيات في بنك تي دي، إلى تحول معايير التوظيف في ظل الذكاء الاصطناعي. فإلى جانب المهارات التقنية، أصبحت المهارات الناعمة مثل الاتصال الفعّال والعمل الجماعي أكثر أهمية. ويؤكد على أهمية قدرة المهندس على التأقلم مع أدوات الذكاء الاصطناعي الحديثة مثل غيت هاب وكوبايلوت. ويقول: الأشخاص الذين سينجحون هم أولئك القادرون على تبني هذه الأدوات واستغلالها بأفضل شكل ممكن. كما يشير إلى أن المرونة في التعلم أصبحت مهارة أساسية يجب توافرها في أي مرشح للوظائف التقنية. بن حُدزيتش- شيلبي جينينجز يرى بن حدزيتش، المدير في شركة التوظيف شيلبي جينينجز، أن الخبرة في استخدام الذكاء الاصطناعي جيدة، ولكن الأفضل من ذلك هو المشاركة الفعلية في بنائه أو دمجه داخل بيئة العمل. ويؤكد أن أصحاب العمل باتوا يبحثون عن مرشحين ساهموا في تصميم خرائط طريق وتقنيات معمارية للذكاء الاصطناعي، وليس فقط استخدامه. ويضيف: كثير من المرشحين يتحدثون فقط عن كيف استخدموا الذكاء الاصطناعي، لكن ما يهم حقًا هو مدى فهمهم للعمق الفني ومدى قدرتهم على تكرار هذه الأنظمة في بيئة جديدة. عصر وعقلية جديدانإن ما يجمع عليه جميع الخبراء هو أن الذكاء الاصطناعي لم يلغِ دور المهندس، بل أعاد تعريفه. أصبحت المهارات المرتبطة بالإبداع، والفهم التجاري، والتفكير المنظومي، والقدرة على إدارة التكنولوجيا الذكية، هي العامل الحاسم في استمرار المهنيين في هذا القطاع التنافسي. وفي وول ستريت، حيث السرعة والابتكار هما عنوان المرحلة، فإن التكيّف مع الذكاء الاصطناعي لم يعد خيارًا، بل ضرورة، وعلى المهندسين أن يتحلوا بالمرونة والاستعداد للتعلم المستمر إذا أرادوا البقاء في صدارة الثورة التكنولوجية التي تكتسح القطاع المالي.


صحيفة الخليج
منذ 5 ساعات
- صحيفة الخليج
الذكاء الجديد (AGI).. عصر البشرية الذهبي
مازلنا في خضم التعامل مع الذكاء الاصطناعي، الذي يصنف بأنه ضيق (Narrow Al) وهو الذي أدهشنا، وما زلنا نطور مهارتنا في التعامل معه ونسمع يومياً عشرات الإرشادات والتوصيات التي تستهدف تنمية مهارتنا في التعاطي والاستخدام الأمثل، وهناك فوائد لا تعد ولا تحصى لما قدمه الذكاء الاصطناعي من قفزات واختصار للأعمال والمهام، ومع أن كثيراً منا ما زالوا يستخدمونه بشكل تقليدي، إلا أنهم أيضاً يحصلون على فوائد كثيرة. وما بين المهارة في استخدامه من ثلة متخصصة ولديها معارف في التقنيات، وبين قطاع واسع من الناس يستخدمونه بتقليدية، مع وجود قطاع آخر بعيد تماماً عن هذا التطور التقني المهول، يظهر لنا أن هذه التقنية – الذكاء الاصطناعي- عبارة عن أجيال، وما بين أيدينا ما هو إلا جيل متواضع وصغير في مسيرة الذكاء الاصطناعي، حيث يظهر الآن مصطلح الذكاء الاصطناعي العام (AGI: Artificial General Intelligence) بوصفه الخطوة الكبرى القادمة. حيث يقوم بتقليد القدرات العقلية البشرية، مثل: الفهم، والتفكير، والتخطيط، والتعلم، بل حتى الإبداع والتأمل. في مهام أكثر تطوراً ودقة من الذكاء الاصطناعي، الحالي الذي نستخدمه الآن. ببساطة متناهية، الذكاء الاصطناعي العام (AGI)، قادر على أداء مهام فكرية، يمكن للإنسان القيام بها، وهو لا ينحصر في التعرف إلى الصور أو الترجمة ونحوها، بل يقوم أيضاً بحل المشكلات، وفهم التعقيدات، فضلاً عن القدرة على التفاعل مع العالم الخارجي بسهولة، أيضا قدرته على التشخيص الطبي، وكتابة البرمجيات، وتحليل الأسواق المالية، بل القدرة على ابتكار روايات فنية أو أعمال موسيقية. وملامح مثل هذه المهام نراها على أرض الواقع اليوم بطريقة أو أخرى. لذا، لا نستغرب عندما نسمع تحذيرات وتنبيهات من شخصيات رائدة في مجال هذه التقنيات، من أمثال العالم الفيلسوف نيك بوستروم، الأستاذ في جامعة أكسفورد، ومدير معهد مستقبل الإنسانية، حيث يرى أن (AGI) يجب أن يطور بحذر شديد، لأن المخاوف من فقدان السيطرة عليه ماثلة. أعتقد أن هذه القفزة القادمة في مجال الذكاء الاصطناعي، حتمية، وهي بمكانة الواقع المنتظر، والأمل الذي يراودني، أن تكون سبباً لإيجاد علاجات لكثير من الأمراض التي يعانيها الإنسان، وتحقق الرخاء وتنمية الابتكار وجودة حياة الإنسان.


صحيفة الخليج
منذ 7 ساعات
- صحيفة الخليج
هدد موظفاً بفضح علاقة غرامية.. قلق من تعلم الذكاء الاصطناعي الابتزاز والكذب
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد لتحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد «كلود 4»، وهو نموذج جديد من شركة «أنثروبيك»، إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج «او 1» o1 التابع لشركة «اوبن ايه آي» فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبساً! وبات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنّا نجده في الأعمال الأدبية أو السينمائية. يرى سايمن غولدستين، الأستاذ في جامعة هونغ كونغ، أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل بدلاً من تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى: إنّ «او 1»، النسخة الأولية لـ«اوبن ايه آي» من هذا النوع والتي طُرحت في ديسمبر/كانون الأول الماضي، «كان أول نموذج يتصرف بهذه الطريقة». تميل هذه البرامج أحياناً إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى. في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، وفق مايكل تشين، من معهد «إم آي تي آر» للتقييم. يقول هوبهان إنّ «المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. لا نبتكر شيئاً». يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً، بل ازدواجية استراتيجية»، بحسب المشارك في تأسيس «أبولو ريسيرتش». حتى لو أنّ «أنثروبيك» و«أوبن إيه آي» تستعينان بشركات خارجية مثل «أبولو» لدراسة برامجهما، من شأن «زيادة الشفافية وتوسيع نطاق الإتاحة» إلى الأوساط العلمية «أن يحسّنا الأبحاث لفهم الخداع ومنعه»، وفق مايكل تشين. ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، ما يجعل التدقيق بالنماذج الكبيرة «مستحيلاً»، حسب مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، فإنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن «الكونغرس» قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. منافسة شرسة يلاحظ غوسايمن غولدستين لدستين، أن «الوعي لا يزال محدوداً جداً»، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل. يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم. تقول شركة «أنثروبيك»، إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، «لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن أيه آي»، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان: «تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر». يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شيفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل بعضهم متشككاً في فاعليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي «قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حل المشكلة»، وفق مانتاس مازيكا. يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ويذهب أبعد من ذلك، مقترحاً حتى «تحميل برامج الذكاء الاصطناعي المسؤولية القانونية» في حال وقوع حوادث أو جرائم.