
مستخدمون يرصدون "سلوكاً مخيفاً" من "شات جي بي تي"... ما القصة؟
كشفت تقارير صحفية عالمية أن مستخدمين يرصدون "سلوكاً مخيفاً" من تطبيق الدردشة المعتمد على تقنيات الذكاء الاصطناعي التوليدي "شات جي بي تي".
وأوضحت التقارير أن المستخدمين يرون أن هذا السلوك من "شات جي بي تي" ربما يحمل انتهاكاً خطيراً للخصوصية الخاصة بهم.
وأشار المستخدمين إلى أن روبوت الدردشة الشهير، بدأ في مناداة المستخدمين بأسمائهم رغم عدم إخبارهم بذلك، ما يجعل المحادثة بأشملها "مخيفة".
وتم رصد هذا السلوك الغريب، عند إدخال استعلام بحث في روبوت "شات جي بي تي" العامل بنموذج اللغة الكبير "إل إل إم".
وشارك المستخدمون لقطات شاشة لمحادثاتهم مع روبوت الدردشة، حيث حيّاهم الروبوت بأسمائهم دون ذكر الاسم في أي وقت مسبق.
وكتب نيك دونبوس، أحد المطورين عن رد فعله: "مُخيف للغاية... أكره هذا الشعور... كنت أحاول إيجاد طريقة لإيقافه".
وأكد مستخدمون آخرون تجربة مماثلة، مُشيرين إلى أن هذا لم يكن يحدث سابقاً عند استخدام "شات جي بي تي"، مشيرين إلى أن هذا "انتهاك غريب للخصوصية".
وعلى الرغم من عدم وضوح سبب هذا التغيير، أشار بعض المستخدمين إلى أن ميزة "الذاكرة" المُحسّنة حديثاً في "شات جي بي تي" قد تكون مسؤولة عن ذلك.
وقدمت شركة "أوبين أيه آي" الأسبوع الماضي تحديثاً جديداً لميزة "الذاكرة" في "شات جي بي تي"، يُمكّن بوت الدردشة من تذكر كل ما أخبره به المستخدم على مر السنين.
وذكرت الشركة أن بوت الدردشة سيستفيد من "تفضيلات المستخدمين واهتماماتهم لجعله أكثر فائدة في الكتابة، والحصول على النصائح، والتعلم، وما إلى ذلك".
بالإضافة إلى الذكريات المحفوظة، يمكن لـ"شات جي بي تي"، أيضاً الرجوع إلى محادثات المستخدمين السابقة لتقديم ردود تبدو أكثر صلة وفائدة بشكل ملحوظ.
وفي ذلك الوقت، أعرب المستخدمون عن مخاوفهم من احتمال احتفاظ روبوت المحادثة بجميع البيانات، واحتمال إساءة استخدامها من قبل الشركة.
ومع ذلك، أصدر سام ألتمان، الرئيس التنفيذي لشركة "أوبين أيه آي"، بياناً أوضح فيه أنه بإمكان المستخدمين "إلغاء الاشتراك في هذه الميزة، أو حذفها تماماً" إن رغبوا في ذلك.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


Independent عربية
منذ 5 ساعات
- Independent عربية
9 طرق يمارس فيها الذكاء الاصطناعي التمييز ضد النساء
عندما نفكر في تأثير الذكاء الاصطناعي على البشرية، يسارع الناس إلى طرح أسئلة وجودية تتعلق بفناء البشرية واستيلاء الروبوتات على العالم، لكن بدلاً من التركيز على تلك التحذيرات التشاؤمية عما قد يحدث مستقبلاً، هناك صورة خطرة من التمييز تحدث بالفعل الآن، في ظل غياب شبه كامل لأي ضوابط أو تنظيمات فعالة. هذا التمييز يؤثر في النساء وفئات مهمشة أخرى بطرق واقعية للغاية، تمتد من احتمالات قبول المصرف منحهم قرضاً إلى ترشيحهم للوظائف أو حتى حصولهم على تشخيص طبي دقيق لمشكلة صحية خطرة. وما لم نطالب بالمحاسبة الآن، فالخطر قائم بأن يجرنا الذكاء الاصطناعي إلى الخلف بسبب تكريس انعدام المساواة الموجود اليوم في أسس بناء عالمنا المستقبلي، والمؤشرات موجودة بالفعل على أن هذا ما يحدث في الواقع. التوظيف أفادت تقارير حديثة بأن 40 في المئة من شركات المملكة المتحدة تستخدم الذكاء الاصطناعي في عمليات التوظيف، قد يبدو ذلك صورة غير مؤذية من ترشيد عملية تستهلك كثيراً من الوقت، ولا سيما أن أدوات الذكاء الاصطناعي قادرة على تقليص لائحة طويلة من المتقدمين للوظيفة عن طريق انتقاء "أكثرهم ملاءمة" لشركتكم، لكن هذا الانطباع يتغير طبعاً عندما تتوقفون عند طريقة تدريب نماذج الذكاء الاصطناعي هذه، فهي تلقن كميات هائلة من المعلومات كي تصبح قادرة على "تخمين" أي المتقدمين للوظيفة هم أكثر أشخاص يتوقع نجاحهم فيها، وهو ما يجعلها تفترض أحياناً (بسبب انعدام المساواة وقلة تمثيل بعض الفئات الموجودة في سوق العمل حالياً) أن الرجال البيض مثلاً هم أقوى المرشحين لتولي المناصب العليا. قد يقول المستفيدون من هذه التكنولوجيا إن هذه المشكة حلها بسيط، فما علينا سوى إخفاء الجنس الاجتماعي للمتقدمين بطلبات التوظيف عن أدوات الذكاء الاصطناعي، لكن حتى في هذه الحال، تبين أن التمييز يظل قائماً بصورة غير مباشرة، عبر تعرف النظام على كلمات ذات طابع جندري في السير الذاتية (ومنها مثلاً كرة "الشبكة" التي تهيمن عليها النساء أو اسم مدرسة للفتيات فقط)، مما يبقي النساء في موقع غير متكافئ، كما أن دراسة حديثة أخرى كشفت عن أن أدوات التوظيف بالذكاء الاصطناعي قد تميز أيضاً ضد المتقدمين بناء على أنماط حديثهم. وحتى قبل تقدم النساء إلى الوظيفة، بدأ الذكاء الاصطناعي بالتدخل في فرصهن بالحصول على عمل، إذ تبين أن خوارزميات الدعاية في "غوغل" قد تعرض على الرجال الباحثين عن عمل إعلانات وظائف لمناصب تنفيذية عليا تخصص لها أجور مرتفعة بمعدل ست مرات أكثر من النساء الباحثات عن عمل. توليد المحتوى أكثر من 100 مليون شخص يستخدمون "تشات جي بي تي" شهرياً، لكن البرنامج، كأمثاله من النماذج اللغوية الكبيرة ((LLMs، يعمل عن طريق استهلاك مجموعات ضخمة من البيانات لتوليد نصوص "تبدو بشرية" أو صور واقعية تبعاً للأوامر التي كتبها المستخدمون. وعندما تكون هذه البيانات مثقلة بالأحكام المسبقة، لا يجتر الذكاء الاصطناعي الذي يولد النصوص انعدام المساواة بل يعظمها أيضاً. ففي دراسة لـ"يونيسكو" حول المحتوى المولد عبر منصات الذكاء الاصطناعي التي تحظى بشعبية كبيرة وجدت أن هناك "إثباتاً لا لبس فيه عن التمييز ضد النساء في المحتوى الذي جرى إنشاؤه"، فالنماذج قرنت الوظائف المرموقة في "الهندسة" أو "الطب" مثلاً بالرجال، فيما خصصت للنساء وظائف "الخدمة المنزلية" أو حتى "البغاء". ومن المرجح أن يكبر أثر هذا التضخيم للسرديات التمييزية من النماذج اللغوية الكبيرة مع استخدامها أكثر فأكثر، إذ تشير التقديرات إلى أن نحو 30 في المئة من المحتوى التسويقي الخارجي لمنظمات كبرى سيولده الذكاء الاصطناعي بحلول نهاية العام الحالي (بينما كان أقل من اثنين في المئة في 2022). طلبات القروض يسجل العالم حالياً فجوة ائتمانية بقيمة 17 مليار دولار، لها أثر ضخم في انعدام المساواة بين الجنسين، عندما لا تتمتع المرأة باستقلالية مادية، يتضاعف خطر تعرضها إلى مجموعة من المشكلات، بدءاً من العنف المنزلي ووصولاً إلى الزواج بالإكراه. ومع أن مطوري الخوارزميات وخبراء البيانات الذين يصممون أنظمة التقييم الائتماني هم في الغالب من الرجال، يعيشون في الولايات المتحدة، ومن ذوي الدخل المرتفع، فإنهم لا يمثلون الفئة المستهدفة من المستخدمين الذين تطبق عليهم هذه الأنظمة، ومع ذلك فهم من يحددون نتائجها النهائية. ونظراً إلى أن النساء عانين تاريخياً التمييز في قرارات الإقراض، فإن المخاوف تتزايد من أن الشركات التي تستخدم أنظمة ذكاء اصطناعي في التقييم الائتماني تكرس هذا التمييز الممنهج، مما يهدد بإقصائهن أكثر فأكثر عن الحصول على القروض والخدمات المالية الأخرى. العدالة الجنائية تستخدم سلطات قضائية عدة في الولايات المتحدة أداة تسمي "كومباس" Compas لمساعدتها في اتخاذ قرارات في شأن الإفراج عن الموقوفين قبل محاكمتهم أو الحكم عليهم، فيما تلجأ هذه الأداة إلى الذكاء الاصطناعي كي "تخمن" احتمالات إعادة اعتقال الشخص، لكن هذا النظام يستند إلى بيانات تتعلق بسجلات التوقيف السابقة، في بلد تعاني فيه المؤسسات عنصرية ممنهجة تجعل الشخص الأسود أكثر عرضة بخمس مرات من نظيره الأبيض للتوقيف من الشرطة من دون مبرر، لذا حتى عندما لا تأخذ الخوارزمية العرق في الاعتبار صراحة، فإنها تسهم في استمرار دورة الاعتقال العنصري. وتبين كذلك أن برنامج كومباس يبالغ في تقدير احتمالات تكرار النساء ارتكاب الجرائم، وهو ما يؤدي إلى إنزال عقوبات مجحفة في حق الجانيات اللاتي غالباً ما يكن ضحايا لاعتداءات جسدية أو جنسية. وفي المملكة المتحدة كشفت إحدى الدراسات أن استخدام الذكاء الاصطناعي لتعريف مناطق معينة على أنها بؤر للجريمة يدفع عناصر الشرطة إلى توقع حصول مشكلات عندما تجوب دورياتهم المكان، مما يزيد من احتمال توقيف الأشخاص أو اعتقالهم بدافع التحيز بدلاً من الضرورة الأمنية الفعلية. تقنية التعرف على الوجه يلعب الذكاء الاصطناعي دوراً متنامياً في تقنيات التعرف على الوجه، التي تستخدم في مجالات واسعة، من تطبيقات الشرطة إلى أنظمة دخول المباني، لكن الشركات التي تروج لهذه التقنية بوصفها تقدم "راحة غير مسبوقة" مطالبة بطرح السؤال: راحة لمن بالضبط؟ فعلى رغم الانتشار السريع لهذه التقنيات، إلا أن فعاليتها تتفاوت بصورة كبيرة بين المستخدمين، إذ أظهرت أبحاث أن منتجات التعرف على الوجه لدى شركات كبرى تسجل معدل خطأ يصل إلى 35 في المئة عند التعامل مع النساء ذوات البشرة الداكنة، في مقابل 0.8 في المئة فقط عند التعامل مع الرجال ذوي البشرة الفاتحة. الرعاية الصحية كشفت دراسة لكلية لندن الجامعية (UCL) عن أن نماذج الذكاء الاصطناعي التي أنشأت للتنبؤ بأمراض الكبد استناداً إلى تحليل الدم أكثر عرضة للخطأ في كشف المرض بمرتين لدى النساء في مقابل الرجال، وحذر كبير مؤلفي هذه الدراسة أن استخدام هذه الخوارزميات بصورة شائعة في المستشفيات للمساعدة في التشخيص قد يؤدي إلى تردي الرعاية التي تتلقاها النساء. وفي المقابل، في الولايات المتحدة، تبين أن إحدى الخوارزميات التي يشيع استخدامها في قطاع الرعاية الصحية للمساعدة في تحديد هويات المرضى الذين يحتاجون إلى رعاية إضافية تعاني تمييزاً عرقياً كبيراً، إذ تفضل المرضى ذوي البشرة البيضاء على المرضى السود، وإن كان هؤلاء أشد مرضاً ويعانون مشكلات صحية مزمنة أكثر، وفقاً لدراسة نشرتها المجلة العلمية "ساينس". وبحسب تقديرات مؤلفي الدراسة، وصل الحال بالتمييز العرقي إلى درجة تقليص عدد المرضى السود الذين يحددون على أنهم بحاجة إلى رعاية إضافية بأكثر من النصف. العنف المنزلي تمكن مرتكبو العنف المنزلي من مضايقة ضحاياهم وإخافتهن باستخدام الذكاء الاصطناعي لاختراق أجهزة التكنولوجيا التي يمكن ارتداؤها والأجهزة المنزلية الذكية، والتلاعب بها. فكل الأجهزة، من ساعات اليد وحتى التلفاز قد تسهل المراقبة والملاحقة عن بعد، وهذا خطر كبير عندما تأخذ في الاعتبار التقديرات التي تشير إلى أن ما يقارب 125 مليار جهاز سيصبح متصلاً، بحلول عام 2040، بـ"إنترنت الأشياء" وهو ما قد يؤدي إلى زيادة المراقبة من المعتدين الساعين إلى ترسيخ سيطرتهم وسطوتهم. العلاقات فيما نحاول التوصل إلى طرق لمعالجة التحيز ضد المرأة على منصات التواصل الاجتماعي، وتبعات هذا السلوك الذي يجرد المرأة من إنسانيتها، يحمل مئات ملايين الأشخاص تطبيقات "رفيقة" قائمة على الذكاء الاصطناعي تعيد تحويل النساء إلى أشياء "لا ترفض طلباً" للاستهلاك الذكوري. وتطبيقات الصديقات الحميمات من الذكاء الاصطناعي أو روبوتات الدردشة التي يروج لها مطوروها غالباً على أنها أفضل من النساء الحقيقيات (تؤمن لك علاقة ممتعة من دون تلك الإرادة الحرة المزعجة)، تقدم للرجال "امرأة" شبيهة بالمرأة الحقيقية بخنوع ويمكن تكييفها بحسب الرغبة، تجعلهم يزهون بأنفسهم وهي رهن إشارتهم متى أرادوا، ويمكنهم استخدامها (وإساءة معاملتها) بحسب رغبتهم. وفي الواقع، عدد كبير من الرجال يسيؤون التعامل مع هذه البرامج ويشاركون نبذات مصورة عن هذه الأفعال مع بعضهم بعضاً، لكي يكتشفوا من بينهم قادر على ارتكاب أكبر الإساءات في حق هذه البرامج. خلال العام الماضي فقط، سجل متجر "غوغل" لهواتف الآندرويد 100 مليون تحميل لـ11 برنامجاً للدردشة القائمة على الذكاء الاصطناعي تتصدر قائمة البرامج المثيلة، وهذا ليس مكسباً للرجال الوحيدين ولا للنساء اللاتي سيتلاقين بهم في وقت لاحق. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) إن كنا سنتصدى لانعدام المساواة المستشري في الذكاء الاصطناعي، علينا الاستعانة بمجوعات متنوعة من الأشخاص. فالتكنولوجيا نفسها ليست معادية للمرأة بحد ذاتها، لكن غالباً ما تسفر عن هذه النتائج غير المقصودة، وليس فقط بسبب البيانات المتحيزة والمليئة بالعيوب، بل أيضاً بسبب نقص التنوع في المجموعات التي تؤسس هذه البرامج وتستفيد منها. في الوقت الحالي، يعد تمثيل النساء ضعيفاً إلى أبعد الدرجات في كل جانب من جوانب أبحاث الذكاء الاصطناعي وتطويره واستخدامه. وعلى الصعيد العالمي، لا تشكل النساء سوى 12 في المئة فقط من الباحثين في الذكاء الاصطناعي، ومع أنهن يقدن بعضاً من أكثر الجهود إثارة من أجل إنشاء ذكاء اصطناعي آمن وأخلاقي، إلا أن المجموعات التي تترأسها نساء لا تزال تحصل على تمويل من رأس المال الاستثماري أقل بست مرات من نظرائهن الذكور. يحمل الذكاء الاصطناعي وعداً بمستقبل جديد ولامع سيكون له تأثير إيجابي في العالم الحقيقي، ولكن ما لم نعط الأولوية للإنصاف والسلامة في مرحلة التصميم، بحيث يفضح الفكر المعيب القائم على التمييز والتحيز ويصحح، فإنه يمثل خطر إدامة التحيز المؤذي وإعادة كثيرين منا للعصور المظلمة، فلنأمل أن أحدهم يعير انتباهاً للتفاصيل الدقيقة. من كتاب لورا بيتس "عصر جديد من التمييز على أساس الجنس" الصادر في الـ15 من مايو (أيار).

العربية
منذ 8 ساعات
- العربية
"أبل" تسعى لتعزيز مبيعاتها في السعودية والإمارات بميزتين تدعمان اللغة العربية
قد تُسهم تغييرات تعتزم شركة أبل الكشف عنها في إصداري "iOS 19" و"iPadOS 19" لآيفون وآيباد، بالإضافة إلى "قلم أبل" في تعزيز مبيعات الشركة في السعودية والإمارات، من خلال تحسين توافق أدواتها مع اللغة العربية. ومن المتوقع أن تعلن " أبل" عن هذه التغييرات خلال مؤتمر السنوي للمطورين هذا العام "WWDC 25"، الذي يٌعقد في يونيو المقبل، وستساعد هذه التغييرات في تحسين تجربة عملاء "أبل" الذين يستخدمون اللغة العربية زوايا تقنية أبل "أبل" و"شات جي بي تي" ضمن العلامات التجارية الأعلى قيمة عالميًا وتُخطط "أبل" لتقديم لوحة مفاتيح ثنائية الاتجاه متقدمة، مصممة للتبديل بين اللغة العربية -التي تُكتب من اليمين إلى اليسار- واللغات الإنجليزية التي تُكتب من اليسار إلى اليمين، بحسب ما نقلته عدة تقارير عن النشرة البريدية لوكالة بلومبرغ الصادرة يوم الأحد. ومن المرجح أن تُمكّن لوحة المفاتيح الجديدة المستخدمين من كتابة نص يحتوي على اللغتين الإنجليزية والعربية بسهولة. أما التغيير الثاني، فيتعلق بشكل رئيسي بنظام "iPadOS" لأجهزة آيباد اللوحية بالإضافة إلى قلم أبل، حيث ستطرح الشركة قلم افتراضي جديد مستوحى من قلم القصب التقليدي لمستخدمي "قلم أبل". وتُستخدم أقلام القصب، بالأخص نوع "كاميش"، تقليديًا في فن الخط من قبل الخطاطين العرب والإيرانيين والأتراك. ومن المحتمل أن تقدم "أبل" تجربة كتابة أقرب إلى طريقة استخدام قلم كاميش، مقارنة بأي قلم خط رقمي يُستخدم حاليًا في التطبيقات. وسيُمكّن القلم الجديد المستخدمين من الكتابة رقميًا بخطوط عربية معقدة، مُحاكيًا بذلك أعمال الخط العربي الفنية. ويعود السبب وراء هذه التغييرات إلى توسع "أبل" في أسواق التجزئة في السعودية والإمارات، وفق النشرة البريدية لبلومبرغ. وبالنظر إلى أن هذه الأسواق محركات نمو مستقبلية لشركة أبل، فإن أي خطوة لتحسين طريقة تفاعل المستخدمين مع أجهزة أبل قد تُسهم في تعزيز المبيعات.


سويفت نيوز
منذ يوم واحد
- سويفت نيوز
'إنفيديا' تعلن عن خططها لإنشاء أول حاسوب فائق الذكاء الاصطناعي
تايبيه – سويفت نيوز: أعلن جنسن هوانغ الرئيس التنفيذي لشركة إنفيديا، يوم الاثنين، عن خطط الشركة لبناء أول حاسوب فائق الذكاء الاصطناعي في تايوان. جاء ذلك خلال عرضه أحدث تطورات الشركة في مجال الذكاء الاصطناعي خلال معرض 'Computex'، وهو أكبر تجمع لعمالقة صناعة أشباه الموصلات العالمية في تايوان. قال هوانغ إن 'إنفيديا' ستتعاون مع عمالقة التكنولوجيا التايوانيين مثل 'فوكسكون' و'تي إس إم سي' والحكومة التايوانية لبناء 'أول حاسوب فائق الذكاء الاصطناعي' في تايوان، بهدف دعم بنية تحتية متقدمة ونظام بيئي للذكاء الاصطناعي، بحسب بيان صحافي صادر عن شركة إنفيديا. وأضاف في كلمة رئيسية قبل بدء المعرض: 'امتلاك بنية تحتية عالمية المستوى للذكاء الاصطناعي في تايوان أمر بالغ الأهمية'. يمتد المعرض أربعة أيام ويستقطب شركات الحواسيب وأشباه الموصلات من أنحاء العالم كافة، حيث تُعد صناعة أشباه الموصلات في تايوان محوراً رئيسياً لإنتاج كل شيء من هواتف آيفون إلى الخوادم التي تشغل تقنيات الذكاء الاصطناعي مثل شات جي بي تي. تايوان تنتج الغالبية العظمى من أكثر الشرائح الإلكترونية تقدماً في العالم، بما في ذلك تلك المستخدمة في أقوى تطبيقات وأبحاث الذكاء الاصطناعي. يشارك في المعرض كبار التنفيذيين من شركات 'كوالكوم' و'ميدياتك' وفوكسكون'، حيث ستكون التطورات في نقل الذكاء الاصطناعي من مراكز البيانات إلى الحواسيب المحمولة والروبوتات والسيارات محور الاهتمام. مقالات ذات صلة