
خبير: صورك ومعلوماتك في خطر عند استخدام شات جي بي تي.. فيديو
حذّر عبدالرحمن الداعج، خبير الأمن السيبراني والمستشار في شركة IBM العالمية، من مخاطر استخدام أدوات الذكاء الاصطناعي،وبالتحديدشات جي بي تي، بشكل غير واعٍ، مؤكدًا على ضرورة توخي الحذر خصوصًا عند التعامل مع التطبيقات التي تتطلب إدخال صور أو بيانات شخصية.
وأوضح الداعج خلال حديثه عبر برنامج 'الشارع السعودي'، أن بعض أدوات الذكاء الاصطناعي تقوم بتخزين البيانات والصور التي يرفعها المستخدمون، وقد تجد هذه المعلومات طريقها إلى التسريب في حال تعرّض قواعد البيانات للاختراق أو سوء الاستخدام.
وقدم عدة نصائح أهمها: الامتناع عن مشاركة الصور الشخصية، فيُنصح بعدم تحميل الصور الخاصة أو صور أفراد الأسرة على المنصات التي تعدّل أو تولّد صورًا، لما قد يترتب عليه من مخاطر مستقبلية.
وتجنب كتابة أرقام الهوية، العناوين الدقيقة، أو أي بيانات مالية داخل هذه الأدوات، وقبل استخدام أي تطبيق ذكاء اصطناعي، اقرأ شروط الاستخدام وسياسات الخصوصية لتعرف كيف يتم التعامل مع بياناتك.
اختيار التطبيقات الموثوقة، فمن الأفضل استخدام أدوات تابعة لجهات معروفة تضمن مستوى عاليًا من الأمان والخصوصية، والحرص على التحديثات، فالتأكد من أن برامجك وتطبيقاتك محدثة باستمرار للحصول على أحدث الحلول الأمنية.
وشدد الداعج على أهمية التوعية الرقمية، خاصة لدى النساء والموظفين، مؤكدًا أن التعامل مع أدوات الذكاء الاصطناعي يجب أن يتم بوعي ومسؤولية لتفادي أي اختراق محتمل للخصوصية.
إقرأ أيضًا:

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المرصد
منذ 10 ساعات
- المرصد
بالفيديو.. خبير في الأمن السيبراني يكشف عن عقوبة الموظف في حال استخدم معلومات عمله في الذكاء الاصطناعي
بالفيديو.. خبير في الأمن السيبراني يكشف عن عقوبة الموظف في حال استخدم معلومات عمله في الذكاء الاصطناعي صحيفة المرصد: كشف خبير الأمن السيبراني، عبدالرحمن الداعج، أن استخدام الموظف معلومات عمله في الذكاء الاصطناعي يعد تسريب للمعلومات وقد يفصل من عمله. وقال خلال لقاء مع برنامج الشارع السعودي المذاع على قناة السعودية: " أي شيء لا تبي الناس تعرفه في يوم من الأيام لا تحطه في الإنترنت"، وتابع: " قبل كام سنة حدث تسريب بيانات في إحدى الشركات التقنية، واتضح أن موظف وضع إيميل وبيانات الدوام واستخدم شات جي بي". وأشار إلى أن كثير من الموظفين تم معاقبتهم وفصلهم بسبب تسريب البيانات، وأردف: " قبل كام شهر حدثت هبة رفع الصور وتحويلها إلى صور كرتونية، ومن المفترض السيدات لا يرفعن صورهن على الذكاء الاصطناعي حتى لو تتوقع أنه لن يراها أحد ، لأن ممكن يحدث تسريب أو مشكلة وفي نفس الوقت الذكاء الاصطناعي يتعلم على البيانات".


صدى الالكترونية
منذ 15 ساعات
- صدى الالكترونية
خبير: صورك ومعلوماتك في خطر عند استخدام شات جي بي تي.. فيديو
حذّر عبدالرحمن الداعج، خبير الأمن السيبراني والمستشار في شركة IBM العالمية، من مخاطر استخدام أدوات الذكاء الاصطناعي،وبالتحديدشات جي بي تي، بشكل غير واعٍ، مؤكدًا على ضرورة توخي الحذر خصوصًا عند التعامل مع التطبيقات التي تتطلب إدخال صور أو بيانات شخصية. وأوضح الداعج خلال حديثه عبر برنامج 'الشارع السعودي'، أن بعض أدوات الذكاء الاصطناعي تقوم بتخزين البيانات والصور التي يرفعها المستخدمون، وقد تجد هذه المعلومات طريقها إلى التسريب في حال تعرّض قواعد البيانات للاختراق أو سوء الاستخدام. وقدم عدة نصائح أهمها: الامتناع عن مشاركة الصور الشخصية، فيُنصح بعدم تحميل الصور الخاصة أو صور أفراد الأسرة على المنصات التي تعدّل أو تولّد صورًا، لما قد يترتب عليه من مخاطر مستقبلية. وتجنب كتابة أرقام الهوية، العناوين الدقيقة، أو أي بيانات مالية داخل هذه الأدوات، وقبل استخدام أي تطبيق ذكاء اصطناعي، اقرأ شروط الاستخدام وسياسات الخصوصية لتعرف كيف يتم التعامل مع بياناتك. اختيار التطبيقات الموثوقة، فمن الأفضل استخدام أدوات تابعة لجهات معروفة تضمن مستوى عاليًا من الأمان والخصوصية، والحرص على التحديثات، فالتأكد من أن برامجك وتطبيقاتك محدثة باستمرار للحصول على أحدث الحلول الأمنية. وشدد الداعج على أهمية التوعية الرقمية، خاصة لدى النساء والموظفين، مؤكدًا أن التعامل مع أدوات الذكاء الاصطناعي يجب أن يتم بوعي ومسؤولية لتفادي أي اختراق محتمل للخصوصية. إقرأ أيضًا:


Independent عربية
منذ 2 أيام
- Independent عربية
9 طرق يمارس فيها الذكاء الاصطناعي التمييز ضد النساء
عندما نفكر في تأثير الذكاء الاصطناعي على البشرية، يسارع الناس إلى طرح أسئلة وجودية تتعلق بفناء البشرية واستيلاء الروبوتات على العالم، لكن بدلاً من التركيز على تلك التحذيرات التشاؤمية عما قد يحدث مستقبلاً، هناك صورة خطرة من التمييز تحدث بالفعل الآن، في ظل غياب شبه كامل لأي ضوابط أو تنظيمات فعالة. هذا التمييز يؤثر في النساء وفئات مهمشة أخرى بطرق واقعية للغاية، تمتد من احتمالات قبول المصرف منحهم قرضاً إلى ترشيحهم للوظائف أو حتى حصولهم على تشخيص طبي دقيق لمشكلة صحية خطرة. وما لم نطالب بالمحاسبة الآن، فالخطر قائم بأن يجرنا الذكاء الاصطناعي إلى الخلف بسبب تكريس انعدام المساواة الموجود اليوم في أسس بناء عالمنا المستقبلي، والمؤشرات موجودة بالفعل على أن هذا ما يحدث في الواقع. التوظيف أفادت تقارير حديثة بأن 40 في المئة من شركات المملكة المتحدة تستخدم الذكاء الاصطناعي في عمليات التوظيف، قد يبدو ذلك صورة غير مؤذية من ترشيد عملية تستهلك كثيراً من الوقت، ولا سيما أن أدوات الذكاء الاصطناعي قادرة على تقليص لائحة طويلة من المتقدمين للوظيفة عن طريق انتقاء "أكثرهم ملاءمة" لشركتكم، لكن هذا الانطباع يتغير طبعاً عندما تتوقفون عند طريقة تدريب نماذج الذكاء الاصطناعي هذه، فهي تلقن كميات هائلة من المعلومات كي تصبح قادرة على "تخمين" أي المتقدمين للوظيفة هم أكثر أشخاص يتوقع نجاحهم فيها، وهو ما يجعلها تفترض أحياناً (بسبب انعدام المساواة وقلة تمثيل بعض الفئات الموجودة في سوق العمل حالياً) أن الرجال البيض مثلاً هم أقوى المرشحين لتولي المناصب العليا. قد يقول المستفيدون من هذه التكنولوجيا إن هذه المشكة حلها بسيط، فما علينا سوى إخفاء الجنس الاجتماعي للمتقدمين بطلبات التوظيف عن أدوات الذكاء الاصطناعي، لكن حتى في هذه الحال، تبين أن التمييز يظل قائماً بصورة غير مباشرة، عبر تعرف النظام على كلمات ذات طابع جندري في السير الذاتية (ومنها مثلاً كرة "الشبكة" التي تهيمن عليها النساء أو اسم مدرسة للفتيات فقط)، مما يبقي النساء في موقع غير متكافئ، كما أن دراسة حديثة أخرى كشفت عن أن أدوات التوظيف بالذكاء الاصطناعي قد تميز أيضاً ضد المتقدمين بناء على أنماط حديثهم. وحتى قبل تقدم النساء إلى الوظيفة، بدأ الذكاء الاصطناعي بالتدخل في فرصهن بالحصول على عمل، إذ تبين أن خوارزميات الدعاية في "غوغل" قد تعرض على الرجال الباحثين عن عمل إعلانات وظائف لمناصب تنفيذية عليا تخصص لها أجور مرتفعة بمعدل ست مرات أكثر من النساء الباحثات عن عمل. توليد المحتوى أكثر من 100 مليون شخص يستخدمون "تشات جي بي تي" شهرياً، لكن البرنامج، كأمثاله من النماذج اللغوية الكبيرة ((LLMs، يعمل عن طريق استهلاك مجموعات ضخمة من البيانات لتوليد نصوص "تبدو بشرية" أو صور واقعية تبعاً للأوامر التي كتبها المستخدمون. وعندما تكون هذه البيانات مثقلة بالأحكام المسبقة، لا يجتر الذكاء الاصطناعي الذي يولد النصوص انعدام المساواة بل يعظمها أيضاً. ففي دراسة لـ"يونيسكو" حول المحتوى المولد عبر منصات الذكاء الاصطناعي التي تحظى بشعبية كبيرة وجدت أن هناك "إثباتاً لا لبس فيه عن التمييز ضد النساء في المحتوى الذي جرى إنشاؤه"، فالنماذج قرنت الوظائف المرموقة في "الهندسة" أو "الطب" مثلاً بالرجال، فيما خصصت للنساء وظائف "الخدمة المنزلية" أو حتى "البغاء". ومن المرجح أن يكبر أثر هذا التضخيم للسرديات التمييزية من النماذج اللغوية الكبيرة مع استخدامها أكثر فأكثر، إذ تشير التقديرات إلى أن نحو 30 في المئة من المحتوى التسويقي الخارجي لمنظمات كبرى سيولده الذكاء الاصطناعي بحلول نهاية العام الحالي (بينما كان أقل من اثنين في المئة في 2022). طلبات القروض يسجل العالم حالياً فجوة ائتمانية بقيمة 17 مليار دولار، لها أثر ضخم في انعدام المساواة بين الجنسين، عندما لا تتمتع المرأة باستقلالية مادية، يتضاعف خطر تعرضها إلى مجموعة من المشكلات، بدءاً من العنف المنزلي ووصولاً إلى الزواج بالإكراه. ومع أن مطوري الخوارزميات وخبراء البيانات الذين يصممون أنظمة التقييم الائتماني هم في الغالب من الرجال، يعيشون في الولايات المتحدة، ومن ذوي الدخل المرتفع، فإنهم لا يمثلون الفئة المستهدفة من المستخدمين الذين تطبق عليهم هذه الأنظمة، ومع ذلك فهم من يحددون نتائجها النهائية. ونظراً إلى أن النساء عانين تاريخياً التمييز في قرارات الإقراض، فإن المخاوف تتزايد من أن الشركات التي تستخدم أنظمة ذكاء اصطناعي في التقييم الائتماني تكرس هذا التمييز الممنهج، مما يهدد بإقصائهن أكثر فأكثر عن الحصول على القروض والخدمات المالية الأخرى. العدالة الجنائية تستخدم سلطات قضائية عدة في الولايات المتحدة أداة تسمي "كومباس" Compas لمساعدتها في اتخاذ قرارات في شأن الإفراج عن الموقوفين قبل محاكمتهم أو الحكم عليهم، فيما تلجأ هذه الأداة إلى الذكاء الاصطناعي كي "تخمن" احتمالات إعادة اعتقال الشخص، لكن هذا النظام يستند إلى بيانات تتعلق بسجلات التوقيف السابقة، في بلد تعاني فيه المؤسسات عنصرية ممنهجة تجعل الشخص الأسود أكثر عرضة بخمس مرات من نظيره الأبيض للتوقيف من الشرطة من دون مبرر، لذا حتى عندما لا تأخذ الخوارزمية العرق في الاعتبار صراحة، فإنها تسهم في استمرار دورة الاعتقال العنصري. وتبين كذلك أن برنامج كومباس يبالغ في تقدير احتمالات تكرار النساء ارتكاب الجرائم، وهو ما يؤدي إلى إنزال عقوبات مجحفة في حق الجانيات اللاتي غالباً ما يكن ضحايا لاعتداءات جسدية أو جنسية. وفي المملكة المتحدة كشفت إحدى الدراسات أن استخدام الذكاء الاصطناعي لتعريف مناطق معينة على أنها بؤر للجريمة يدفع عناصر الشرطة إلى توقع حصول مشكلات عندما تجوب دورياتهم المكان، مما يزيد من احتمال توقيف الأشخاص أو اعتقالهم بدافع التحيز بدلاً من الضرورة الأمنية الفعلية. تقنية التعرف على الوجه يلعب الذكاء الاصطناعي دوراً متنامياً في تقنيات التعرف على الوجه، التي تستخدم في مجالات واسعة، من تطبيقات الشرطة إلى أنظمة دخول المباني، لكن الشركات التي تروج لهذه التقنية بوصفها تقدم "راحة غير مسبوقة" مطالبة بطرح السؤال: راحة لمن بالضبط؟ فعلى رغم الانتشار السريع لهذه التقنيات، إلا أن فعاليتها تتفاوت بصورة كبيرة بين المستخدمين، إذ أظهرت أبحاث أن منتجات التعرف على الوجه لدى شركات كبرى تسجل معدل خطأ يصل إلى 35 في المئة عند التعامل مع النساء ذوات البشرة الداكنة، في مقابل 0.8 في المئة فقط عند التعامل مع الرجال ذوي البشرة الفاتحة. الرعاية الصحية كشفت دراسة لكلية لندن الجامعية (UCL) عن أن نماذج الذكاء الاصطناعي التي أنشأت للتنبؤ بأمراض الكبد استناداً إلى تحليل الدم أكثر عرضة للخطأ في كشف المرض بمرتين لدى النساء في مقابل الرجال، وحذر كبير مؤلفي هذه الدراسة أن استخدام هذه الخوارزميات بصورة شائعة في المستشفيات للمساعدة في التشخيص قد يؤدي إلى تردي الرعاية التي تتلقاها النساء. وفي المقابل، في الولايات المتحدة، تبين أن إحدى الخوارزميات التي يشيع استخدامها في قطاع الرعاية الصحية للمساعدة في تحديد هويات المرضى الذين يحتاجون إلى رعاية إضافية تعاني تمييزاً عرقياً كبيراً، إذ تفضل المرضى ذوي البشرة البيضاء على المرضى السود، وإن كان هؤلاء أشد مرضاً ويعانون مشكلات صحية مزمنة أكثر، وفقاً لدراسة نشرتها المجلة العلمية "ساينس". وبحسب تقديرات مؤلفي الدراسة، وصل الحال بالتمييز العرقي إلى درجة تقليص عدد المرضى السود الذين يحددون على أنهم بحاجة إلى رعاية إضافية بأكثر من النصف. العنف المنزلي تمكن مرتكبو العنف المنزلي من مضايقة ضحاياهم وإخافتهن باستخدام الذكاء الاصطناعي لاختراق أجهزة التكنولوجيا التي يمكن ارتداؤها والأجهزة المنزلية الذكية، والتلاعب بها. فكل الأجهزة، من ساعات اليد وحتى التلفاز قد تسهل المراقبة والملاحقة عن بعد، وهذا خطر كبير عندما تأخذ في الاعتبار التقديرات التي تشير إلى أن ما يقارب 125 مليار جهاز سيصبح متصلاً، بحلول عام 2040، بـ"إنترنت الأشياء" وهو ما قد يؤدي إلى زيادة المراقبة من المعتدين الساعين إلى ترسيخ سيطرتهم وسطوتهم. العلاقات فيما نحاول التوصل إلى طرق لمعالجة التحيز ضد المرأة على منصات التواصل الاجتماعي، وتبعات هذا السلوك الذي يجرد المرأة من إنسانيتها، يحمل مئات ملايين الأشخاص تطبيقات "رفيقة" قائمة على الذكاء الاصطناعي تعيد تحويل النساء إلى أشياء "لا ترفض طلباً" للاستهلاك الذكوري. وتطبيقات الصديقات الحميمات من الذكاء الاصطناعي أو روبوتات الدردشة التي يروج لها مطوروها غالباً على أنها أفضل من النساء الحقيقيات (تؤمن لك علاقة ممتعة من دون تلك الإرادة الحرة المزعجة)، تقدم للرجال "امرأة" شبيهة بالمرأة الحقيقية بخنوع ويمكن تكييفها بحسب الرغبة، تجعلهم يزهون بأنفسهم وهي رهن إشارتهم متى أرادوا، ويمكنهم استخدامها (وإساءة معاملتها) بحسب رغبتهم. وفي الواقع، عدد كبير من الرجال يسيؤون التعامل مع هذه البرامج ويشاركون نبذات مصورة عن هذه الأفعال مع بعضهم بعضاً، لكي يكتشفوا من بينهم قادر على ارتكاب أكبر الإساءات في حق هذه البرامج. خلال العام الماضي فقط، سجل متجر "غوغل" لهواتف الآندرويد 100 مليون تحميل لـ11 برنامجاً للدردشة القائمة على الذكاء الاصطناعي تتصدر قائمة البرامج المثيلة، وهذا ليس مكسباً للرجال الوحيدين ولا للنساء اللاتي سيتلاقين بهم في وقت لاحق. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) إن كنا سنتصدى لانعدام المساواة المستشري في الذكاء الاصطناعي، علينا الاستعانة بمجوعات متنوعة من الأشخاص. فالتكنولوجيا نفسها ليست معادية للمرأة بحد ذاتها، لكن غالباً ما تسفر عن هذه النتائج غير المقصودة، وليس فقط بسبب البيانات المتحيزة والمليئة بالعيوب، بل أيضاً بسبب نقص التنوع في المجموعات التي تؤسس هذه البرامج وتستفيد منها. في الوقت الحالي، يعد تمثيل النساء ضعيفاً إلى أبعد الدرجات في كل جانب من جوانب أبحاث الذكاء الاصطناعي وتطويره واستخدامه. وعلى الصعيد العالمي، لا تشكل النساء سوى 12 في المئة فقط من الباحثين في الذكاء الاصطناعي، ومع أنهن يقدن بعضاً من أكثر الجهود إثارة من أجل إنشاء ذكاء اصطناعي آمن وأخلاقي، إلا أن المجموعات التي تترأسها نساء لا تزال تحصل على تمويل من رأس المال الاستثماري أقل بست مرات من نظرائهن الذكور. يحمل الذكاء الاصطناعي وعداً بمستقبل جديد ولامع سيكون له تأثير إيجابي في العالم الحقيقي، ولكن ما لم نعط الأولوية للإنصاف والسلامة في مرحلة التصميم، بحيث يفضح الفكر المعيب القائم على التمييز والتحيز ويصحح، فإنه يمثل خطر إدامة التحيز المؤذي وإعادة كثيرين منا للعصور المظلمة، فلنأمل أن أحدهم يعير انتباهاً للتفاصيل الدقيقة. من كتاب لورا بيتس "عصر جديد من التمييز على أساس الجنس" الصادر في الـ15 من مايو (أيار).