logo
'فيو 2' من غوغل متاح لمشتركي 'جيميني المتقدم'

'فيو 2' من غوغل متاح لمشتركي 'جيميني المتقدم'

الوئام١٥-٠٤-٢٠٢٥

أعلنت شركة غوغل عن توسيع نطاق استخدام نموذجها الجديد لتوليد الفيديوهات بالذكاء الاصطناعي 'Veo 2″، ليصبح متاحًا للمشتركين في خطة 'Gemini Advanced'، وهي الخدمة المتميزة ضمن منظومة غوغل للذكاء الاصطناعي.
تأتي هذه الخطوة في ظل تصاعد المنافسة في مجال المحتوى الاصطناعي، خاصة بعد إطلاق شركة OpenAI لمنصتها 'Sora'، وتزامنًا مع إعلان شركة Runway عن الجيل الرابع من مولد الفيديو التابع لها، إلى جانب جمعها تمويلًا تجاوز 300 مليون دولار.
ميزات Veo 2 والتوافر
بدءًا من الثلاثاء، سيتمكن مشتركو 'Gemini Advanced' من اختيار Veo 2 من قائمة النماذج ضمن تطبيقات غوغل 'Gemini'. ويتيح النموذج إنتاج مقاطع فيديو مدتها 8 ثوانٍ، بجودة 720p وبنسبة عرض إلى ارتفاع 16:9، مع إمكانية تحميل الفيديو بصيغة MP4 متضمنًا علامة مائية رقمية باستخدام تقنية 'SynthID' التابعة لغوغل.
تقول الشركة إن عدد الفيديوهات التي يمكن إنشاؤها شهريًا محدود، كما أن الخدمة غير متاحة حاليًا لمستخدمي خطط Google Workspace الخاصة بالأعمال والتعليم.
تكامل مع أدوات غوغل التجريبية
يتكامل Veo 2 أيضًا مع أداة 'Whisk' التجريبية ضمن 'Google Labs'، والتي تسمح باستخدام الصور كنقطة انطلاق لتوليد صور جديدة. ومع الميزة الجديدة 'Whisk Animate'، يمكن تحويل الصور المُنتجة إلى مقاطع فيديو قصيرة باستخدام Veo 2.
وتجدر الإشارة إلى أن الوصول إلى هذه الأدوات مقصور على مشتركي خطة 'Google One AI Premium' التي تبلغ تكلفتها 20 دولارًا شهريًا.
آفاق مستقبلية وتحذيرات مهنية
رغم أن استخدامات Veo 2 تبدو محدودة حاليًا، إلا أن ديميس هاسابيس، الرئيس التنفيذي لشركة DeepMind التابعة لغوغل، صرّح بأن هناك نية لدمج Veo مع نماذج Gemini مستقبلاً، لتعزيز فهم الذكاء الاصطناعي للعالم الفيزيائي.
في المقابل، تتزايد المخاوف في الأوساط الإبداعية من التأثيرات المحتملة لهذه التقنيات. فقد أظهرت دراسة أُجريت عام 2024 بتكليف من نقابة الرسامين والأنيميشن في هوليوود، أن أكثر من 100 ألف وظيفة في قطاعات السينما والتلفزيون والرسوم المتحركة في الولايات المتحدة قد تتأثر سلبًا بالذكاء الاصطناعي بحلول عام 2026.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

تعرف على طريقة الاستفادة من هذه الميزة
تعرف على طريقة الاستفادة من هذه الميزة

العربية

timeمنذ 2 ساعات

  • العربية

تعرف على طريقة الاستفادة من هذه الميزة

استسلمت "أبل" لخدمة خارجية أخرى على نظام iOS، وهذه المرة هي خدمة " غوغل" للترجمة. بعد أن أوضحت تقارير أن "أبل" تستعد للسماح للمستخدمين باختيار مساعدين صوتيين آخرين بدلاً من "سيري"، تلقى تطبيق "غوغل" للترجمة لأجهزة آيفون وآيباد اليوم تحديثًا يتيح للمستخدمين تعيينه كمترجم افتراضي على أجهزة iOS. عندما تم إصدار نظام iOS 18.4 في أبريل، أُضيفت لأول مرة ميزات تخصيص تطبيقات خارجية لخدمات مختلفة، مثل التنقل والتصفح والبريد الإلكتروني، بحسب تقرير نشره موقع "phonearena" واطلعت عليه "العربية Business". والآن، تنضم الترجمة إلى هذه المجموعة، مما يمنح المستخدمين خيارات وحرية أكبر لاختيار خدماتهم الافتراضية على أجهزة آيفون وآيباد. حتى هذه اللحظة، كان على مستخدمي iOS استخدام تطبيق الترجمة المدمج دون خيار التبديل إلى أدوات الترجمة الأساسية، مثل طلبات "سيري" والنوافذ المنبثقة النصية، وما إلى ذلك. كان لا يزال بإمكان المستخدمين استخدام ترجمة "غوغل"، ولكن كتطبيق منفصل، غير مدمج في نظام التشغيل. خطوات جعل ترجمة "غوغل" خدمة افتراضية في آيفون مع هذا التحديث، يمكن لمستخدمي آيفون وآيباد الآن تعيين ترجمة "غوغل" كخدمة ترجمة افتراضية. إليك كيفية القيام بذلك: قم بالانتقال إلى تطبيق الإعدادات > التطبيقات > التطبيقات الافتراضية > الترجمة، واختر ترجمة "غوغل". ويرجع الدافع الرئيسي وراء هذه التغييرات هو اللوائح والمتطلبات الإلزامية، خاصةً من الاتحاد الأوروبي، على الأجهزة والبرامج المُباعة داخل حدود أوروبا. على سبيل المثال، يُلزم قانون الأسواق الرقمية للاتحاد الأوروبي الشركات بمنح المستخدمين مزيدًا من الخيارات والتحكم في أجهزتهم، وحرية اختيار التطبيقات الافتراضية للمهام الأساسية مثل التصفح والمراسلة والتنقل والترجمة. تُعدّ الاستعدادات المزعومة لمنح مستخدمي iOS القدرة على التخلي عن "سيري" لصالح مساعدين ذكيين آخرين جزءًا من استراتيجية "أبل" لتجنب أي عقوبات تنظيمية من الاتحاد الأوروبي. وكان التغيير الأبرز الذي اضطرت "أبل" إلى إجرائه للامتثال لهذه اللوائح هو التحول من منفذ Lightning إلى USB-C في عام 2024. قد يرى البعض أن هذا الضغط من الاتحاد الأوروبي على شركات مثل "أبل" و"غوغل" وغيرهما من الشركات الكبرى أمرٌ سلبي، لكن الهدف من كل ذلك هو حماية المستهلك ومنحه خياراتٍ أوسع. من جهة، يمكن للمستخدمين الاستمرار في استخدام "سيري" أو خدمات الترجمة الخاصة بشركة أبل إذا كانوا راضين عن أدائها. ومن جهة أخرى، وهو التوجه السائد في بعض الحالات، يمكنهم اختيار خيارٍ أفضل دون البقاء حبيسين منظومة خدمات "أبل". لطالما اشتكى الناس من ضعف أداء "سيري" لسنوات، وينطبق الأمر نفسه على خيار الترجمة المدمج في نظام iOS. الآن، أصبح بإمكانهم الانتقال إلى ترجمة "غوغل" وهو خيار أفضل بلا شك، وقريبًا سيتوفر الخيار نفسه للمساعدين الصوتيين على نظام iOS.

"غوغل" تضيف عناصر تحكم أبوية أفضل في تطبيق Family Link
"غوغل" تضيف عناصر تحكم أبوية أفضل في تطبيق Family Link

العربية

timeمنذ 2 ساعات

  • العربية

"غوغل" تضيف عناصر تحكم أبوية أفضل في تطبيق Family Link

قامت "غوغل" مؤخرًا بتحديث تطبيق Family Link بواجهة مُعاد تصميمها وميزات إشراف جديدة، مما يمنح الآباء أدوات أكثر فعالية لإدارة نشاط أطفالهم الرقمي ووقت استخدامهم للشاشة. يتوفر التحديث الآن لجميع هواتف وأجهزة أندرويد اللوحية التي تدعم تطبيق Family Link، وهو متوفر الآن. يقدم تطبيق Family Link الآن ثلاثة أقسام مركزية تتضمن وقت الشاشة، وعناصر التحكم، والموقع، بحسب تقرير نشره موقع "phonearena" واطلعت عليه "العربية Business". يوفر قسم "وقت الشاشة" جميع الأدوات اللازمة لتتبع أنشطة الشاشة، مع تمكين أولياء الأمور من وضع قيود زمنية لكل تطبيق على حدة، وضبط وظيفتي "وقت التوقف" و"وقت الدراسة". من خلال قسم "عناصر التحكم"، يتمكن أولياء الأمور من الوصول بسهولة إلى موافقات تطبيقات "غوغل بلاي"، بالإضافة إلى إعدادات الخصوصية وقيود الويب لمتصفح كروم و"يوتيوب" وبحث غوغل". تتيح علامة تبويب "الموقع" للوالدين عرض موقع جهاز طفلهم وحالة بطاريته في الوقت الفعلي. بالنسبة للآباء الذين لديهم أكثر من طفل، يتيح تطبيق Family Link الآن التبديل بسهولة بين الملفات الشخصية، مما يجعل إدارة حسابات متعددة من جهاز واحد أسهل. ميزة "وقت الدراسة"، التي كانت مقتصرة سابقًا على ساعات Fitbit ACE LTE الذكية وساعة Galaxy للأطفال، تمتد الآن لتشمل الهواتف الذكية والأجهزة اللوحية التي تعمل بنظام أندرويد. تتيح هذه الميزة لأولياء الأمور تحديد فترات زمنية يتم فيها تقييد جهاز طفلهم أو كتم صوته خلال ساعات الدراسة. خلال "وقت الدراسة"، يحد النظام من استخدام التطبيقات والوصول إلى الإشعارات، مع إبقاء الأدوات التعليمية في متناول الطلاب. باستخدام هذه الميزة، يمكن للوالدين تحديد فترات راحة أثناء ساعات الدراسة مثل وقت الغداء أو وقت الاستراحة، وتحديد التطبيقات التي تظل متاحة أثناء وقت الدراسة والأوضاع المخصصة الأخرى. جهات اتصال يديرها الوالدان ومراسلة أكثر أمانًا من التحسينات القادمة أيضًا إمكانية إدارة جهات الاتصال بواسطة الوالدين. يمكن للوالدين إدارة أذونات جهات اتصال أطفالهم مباشرةً عبر تطبيق Family Link. يسمح النظام للأطفال بطلب إضافة جهة اتصال، ولكن لن يُسمح بالوصول إلا لجهات الاتصال التي تم التحقق منها. تعتمد هذه الميزة على الإمكانيات المتوفرة في ساعات "غوغل" الذكية المخصصة للأطفال، والتي ستتوفر لجميع مستخدمي هواتف أندرويد. كما تُفعّل "غوغل" ميزة حماية الرسائل افتراضيًا للمستخدمين الذين تقل أعمارهم عن 18 عامًا، مما يُرشّح المحتوى الحساس مع الحفاظ على أمان الاتصالات. مع ذلك، يُمكن للمستخدمين إلغاء تفعيل هذه الميزة. ستتوفر قريبًا أدوات تعليمية باستخدام المحفظة والذكاء الاصطناعي. تستعد "غوغل" أيضًا لإطلاق محفظة "غوغل" للأطفال خلال الأشهر المقبلة. سيتمكن الآباء من إضافة بطاقات إلى حسابات أطفالهم، وتعيين الأذونات، وتتبّع الإنفاق، مما يمنح الأطفال القدرة على إجراء عمليات شراء عبر تقنية الاتصال قريب المدى (NFC) أو حمل التذاكر الرقمية وبطاقات الهدايا بأمان. في وقت لاحق من هذا العام، تخطط "غوغل" لتوفير أدوات تعليمية مثل Gen AI Lab وNotebookLM للمراهقين باستخدام Family Link، مما يُشير إلى استثمار مستمر في التعلم والتجارب الرقمية المسؤولة. سواء كان الأمر يتعلق بإدارة وقت الشاشة أو جهات الاتصال أو جداول المدرسة، فإن هذه التحديثات تجعل Family Link أداة أكثر قوة ومرونة للعائلات التي تستخدم نظام التشغيل أندرويد - ولا يتطلب الأمر تطبيقات تابعة لجهات خارجية.

9 طرق يمارس فيها الذكاء الاصطناعي التمييز ضد النساء
9 طرق يمارس فيها الذكاء الاصطناعي التمييز ضد النساء

Independent عربية

timeمنذ 2 ساعات

  • Independent عربية

9 طرق يمارس فيها الذكاء الاصطناعي التمييز ضد النساء

عندما نفكر في تأثير الذكاء الاصطناعي على البشرية، يسارع الناس إلى طرح أسئلة وجودية تتعلق بفناء البشرية واستيلاء الروبوتات على العالم، لكن بدلاً من التركيز على تلك التحذيرات التشاؤمية عما قد يحدث مستقبلاً، هناك صورة خطرة من التمييز تحدث بالفعل الآن، في ظل غياب شبه كامل لأي ضوابط أو تنظيمات فعالة. هذا التمييز يؤثر في النساء وفئات مهمشة أخرى بطرق واقعية للغاية، تمتد من احتمالات قبول المصرف منحهم قرضاً إلى ترشيحهم للوظائف أو حتى حصولهم على تشخيص طبي دقيق لمشكلة صحية خطرة. وما لم نطالب بالمحاسبة الآن، فالخطر قائم بأن يجرنا الذكاء الاصطناعي إلى الخلف بسبب تكريس انعدام المساواة الموجود اليوم في أسس بناء عالمنا المستقبلي، والمؤشرات موجودة بالفعل على أن هذا ما يحدث في الواقع. التوظيف أفادت تقارير حديثة بأن 40 في المئة من شركات المملكة المتحدة تستخدم الذكاء الاصطناعي في عمليات التوظيف، قد يبدو ذلك صورة غير مؤذية من ترشيد عملية تستهلك كثيراً من الوقت، ولا سيما أن أدوات الذكاء الاصطناعي قادرة على تقليص لائحة طويلة من المتقدمين للوظيفة عن طريق انتقاء "أكثرهم ملاءمة" لشركتكم، لكن هذا الانطباع يتغير طبعاً عندما تتوقفون عند طريقة تدريب نماذج الذكاء الاصطناعي هذه، فهي تلقن كميات هائلة من المعلومات كي تصبح قادرة على "تخمين" أي المتقدمين للوظيفة هم أكثر أشخاص يتوقع نجاحهم فيها، وهو ما يجعلها تفترض أحياناً (بسبب انعدام المساواة وقلة تمثيل بعض الفئات الموجودة في سوق العمل حالياً) أن الرجال البيض مثلاً هم أقوى المرشحين لتولي المناصب العليا. قد يقول المستفيدون من هذه التكنولوجيا إن هذه المشكة حلها بسيط، فما علينا سوى إخفاء الجنس الاجتماعي للمتقدمين بطلبات التوظيف عن أدوات الذكاء الاصطناعي، لكن حتى في هذه الحال، تبين أن التمييز يظل قائماً بصورة غير مباشرة، عبر تعرف النظام على كلمات ذات طابع جندري في السير الذاتية (ومنها مثلاً كرة "الشبكة" التي تهيمن عليها النساء أو اسم مدرسة للفتيات فقط)، مما يبقي النساء في موقع غير متكافئ، كما أن دراسة حديثة أخرى كشفت عن أن أدوات التوظيف بالذكاء الاصطناعي قد تميز أيضاً ضد المتقدمين بناء على أنماط حديثهم. وحتى قبل تقدم النساء إلى الوظيفة، بدأ الذكاء الاصطناعي بالتدخل في فرصهن بالحصول على عمل، إذ تبين أن خوارزميات الدعاية في "غوغل" قد تعرض على الرجال الباحثين عن عمل إعلانات وظائف لمناصب تنفيذية عليا تخصص لها أجور مرتفعة بمعدل ست مرات أكثر من النساء الباحثات عن عمل. توليد المحتوى أكثر من 100 مليون شخص يستخدمون "تشات جي بي تي" شهرياً، لكن البرنامج، كأمثاله من النماذج اللغوية الكبيرة ((LLMs، يعمل عن طريق استهلاك مجموعات ضخمة من البيانات لتوليد نصوص "تبدو بشرية" أو صور واقعية تبعاً للأوامر التي كتبها المستخدمون. وعندما تكون هذه البيانات مثقلة بالأحكام المسبقة، لا يجتر الذكاء الاصطناعي الذي يولد النصوص انعدام المساواة بل يعظمها أيضاً. ففي دراسة لـ"يونيسكو" حول المحتوى المولد عبر منصات الذكاء الاصطناعي التي تحظى بشعبية كبيرة وجدت أن هناك "إثباتاً لا لبس فيه عن التمييز ضد النساء في المحتوى الذي جرى إنشاؤه"، فالنماذج قرنت الوظائف المرموقة في "الهندسة" أو "الطب" مثلاً بالرجال، فيما خصصت للنساء وظائف "الخدمة المنزلية" أو حتى "البغاء". ومن المرجح أن يكبر أثر هذا التضخيم للسرديات التمييزية من النماذج اللغوية الكبيرة مع استخدامها أكثر فأكثر، إذ تشير التقديرات إلى أن نحو 30 في المئة من المحتوى التسويقي الخارجي لمنظمات كبرى سيولده الذكاء الاصطناعي بحلول نهاية العام الحالي (بينما كان أقل من اثنين في المئة في 2022). طلبات القروض يسجل العالم حالياً فجوة ائتمانية بقيمة 17 مليار دولار، لها أثر ضخم في انعدام المساواة بين الجنسين، عندما لا تتمتع المرأة باستقلالية مادية، يتضاعف خطر تعرضها إلى مجموعة من المشكلات، بدءاً من العنف المنزلي ووصولاً إلى الزواج بالإكراه. ومع أن مطوري الخوارزميات وخبراء البيانات الذين يصممون أنظمة التقييم الائتماني هم في الغالب من الرجال، يعيشون في الولايات المتحدة، ومن ذوي الدخل المرتفع، فإنهم لا يمثلون الفئة المستهدفة من المستخدمين الذين تطبق عليهم هذه الأنظمة، ومع ذلك فهم من يحددون نتائجها النهائية. ونظراً إلى أن النساء عانين تاريخياً التمييز في قرارات الإقراض، فإن المخاوف تتزايد من أن الشركات التي تستخدم أنظمة ذكاء اصطناعي في التقييم الائتماني تكرس هذا التمييز الممنهج، مما يهدد بإقصائهن أكثر فأكثر عن الحصول على القروض والخدمات المالية الأخرى. العدالة الجنائية تستخدم سلطات قضائية عدة في الولايات المتحدة أداة تسمي "كومباس" Compas لمساعدتها في اتخاذ قرارات في شأن الإفراج عن الموقوفين قبل محاكمتهم أو الحكم عليهم، فيما تلجأ هذه الأداة إلى الذكاء الاصطناعي كي "تخمن" احتمالات إعادة اعتقال الشخص، لكن هذا النظام يستند إلى بيانات تتعلق بسجلات التوقيف السابقة، في بلد تعاني فيه المؤسسات عنصرية ممنهجة تجعل الشخص الأسود أكثر عرضة بخمس مرات من نظيره الأبيض للتوقيف من الشرطة من دون مبرر، لذا حتى عندما لا تأخذ الخوارزمية العرق في الاعتبار صراحة، فإنها تسهم في استمرار دورة الاعتقال العنصري. وتبين كذلك أن برنامج كومباس يبالغ في تقدير احتمالات تكرار النساء ارتكاب الجرائم، وهو ما يؤدي إلى إنزال عقوبات مجحفة في حق الجانيات اللاتي غالباً ما يكن ضحايا لاعتداءات جسدية أو جنسية. وفي المملكة المتحدة كشفت إحدى الدراسات أن استخدام الذكاء الاصطناعي لتعريف مناطق معينة على أنها بؤر للجريمة يدفع عناصر الشرطة إلى توقع حصول مشكلات عندما تجوب دورياتهم المكان، مما يزيد من احتمال توقيف الأشخاص أو اعتقالهم بدافع التحيز بدلاً من الضرورة الأمنية الفعلية. تقنية التعرف على الوجه يلعب الذكاء الاصطناعي دوراً متنامياً في تقنيات التعرف على الوجه، التي تستخدم في مجالات واسعة، من تطبيقات الشرطة إلى أنظمة دخول المباني، لكن الشركات التي تروج لهذه التقنية بوصفها تقدم "راحة غير مسبوقة" مطالبة بطرح السؤال: راحة لمن بالضبط؟ فعلى رغم الانتشار السريع لهذه التقنيات، إلا أن فعاليتها تتفاوت بصورة كبيرة بين المستخدمين، إذ أظهرت أبحاث أن منتجات التعرف على الوجه لدى شركات كبرى تسجل معدل خطأ يصل إلى 35 في المئة عند التعامل مع النساء ذوات البشرة الداكنة، في مقابل 0.8 في المئة فقط عند التعامل مع الرجال ذوي البشرة الفاتحة. الرعاية الصحية كشفت دراسة لكلية لندن الجامعية (UCL) عن أن نماذج الذكاء الاصطناعي التي أنشأت للتنبؤ بأمراض الكبد استناداً إلى تحليل الدم أكثر عرضة للخطأ في كشف المرض بمرتين لدى النساء في مقابل الرجال، وحذر كبير مؤلفي هذه الدراسة أن استخدام هذه الخوارزميات بصورة شائعة في المستشفيات للمساعدة في التشخيص قد يؤدي إلى تردي الرعاية التي تتلقاها النساء. وفي المقابل، في الولايات المتحدة، تبين أن إحدى الخوارزميات التي يشيع استخدامها في قطاع الرعاية الصحية للمساعدة في تحديد هويات المرضى الذين يحتاجون إلى رعاية إضافية تعاني تمييزاً عرقياً كبيراً، إذ تفضل المرضى ذوي البشرة البيضاء على المرضى السود، وإن كان هؤلاء أشد مرضاً ويعانون مشكلات صحية مزمنة أكثر، وفقاً لدراسة نشرتها المجلة العلمية "ساينس". وبحسب تقديرات مؤلفي الدراسة، وصل الحال بالتمييز العرقي إلى درجة تقليص عدد المرضى السود الذين يحددون على أنهم بحاجة إلى رعاية إضافية بأكثر من النصف. العنف المنزلي تمكن مرتكبو العنف المنزلي من مضايقة ضحاياهم وإخافتهن باستخدام الذكاء الاصطناعي لاختراق أجهزة التكنولوجيا التي يمكن ارتداؤها والأجهزة المنزلية الذكية، والتلاعب بها. فكل الأجهزة، من ساعات اليد وحتى التلفاز قد تسهل المراقبة والملاحقة عن بعد، وهذا خطر كبير عندما تأخذ في الاعتبار التقديرات التي تشير إلى أن ما يقارب 125 مليار جهاز سيصبح متصلاً، بحلول عام 2040، بـ"إنترنت الأشياء" وهو ما قد يؤدي إلى زيادة المراقبة من المعتدين الساعين إلى ترسيخ سيطرتهم وسطوتهم. العلاقات فيما نحاول التوصل إلى طرق لمعالجة التحيز ضد المرأة على منصات التواصل الاجتماعي، وتبعات هذا السلوك الذي يجرد المرأة من إنسانيتها، يحمل مئات ملايين الأشخاص تطبيقات "رفيقة" قائمة على الذكاء الاصطناعي تعيد تحويل النساء إلى أشياء "لا ترفض طلباً" للاستهلاك الذكوري. وتطبيقات الصديقات الحميمات من الذكاء الاصطناعي أو روبوتات الدردشة التي يروج لها مطوروها غالباً على أنها أفضل من النساء الحقيقيات (تؤمن لك علاقة ممتعة من دون تلك الإرادة الحرة المزعجة)، تقدم للرجال "امرأة" شبيهة بالمرأة الحقيقية بخنوع ويمكن تكييفها بحسب الرغبة، تجعلهم يزهون بأنفسهم وهي رهن إشارتهم متى أرادوا، ويمكنهم استخدامها (وإساءة معاملتها) بحسب رغبتهم. وفي الواقع، عدد كبير من الرجال يسيؤون التعامل مع هذه البرامج ويشاركون نبذات مصورة عن هذه الأفعال مع بعضهم بعضاً، لكي يكتشفوا من بينهم قادر على ارتكاب أكبر الإساءات في حق هذه البرامج. خلال العام الماضي فقط، سجل متجر "غوغل" لهواتف الآندرويد 100 مليون تحميل لـ11 برنامجاً للدردشة القائمة على الذكاء الاصطناعي تتصدر قائمة البرامج المثيلة، وهذا ليس مكسباً للرجال الوحيدين ولا للنساء اللاتي سيتلاقين بهم في وقت لاحق. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) إن كنا سنتصدى لانعدام المساواة المستشري في الذكاء الاصطناعي، علينا الاستعانة بمجوعات متنوعة من الأشخاص. فالتكنولوجيا نفسها ليست معادية للمرأة بحد ذاتها، لكن غالباً ما تسفر عن هذه النتائج غير المقصودة، وليس فقط بسبب البيانات المتحيزة والمليئة بالعيوب، بل أيضاً بسبب نقص التنوع في المجموعات التي تؤسس هذه البرامج وتستفيد منها. في الوقت الحالي، يعد تمثيل النساء ضعيفاً إلى أبعد الدرجات في كل جانب من جوانب أبحاث الذكاء الاصطناعي وتطويره واستخدامه. وعلى الصعيد العالمي، لا تشكل النساء سوى 12 في المئة فقط من الباحثين في الذكاء الاصطناعي، ومع أنهن يقدن بعضاً من أكثر الجهود إثارة من أجل إنشاء ذكاء اصطناعي آمن وأخلاقي، إلا أن المجموعات التي تترأسها نساء لا تزال تحصل على تمويل من رأس المال الاستثماري أقل بست مرات من نظرائهن الذكور. يحمل الذكاء الاصطناعي وعداً بمستقبل جديد ولامع سيكون له تأثير إيجابي في العالم الحقيقي، ولكن ما لم نعط الأولوية للإنصاف والسلامة في مرحلة التصميم، بحيث يفضح الفكر المعيب القائم على التمييز والتحيز ويصحح، فإنه يمثل خطر إدامة التحيز المؤذي وإعادة كثيرين منا للعصور المظلمة، فلنأمل أن أحدهم يعير انتباهاً للتفاصيل الدقيقة. من كتاب لورا بيتس "عصر جديد من التمييز على أساس الجنس" الصادر في الـ15 من مايو (أيار).

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store