
خاصية جديدة من 'ميتا' قد تعرض خصوصية المستخدمين للخطر!
أطلقت شركة 'ميتا' خاصية جديدة في أداة الذكاء الاصطناعي الخاصة بها قد تعرض خصوصية مستخدميها للخطر من دون علمهم الكامل، ما أثار جدلاً كبيراً.
واتضح أن بعض استفسارات المستخدمين أو ما يُعرف بـ'المطالبات' التي يرسلونها إلى أداة meta ai، تُنشر في تغذية عامة (Public Feed)، مرئية لجميع مستخدمي التطبيق أو الموقع، الأمر الذي أثار موجة قلق بشأن الخصوصية الرقمية وسلامة البيانات الشخصية.
وعلى الرغم من أن النشر في التغذية العامة لا يتم تلقائياً، إلا أن آلية المشاركة قد لا تكون واضحة بما فيه الكفاية للجميع، فعند اختيار المستخدم مشاركة مطالبة ما، تظهر له رسالة تفيد بأن 'المطالبات التي تنشرها علنية ومرئية للجميع.. تجنب مشاركة معلومات شخصية أو حساسة'.
غير أن عدداً من المستخدمين قد لا يدركون تماماً تبعات هذه الخطوة، ما يجعلهم ينشرون عن غير قصد محتوى حساساً أو محرجاً.
ورصدت هيئة الإذاعة البريطانية حالات متعددة لأشخاص نشروا صوراً لأسئلة اختبارات مدرسية أو جامعية طالبين من الذكاء الاصطناعي حلها، ما يثير تساؤلات حول تسهيل الغش الأكاديمي.
كما لوحظ وجود مطالبات تتعلق بمحتوى غير لائق، مثل طلبات لتوليد صور لشخصيات كرتونية بملابس فاضحة، وحتى استفسارات طبية حساسة، مع إمكانية ربط هذه المشاركات بحسابات شخصية على إنستغرام من خلال اسم المستخدم أو الصورة الشخصية.
وتعليقاً على هذه المسألة، قالت راشيل توباك، الرئيسة التنفيذية لشركة Social Proof Security، في منشور على منصة إكس، إن ما يحدث يمثل 'مشكلة كبيرة في تجربة المستخدم وأمن المعلومات'، مضيفة أن 'توقعات المستخدمين بشأن كيفية عمل الأداة لا تتماشى مع الواقع، وهو ما يعرضهم لمخاطر حقيقية'.
وتابعت أن ربط هذا النوع من التفاعلات الحساسة بحسابات علنية يمثل خرقاً للخصوصية قد لا يدرك المستخدم خطورته إلا بعد فوات الأوان.
بدورها، أكدت شركة 'ميتا'، التي أتاحت أداة Meta AI مؤخراً عبر منصاتها الاجتماعية فيس بوك وإنستغرام وواتساب، إضافة إلى نسخة مستقلة عبر المتصفح في المملكة المتحدة، في بيان أن المستخدمين 'هم من يتحكمون في هذه الخاصية'، وأن 'لا شيء يُنشر على تغذية الاكتشاف إلا باختيار المستخدم'.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صوت لبنان
منذ 28 دقائق
- صوت لبنان
"واتساب" يطور ميزة لأندرويد لمسح المستندات بالكاميرا مباشرةً
العربية يعمل تطبيق المراسلة واتساب، المملوك لشركة ميتا، على تطوير ميزة لمستخدمي نظام أندرويد ستسمح لهم بمسح المستندات مباشرة بكاميرات أجهزتهم. وسيكون هذا الخيار المقبل متاحًا ضمن قسم مشاركة المستندات، وسيتيح للمستخدمين مسح المستندات بسهولة دون الحاجة إلى استخدام تطبيق منفصل. وبمجرد توفر هذه الميزة، سيتمكن المستخدم من اختيار خيار "Scan document" أي "مسح مستند"، ليتم تفعيل كاميرا الهاتف على الفور، بحب موقع "WABetaInfo" المتخصص في تحديثات تطبيق واتساب. وعند هذه النقطة، ستظهر معاينة الكاميرا، مما يتيح للمستخدم توجيه الكاميرا نحو المستند الذي يرغب في التقاط صورة له. وسيوفر "واتساب" وضعين لمسح المستندات يناسبان جميع المستخدمين؛ وهما الوضع اليدوي والوضع التلقائي. ويتيح الوضع اليدوي للمستخدمين التحكم بالكامل في وقت التقاط الصورة، وهو ما يكون مفيدًا بشكل خاص عند الحاجة إلى ضبط الإطار للحصول على صورة مسح ضوئي أكثر وضوحًا. ومن ناحية أخرى، فإن الوضع التلقائي يكتشف حدود المستند تلقائيًا ويلتقط صورة له دون أي تدخل من المستخدم، مما يجعله خيارًا أسرع وأكثر ملاءمة عند الحاجة إلى صورة مسح ضوئي سريعًا. وبمجرد التقاط الصورة، سواءً يدويًا أو تلقائيًا، سيحوّلها "واتساب" إلى ملف "PDF" على الفور، وستكون النتيجة مستند جاهز للمشاركة مباشرةً في أي محادثة. ولا تزال هذه الميزة قيد التطوير، ومن المتوقع أن يطرحها "واتساب" لمستخدمي نظام أندرويد في تحديث مستقبلي للتطبيق.

صدى البلد
منذ 9 ساعات
- صدى البلد
ميتا تحارب تطبيقات صينية مثيرة للجدل تسيء استخدام الذكاء الاصطناعي
رفعت شركة ميتا، دعوى قضائية ضد شركة تكنولوجية مقرها هونج كونج تدعى Joy Timeline، وذلك بعد أن تبين أن الأخيرة نشرت مئات الإعلانات عبر منصات ميتا، بما فيها فيسبوك وإنستجرام وThreads، للترويج لتطبيقات ذكاء اصطناعي تتيح "نزع الملابس" رقميا عن الأشخاص دون علمهم أو موافقتهم. جاءت الدعوى القضائية، بعد تحقيق صحفي كشف عن حجم الانتهاكات، تهدف إلى منع Joy Timeline من عرض إعلاناتها على منصات ميتا مستقبلا، خاصة بعد أن حاولت الشركة الالتفاف على نظام مراجعة الإعلانات أكثر من مرة. تطبيقات صينية تنتهك سياسات ميتا وصفت ميتا هذه الممارسات بأنها انتهاك صارخ لسياسات المنصة وتعد خطير على خصوصية الأفراد وسلامتهم الرقمية. وأوضحت ميتا أن هذه الخطوة القانونية تأتي ضمن جهودها لحماية مستخدميها من التطبيقات المسيئة التي تستخدم تقنيات الذكاء الاصطناعي بطرق ضارة. وأشارت إلى أنها حذفت عددا كبيرا من الإعلانات المخالفة، وأغلقت الحسابات المرتبطة بها، كما حظرت الروابط المؤدية إلى التطبيقات المسيئة. لكن ورغم هذه الإجراءات، لا تزال بعض الإعلانات تظهر من حين لآخر، ما يعكس صعوبة متزايدة في ضبط هذا النوع من الانتهاكات، لا سيما مع لجوء مطوري التطبيقات إلى تقنيات أكثر تطورا للتهرب من الرقابة. كشفت التحقيقات أن هذه الإعلانات تستهدف بشكل أساسي رجالا تتراوح أعمارهم بين 18 و65 عاما في الولايات المتحدة والمملكة المتحدة وأوروبا، وغالبا ما تستخدم هذه التطبيقات ضد النساء والمشاهير، ما أدى إلى تصاعد حالات الابتزاز الجنسي الرقمي والتحرش، بل ووصلت هذه التكنولوجيا أحيانا إلى أيدي القصر. وكانت تقارير سابقة قد رصدت وجود تطبيقات مشابهة في متاجر الهواتف الذكية، قبل أن تجبر الشركات الكبرى على حذفها بعد موجة من الانتقادات. كما أقدمت بعض المدن، مثل سان فرانسيسكو، على اتخاذ إجراءات قانونية مماثلة لمواجهة ظاهرة "الصور العارية الزائفة" المنتشرة على الإنترنت. وتسلط هذه التطورات الضوء على الحاجة الملحة لتعزيز الأطر القانونية والتنظيمية في مواجهة الاستخدام الضار لتقنيات الذكاء الاصطناعي، خاصة في ما يتعلق بانتهاك الخصوصية والسلامة الرقمية.


التحري
منذ 19 ساعات
- التحري
خاصية جديدة من 'ميتا' قد تعرض خصوصية المستخدمين للخطر!
أطلقت شركة 'ميتا' خاصية جديدة في أداة الذكاء الاصطناعي الخاصة بها قد تعرض خصوصية مستخدميها للخطر من دون علمهم الكامل، ما أثار جدلاً كبيراً. واتضح أن بعض استفسارات المستخدمين أو ما يُعرف بـ'المطالبات' التي يرسلونها إلى أداة meta ai، تُنشر في تغذية عامة (Public Feed)، مرئية لجميع مستخدمي التطبيق أو الموقع، الأمر الذي أثار موجة قلق بشأن الخصوصية الرقمية وسلامة البيانات الشخصية. وعلى الرغم من أن النشر في التغذية العامة لا يتم تلقائياً، إلا أن آلية المشاركة قد لا تكون واضحة بما فيه الكفاية للجميع، فعند اختيار المستخدم مشاركة مطالبة ما، تظهر له رسالة تفيد بأن 'المطالبات التي تنشرها علنية ومرئية للجميع.. تجنب مشاركة معلومات شخصية أو حساسة'. غير أن عدداً من المستخدمين قد لا يدركون تماماً تبعات هذه الخطوة، ما يجعلهم ينشرون عن غير قصد محتوى حساساً أو محرجاً. ورصدت هيئة الإذاعة البريطانية حالات متعددة لأشخاص نشروا صوراً لأسئلة اختبارات مدرسية أو جامعية طالبين من الذكاء الاصطناعي حلها، ما يثير تساؤلات حول تسهيل الغش الأكاديمي. كما لوحظ وجود مطالبات تتعلق بمحتوى غير لائق، مثل طلبات لتوليد صور لشخصيات كرتونية بملابس فاضحة، وحتى استفسارات طبية حساسة، مع إمكانية ربط هذه المشاركات بحسابات شخصية على إنستغرام من خلال اسم المستخدم أو الصورة الشخصية. وتعليقاً على هذه المسألة، قالت راشيل توباك، الرئيسة التنفيذية لشركة Social Proof Security، في منشور على منصة إكس، إن ما يحدث يمثل 'مشكلة كبيرة في تجربة المستخدم وأمن المعلومات'، مضيفة أن 'توقعات المستخدمين بشأن كيفية عمل الأداة لا تتماشى مع الواقع، وهو ما يعرضهم لمخاطر حقيقية'. وتابعت أن ربط هذا النوع من التفاعلات الحساسة بحسابات علنية يمثل خرقاً للخصوصية قد لا يدرك المستخدم خطورته إلا بعد فوات الأوان. بدورها، أكدت شركة 'ميتا'، التي أتاحت أداة Meta AI مؤخراً عبر منصاتها الاجتماعية فيس بوك وإنستغرام وواتساب، إضافة إلى نسخة مستقلة عبر المتصفح في المملكة المتحدة، في بيان أن المستخدمين 'هم من يتحكمون في هذه الخاصية'، وأن 'لا شيء يُنشر على تغذية الاكتشاف إلا باختيار المستخدم'.