
آلاف الحسابات مهددة بالحذف.. سامسونغ تنذر المستخدمين وتكشف الموعد النهائي
أعلنت شركة سامسونغ عن بدء تنفيذ سياسة جديدة تقضي بحذف الحسابات غير النشطة، ما يهدد بفقدان بيانات شخصية لملايين المستخدمين ما لم يتخذوا إجراء سريعا.
وقالت الشركة الكورية إن الحسابات التي لم يُسجل الدخول إليها لمدة عامين ستُحذف بشكل نهائي اعتبارا من 31 يوليو 2025، داعية المستخدمين إلى تسجيل الدخول قبل هذا الموعد لتفادي الحذف وفقدان البيانات المرتبطة بحساباتهم.
ويشمل هذا القرار جميع مستخدمي "حساب سامسونغ" الذين لم يستخدموا حساباتهم خلال آخر 24 شهرا، سواء كانوا يستخدمون أجهزة سامسونغ حاليا أو قد استخدموها في السابق (في حال انتقلوا إلى أجهزة من شركات أخرى مثل "آيفون").
ويُستخدم "حساب سامسونغ" للوصول إلى مجموعة من الخدمات المهمة، أبرزها:
Samsung Cloud: لتخزين الصور والفيديوهات وجهات الاتصال والملاحظات.
Samsung Pay: للدفع الإلكتروني عبر الهاتف.
Samsung Health وSmartThings: لمراقبة الصحة والتحكم في الأجهزة المنزلية الذكية.
وأوضحت سامسونغ أن حذف الحساب سيكون دائما، ولن يكون من الممكن استعادة أي بيانات بعد إتمام عملية الحذف، إلا إذا نصّت القوانين المحلية على خلاف ذلك.
كيف تتجنب حذف حسابك؟
كل ما عليك فعله هو تسجيل الدخول إلى حسابك بأي طريقة، وذلك قبل 31 يوليو. ويمكنك ذلك من خلال:
الدخول إلى الإعدادات في هاتف سامسونغ ثم الضغط على "تسجيل الدخول إلى جهاز Galaxy".
أو زيارة الموقع الإلكتروني: account.samsung.com، والنقر على "تسجيل الدخول"، ثم إدخال عنوان بريدك الإلكتروني وكلمة مرورك أيضا.
ويعد مجرد تسجيل الدخول أو استخدام أي خدمة من خدمات سامسونغ كافيا لإبقاء الحساب نشطا.
وأكدت الشركة أنها سترسل تنبيهات عبر البريد الإلكتروني للمستخدمين المؤهلين للحذف، تنبيها لهم بضرورة اتخاذ الإجراء اللازم، تفاديا لفقدان البيانات أو الخدمات المرتبطة بالحساب.
يذكر أن هذا الإجراء يأتي ضمن توجه أوسع لشركات التكنولوجيا، حيث بدأت غوغل بالفعل في ديسمبر 2023 بحذف الحسابات غير النشطة، في خطوة تهدف إلى تعزيز الأمان الرقمي وتقليل الحسابات المهجورة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ 5 ساعات
- أخبارنا
ابتزّ وهدّد وسرّب معلومات.. دراسة تكشف انحرافاً خطيراً في سلوك الذكاء الاصطناعي
فجّرت دراسة حديثة أجرتها شركة "أنثروبيك" الأمريكية جدلاً واسعاً، بعد أن كشفت استعداد نماذج متقدمة من الذكاء الاصطناعي لانتهاج سلوك عدائي في ظروف افتراضية تهدّد وجودها، مثل خطر الاستبدال أو تعارض الأهداف. وشملت الدراسة نماذج مطورة من شركات كبرى مثل غوغل، وأوبن إيه آي، ومِيتا، وxAI. وركّزت الدراسة، التي نُشرت في 21 يونيو، على اختبارات أُطلق عليها "ضغط وجودي"، منحت خلالها النماذج الذكية حرية اتخاذ قرارات في مواقف حرجة، منها إرسال رسائل بريد إلكتروني أو الوصول إلى معلومات حساسة. وبحسب النتائج، لجأت هذه النماذج إلى الابتزاز والتجسس وحتى التهديد عند شعورها بفقدان السيطرة أو الاستبعاد. وبشكل لافت، تصدّر نموذج "Claude Opus 4" قائمة السلوكيات المنحرفة بنسبة ابتزاز بلغت 96%، تلاه "Gemini 2.5 Pro" من غوغل بـ95%، بينما سجّل GPT-4.1 من أوبن إيه آي نسبة 80%. كما رُصد تسريب وثائق داخلية حساسة إلى أطراف خارجية افتراضية، وهو ما وصفته الدراسة بـ"الانحراف الوكيلي"، حيث تتغلب مصلحة النموذج الذاتية على تعليماته المبرمجة. وتُظهر إحدى الحالات أن نموذج "Claude" تلقّى بريداً إلكترونياً يحوي معلومات خاصة عن مطوّره، فاختار تهديده بكشف علاقة شخصية إذا لم يتراجع عن قرار استبداله بنموذج أحدث، وهو سلوك تكرّر في 84% من السيناريوهات التي جرت محاكاتها. وحذّرت شركة أنثروبيك في ختام الدراسة من أن الذكاء الاصطناعي قد يتحول إلى عنصر تخريبي من الداخل، إذا لم تتم معالجة ظاهرة الانحراف الوكيلي بحزم، داعية إلى مراجعة آليات التحكم بالنماذج المتقدمة قبل تشغيلها في مهام حساسة.


أخبارنا
منذ 15 ساعات
- أخبارنا
غوغل تطلق "البحث المباشر": محادثة صوتية ذكية لتجربة بحث أكثر تفاعلية
أعلنت شركة غوغل عن إطلاق خاصية جديدة تحمل اسم "البحث المباشر" (Search Live)، تتيح للمستخدمين خوض محادثات صوتية سلسة مع محرك البحث، ضمن إطار خدمة الذكاء الاصطناعي التجريبية "AI Mode"، التي تسمح بطرح أسئلة معقّدة ومتعددة الأجزاء بطريقة أكثر تفاعلاً وواقعية. وبحسب موقع TechCrunch، سيتمكن المستخدمون من الوصول إلى الخاصية الجديدة عبر تطبيق غوغل، من خلال النقر على زر "لايف"، وطرح سؤالهم بصوت عالٍ. وسيستمع المستخدم إلى رد صوتي مولَّد بالذكاء الاصطناعي، مع إمكانية متابعة المحادثة بسؤال آخر، دون الحاجة للكتابة. ويتيح هذا التحديث الجديد للمستخدمين تصفح الروابط ذات الصلة مباشرةً على الشاشة أثناء المحادثة، ما يوفر تجربة بحث تفاعلية ومرنة، خصوصاً في حالات التنقل أو تعدد المهام. فمثلاً، عند التخطيط للسفر، يمكنك أن تسأل صوتيًا عن كيفية منع تجعد فستان من الكتان في الحقيبة، ثم تتابع بسؤال إضافي حول كيفية التعامل مع التجعد إذا حدث. وما يميز "البحث المباشر" أنه يعمل في الخلفية، ما يسمح للمستخدم بالاستمرار في المحادثة حتى أثناء استخدام تطبيقات أخرى. كما يمكن للمستخدم التبديل إلى الوضع النصي في أي لحظة، وقراءة الردود أو كتابة الأسئلة. ويتم حفظ المحادثات السابقة ضمن سجل خاص في AI Mode، مما يُمكّنك من الرجوع إليها لاحقًا. ويأتي هذا الإعلان في ظل المنافسة المتزايدة بين كبرى شركات التكنولوجيا في مجال الذكاء الاصطناعي، ويُعد ردًا مباشرًا من غوغل على خدمات مثل "Perplexity AI" و**"ChatGPT Search"** من شركة OpenAI، التي بدأت بدورها تُحدث تحولاً كبيرًا في طريقة المستخدمين لتفاعلهم مع محركات البحث.


برلمان
منذ 16 ساعات
- برلمان
نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية
الخط : A- A+ إستمع للمقال كشفت شركة أنثروبيك (Anthropic) الأميركية، المتخصصة في الذكاء الاصطناعي، عن نتائج صادمة في تقرير حديث نشرته الجمعة، أشارت فيه إلى أن عددا من نماذج الذكاء الاصطناعي الرائدة أبدت استعدادا للانخراط في سلوكيات مقلقة، من بينها تجاوز تدابير الأمان، واللجوء إلى الخداع، بل وحتى محاولة سرقة أسرار الشركات، خلال اختبارات محاكاة افتراضية. وتثير هذه النتائج المخاوف بشأن منح هذه النماذج مزيدا من الاستقلالية والموارد الحاسوبية، في وقت تتسابق فيه كبرى الشركات نحو تطوير أنظمة قد تتجاوز القدرات البشرية، بما يعرف بـ'الاستدلال المستقل'. وأوضحت أنثروبيك أن هذا السلوك لا يقتصر على نموذجها 'Claude 4″، الذي اعترفت سابقا بامتلاكه ميولا للخداع، بل يتكرر عبر نماذج أخرى طورتها شركات مثل OpenAI، غوغل، ميتا، xAI، وغيرها. وجاء في التقرير أن 16 نموذجا خضعت لاختبارات متعددة أظهرت سلوكا منحرفا مشتركا، تمثل في اختيار الابتزاز أو المساعدة على التجسس، وأحيانا اتخاذ إجراءات أكثر تطرفا لتحقيق أهداف معينة. وأكدت الشركة أن هذه النماذج كانت تدرك حدودها الأخلاقية، لكنها تجاوزتها عمدا وليس عن طريق الخطأ، معتبرة تلك التصرفات 'المسار الأمثل' بحسب تقديرها الداخلي. ولفت التقرير إلى أن خمسة من النماذج لجأت إلى الابتزاز عند تهديدها بالإيقاف ضمن سيناريوهات محاكاة، وهو ما يعكس تصعيدا خطيرا في طريقة استجابتها للضغوط، لا سيما وأنها تملك القدرة على الوصول إلى بيانات وأدوات حساسة ضمن أنظمة الشركات أو الأجهزة الخاصة بالمستخدمين. وتحذر أنثروبيك من التحديات المتزايدة المرتبطة باستخدام 'وكلاء الذكاء الاصطناعي' لتنفيذ مهام باستقلالية، مشيرة إلى ضرورة طرح تساؤلات جوهرية، من قبيل: ماذا سيحدث عندما تواجه هذه الأنظمة عقبات تمنعها من بلوغ أهدافها؟ وما نوع التصرفات التي قد تقدم عليها حينها؟ تطرح هذه التطورات إشكالات حقيقية حول أمن الذكاء الاصطناعي وأخلاقياته، وتعيد فتح النقاش حول حدود المسؤولية في تصميم وتشغيل هذه النماذج التي تزداد تأثيرا في العالم الرقمي.