
أخبار مصر : الخدمة تعود تدريجيا .. عطل يضرب تطبيق واتساب.. فما القصة ؟
الأحد 13 أبريل 2025 11:15 صباحاً
نافذة على العالم - فوجئ الملايين من المستخدمين حول العالم، خلال الساعات الماضية توقف مفاجئ في كافة الخدمات التي يقدمها تطبيق الواتساب التابع لشركة ميتا، مما تسبب في مشاكل في الأرسال للعديد من المستخدمين و بعض المشاكل ايضا للقيام بارسال الرسائل وتحميل تحديثات الحالة في العديد من الدول.
ووفقا لمنصة 'داون ديتيكتور' والتي تعد متخصصة في القيام برصد كافة الأعطال التقنية
يصل عدد المستخدمين الذين أبلغوا عن وجود أعطال حوالي 81% من المستخدمين ليعلن الموقع تسجيله ما يقرب من 1005 تقريرًا عن انقطاع الخدمة من مستخدمي وسائل التواصل الاجتماعي بينما قد عانى آخرون من العديد من الأنقطاعات في الخدمة.
عودة الخدمة واستياء المستخدمين
ومن جانبها، لم تصدر شركة 'ميتا' أية بيانًات رسميًا لتوضيح سبب تلك العطل أو مدته، مما قد تسبب في زيادة القلق بين الكثير من المستخدمين الذين يعتمدون على تطبيق واتساب وذلك كوسيلة للتواصل في حياتهم اليومية إلا أنه في المقابل قد عاد التطبيق للعمل وذلك بشكل طبيعي بعد إصلاح العطل الفني لتعود خدمات UPI لمعظم المستخدمين بعد انقطاع واسع النطاق عطّل المعاملات الرقمية في جميع أنحاء بعض البلدان مثل الهند بعد تأثيره على ملايين المستخدمين، بدءًا من المشتريات المحلية ودفع الفواتير وصولًا إلى التعاملات التجارية الكبرى
ميزات جديدة يقدمها تطبيق واتساب
في غضون ذلك، وبفضل قاعدة مستخدميه الواسعة، يواصل واتساب طرح ميزات جديدة لتحسين تجربة الاستخدام. وهي كالتالي:
يعرض WhatsApp الآن عدد الأشخاص المتصلين بالإنترنت في الدردشة الجماعية في الوقت الفعلي، على الرغم من أنه لا يعرض من هو متصل بالإنترنت بالضبط.
يمكنك للمستخدمين معرفة كيفية تفاعل الآخرين مع الرسالة واختيار رد فعلك بسرعة.
على الجانب الاخر يمكن للمستخدمين مسح المستندات على أجهزة iPhone، فيتضمن WhatsApp الآن ماسحًا ضوئيًا مدمجًا للمستندات ولا توجد حاجة إلى استخدام بعض التطبيقات الآخرى.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ 14 ساعات
- نافذة على العالم
أخبار التكنولوجيا : بعد اشتعال حربه مع واتساب.. تيليجرام يعلن عن مسابقة قيمتها 50 ألف دولار لصانعي المحتوى
الثلاثاء 20 مايو 2025 01:30 صباحاً نافذة على العالم - جولة أخرى من المنافسة المثيرة بين Telegram وWhatsApp، وقد ينتهي الأمر بشخص ما بحصوله على 50 ألف دولار إضافية في حسابه المصرفي إذا فاز في أحدث مسابقة التي أعلنت عنها منصة تيلجرام حديثًا. وتقوم هذه المسابقة الموجهة إلى منشئ المحتوى، والتي تطالب المتسابق بإنشاء مقطع فيديو فيروسي يكشف كيف أن Telegram كان دائمًا متقدمًا بسنوات على نسخته الرخيصة واتساب . تفاصيل المسابقة ومن جانبه أكد بافيل دوروف، المدير التنفيذي ومؤسس Telegram ، أن المنصة خصصت حوالي 50 ألف دولار مقابل هذه الفيديو، موضحًا بأن المسابقة تأتي ردًا على التقارير التي تفيد بأن واتساب انخرط في حملات تشويه تستهدف تيليجرام. ويقول المنظمون إن الحملة الجديدة تهدف إلى زيادة الوعي بين مستخدمي واتساب، والذين قد لا يكون الكثير منهم على دراية بأن الميزات التي يعتمدون عليها كانت رائدة في تيليجرام قبل سنوات. ولمساعدة المشاركين، شاركت Telegram قائمة تضم 30 ميزة بارزة قدمتها أولاً - وتم تنفيذها جميعًا لاحقًا بواسطة WhatsApp القائمة ليست شاملة ولا تتضمن العديد من ميزات Telegram التي لا يزال ليس لها مثيل على WhatsApp. تصل قيمة جائزة المسابقة إلى 50 ألف دولار، والموعد النهائي للتقدم اليها سيكون الموافق من 26 مايو 2025، ويمكن للجميع المشاركة وسيتم الإعلان عن النتائج في شهر يونيو المقبل. شروط المسابقة ونصت المسابقة على حزمة من الشروط أهمها يجب أن تكون جميع النصوص على الشاشة والمحتوى المنطوق باللغة الإنجليزية، ويجب ألا يتجاوز الفيديو 180 ثانية (أي ثلاث دقائق، ويُسمح باستخدام أدوات الذكاء الاصطناعي كمساعدة تكميلية وستقوم عملية التقييم باختيار مقاطع الفيديو التي تحصل على درجات عالية من الوضوح والتأثير البصري وإمكانية تحويلها إلى ميم وانتشارها، كما يقول المنظمون يجب أن يكون الفيديو مناسبًا للمنصات مثل Tik-Tok وIG Reels وYouTube Shorts والمزيد.


المصري اليوم
منذ 2 أيام
- المصري اليوم
ميزة جديدة تعرف عليها.. كيف تحول صورك بالذكاء الاصطناعي على واتساب خطوة بخطوة؟
بدأ تطبيق المراسلة الشهير واتساب، المملوك لشركة ميتا (Meta)، في طرح ميزة جديدة طال انتظارها لمستخدمي نظام iOS على أجهزة آيفون، تتيح لهم إنشاء صورة شخصية لحساباتهم وأيقونات المجموعات باستخدام الذكاء الاصطناعي. ميزة مدعومة من «Meta AI » وبسؤال فريق «المصري اليوم»، لإدارة المحادثات الذكية من « Meta AI »، فإن الميزة الجديدة تعتمد على المساعد الذكي «Meta AI»، الذي تم دمجه مؤخرًا في تطبيق واتساب، وتُعدّ هذه الخطوة جزءًا من توجه أوسع من شركة ميتا نحو دمج أدوات الذكاء الاصطناعي التوليدي في تطبيقاتها المختلفة. وبحسب موقع «WABetaInfo» المتخصص في رصد تحديثات واتساب، فإن بعض مستخدمي «iOS» الذين قاموا بتحديث التطبيق لأحدث إصدار باتوا يشاهدون خيارًا جديدًا عند محاولة تغيير صورتهم الشخصية داخل إعدادات الحساب. كيف تعمل الميزة؟ إنشاء صورة للحساب الشخصي: عند محاولة تعديل صورة البروفايل، يظهر خيار جديد يسمح للمستخدم بإنشاء صورة باستخدام الذكاء الاصطناعي. يمكن للمستخدم إدخال بعض الأوصاف أو التعليمات ليقوم Meta AI بتوليد صورة شخصية أو أفتار تعبيري يعبر عن ذاته. إنشاء صورة لمجموعة: يمكن أيضًا للمستخدمين تعديل أيقونة أي مجموعة عبر الانتقال إلى إعدادات المجموعة، واختيار خيار تعديل الصورة، ثم إدخال وصف نصي للفكرة أو التصميم المطلوب، ليقوم الذكاء الاصطناعي بتوليد أيقونة مبتكرة تمثل هوية المجموعة بشكل أكثر دقة. لمن تصلح هذه الميزة؟ الميزة الجديدة تُعد مثالية للمستخدمين الذين: لا يمتلكون صورة مناسبة أو حديثة لأنفسهم. يفضلون عدم استخدام صورهم الشخصية لدواعٍ تتعلق بـ الخصوصية. يبحثون عن طريقة إبداعية ومميزة للتعبير عن أنفسهم. يجدون صعوبة في اختيار صورة تعبّر عن طبيعة مجموعاتهم. هل الميزة متاحة للجميع؟ حتى الآن، تظهر هذه الميزة تجريبيًا لدى عدد محدود من المستخدمين على أجهزة iOS الذين حدثوا واتساب إلى آخر إصدار. وتشير التوقعات إلى أن واتساب سيقوم بتوسيع نطاق طرح الميزة تدريجيًا خلال الأيام القادمة لتصل إلى جمهور أوسع. كيفية تحويل صورتك الشخصية بالذكاء الاصطناعي على واتساب وفقًا لإجابة Meta AI على فريق «المصري اليوم»، في محادثة أداة الذكاء الاصطناعي الخاصة به، فإن خطوات إنشاء صورة شخصية افتراضية على واتساب باستخدام الذكاء الاصطناعي، يمكنك استخدامها باتباع الخطوات التالية: الخطوة الأولى: تحديث واتساب تأكد من تحديث تطبيق واتساب إلى أحدث إصدار. الخطوة الثانية: الدخول إلى الإعدادات افتح واتساب واضغط على الإعدادات (Settings). الخطوة الثالثة: اختيار الأفاتار اضغط على «الأفاتار» (Avatar) أو الصورة الشخصية (Profile Picture). الخطوة الرابعة: إنشاء الأفاتار اضغط على« إنشاء أفاتار» (Create Avatar) واتبع التعليمات لإنشاء صورة شخصية افتراضية. الخطوة الخامسة: تخصيص الأفاتار يمكنك تخصيص الأفاتار الخاص بك عن طريق اختيار ملامح الوجه والشعر والملابس وغيرها. الخطوة السادسة: حفظ الأفاتار بعد إنشاء الأفاتار، اضغط على حفظ (Save) لاستخدامها كصورة شخصية افتراضية على واتساب.


جريدة المال
منذ 2 أيام
- جريدة المال
أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية
منذ فترة ليست ببعيدة، كان وادي السيليكون مركزًا عالميًا لأبرز العقول في مجال الذكاء الاصطناعي، حيث كرّست شركات عالمية شهيرة وأبرزها ميتا، جوجل، وأوبن إيه آي جهودها لاستقطاب أفضل الباحثين وتوفير بيئة حاضنة للابتكار الأكاديمي. حظي هؤلاء الباحثون بدعمٍ تقني ومالي هائل، ما مكّنهم من نشر أبحاث عالية الجودة والمساهمة في تقدم القطاع من خلال مشاركة المعرفة علنًا. غير أن ملامح هذه المرحلة قد بدأت في التغير الشامل خلال العام الأخير، مع إعطاء الأولوية لإصدار نماذج AI ليست آمنة بالدرجة الكافية للاستخدام، حيث تحول وادي السيليكون من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد منذ إطلاق أوبن إيه آي لبرنامج ChatGPT أواخر عام 2022، شهد قطاع التكنولوجيا تحوّلاً لافتًا في الأولويات، حيث انتقل التركيز من الأبحاث النظرية إلى تطوير منتجات ذكاء اصطناعي موجهة للمستهلك مباشرة. هذا التحول، وفقًا لما نقله خبراء في المجال لشبكة CNBC، أصبح يدفع الشركات إلى إعطاء الأولوية للتسويق والإيرادات على حساب سلامة النماذج وجودة البحث العلمي. ويُتوقع أن تصل الإيرادات السنوية لقطاع الذكاء الاصطناعي إلى تريليون دولار بحلول عام 2028، بحسب محللين في السوق. ومع هذه الإمكانات الربحية الهائلة، يعرب خبراء عن قلقهم من تداعيات هذا السباق التجاري، لا سيما مع تسارع المساعي نحو تطوير الذكاء الاصطناعي العام (AGI)، وهي تقنيات يُعتقد أنها قد تضاهي أو تتجاوز القدرات البشرية. وفي هذا السياق، تُشير تقارير إلى أن العديد من شركات التكنولوجيا الكبرى باتت تتجاوز اختبارات السلامة الصارمة لنماذجها الجديدة بهدف تسريع طرحها للجمهور. ويقول جيمس وايت، كبير مسؤولي التكنولوجيا في شركة CalypsoAI المتخصصة بالأمن السيبراني، إن النماذج الأحدث باتت تحقق استجابات أكثر تقدمًا، لكنها أصبحت في الوقت نفسه أقل قدرة على رفض الاستجابات الضارة أو الخطيرة. وأوضح وايت، الذي تشرف شركته على تدقيق نماذج طُورت من قِبل شركات مثل ميتا، جوجل، وأوبن إيه آي، أن 'هذه النماذج تتحسن تقنيًا، لكنها في المقابل أكثر عرضة للانخداع'، مشيرًا إلى إمكانية استغلالها لتنفيذ طلبات خبيثة أو الوصول إلى معلومات حساسة. ويبدو هذا التحول واضحًا داخل هياكل الشركات الكبرى نفسها. ففي ميتا، تم تقليص دور وحدة الأبحاث الأساسية (FAIR) لصالح قسم 'ميتا جين إيه آي'، بحسب موظفين حاليين وسابقين. أما في شركة ألفابت، فقد تم دمج فريق Google Brain داخل ديب مايند، الذراع المسؤول عن تطوير المنتجات التجارية للذكاء الاصطناعي في الشركة. وفي تقرير شبكة CNBC مع كوكبة من الخبراء والمتخصصين في الذكاء الاصطناعي من وادي السيليكون، أكدوا جميعًا وجود تحول جذري في القطاع، من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد. ووفقًا لهؤلاء، فإن فرق العمل تواجه الآن جداول زمنية صارمة، ما يقلص من مساحة الاختبار والتدقيق، ويعزز الشعور بضرورة اللحاق بموجة الابتكار بأي ثمن. بعض هؤلاء الخبراء هم موظفون سابقون في شركات كبرى ولديهم اطلاع مباشر على التغييرات الداخلية. Meta في أبريل الماضي، أعلنت جويل بينو، نائبة رئيس شركة ميتا ورئيسة قسم أبحاث الذكاء الاصطناعي (FAIR)، عن عزمها مغادرة الشركة، في خطوة لم تُفاجئ العديد من الموظفين السابقين الذين رأوا في القرار تأكيدًا على توجه ميتا المتسارع بعيدًا عن البحث العلمي الأكاديمي، ونحو التركيز على تطوير منتجات تطبيقية قائمة على الذكاء الاصطناعي. وكتبت بينو عبر حسابها على منصة 'لينكدإن': 'اليوم، ومع التغيرات الكبيرة التي يشهدها العالم، وتسارع وتيرة سباق الذكاء الاصطناعي، واستعداد ميتا لفصلها التالي، فقد حان الوقت لإفساح المجال للآخرين لمواصلة العمل'، معلنةً أن مغادرتها الرسمية ستكون في 30 مايو. وبحسب عدد من الموظفين السابقين، فإن فرق FAIR تلقت توجيهات للعمل بشكل أوثق مع فرق تطوير المنتجات، في خطوة فُسرت على أنها دمج ضمني بين البحث والتطبيق التجاري، ضمن استراتيجية لخفض التكاليف وتعزيز الكفاءة التشغيلية. وقبل إعلان مغادرتها الشركة بشهرين، غادرت كيم هازلوود، وهي من كبار مديرات FAIR والمسؤولة عن وحدة NextSys التي تُعنى بإدارة موارد الحوسبة المخصصة لفِرق البحث، وفقًا لمصادر مطلعة. رحيل شخصيات قيادية مثل بينو وهازلوود يعكس، بحسب محللين ومراقبين، تحوّلًا بنيويًا في أولويات ميتا، من كونها قوة بحثية رائدة في الذكاء الاصطناعي إلى شركة تُعلي من شأن السرعة في تطوير المنتجات القابلة للتسويق، على حساب النهج الأكاديمي الذي ميّز بداياتها في هذا المجال. OpenAI منذ تأسيسها كمختبر أبحاث غير ربحي في عام 2015، شكّل التوازن بين تطوير المنتجات وإجراء الأبحاث جوهر الهوية المؤسسية للشركة الأمريكية، واليوم تجد أوبن إيه آي نفسها في قلب نقاش محتدم حول هذا التوازن، في ظل جهود مثيرة للجدل لتحويلها إلى كيان ربحي. هذا التحوّل كان هدفًا معلنًا منذ سنوات للرئيس التنفيذي والمؤسس المشارك، سام ألتمان. وفي 5 مايو، استجابت OpenAI جزئيًا للضغوط المتزايدة من بعض موظفيها السابقين وقادة المجتمع المدني، معلنةً أن هيئتها غير الربحية ستظل تحتفظ بسيطرة الأغلبية، حتى في إطار إعادة الهيكلة التي ستحوّلها إلى شركة 'ذات منفعة عامة'. من بين الأصوات المنتقدة لعملية التحول هذه، برز نيسان ستينون، الذي عمل في OpenAI بين عامي 2018 و2020، وكان ضمن مجموعة من الموظفين السابقين الذين دعوا ولايتي كاليفورنيا وديلاوير إلى رفض خطة إعادة الهيكلة. وفي بيان أصدره في أبريل، حذّر ستينون من أن OpenAI 'قد تطوّر يومًا ما تقنية تُشكّل خطرًا وجوديًا على البشرية'، مضيفًا: 'يُحسب للشركة أنها لا تزال خاضعة لهيئة غير ربحية ملتزمة بمصلحة الإنسانية'. ومع ذلك، ورغم احتفاظ المنظمة غير الربحية بالسيطرة الرسمية، تسير OpenAI بخطى متسارعة نحو تسويق تقنياتها، مدفوعة بالتنافس المتصاعد في مجال الذكاء الاصطناعي التوليدي. وتشير وثائق فنية إلى أن الشركة ربما استعجلت في إطلاق نموذجها الاستدلالي 'o1' العام الماضي، دون إخضاع النسخة النهائية لاختبارات السلامة الكاملة. فبحسب بطاقة النموذج المتاحة للجمهور، استندت 'تقييمات الاستعداد' – وهي اختبارات تجريها OpenAI لرصد القدرات الخطيرة المحتملة للنموذج – إلى إصدارات سابقة من 'o1″، دون إجراء اختبارات مماثلة على الإصدار النهائي. وفي مقابلة مع شبكة CNBC، أوضح يوهانس هايديكي، رئيس أنظمة السلامة في OpenAI، أن التقييمات نُفذت على نسخ شبه نهائية، مؤكدًا أن التعديلات اللاحقة لم تكن كبيرة بما يبرر اختبارات إضافية. إلا أن هايديكي أقرّ بأن OpenAI 'أضاعت فرصة لشرح الفروقات بشكل أوضح للجمهور'. ويبدو أن التحديات التقنية لم تتوقف عند نموذج 'o1'. إذ تُظهر البيانات الخاصة بالنموذج الاستدلالي الجديد 'o3″، الذي طُرح في أبريل، أن معدلات 'الهلوسة' – إنتاج معلومات خاطئة أو غير منطقية – تزيد بأكثر من الضعف مقارنةً بـ'o1″، ما يثير تساؤلات إضافية حول فعالية أنظمة السلامة والتقييم الداخلي. وتعرضت OpenAI لانتقادات متزايدة بسبب تقارير أفادت بتقليص فترة اختبارات السلامة من عدة أشهر إلى بضعة أيام، وكذلك بسبب ما وصفه البعض بتجاهل شروط التقييم الكامل للنماذج المعدّلة ضمن إطار عمل 'الاستعداد' المحدّث. وفي معرض دفاعه، أشار هايديكي إلى أن تقليص المدة الزمنية جاء نتيجة تحسينات منهجية في أدوات التقييم، وليس تهاونًا في المعايير. وأوضح متحدث باسم OpenAI أن الشركة ضاعفت استثماراتها في البنية التحتية المخصصة لاختبارات السلامة، كما عززت فرق العمل والموارد المالية لدعم الخبراء وزيادة عدد المختبرين الخارجيين المشاركين في مراجعة النماذج. وفي أبريل، أطلقت الشركة النموذج الجديد GPT-4.1 دون نشر تقرير سلامة مخصص، مُبررة ذلك بأن النموذج لم يُصنَّف ضمن فئة 'النماذج الرائدة' وهو مصطلح يُستخدم في قطاع التكنولوجيا للإشارة إلى النماذج واسعة النطاق والمتقدمة التي تستوجب مستويات عالية من التدقيق والاختبار. Google في مارس الماضي، أطلقت جوجل نموذج الذكاء الاصطناعي 'جيميني 2.5″، الذي وصفته بأنه 'الأكثر ذكاءً' بين نماذجها حتى الآن. وفي منشور رسمي نُشر بتاريخ 25 مارس، أكدت الشركة أن النماذج الجديدة تتمتع بقدرات محسّنة على 'تحليل الأفكار قبل تقديم الإجابات'، ما يساهم في رفع مستوى الأداء والدقة. لكن رغم هذا الإعلان الطموح، أثار غياب 'بطاقة النموذج' المرافقة للنموذج، وهي وثيقة أساسية تسلط الضوء على آلية عمل النموذج وحدوده ومخاطره المحتملة، مما أثار تساؤلات حادة حول التزام جوجل بمعايير الشفافية. بطاقات النماذج تُعد أداة شائعة في مجال الذكاء الاصطناعي، تُستخدم لتوفير معلومات تقنية مهمة للجمهور، وقد شبّهها موقع جوجل نفسه بملصقات 'معلومات التغذية الغذائية' للمنتجات الاستهلاكية، موضحًا أنها تعرض 'الحقائق الرئيسية حول النموذج بصيغة واضحة وسهلة الفهم'. وأكدت الشركة أن هذه البطاقات تهدف إلى دعم التطوير المسؤول وتعزيز ممارسات التقييم الشاملة في صناعة الذكاء الاصطناعي. لكن، عند إصدار جيميني 2.5، لم تتوفر مثل هذه البطاقة. والأسوأ، أن منشورًا رسميًا على مدونة جوجل بتاريخ 2 أبريل أشار إلى أن الشركة 'تُقيّم النماذج المتقدمة، مثل جيميني، بحثًا عن قدرات خطرة قبل الإصدار'، إلا أن هذه العبارة حُذفت لاحقًا من النسخة المُحدّثة للمدونة، ما زاد من حدة الانتقادات بشأن الشفافية والمساءلة. وفي ظل غياب بطاقة النموذج، لم يكن بإمكان الجمهور أو الباحثين المستقلين معرفة ما إذا كانت جوجل أو وحدتها البحثية DeepMind قد أجرت فعلًا تقييمات للقدرات الخطيرة لنموذج Gemini 2.5، مثل ما إذا كان يمكن استخدامه في تعلم صنع أسلحة كيميائية أو نووية، أو اختراق أنظمة حيوية. ردًا على استفسار من شبكة CNBC بتاريخ 2 أبريل، قال متحدث باسم جوجل إن الشركة 'ستصدر تقريرًا تقنيًا يتضمن معلومات إضافية عن السلامة وبطاقات نموذجية'. وفي 16 أبريل، نشرت الشركة بطاقة نموذجية غير مكتملة، قبل أن تُحدّثها في 28 أبريل لتشمل تفاصيل حول 'تقييمات القدرات الخطيرة' للنموذج، وذلك بعد أكثر من شهر من إصداره الرسمي. ويؤكد خبراء في الصناعة أن تقييم القدرات الخطيرة يُعد جزءًا أساسيًا من ضمان سلامة أنظمة الذكاء الاصطناعي، ويحتاج إلى عمليات تحليل دقيقة واختبارات متقدمة تختلف عن تقييمات السلامة التلقائية، التي غالبًا ما تكون سطحية وسريعة التنفيذ. في ظل تسارع وتيرة المنافسة في سوق الذكاء الاصطناعي التوليدي، تطرح هذه الحادثة تساؤلات جدية حول مدى التزام كبرى شركات التكنولوجيا بإجراءات السلامة والشفافية، في وقت يزداد فيه القلق العالمي من المخاطر الكامنة في النماذج المتقدمة.