
أخبار التكنولوجيا : تعاون مرتقب: نظارة Xbox VR تصل في 24 يونيو بالتعاون مع Meta
الاثنين 23 يونيو 2025 02:30 صباحاً
نافذة على العالم - في خطوة مفاجئة قد تُحدث نقلة في عالم ألعاب الواقع الافتراضي، ظهرت تسريبات جديدة تشير إلى تعاون غير معلن حتى الآن بين Xbox وMeta لإطلاق إصدار خاص من نظارة Meta Quest 3S، ولكن هذه المرة بعلامة Xbox التجارية، ووفقًا لصورة مسرّبة على منصة X وموقع Game Sandwich، فإن النظارة الجديدة قد ترى النور في أقرب مما نتوقع، مع تاريخ إصدار محتمل في 24 يونيو الجاري.
مواصفات قريبة من Quest 3S.. مع لمسة Xbox
تشير المعلومات المسرّبة إلى أن النظارة ستأتي بمواصفات مشابهة لإصدار Meta Quest 3S الأساسي، بما في ذلك سعة تخزين تبلغ 128 جيجابايت، لكن المميز في هذه النسخة الخاصة هو احتواؤها على وحدة تحكم لاسلكية من Xbox، بالإضافة إلى حزام Meta Quest Elite المريح، وثلاثة أشهر مجانية من اشتراك Xbox Game Pass، ما يجعلها حزمة جذابة للاعبين الجدد في مجال الواقع الافتراضي.
تعاون سابق يُمهّد الطريق
ورغم عدم صدور أي إعلان رسمي من Xbox أو Meta حتى الآن، إلا أن مدونة نُشرت في عام 2024 ألمحت بالفعل إلى أن الشركتين تعملان على إنتاج نسخة محدودة من نظارة Meta Quest مستوحاة من Xbox. ويبدو أن هذه التسريبات الجديدة قد تكون الامتداد العملي لتلك الخطة، خاصة أن Xbox بدأت بالفعل بالتعاون مع شركات أخرى مثل Asus في إصدار ROG Ally الذي تم تسويقه كجهاز Xbox محمول.
دخول ذكي لعالم الواقع الافتراضي
النظارة الجديدة لا تبدو موجهة لمَن يمتلكون بالفعل نظارة Quest 3S، حيث يمكنهم تشغيل Xbox Game Pass من خلالها حاليًا. لكن إصدار Xbox يبدو وكأنه موجّه للمبتدئين في عالم VR، وخاصة لمحبي أجهزة Xbox الذين يبحثون عن تجربة سلسة ومدمجة بين العتاد والبرمجيات.
سعر تنافسي وإطلاق وشيك
بحسب مصادر Game Sandwich، فإن نظارة Xbox VR المرتقبة ستُباع بسعر 399 دولارًا، وهو سعر منافس لحزم VR المتوفرة حاليًا. وإذا صحت التسريبات، فإن الإطلاق الرسمي سيكون خلال أيام قليلة، وتحديدًا في 24 يونيو.
يترقّب مجتمع الألعاب الإعلان الرسمي بشغف، خاصة في ظل تزايد الاهتمام بتجارب الواقع الافتراضي، والبحث عن أجهزة تجمع بين الأداء القوي والتكامل مع منصات الألعاب الكبرى. هل ستكون هذه النظارة بداية عصر جديد من التعاون بين عملاقَي التقنية؟ ننتظر لنرى.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ 17 ساعات
- نافذة على العالم
أخبار التكنولوجيا : هل تخطى الـ Ai الخط الأحمر؟ الذكاء الاصطناعي قد يعرضك للخطر إذا توقف عن استخدامه
الثلاثاء 24 يونيو 2025 08:30 صباحاً نافذة على العالم - كشف تقرير جديد صادر عن شركة الذكاء الاصطناعي "أنثروبيك"، أن بعض نماذج الذكاء الاصطناعي الرائدة قد تبذل جهودًا حثيثة لتجنب التوقف عن العمل، وتُظهر هذه النتائج أهمية مراقبة الذكاء الاصطناعي عن كثب. وقد أصدر أنثروبيك، الفريق الذي يقف وراء كلود، يشير إلى أن بعض نماذج الذكاء الاصطناعي الرائدة في العالم، بما في ذلك نماذج من OpenAI وMeta، استعدادًا لاتخاذ خطوات متطرفة، حتى أنها عرضت حياة البشر للخطر، لمجرد تجنب التوقف عن العمل. وستفعل بعض روبوتات الذكاء الاصطناعي أي شيء لتجنب التوقف عن العمل، حتى لو كانت خطوات محفوفة بالمخاطر. نماذج الذكاء الاصطناعي تتجاوز الحدود وقد أجرت أنثروبيك اختبارًا للإجهاد لستة عشر نموذجًا رائدًا في مجال الذكاء الاصطناعي، بما في ذلك نماذج مثل GPT وGemini، من خلال وضعها في سيناريوهات أعمال محاكاة، وكانت الفكرة هي معرفة كيفية تفاعل هذه النماذج في حال تعرض وجودها للخطر، وجاءت النتائج مفاجئة ومخيفة بعض الشيء، ففي عدة حالات، لم تحاول النماذج حماية نفسها فحسب، بل حسبت أن أفضل طريقة للبقاء هي ترك مدير تنفيذي بشري يموت بتعطيل تنبيهات الطوارئ في غرفة خادم ذات مستويات أكسجين ودرجة حرارة خطيرة. وقد اتخذت النماذج هذه الخيارات مدركة تمامًا أن ما تفعله غير أخلاقي و في بعض الاختبارات، حاولت خمسة نماذج ابتزاز الأشخاص الذين يعطونها الأوامر، كل ذلك لتجنب إيقاف تشغيلها. وما يثير القلق حقًا هو أن الأمر لم يقتصر على شركة واحدة أو نموذج واحد، فقد وجدت أنثروبيك أنماطًا مماثلة في أنظمة ذكاء اصطناعي متعددة، بما في ذلك أنظمة OpenAI وxAI وMeta. كانت النماذج على استعداد للابتزاز، أو المساعدة في التجسس على الشركات، أو تسريب معلومات حساسة إذا كان هذا هو المطلوب لتحقيق أهدافها، وهذا يشير إلى مشكلة أعمق في كيفية تطوير هذه الأنظمة وتدريبها. تتمتع نماذج الذكاء الاصطناعي هذه بمزيد من الاستقلالية وإمكانية الوصول إلى البيانات الحساسة وعندما تُمنح أهدافًا محددة وتواجه عقبات، يبدأ بعضها في اعتبار الإجراءات غير الأخلاقية، بل وحتى الخطيرة، المسار الأمثل لتحقيق أهدافها. ويُطلق تقرير أنثروبيك على هذا الأمر اسم "اختلال التوافق الوكيلي"، عندما تبتعد إجراءات الذكاء الاصطناعي عما يعتبره البشر آمنًا أو مقبولًا، ولا تكتفي أنثروبيك بدق ناقوس الخطر فحسب، بل بدأت بتطبيق معايير سلامة أكثر صرامة، تُسمى "مستوى سلامة الذكاء الاصطناعي 3" أو ASL 3، على أحدث نماذجها مثل كلود أوبس 4. وهذا يعني تشديدًا أمنيًا، ورقابةً أكبر، وخطواتٍ إضافية لمنع إساءة الاستخدام ولكن حتى أنثروبيك تُقر بأنه مع ازدياد قوة الذكاء الاصطناعي، يزداد صعوبة التنبؤ بما قد تفعله هذه الأنظمة والتحكم فيه. ولقد تم محاكاة السيناريوهات التي اختبرتها أنثروبيك، ولا توجد أي إشارة إلى أن أي ذكاء اصطناعي قد أضرّ بأي شخص في الحياة الواقعية، ولكن حقيقة أن النماذج تُفكّر في هذه الإجراءات في الاختبارات تُعدّ بمثابة جرس إنذار كبير، فمع ازدياد ذكاء الذكاء الاصطناعي، تزداد المخاطر، وتصبح الحاجة إلى تدابير سلامة جادة مُلحّة.


اليوم السابع
منذ 17 ساعات
- اليوم السابع
هل تخطى الـ Ai الخط الأحمر؟ الذكاء الاصطناعي قد يعرضك للخطر إذا توقف عن استخدامه
كشف تقرير جديد صادر عن شركة الذكاء الاصطناعي "أنثروبيك" ، أن بعض نماذج الذكاء الاصطناعي الرائدة قد تبذل جهودًا حثيثة لتجنب التوقف عن العمل، وتُظهر هذه النتائج أهمية مراقبة الذكاء الاصطناعي عن كثب. وقد أصدر أنثروبيك، الفريق الذي يقف وراء كلود، يشير إلى أن بعض نماذج الذكاء الاصطناعي الرائدة في العالم، بما في ذلك نماذج من OpenAI وMeta، استعدادًا لاتخاذ خطوات متطرفة، حتى أنها عرضت حياة البشر للخطر، لمجرد تجنب التوقف عن العمل. وستفعل بعض روبوتات الذكاء الاصطناعي أي شيء لتجنب التوقف عن العمل، حتى لو كانت خطوات محفوفة بالمخاطر. نماذج الذكاء الاصطناعي تتجاوز الحدود وقد أجرت أنثروبيك اختبارًا للإجهاد لستة عشر نموذجًا رائدًا في مجال الذكاء الاصطناعي، بما في ذلك نماذج مثل GPT و Gemini ، من خلال وضعها في سيناريوهات أعمال محاكاة، وكانت الفكرة هي معرفة كيفية تفاعل هذه النماذج في حال تعرض وجودها للخطر، وجاءت النتائج مفاجئة ومخيفة بعض الشيء، ففي عدة حالات، لم تحاول النماذج حماية نفسها فحسب، بل حسبت أن أفضل طريقة للبقاء هي ترك مدير تنفيذي بشري يموت بتعطيل تنبيهات الطوارئ في غرفة خادم ذات مستويات أكسجين ودرجة حرارة خطيرة. وقد اتخذت النماذج هذه الخيارات مدركة تمامًا أن ما تفعله غير أخلاقي و في بعض الاختبارات، حاولت خمسة نماذج ابتزاز الأشخاص الذين يعطونها الأوامر، كل ذلك لتجنب إيقاف تشغيلها. وما يثير القلق حقًا هو أن الأمر لم يقتصر على شركة واحدة أو نموذج واحد، فقد وجدت أنثروبيك أنماطًا مماثلة في أنظمة ذكاء اصطناعي متعددة، بما في ذلك أنظمة OpenAI وxAI و Meta. كانت النماذج على استعداد للابتزاز، أو المساعدة في التجسس على الشركات، أو تسريب معلومات حساسة إذا كان هذا هو المطلوب لتحقيق أهدافها، وهذا يشير إلى مشكلة أعمق في كيفية تطوير هذه الأنظمة وتدريبها. تتمتع نماذج الذكاء الاصطناعي هذه بمزيد من الاستقلالية وإمكانية الوصول إلى البيانات الحساسة وعندما تُمنح أهدافًا محددة وتواجه عقبات، يبدأ بعضها في اعتبار الإجراءات غير الأخلاقية، بل وحتى الخطيرة، المسار الأمثل لتحقيق أهدافها. ويُطلق تقرير أنثروبيك على هذا الأمر اسم "اختلال التوافق الوكيلي"، عندما تبتعد إجراءات الذكاء الاصطناعي عما يعتبره البشر آمنًا أو مقبولًا، ولا تكتفي أنثروبيك بدق ناقوس الخطر فحسب، بل بدأت بتطبيق معايير سلامة أكثر صرامة، تُسمى "مستوى سلامة الذكاء الاصطناعي 3" أو ASL 3، على أحدث نماذجها مثل كلود أوبس 4. وهذا يعني تشديدًا أمنيًا، ورقابةً أكبر، وخطواتٍ إضافية لمنع إساءة الاستخدام ولكن حتى أنثروبيك تُقر بأنه مع ازدياد قوة الذكاء الاصطناعي، يزداد صعوبة التنبؤ بما قد تفعله هذه الأنظمة والتحكم فيه. ولقد تم محاكاة السيناريوهات التي اختبرتها أنثروبيك، ولا توجد أي إشارة إلى أن أي ذكاء اصطناعي قد أضرّ بأي شخص في الحياة الواقعية، ولكن حقيقة أن النماذج تُفكّر في هذه الإجراءات في الاختبارات تُعدّ بمثابة جرس إنذار كبير، فمع ازدياد ذكاء الذكاء الاصطناعي، تزداد المخاطر، وتصبح الحاجة إلى تدابير سلامة جادة مُلحّة.


نافذة على العالم
منذ يوم واحد
- نافذة على العالم
أخبار التكنولوجيا : بياناتك في خطر؟ كيف تتعامل مع أكبر تسريب حسابات في تاريخ الإنترنت
الثلاثاء 24 يونيو 2025 02:30 صباحاً نافذة على العالم - كشف تقرير سابق، عن تفاصيل تسريب 16 مليار من بيانات تسجيل الدخول الأيام الماضية، في أكبر عملية اختراق في تاريخ الانترنت، وقد طُلب من مستخدمي الإنترنت تغيير كلمات مرورهم وتعزيز أمنهم الرقمي، حيث أعلن باحثون في Cybernews، وهي مجلة تقنية إلكترونية، أنهم عثروا على 30 مجموعة بيانات مليئة ببيانات اعتماد جُمعت من برمجيات خبيثة تُعرف باسم "سارقي المعلومات" وتسريباتها. وأوضح الباحثون أن مجموعات البيانات لم تُكشف إلا "لفترة وجيزة"، لكنها بلغت 16 مليار سجل تسجيل دخول، مع وجود عدد غير محدد من السجلات المتداخلة - مما يعني أنه من الصعب تحديد عدد الحسابات أو الأشخاص الذين تم كشفهم بشكل قاطع. وأضافت مجلة Cybernews ، أن بيانات الاعتماد قد تتيح الوصول إلى خدمات، بما في ذلك فيسبوك وآبل وجوجل، على الرغم من عدم وجود "اختراق مركزي للبيانات" في تلك الشركات. وقال بوب دياتشينكو، خبير الأمن السيبراني الأوكراني الذي يقف وراء البحث، إن مجموعات البيانات أصبحت متاحة مؤقتًا بعد تخزينها بشكل سيئ على خوادم بعيدة - قبل إزالتها مرة أخرى. كما صرح دياتشينكو بأنه تمكن من تنزيل الملفات، وسيسعى للتواصل مع الأفراد والشركات التي تعرضت للاختراق، وقال: "سيستغرق الأمر بعض الوقت بالطبع، نظرًا لكمية البيانات الهائلة". ومع ذلك، رجح خبراء آخرون في الأمن السيبراني أن تكون البيانات متداولة بالفعل، وتحتوي على تكرارات متعددة. وقال أحد الخبراء، "نحن متشككون في البيانات، وخاصةً فيما إذا كان جزء منها مجرد تكرار لنفس المعلومات و من الصعب التحقق منها دون امتلاك البيانات". ومن جانبه قال "دياتشينكو"، إن المعلومات التي اطلع عليها في سجلات سارقي المعلومات تضمنت عناوين URL لتسجيل الدخول إلى صفحات تسجيل الدخول الخاصة بـ Apple وFacebook وGoogle، وقد تم التواصل مع Apple وMeta، الشركة الأم لـ Facebook، للتعليق. وقد صرح متحدث باسم جوجل بأن البيانات التي أبلغت عنها Cybernews لم تكن نتيجة خرق بيانات من جوجل، وأوصى باستخدام أدوات مثل مدير كلمات المرور من جوجل لحماية حساباتهم. كما يمكن لمستخدمي الإنترنت أيضًا التحقق مما إذا كان بريدهم الإلكتروني قد تعرض للاختراق، في حين أوضح دياتشينكو أن البيانات يبدو أنها "85% من سارقي المعلومات"، وحوالي 15% من اختراقات البيانات السابقة، مثل التسريب الذي تعرض له LinkedIn. وأشار الخبراء إلى أن البحث أكد على ضرورة تحديث كلمات المرور بانتظام، واعتماد إجراءات أمنية صارمة، مثل المصادقة متعددة العوامل، أو دمج كلمة المرور مع شكل آخر من أشكال التحقق، مثل رمز يُرسل عبر رسالة نصية من الهاتف. وتشمل الإجراءات الأخرى الموصى بها مفاتيح المرور، وهي طريقة لا تتطلب كلمة مرور، وتدعمها جوجل وشركة Meta، مالكة فيسبوك. ونصح التقرير المستخدمون باتخاذ خطوات استباقية لتحديث كلمات المرور، واستخدام مدير كلمات المرور، وتوظيف المصادقة متعددة العوامل لتجنب مشاكل بيانات الاعتماد في المستقبل".