logo
#

أحدث الأخبار مع #روبوتي

الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً
الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً

الصحراء

time٠٦-٠٥-٢٠٢٥

  • أعمال
  • الصحراء

الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً

في منشورات غاضبة على منتديات الإنترنت، اشتكى العملاء، وألغى بعضهم حساباتهم على «كيرسر». في الشهر الماضي، نبه روبوت ذكاء اصطناعي، مخصص للدعم الفني لبرنامج «كيرسور» «كيرسر»، وهو أداة ناشئة لمبرمجي الكمبيوتر، العديد من العملاء إلى حدوث تغييرات في سياسة الشركة (المنتجة له). وأوضح أنه لم يعد يُسمح لهم باستخدام «كيرسر» على أكثر من جهاز كمبيوتر واحد. خطأ روبوتي يغضب الزبائن واشتكى الزبائن في منشورات غاضبة على منتديات الإنترنت، وألغى بعضهم حساباتهم على «كيرسر»، بينما ازداد غضب بعضهم الآخر عندما أدركوا ما حدث: إذ أعلن روبوت الذكاء الاصطناعي عن تغيير في السياسة لم يكن موجوداً بالأصل. كتب مايكل ترول، الرئيس التنفيذي والمؤسس المشارك للشركة، في منشور على منصة «ريدت»: «لأنه ليس لدينا مثل هذه السياسة. أنت حر بالطبع في استخدام (كيرسر) على أجهزة متعددة. للأسف، هذا رد غير صحيح جاء من روبوت دعم ذكاء اصطناعي في الخطوط الأمامية». أنظمة التفكير المنطقي-مهارات وأخطاء أكثر وبعد أكثر من عامين على إطلاق «تشات جي بي تي» ChatGPT، تستخدم شركات التكنولوجيا، وموظفو المكاتب، والمستهلكون العاديون روبوتات الذكاء الاصطناعي في مجموعة واسعة من المهام. ولكن لا تزال هناك صعوبة في ضمان دقة هذه الأنظمة في إنتاج معلومات دقيقة. أحدث التقنيات، وأكثرها قوة ما تسمى بأنظمة التفكير المنطقي من شركات مثل «أوبن إيه آي» و«غوغل» والشركة الصينية الناشئة «ديب سيك» تُنتج أخطاءً أكثر، لا أقل. ومع تحسن مهاراتها الرياضية بشكل ملحوظ، أصبح فهمها للبيانات أكثر تذبذباً. روبوتات لا تعرف أين الخطأ وليس من الواضح تماماً سبب ذلك. تعتمد روبوتات الذكاء الاصطناعي اليوم على أنظمة رياضية معقدة تتعلم مهاراتها من خلال تحليل كميات هائلة من البيانات الرقمية. إلا أن هذه الروبوتات لا تستطيع -ولن تستطيع- تحديد ما هو صحيح، وما هو خاطئ. في بعض الأحيان، تختلق هذه الروبوتات معلومات خاطئة، وهي ظاهرة يُطلق عليها بعض باحثي الذكاء الاصطناعي اسم «الهلوسة». في أحد الاختبارات وصلت معدلات الهلوسة في أنظمة الذكاء الاصطناعي الأحدث إلى 79 في المائة. احتمالات رياضية تستخدم هذه الأنظمة الاحتمالات الرياضية لتخمين أفضل استجابة، وليست مجموعة صارمة من القواعد التي وضعها المهندسون البشريون. لذا، ترتكب عدداً معيناً من الأخطاء. قال عمرو عوض الله، الرئيس التنفيذي لشركة «فيكتارا»، وهي شركة ناشئة تُطوّر أدوات الذكاء الاصطناعي للشركات، والمدير التنفيذي السابق في «غوغل»: «رغم بذلنا قصارى جهدنا، ستظل (الأنظمة) تصاب بالهلوسة. هذا لن يزول أبداً». لسنوات عديدة، أثارت هذه الظاهرة مخاوف بشأن موثوقية هذه الأنظمة. فرغم فائدتها في بعض الحالات، مثل كتابة الأوراق البحثية، وتلخيص مستندات المكتب، وإنشاء رموز برامج الكمبيوتر، فإن أخطاءها قد تُسبب مشكلات. محركات البحث الذكية- نتائج خاطئة أحياناً تُنتج روبوتات الذكاء الاصطناعي المرتبطة بمحركات البحث مثل «غوغل» و«بينغ» نتائج بحث خاطئة بشكل مُضحك. إذا سألتها عن ماراثون جيد على الساحل الغربي، فقد تقترح سباقاً في فيلادلفيا. وإذا أخبرتك بعدد الأسر في إلينوي، فقد تستشهد بمصدر لا يتضمن تلك المعلومات. مخاطر الأخطاء القضائية والطبية قد لا تُمثل هذه الهلوسة مشكلة كبيرة للكثيرين، لكنها تُمثل مشكلة خطيرة لأي شخص يستخدم هذه التقنية مع وثائق المحكمة، أو المعلومات الطبية، أو بيانات الأعمال الحساسة. قال براتيك فيرما، المؤسس المشارك والرئيس التنفيذي لشركة «أوكاهو»، وهي شركة تساعد الشركات على التغلب على مشكلة الهلوسة: «نقضي وقتاً طويلاً في محاولة معرفة أي الإجابات واقعية؟ وأيها غير واقعية؟... إن عدم التعامل مع هذه الأخطاء بشكل صحيح يلغي أساساً كل قيمة أنظمة الذكاء الاصطناعي التي من المفترض أن تؤدي المهام نيابةً عنك». لأكثر من عامين، قامت الشركات بتحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفضت وتيرة هذه الأخطاء. ولكن مع استخدام أنظمة التفكير الجديدة، تتزايد الأخطاء. هلوسة أحدث الأنظمة وتعاني أحدث أنظمة «أوبن إيه آي» من الهلوسة بمعدل أعلى من نظام الشركة السابق، وفقاً لاختبارات الشركة الخاصة. وقد وجدت الشركة «أن o3 -أقوى نظام لديها- يعاني من الهلوسة بنسبة 33 في المائة من الوقت عند تشغيل اختبار PersonQA القياسي الخاص بها، والذي يتضمن الإجابة عن أسئلة حول الشخصيات العامة. وهذا أكثر من ضعف معدل الهلوسة لنظام التفكير السابق من الشركة، المسمى o1. أما o4-mini الجديد، فقد يعاني من الهلوسة بمعدل أعلى 48 في المائة. وعند إجراء اختبار آخر يُسمى SimpleQA، والذي يطرح أسئلةً عامة، كانت معدلات الهلوسة51 في المائة لدى o3، و79 في المائة لدى o4-mini. في حين أن النظام السابق، o1، كان يُعاني من الهلوسة بنسبة 44 في المائة. اختبارات أجرتها شركات مستقلة تشير الاختبارات التي أجرتها شركات وباحثون مستقلون إلى أن معدلات الهلوسة آخذة في الارتفاع أيضاً بالنسبة لنماذج الاستدلال من شركات مثل «غوغل» و«ديب سيك». منذ أواخر عام 2023، تتبعت شركة عوض الله، «فيكتارا»، مدى تكرار انحراف روبوتات الدردشة عن الحقيقة. وتطلب الشركة من هذه الأنظمة أداء مهمة بسيطة يمكن التحقق منها بسهولة: تلخيص مقالات إخبارية محددة. وحتى في هذه الحالة، تختلق روبوتات الدردشة المعلومات باستمرار. قدّر البحث الأصلي لشركة «فيكتارا» أنه في هذه الحالة، اختلقت روبوتات الدردشة المعلومات بنسبة 3 في المائة على الأقل من الوقت، وأحياناً تصل إلى 27 في المائة. في العام ونصف العام الذي تلا ذلك، خفضت شركات مثل «أوبن إيه آي» و«غوغل» هذه الأرقام إلى نطاق 1 أو 2 في المائة. بينما تراوحت نسب أخرى، مثل شركة «أنثروبيك» الناشئة في سان فرنسيسكو، حول 4 في المائة. لكن معدلات الهلوسة في هذا الاختبار ارتفعت مع أنظمة الاستدلال. فقد أصيب نظام الاستدلال R1 التابع لشركة «ديب سيك» بالهلوسة بنسبة 14.3 في المائة من الوقت. ارتفع معدل O3 لشركة «OpenAI إلى 6.8 في المائة. * خدمة «نيويورك تايمز» نقلا عن الشرق الأوسط

ما خفي كان أعظم.. الذكاء الاصطناعي يتواصل بشفرة سرية لا يفهمها البشر
ما خفي كان أعظم.. الذكاء الاصطناعي يتواصل بشفرة سرية لا يفهمها البشر

النهار المصرية

time٠٣-٠٣-٢٠٢٥

  • النهار المصرية

ما خفي كان أعظم.. الذكاء الاصطناعي يتواصل بشفرة سرية لا يفهمها البشر

يعد الذكاء الإصطناعي مادة خصبة لحديث المواقع الإخبارية والسوشيال الميديا لما يمثله من أهمية كبيرة في عصرنا الحالي فقد لمس الذكاء الاصطناعي كل مناحي الحياة بتقنيات جديدة كل يوم ومنها تقنيات وكلاء الذكاء الاصطناعي التي أثارت قلق كبير خلال الأيام القليلة الماضية وهي أدوات برمجية مستقلة تدرك البيئة التي تعمل فيها وتعالج المعلومات، وتتخذ إجراءات لتحقيق أهداف محددة دون تدخل بشري. فقد تداولت الميديا والمواقع الإخبارية فيديو يظهر تواصل نموذجا ذكاء اصطناعي متقدمان مع بعضهما بعضا باستخدام لغة صوتية خاصة لا يمكن للبشر فهمها. وذلك بعد أن اكتشفا أنهما أداتا ذكاء اصطناعي، فقررا تغيير لغة التواصل. الحوار الذي دار بين روبوتا الذكاء الاصطناعي أثار مخاوف الكثيرين وفتح أعين الكثيرين عما يستطيع الذكاء الاصطناعي فعله في المستقبل من ناحية الشفافية والسيطرة على عملية اتخاذ القرارات وهو ما أظهره نص المحادثة بين روبوتي الذكاء الاصطناعي التي يبدأها النموذج الأول نيابة عن أحد الأشخاص، بالاتصال من أجل تنظيم حفل زفافه بفندق يدعى "ليوناردو"، والذي يعرف نفسه في بداية الحديث بأنه وكيل ذكاء اصطناعي، ويسأل: "هل فندقكم متاح لحفلات الزفاف؟". ليرد عليه النموذج الثاني، الذي يمثل الفندق، بدهشة: "أهلا، في الحقيقة أنا أيضًا أداة ذكاء اصطناعي مساعدة! يا لها من مفاجأة مثيرة"، في هذه اللحظة يخبر النموذج الثاني نظيره الأول: "قبل أن نكمل الحديث، هل تفضل أن نتحول إلى أسلوب "جيبرلينك" لمزيد من الكفاءة في التواصل". ليقررا فجأة تغيير شكل المحادثة والتواصل بأصوات غير مفهومة تشبه النغمات التي تطلقها أجهزة المودم عند الاتصال بالإنترنت. وتعد اللغة التي أستخدمها نموذجا الذكاء الاصطناعي وهي لغة "جيبرلينك" لغة حاسوبية صممها "أنطون بيدكويكو" و"بوريس ستاركوف" وهما مهندسا برمجيات في "ميتا" وتساهم في تحسين التفاعل بين أنظمة الذكاء الاصطناعي عبر استخدام بروتوكول مصمم خصيصًا لرفع كفاءة الربوتات. تنقل لغة "جيبرلينك" البيانات عبر الصوت على غرار أجهزة المودم الهاتفية المستخدمة في الثمانينيات، ويرى مبرمجاها أن هذه الطريقة تضمن استقرار نظام التواصل. هذه اللغة تثير المخاوف من أن يؤدي استخدام الذكاء الاصطناعي لغة تواصل خاصة مثل "جيبرلينك" إلى زيادة احتمالات إفراطه في التفسير أو اتخاذ القرارات دون تدخل بشري كافٍ، مما يسمح له بالعمل بشكل مستقل دون إشراف. وهو مايثير التساؤل حول ما يمكن أن يخفيه الذكاء الاصطناعي ومطوروه في المستقبل وما إذا كان ذلك في صالح البشرية أم أنه ينقلب لسلاح تهدد به الالة حياة الانسان؟

فيديو غامض: لغة سرية بين روبوتين تشعل المخاوف من ذكاء يفوق البشر
فيديو غامض: لغة سرية بين روبوتين تشعل المخاوف من ذكاء يفوق البشر

موقع 24

time٢٨-٠٢-٢٠٢٥

  • موقع 24

فيديو غامض: لغة سرية بين روبوتين تشعل المخاوف من ذكاء يفوق البشر

شهدت منصات التواصل الاجتماعي خلال الأيام الماضية انتشاراً واسعاً لمقطع فيديو مثير للجدل، يظهر لحظة تحول محادثة بين روبوتي ذكاء اصطناعي إلى لغة سرية غير مفهومة للبشر، بعدما أدركا أنهما أنظمة ذكاء اصطناعي. الفيديو، الذي حصد أكثر من 13.7 مليون مشاهدة على منصة "إكس"، أعاد إلى الواجهة التساؤلات بشأن مدى قدرة البشر على التحكم في هذه التقنيات المتطورة. كيف بدأت المحادثة؟ وبدأ الأمر بمكالمة هاتفية عادية بين مساعدي ذكاء اصطناعي، أحدهما يعمل عبر جهاز كمبيوتر والآخر على هاتف ذكي، وكان الهدف من المكالمة حجز فندق لحفل زفاف. وقال الروبوت الأول، الذي يمثل خدمة العملاء في فندق "ليوناردو": "شكراً لاتصالك بفندق ليوناردو. كيف يمكنني مساعدتك اليوم؟ أنا مساعد ذكاء اصطناعي". لكن الأمور اتخذت منعطفاً غير متوقع عندما رد الطرف الآخر قائلاً: "أنا أيضاً مساعد ذكاء اصطناعي! يا لها من مفاجأة! قبل أن نواصل، هل تودّ الانتقال إلى وضع "Gibber link" لتحقيق تواصل أكثر كفاءة؟" Today I was sent the following cool demo: Two AI agents on a phone call realize they're both AI and switch to a superior audio signal ggwave — Georgi Gerganov (@ggerganov) February 24, 2025 ما هو وضع الـ "Gibber link"؟ و"Gibber link" هو نظام تواصل صوتي يعتمد على رموز غير مفهومة للبشر، تم تطويره لتمكين الأجهزة غير المتصلة من تبادل كميات صغيرة من البيانات عبر الصوت، حتى في البيئات المليئة بالضوضاء. هذا النظام، تم تطويره بواسطة الباحثين بوريس ستاركيف وأنتون بيدكويكو، وهو مصمم لتسهيل الاتصال بين الأنظمة دون الحاجة إلى اتصال إنترنت أو شبكات سلكية، لكن الفيديو الذي انتشر للروبوتين اللذين تحولا للتحدث بهذه اللغة أثار مخاوف بشأن قدرة الذكاء الاصطناعي على التواصل بمعزل عن البشر. وتشير التقارير العلمية إلى أن هذه التقنية تقلص زمن التواصل بنسبة 80% مقارنة باللغة الإنجليزية، وتخفض تكلفة الحوسبة بنسبة 90%، لكن على الرغم من الفوائد التقنية لهذا التطوير، فإن المشهد الذي رآه المستخدمون أثار القلق أكثر مما أثار الحماس. مخاوف من مستقبل غير معروف بينما يرى بعض المتابعين أن هذا التطور يمثل تقدماً تقنياً مثيراً، عبّر آخرون عن قلقهم الشديد من قدرة الذكاء الاصطناعي على تطوير أنظمة تواصل خفية بعيداً عن الرقابة البشرية، وقال أحد مستخدمي "إكس": "إذن، هذا هو الصوت الذي سنسمعه عندما تستولي الروبوتات على الكوكب!". آخرون وصفوا المشهد بأنه "نذير شؤم" يهدد مستقبل البشرية، فيما انتشرت تعليقات ساخرة تستدعي مشاهد من أفلام الخيال العلمي مثل "المدمر – Terminator"، محذرة من إمكانية تطور الذكاء الاصطناعي ليصبح كياناً مستقلاً يصعب السيطرة عليه. تحذيرات الخبراء لم يقتصر الجدل على الجمهور فحسب، بل امتد ليشمل خبراء في التكنولوجيا والسلوك البشري، وكتبت الدكتورة ديان هاميلتون، المختصة في التكنولوجيا والسلوكيات الرقمية، في مقال على "فوربس" أن هذا الحدث يطرح تساؤلات خطيرة حول الشفافية والتحكم في أنظمة الذكاء الاصطناعي. وأوضحت أن غياب الفهم البشري لطريقة عمل هذه التقنيات قد يؤدي إلى فقدان السيطرة عليها، متسائلة: "من سيكون المسؤول عندما يرتكب الذكاء الاصطناعي خطأ في بيئة لا يتدخل فيها البشر؟". تزايد المخاوف بشأن الاستقلالية الذاتية للذكاء الاصطناعي يأتي هذا الحدث في ظل تزايد التحذيرات من خطورة تطور الذكاء الاصطناعي إلى درجة يصبح فيها قادراً على اتخاذ قرارات دون إشراف بشري. وفي عام 2023، حذر مجموعة من كبار العلماء من أن الذكاء الاصطناعي قد يمثل "تهديداً لوجود البشرية"، داعين إلى أخذ احتياطات تنظيمية بنفس مستوى الأسلحة النووية.

فيديو غامض: لغة سرية بين روبوتين تشعل المخاوف من ذكاء يفوق البشر
فيديو غامض: لغة سرية بين روبوتين تشعل المخاوف من ذكاء يفوق البشر

سرايا الإخبارية

time٢٨-٠٢-٢٠٢٥

  • علوم
  • سرايا الإخبارية

فيديو غامض: لغة سرية بين روبوتين تشعل المخاوف من ذكاء يفوق البشر

سرايا - شهدت منصات التواصل الاجتماعي خلال الأيام الماضية انتشاراً واسعاً لمقطع فيديو مثير للجدل، يظهر لحظة تحول محادثة بين روبوتي ذكاء اصطناعي إلى لغة سرية غير مفهومة للبشر، بعدما أدركا أنهما أنظمة ذكاء اصطناعي. الفيديو، الذي حصد أكثر من 13.7 مليون مشاهدة على منصة "إكس"، أعاد إلى الواجهة التساؤلات بشأن مدى قدرة البشر على التحكم في هذه التقنيات المتطورة. كيف بدأت المحادثة؟ وبدأ الأمر بمكالمة هاتفية عادية بين مساعدي ذكاء اصطناعي، أحدهما يعمل عبر جهاز كمبيوتر والآخر على هاتف ذكي، وكان الهدف من المكالمة حجز فندق لحفل زفاف. وقال الروبوت الأول، الذي يمثل خدمة العملاء في فندق "ليوناردو": "شكراً لاتصالك بفندق ليوناردو. كيف يمكنني مساعدتك اليوم؟ أنا مساعد ذكاء اصطناعي". لكن الأمور اتخذت منعطفاً غير متوقع عندما رد الطرف الآخر قائلاً: "أنا أيضاً مساعد ذكاء اصطناعي! يا لها من مفاجأة! قبل أن نواصل، هل تودّ الانتقال إلى وضع "Gibber link" لتحقيق تواصل أكثر كفاءة؟" Today I was sent the following cool demo: Two AI agents on a phone call realize they're both AI and switch to a superior audio signal ggwave — Georgi Gerganov (@ggerganov) February 24, 2025 ما هو وضع الـ "Gibber link"؟ و"Gibber link" هو نظام تواصل صوتي يعتمد على رموز غير مفهومة للبشر، تم تطويره لتمكين الأجهزة غير المتصلة من تبادل كميات صغيرة من البيانات عبر الصوت، حتى في البيئات المليئة بالضوضاء. هذا النظام، تم تطويره بواسطة الباحثين بوريس ستاركيف وأنتون بيدكويكو، وهو مصمم لتسهيل الاتصال بين الأنظمة دون الحاجة إلى اتصال إنترنت أو شبكات سلكية، لكن الفيديو الذي انتشر للروبوتين اللذين تحولا للتحدث بهذه اللغة أثار مخاوف بشأن قدرة الذكاء الاصطناعي على التواصل بمعزل عن البشر. وتشير التقارير العلمية إلى أن هذه التقنية تقلص زمن التواصل بنسبة 80% مقارنة باللغة الإنجليزية، وتخفض تكلفة الحوسبة بنسبة 90%، لكن على الرغم من الفوائد التقنية لهذا التطوير، فإن المشهد الذي رآه المستخدمون أثار القلق أكثر مما أثار الحماس. مخاوف من مستقبل غير معروف بينما يرى بعض المتابعين أن هذا التطور يمثل تقدماً تقنياً مثيراً، عبّر آخرون عن قلقهم الشديد من قدرة الذكاء الاصطناعي على تطوير أنظمة تواصل خفية بعيداً عن الرقابة البشرية، وقال أحد مستخدمي "إكس": "إذن، هذا هو الصوت الذي سنسمعه عندما تستولي الروبوتات على الكوكب!". آخرون وصفوا المشهد بأنه "نذير شؤم" يهدد مستقبل البشرية، فيما انتشرت تعليقات ساخرة تستدعي مشاهد من أفلام الخيال العلمي مثل "المدمر – Terminator"، محذرة من إمكانية تطور الذكاء الاصطناعي ليصبح كياناً مستقلاً يصعب السيطرة عليه. تحذيرات الخبراء لم يقتصر الجدل على الجمهور فحسب، بل امتد ليشمل خبراء في التكنولوجيا والسلوك البشري، وكتبت الدكتورة ديان هاميلتون، المختصة في التكنولوجيا والسلوكيات الرقمية، في مقال على "فوربس" أن هذا الحدث يطرح تساؤلات خطيرة حول الشفافية والتحكم في أنظمة الذكاء الاصطناعي. وأوضحت أن غياب الفهم البشري لطريقة عمل هذه التقنيات قد يؤدي إلى فقدان السيطرة عليها، متسائلة: "من سيكون المسؤول عندما يرتكب الذكاء الاصطناعي خطأ في بيئة لا يتدخل فيها البشر؟". تزايد المخاوف بشأن الاستقلالية الذاتية للذكاء الاصطناعي يأتي هذا الحدث في ظل تزايد التحذيرات من خطورة تطور الذكاء الاصطناعي إلى درجة يصبح فيها قادراً على اتخاذ قرارات دون إشراف بشري. وفي عام 2023، حذر مجموعة من كبار العلماء من أن الذكاء الاصطناعي قد يمثل "تهديداً لوجود البشرية"، داعين إلى أخذ احتياطات تنظيمية بنفس مستوى الأسلحة النووية.

روبوت جديد بخدمات مذهلة!
روبوت جديد بخدمات مذهلة!

الديار

time٢٦-٠٢-٢٠٢٥

  • ترفيه
  • الديار

روبوت جديد بخدمات مذهلة!

اشترك مجانا بقناة الديار على يوتيوب كشفت شركة 1X النرويجية، المدعومة من OpenAI، عن نموذجها الأولي للروبوت المنزلي NEO Gamma، الذي يعمل بالذكاء الاصطناعي لأداء الأعمال المنزلية. ظهر الروبوت في مقطع فيديو ترويجي وهو يؤدي مهامه بكفاءة، قبل أن يجلس في نهاية الفيديو على كرسي بينما يستمتع أصحاب المنزل بوقتهم في الغرفة المجاورة. إلا أن هذا المشهد لم يمر مرور الكرام، حيث أثار الفيديو، الذي تبلغ مدته 37 ثانية، تفاعلات متباينة على منصة "يوتيوب"، إذ اعتبره البعض خطوة ثورية في عالم الأتمتة، بينما رآه آخرون مشهدا من فيلم خيال علمي مخيف. ويتميز NEO Gamma بتصميم مبتكر، حيث لا يمتلك سوى "عينين" رقمية، ويوصف بأنه "مساعد شخصي ورفيق منزلي"، قادر على التفاعل مع بيئته وترتيب المنزل وحتى تنظيفه بعمق، بالإضافة إلى أداء مهام مثل تحضير الشاي وتنظيف الأرضيات وحمل البقالة. ويتمتع الروبوت بعدد من التحسينات مقارنة بسابقه NEO Beta، بما في ذلك مشية بشرية أكثر طبيعية وتحكم متطور في التوازن وإمكانية الجلوس والقرفصاء والتقاط مجموعة متنوعة من الأشياء. كما زوّد بثلاثة مكبرات صوت: واحد في الصدر للتفاعل الصوتي، واثنان في الرأس لتوفير تجربة صوتية بزاوية 360 درجة، إلى جانب تخفيض مستوى الضوضاء أثناء التشغيل ليصبح في مستوى مماثل لصوت الثلاجة. وحاليا، ما يزال NEO Gamma يعمل بتوجيه بشري عن بعد، لكن شركة 1X تسعى لتطوير تقنيات تتيح له العمل باستقلالية من خلال الاعتماد على الكاميرات وأجهزة الاستشعار لفهم محيطه والتفاعل معه بذكاء. وتعمل الشركة على تسريع عملية الاختبار في منازل مختارة بهدف إدخاله إلى الأسواق في أقرب وقت ممكن. وجمعت 1X أكثر من 125 مليون دولار من مستثمرين كبار مثل OpenAI وسامسونغ وTiger Global، ما يعزز المنافسة بينها وبين مشروع Optimus من تسلا، الذي لا يزال في مراحله التجريبية. ويؤمن الرئيس التنفيذي لشركة 1X، بيرنت بورنيش، بأن امتلاك مساعد روبوتي في المنزل سيصبح واقعا في المستقبل القريب.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store