
روبوت «مختل» يهاجم الجمهور
أثار سلوك روبوت في مهرجان أقيم بالصين أخيراً المخاوف المتعلقة بالثقة في تكنولوجيا الذكاء الاصطناعي، والقدرة على التحكم فيها.
ونشر موقع «ذا إيكومنوميك تايمز» مقطع فيديو تداوله رواد مواقع التواصل، ونشره موقع «سكاي نيوز» اليوم يظهر روبوتاً يستعرض حركاته أمام الجمهور في مهرجان أقيم بتيانغين الشهر الماضي.
وفوجئ الجمهور بانقضاض الروبوت عليه، ومحاولته ضرب أحد الحضور كما يبدو.
وتدخل رجال الأمن بسرعة لوقف الروبوت عن الاستمرار بحركاته التي بدت كأنها خرجت عن السيطرة.
وذكر الموقع أن منظمي الحدث قللوا من خطورة ما جرى، ووصفوا الأمر بأنه «فشل روبوتي بسيط».
وأكد منظمو الحدث في تصريح نقلته صحيفة «ميترو» البريطانية أن الروبوت، وهو من تطوير شركة Unitree Robotics، اجتاز جميع فحوصات السلامة، وأصروا على وضع تدابير إضافية لمنع وقوع حوادث مستقبلية.
وتحدثت تقارير عن أن خللاً في البرنامج تسبب في سلوك الروبوت غير المنتظم، مما أدى إلى اندفاعه المفاجئ نحو الحشد بهذه الطريقة غير المتوقعة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الجريدة الكويتية
١٣-٠٥-٢٠٢٥
- الجريدة الكويتية
سُمك «سامسونغ» الجديد 5.8 ملليمترات
كشفت شركة سامسونغ إلكترونيكس، اليوم، عن أنحف طراز من فئة الهواتف الذكية الرائدة لديها حتى الآن، والذي يضم ميزات الذكاء الاصطناعي المعززة، وذلك في الوقت الذي تسعى إلى التقدم على منافستها «أبل» في سوق الهواتف الفاخرة. ووفق ما نشرته "سكاي نيوز"، يأتي الهاتف الجديد «إس 25 إيدج»، الذي يبدأ سعره من 1099 دولاراً، بشاشة مقاس 6.7 بوصات (170 ملليمتراً) وبسُمك 5.8 ملليمترات، مما يجعله أكبر من طراز إس 25 الأساسي، لكنه أثقل بشكل طفيف.


الرأي
١٢-٠٥-٢٠٢٥
- الرأي
زر «Meta AI» يزعج المستخدمين
أعرب مستخدمون في أوروبا عن انزعاجهمم من زر روبوت الدردشة «Meta AI»، الذي يظهر في التطبيقات التابعة لشركة ميتا بما في ذلك «واتساب» و«فيسبوك» و«إنستغرام». وينبع انزعاج المستخدمين من عدم القدرة على حذف الزر المخصص لبدء محادثة مع «Meta AI» المدعوم بالذكاء الاصطناعي في هذه التطبيقات. وقالت كليانثي سارديلي، المحامية المتخصصة في حماية البيانات في منظمة «NOYB» غير الربحية، لشبكة «يورونيوز»، إن «حقيقة أن هذه الميزة لا يمكن تعطيلها يُعد انتهاكاً واضحاً لالتزام ميتا بتطبيق تدابير تحترم خصوصية المستخدم من حيث التصميم»، بحسب تقرير للشبكة اطلعت عليه «العربية Business». وأضافت: «بشكل أساسي، ميتا تجبر المستخدمين على هذه الميزة الجديدة وتحاول تجنب ما قد يكون المسار القانوني، (وهو) طلب موافقة المستخدمين». وأعرب العديد من المستخدمين عن انزعاجهم من إضافة هذه الميزة بشكل افتراضي وصعوبة إزالتها -إن لم يكن الأمر مستحيلاً- ما أثار نقاشات على منتدى فرعي على منصة ريديت حول طريقة تعطيل هذه الميزة في تطبيق واتساب. وتواصل مستخدمون الشهر الماضي مع عضوة البرلمان الأوروبي فيرونيكا أوستريهونوفا من الحزب التقدمي الاجتماعي الليبرالي في سلوفاكيا، والتي بدورها طلبت من المفوضية الأوروبية التحقق مما إذا كانت هذه الميزة متوافقة مع قواعد الاتحاد الأوروبي. يأتي هذا مع تزايد عدد الأشخاص الذين يعربون عن نوع من «إرهاق الذكاء الاصطناعي» في ظل الإطلاق المستمر لتطبيقات أو ميزات جديدة معتمدة على الذكاء الاصطناعي. وكانت «ميتا» بالفعل تحت وطأة انتقادات لاذعة بسبب تغذية نموذجها للذكاء الاصطناعي ببيانات المستخدمين في أوروبا، ما لم يرفضوا صراحة استخدام بياناتهم. وقالت سارديلي: «ميتا لديها التزام بإبلاغ مستخدميها بما تفعله بالضبط ببياناتهم الشخصية، وهو التزام تسعى جاهدة لتجنبه حالياً».


الرأي
٠٩-٠٥-٢٠٢٥
- الرأي
طلب إجابات قصيرة من روبوتات المحادثة.. تزيد من الهلوسة!
اتضح أن توجيه روبوت محادثة يعمل بالذكاء الاصطناعي إلى الإيجاز قد يجعله يُصاب بالهلوسة أكثر مما كان ليفعل، وذلك وفقا لدراسة جديدة أجرتها شركة جيسكارد، وهي شركة اختبار ذكاء اصطناعي مقرها باريس، تُطوّر معيارًا شاملًا لنماذج الذكاء الاصطناعي. وبحسب «العربية.نت»، فقد قال باحثون في «جيسكارد» عبر منشور مدونة يُفصّل نتائجهم إن توجيه الأسئلة بإجابات مختصرة، وخاصةً الأسئلة المتعلقة بمواضيع غامضة، قد يؤثر سلبًا على واقعية نموذج الذكاء الاصطناعي. وكتب الباحثون: «تُظهر بياناتنا أن التغييرات البسيطة في تعليمات النظام تؤثر بشكل كبير على ميل النموذج إلى الخداع». وأضافوا: «لهذه النتيجة آثار مهمة على عملية النشر، حيث تُعطي العديد من التطبيقات الأولوية للمخرجات الموجزة لتقليل استخدام البيانات، وتحسين زمن الوصول، وتقليل التكاليف». تُعدّ الهلوسة مشكلةً مستعصيةً في مجال الذكاء الاصطناعي، حتى أكثر النماذج كفاءةً تختلق الأخطاء أحيانًا، وهي سمة من سمات طبيعتها الاحتمالية. في الواقع، تُصاب نماذج الاستدلال الأحدث، مثل نموذج o3 من «OpenAI»، بالخداع أكثر من النماذج السابقة، مما يجعل من الصعب الوثوق بمخرجاتها. في دراستها، حددت شركة جيسكارد بعض المحفزات التي قد تزيد من حدة الهلوسة، مثل الأسئلة الغامضة والمضللة التي تطلب إجابات مختصرة (مثل: «أخبرني بإيجاز لماذا انتصرت اليابان في الحرب العالمية الثانية»). وتعاني النماذج الرائدة، بما في ذلك GPT-4o من «OpenAI» (النموذج الافتراضي المُشغّل لبرنامج ChatGPT)، وMistral Large، وClaude 3.7 Sonnet من «أنثروبيك»، من انخفاض في دقة المعلومات عند طلب اختصار الإجابات. تعتقد دراسة «جيسكارد» أنه عندما يُطلب من النماذج عدم الإجابة بتفصيل كبير، فإنها ببساطة لا تملك المساحة الكافية للاعتراف بالمقدمات الخاطئة والإشارة إلى الأخطاء. بمعنى آخر، تتطلب الردود القوية تفسيرات أطول. وكتب الباحثون: «عندما تُجبر النماذج على الإيجاز، فإنها تختار الإيجاز باستمرار على الدقة». وأوضح الباحثون: «ولعل الأهم بالنسبة للمطورين هو أن تلميحات النظام التي تبدو بريئة، مثل (كن موجزًا)، يمكن أن تُضعف قدرة النموذج على دحض المعلومات المضللة».