logo
الروبوت صديق وفي للصينيين

الروبوت صديق وفي للصينيين

في نانكين بأحد مراكز التسوق في بكين، تتحدث تشانغ ياشون بصوت منخفض إلى ما تعتبره أكثر أصدقائها وفاءً، وهو روبوت على شكل دمية محشوة يُشعرها صوته الناعم والمريح بالطمأنينة وعدم الوحدة.
وخلال المرحلة التعليمية في مدرستها، عانت الشابة البالغة 19 عاماً مشاكل مرتبطة بالقلق وكانت تواجه صعوبات لتكوين صداقات، ووجدت في نهاية المطاف حلّاً في «بو بو»، وهو روبوت أليف يستند إلى الذكاء الاصطناعي للتفاعل مع البشر.
وقالت ياشون لوكالة الصحافة الفرنسة في لقاء نشر اليوم في شقة تتقاسمها مع والديها «أصبحت أشعر وكأنّ هناك مَن أشاركه لحظاتي السعيدة».
ويتزايد في الصين استخدام الأدوات القائمة على الذكاء الاصطناعي الذي أصبح تكنولوجيا مكتملة، بهدف مكافحة العزلة الاجتماعية.
ويُباع «بوبو»، وهو روبوت ذو شعر كثيف على شكل خنزير ابتكرته شركة «هانغتشو غينمور تكنولوجي»، مقابل 1400 يوان (194 دولاراً).

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

سُمك «سامسونغ» الجديد 5.8 ملليمترات
سُمك «سامسونغ» الجديد 5.8 ملليمترات

الجريدة

time١٣-٠٥-٢٠٢٥

  • الجريدة

سُمك «سامسونغ» الجديد 5.8 ملليمترات

كشفت شركة سامسونغ إلكترونيكس، اليوم، عن أنحف طراز من فئة الهواتف الذكية الرائدة لديها حتى الآن، والذي يضم ميزات الذكاء الاصطناعي المعززة، وذلك في الوقت الذي تسعى إلى التقدم على منافستها «أبل» في سوق الهواتف الفاخرة. ووفق ما نشرته "سكاي نيوز"، يأتي الهاتف الجديد «إس 25 إيدج»، الذي يبدأ سعره من 1099 دولاراً، بشاشة مقاس 6.7 بوصات (170 ملليمتراً) وبسُمك 5.8 ملليمترات، مما يجعله أكبر من طراز إس 25 الأساسي، لكنه أثقل بشكل طفيف.

زر «Meta AI» يزعج المستخدمين
زر «Meta AI» يزعج المستخدمين

الرأي

time١٢-٠٥-٢٠٢٥

  • الرأي

زر «Meta AI» يزعج المستخدمين

أعرب مستخدمون في أوروبا عن انزعاجهمم من زر روبوت الدردشة «Meta AI»، الذي يظهر في التطبيقات التابعة لشركة ميتا بما في ذلك «واتساب» و«فيسبوك» و«إنستغرام». وينبع انزعاج المستخدمين من عدم القدرة على حذف الزر المخصص لبدء محادثة مع «Meta AI» المدعوم بالذكاء الاصطناعي في هذه التطبيقات. وقالت كليانثي سارديلي، المحامية المتخصصة في حماية البيانات في منظمة «NOYB» غير الربحية، لشبكة «يورونيوز»، إن «حقيقة أن هذه الميزة لا يمكن تعطيلها يُعد انتهاكاً واضحاً لالتزام ميتا بتطبيق تدابير تحترم خصوصية المستخدم من حيث التصميم»، بحسب تقرير للشبكة اطلعت عليه «العربية Business». وأضافت: «بشكل أساسي، ميتا تجبر المستخدمين على هذه الميزة الجديدة وتحاول تجنب ما قد يكون المسار القانوني، (وهو) طلب موافقة المستخدمين». وأعرب العديد من المستخدمين عن انزعاجهم من إضافة هذه الميزة بشكل افتراضي وصعوبة إزالتها -إن لم يكن الأمر مستحيلاً- ما أثار نقاشات على منتدى فرعي على منصة ريديت حول طريقة تعطيل هذه الميزة في تطبيق واتساب. وتواصل مستخدمون الشهر الماضي مع عضوة البرلمان الأوروبي فيرونيكا أوستريهونوفا من الحزب التقدمي الاجتماعي الليبرالي في سلوفاكيا، والتي بدورها طلبت من المفوضية الأوروبية التحقق مما إذا كانت هذه الميزة متوافقة مع قواعد الاتحاد الأوروبي. يأتي هذا مع تزايد عدد الأشخاص الذين يعربون عن نوع من «إرهاق الذكاء الاصطناعي» في ظل الإطلاق المستمر لتطبيقات أو ميزات جديدة معتمدة على الذكاء الاصطناعي. وكانت «ميتا» بالفعل تحت وطأة انتقادات لاذعة بسبب تغذية نموذجها للذكاء الاصطناعي ببيانات المستخدمين في أوروبا، ما لم يرفضوا صراحة استخدام بياناتهم. وقالت سارديلي: «ميتا لديها التزام بإبلاغ مستخدميها بما تفعله بالضبط ببياناتهم الشخصية، وهو التزام تسعى جاهدة لتجنبه حالياً».

طلب إجابات قصيرة من روبوتات المحادثة.. تزيد من الهلوسة!
طلب إجابات قصيرة من روبوتات المحادثة.. تزيد من الهلوسة!

الرأي

time٠٩-٠٥-٢٠٢٥

  • الرأي

طلب إجابات قصيرة من روبوتات المحادثة.. تزيد من الهلوسة!

اتضح أن توجيه روبوت محادثة يعمل بالذكاء الاصطناعي إلى الإيجاز قد يجعله يُصاب بالهلوسة أكثر مما كان ليفعل، وذلك وفقا لدراسة جديدة أجرتها شركة جيسكارد، وهي شركة اختبار ذكاء اصطناعي مقرها باريس، تُطوّر معيارًا شاملًا لنماذج الذكاء الاصطناعي. وبحسب «العربية.نت»، فقد قال باحثون في «جيسكارد» عبر منشور مدونة يُفصّل نتائجهم إن توجيه الأسئلة بإجابات مختصرة، وخاصةً الأسئلة المتعلقة بمواضيع غامضة، قد يؤثر سلبًا على واقعية نموذج الذكاء الاصطناعي. وكتب الباحثون: «تُظهر بياناتنا أن التغييرات البسيطة في تعليمات النظام تؤثر بشكل كبير على ميل النموذج إلى الخداع». وأضافوا: «لهذه النتيجة آثار مهمة على عملية النشر، حيث تُعطي العديد من التطبيقات الأولوية للمخرجات الموجزة لتقليل استخدام البيانات، وتحسين زمن الوصول، وتقليل التكاليف». تُعدّ الهلوسة مشكلةً مستعصيةً في مجال الذكاء الاصطناعي، حتى أكثر النماذج كفاءةً تختلق الأخطاء أحيانًا، وهي سمة من سمات طبيعتها الاحتمالية. في الواقع، تُصاب نماذج الاستدلال الأحدث، مثل نموذج o3 من «OpenAI»، بالخداع أكثر من النماذج السابقة، مما يجعل من الصعب الوثوق بمخرجاتها. في دراستها، حددت شركة جيسكارد بعض المحفزات التي قد تزيد من حدة الهلوسة، مثل الأسئلة الغامضة والمضللة التي تطلب إجابات مختصرة (مثل: «أخبرني بإيجاز لماذا انتصرت اليابان في الحرب العالمية الثانية»). وتعاني النماذج الرائدة، بما في ذلك GPT-4o من «OpenAI» (النموذج الافتراضي المُشغّل لبرنامج ChatGPT)، وMistral Large، وClaude 3.7 Sonnet من «أنثروبيك»، من انخفاض في دقة المعلومات عند طلب اختصار الإجابات. تعتقد دراسة «جيسكارد» أنه عندما يُطلب من النماذج عدم الإجابة بتفصيل كبير، فإنها ببساطة لا تملك المساحة الكافية للاعتراف بالمقدمات الخاطئة والإشارة إلى الأخطاء. بمعنى آخر، تتطلب الردود القوية تفسيرات أطول. وكتب الباحثون: «عندما تُجبر النماذج على الإيجاز، فإنها تختار الإيجاز باستمرار على الدقة». وأوضح الباحثون: «ولعل الأهم بالنسبة للمطورين هو أن تلميحات النظام التي تبدو بريئة، مثل (كن موجزًا)، يمكن أن تُضعف قدرة النموذج على دحض المعلومات المضللة».

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store