أحدث الأخبار مع #روبوت_الدردشة

العربية
منذ 10 ساعات
- العربية
تطبيقات تطبيق"Gemini" يتيح إمكانية البحث في المحادثات
بدأت شركة غوغل في طرح ميزة البحث في المحادثات السابقة في تطبيق روبوت الدردشة المدعوم بالذكاء الاصطناعي "Gemini"، وظهرت الميزة أولًا في نسخة التطبيق للويب. وفي تطبيق "Gemini" للويب، ستظهر أيقونة عدسة مكبرة في الزاوية العلوية اليمنى من اللوحة الجانبية، وبالنقر عليها، سينتقل المستخدم إلى حقل "البحث عن المحادثات". وأسفل حقل البحث هذا، سيجد المستخدم قائمة بالمحادثات "الأخيرة" التي تمتد حتى 16 عنصرًا، مع ظهور المحادثات المثبتة في البداية، بحسب تقرير لموقع "9TO5Google" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". تأتي هذه الميزة بعدما أعادت "غوغل" تصميم اللوحة الجانبية بالتطبيق مؤخرًا، وهو ما أضاف إمكانية التمرير اللانهائي بعد النقر على خيار "إظهار المزيد". وميزة البحث في المحادثات هذه مباشرة وبسيطة للغاية، حيث تتضمن النتائج اسم المحادثة وسطرًا ذا صلة يحتوي على الكلمة التي بحث عنها المستخدم. وبحسب التقرير، فلم تظهر ميزة البحث في المحادثات بعد في تطبيق "Gemini" لكل من "أندرويد" و"iOS".


صحيفة الخليج
منذ 6 أيام
- أعمال
- صحيفة الخليج
إيرادات «تنسنت» تنمو 13% إلى 25 مليار دولار
أعلنت «تنسنت»، الأربعاء، عن ارتفاع في إيراداتها وصافي أرباحها في الربع الأول من عام 2025، مدعومة بالنمو المتسارع في قطاع الألعاب الرئيسي لديها. وقفزت إيرادات شركة التكنولوجيا الصينية العملاقة بنسبة 13% على أساس سنوي إلى 180.02 مليار يوان صيني (25 مليار دولار)، مقابل 174.63 مليار يوان متوقعة. ونما صافي الربح بنسبة 14% إلى 47.8 مليار يوان (6.6 مليار دولار)، لكنه خالف التوقعات التي جاءت عند 52.2 مليار يوان. وارتفعت إيرادات الألعاب المحلية لدى «تنسنت»، أي مبيعاتها في الصين، بنسبة 24% على أساس سنوي لتصل إلى 42.9 مليار يوان (6 مليارات دولار)، بفضل الزخم الذي حققته لعبتا «أونور أوف كينغز» و«بيسكيبر إليت»، وغيرهما من الألعاب الأحدث مثل «DnF Mobile». في المقابل، بلغ إجمالي إيرادات أعمال الألعاب الدولية للشركة 16.6 مليار يوان (2.3 مليار دولار)، بزيادة سنوية قدرها 23% مدفوعة بألعاب مثل «براول ستارز» و«ببجي موبايل». يُذكر أن «تنسنت» تدير أيضاً منصة «وي تشات»، أكبر تطبيق مراسلة في الصين، والذي يضم أكثر من 1.4 مليار مستخدم نشط شهرياً. ويتيح لهم القيام بكل شيء، من الدفع عبر الهاتف المحمول إلى ممارسة الألعاب وحجز الرحلات الجوية. وقد سمحت قاعدة المستخدمين الضخمة هذه بتحقيق دخل فائق للشركة من خلال الإعلانات، التي أصبحت نشاطاً تجارياً سريع النمو لعملاق التكنولوجيا الصيني. وأبلغت «تنسنت» عن نفقات رأسمالية للربع الأول بنحو 27.5 مليار يوان (3.8 مليار دولار)، بزيادة قدرها 91% عن الفترة نفسها من العام الماضي، حيث تواصل الإنفاق على جهودها المتعلقة بالذكاء الاصطناعي. وتُشيد الشركة، التي تتخذ من شنتشن مقراً لها، بقدراتها في القطاع، بما في ذلك روبوت الدردشة الذكي «يوانباو»، بالإضافة إلى نموذجها الأساسي «هونيوان». وترى أن الرافعة التشغيلية من مصادر إيراداتها الحالية عالية الجودة ستساعد على استيعاب التكاليف الإضافية المرتبطة باستثمارات الذكاء الاصطناعي، وستساهم في تحقيق أداء مالي جيد خلال هذه المرحلة الاستثمارية.

الإمارات اليوم
١٠-٠٥-٢٠٢٥
- الإمارات اليوم
موجود في «واتس آب» شاء المستخدم أم أبَى.. هل يمكن حذف Meta AI من التطبيق؟
يظهر في تطبيق واتس آب حالياً رمز دائري أزرق جديد: إنه مساعد الذكاء الاصطناعي الخاص بشركة ميتا، وهو موجود في التطبيق شاء المستخدم أم أبَى. ومن لا يخطط لاستخدام الذكاء الاصطناعي الخاص بشركة ميتا، يُنصح بعدم النقر عليه إطلاقاً أو إشراك روبوت الدردشة في الدردشات الجماعية باستخدام @MetaAI. ومع ذلك، لا يمكن إزالة الرمز أو دمج ميتا AI بالكامل أو تعطيله من التطبيق حالياً. ويمكن لأي شخص وافق بالفعل على شروط الاستخدام وسياسة الخصوصية وتحدث مع ميتا AI حذف محادثات الذكاء الاصطناعي الفردية فقط، وفقاً لما ذكرته شركة ميتا في قسم مساعدة واتس آب. وللقيام بذلك، مرر المحادثة إلى اليسار، واختر «المزيد/حذف» (أندرويد) أو «حذف» مباشرة (آي أو إس)، ثم قم بالتأكيد. وكما هو الحال مع أي تفاعل مع الذكاء الاصطناعي، من المهم ملاحظة أن بعض الرسائل المُولّدة بواسطة الذكاء الاصطناعي قد تكون «غير صحيحة أو غير مناسبة»، وفقاً لقسم المساعدة في واتس آب. وبالإضافة إلى ذلك، ينبغي عدم مشاركة البيانات الشخصية أو الحساسة أو السرية في محادثات الذكاء الاصطناعي. وإذا أُدخلت هذه المعلومات بالفعل في المحادثة، فيجب على المستخدمين ليس فقط حذف محادثات الذكاء الاصطناعي من أجهزتهم، بل طلب حذف المعلومات، التي تمت مشاركتها مع ميتا AI من شركة ميتا نفسها.


اليوم السابع
٠٨-٠٥-٢٠٢٥
- علوم
- اليوم السابع
جوجل تطلق روبوت الدردشة "جيمينى" للأطفال تحت سن 13 عامًا.. التفاصيل الكاملة
تستعد لإطلاق روبوت الدردشة "جيميني" للأطفال الذين تقل أعمارهم عن 13 عامًا، مع التفعيل المتوقع الأسبوع المقبل، ستكون الميزة متاحة للمستخدمين الصغار الذين يمتلكون حسابات جوجل مدارة من قبل الوالدين عبر منصة " Family Link"، وفقًا لتقرير نشرته نيويورك تايمز. في رسالة بريد إلكتروني، أوضحت الشركة قدرات الروبوت، مشيرة إلى أنه يمكنه مساعدة الأطفال في أداء الواجبات المدرسية، والإجابة على الأسئلة، وحتى مساعدتهم في صياغة القصص الخيالية، لإعداد الوصول يجب على الوالدين تقديم معلومات شخصية عن طفلهم، مثل الاسم وتاريخ الميلاد، لضمان أن الخدمة مخصصة للمستخدمين في سن مناسب. تعد هذه المبادرة جزءًا من استراتيجية جوجل الأوسع لدمج الذكاء الاصطناعي في الأدوات التعليمية مع الحفاظ على إشراف قوي من الوالدين، كذلك تقول الشركة إنها قد أدرجت تدابير أمان صارمة لمنع الروبوت من إنتاج محتوى ضار أو غير مناسب. وفقًا للمتحدث باسم جوجل كارل رايان، فإن البيانات التي يتم جمعها من حسابات "Family Link" للأطفال لن تُستخدم لتدريب نموذج الذكاء الاصطناعي، مما يعالج أحد المخاوف الشائعة حول الخصوصية. وإذا نجحت هذه المبادرة، قد يصبح " جيميني" رفيقًا تعليميًا قويًا للمتعلمين الصغار، كذلك قد يعزز الفضول ويعزز التعلم من خلال تقديم إجابات فورية على الأسئلة ودعم الواجبات المدرسية، كما أن قدرة الروبوت على إنشاء القصص والمشاركة في محادثات إبداعية قد تشجع على التفكير الخيالي وتطوير اللغة، وبالنسبة للوالدين فإن التحكم في تفاعلات أطفالهم مع الذكاء الاصطناعي عبر "Family Link" يوفر شعورًا بالأمان والإشراف. وعلى الرغم من هذه الفوائد، لا تزال بعض مجموعات الدفاع عن حقوق الأطفال متوترة، فقد أظهرت منظمات مثل "اليونيسيف" خطر سوء فهم الأطفال للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أو اعتمادهم بشكل مفرط على تفاعلات الروبوتات. كما قد يواجه المستخدمون الصغار صعوبة في التمييز بين ردود الآلة والإرشادات البشرية، مما قد يؤثر على كيفية بناء الثقة واتخاذ القرارات. وفي حين أن جوجل تعترف بإمكانية وجود أخطاء وتحث على المناقشات المفتوحة بين الوالدين والأطفال، يرى الخبراء أن تدابير أكثر قوة وشفافية ستكون ضرورية مع تزايد استخدام الذكاء الاصطناعي في حياة الأطفال.


الإمارات اليوم
٠٨-٠٥-٢٠٢٥
- علوم
- الإمارات اليوم
دراسة تكشف ...الذكاء الاصطناعي متعجرف ومتحيز مثل البشر!
كشفت الأبحاث سمة مدهشة مشتركة بين البشر والذكاء الاصطناعي، حيث يُظهر الأخير نفس الميل للأخطاء والتحيزات المعرفية مثل الإنسان. على الرغم من الاختلافات الكبيرة بين العمليات الفكرية البشرية والذكاء الاصطناعي، اكتشف العلماء أن حتى أكثر نماذج الذكاء الاصطناعي تطورا تتمتع أحيانا بالسلوك غير العقلاني. ووفقا لنتائج دراسة أجراها المتخصصون من جامعات كندا وأستراليا، فإن روبوت الدردشة ChatGPT يظهر في 47% من الحالات أفخاخا نفسية نموذجية مميزة للبشر. وكشفت اختبارات نماذج GPT-3.5 وGPT-4 المطورة أن هذه الأنظمة ليست محصنة ضد أنماط السلوك البشري المماثلة، على الرغم من أنها تتمتع بدرجة عالية من الاتساق في الاستنتاجات. ويشير الباحثون إلى أن هذا الاتساق له جوانب إيجابية وسلبية. واختبرت دراسة الشبكة العصبية على التحيزات المعرفية البشرية المعروفة، مثل تجنب المخاطرة، والثقة المفرطة، وتأثير الإنجاز والنجاح. وطالت الأسئلة علم النفس التقليدي وسياقات الأعمال الواقعية على حد سواء. وأظهرت GPT-4 نتائج أفضل النتائج في المهام ذات الحلول الرياضية الواضحة، حيث ارتكبت أخطاء أقل في السيناريوهات القائمة على المنطق والاحتمالات. لكن في المحاكاة الذاتية، مثل إيجاد خيار محفوف بالمخاطر لتحقيق مكاسب، غالبا ما انعكست في ردود روبوت الدردشة نفس العقلانية غير المنطقية المتأصلة في البشر. مع ذلك فإن الباحثين يشيرون إلى أن "GPT-4 أظهر ميلا أكبر للتنبؤية والأمان مقارنة بالبشر". ونصح البروفيسور يانغ تشين الأستاذ المساعد في قسم الإدارة التشغيلية بكلية "آيفي" للأعمال في كندا:" للحصول على مساعدة دقيقة وموضوعية في اتخاذ القرارات، استخدم الذكاء الاصطناعي في المواقف التي تثق فيها بالحاسوب. لكن عندما يتطلب القرار بيانات استراتيجية أو ذاتية، فإن الإشراف البشري يصبح ضروريا. لا ينبغي اعتبار الذكاء الاصطناعي موظفا يتخذ قرارات مصيرية، بل يحتاج إلى رقابة وإرشادات أخلاقية. وإلا فإننا نخاطر بأتمتة التفكير الخاطئ بدلا من تحسينه".