logo
كيف يستدلّ الذكاء الاصطناعي؟

كيف يستدلّ الذكاء الاصطناعي؟

الجمهوريةمنذ 4 أيام
في شهر أيلول، كشفت شركة OpenAI عن نسخة جديدة من ChatGPT مصمّمة للاستدلال عبر المهام التي تنطوي على الرياضيات والعلوم وبرمجة الحاسوب. بخلاف النسخ السابقة من روبوت الدردشة، فإنّ هذه التقنية الجديدة يمكنها أن تقضي وقتاً في «التفكير» في المشكلات المعقّدة قبل أن تستقر على إجابة.
وسرعان ما أعلنت الشركة أنّ تقنيتها الجديدة في الاستدلال قد تفوّقت على الأنظمة الرائدة في المجال في سلسلة من الاختبارات التي تتبع تقدّم الذكاء الاصطناعي.
والآن، تقدّم شركات أخرى مثل Google وAnthropic وDeepSeek الصينية تقنيات مماثلة. لكن هل يمكن للذكاء الاصطناعي أن يستدل فعلاً مثل الإنسان؟ ماذا يعني أن «يُفكِّر» الحاسوب؟ وهل تقترب هذه الأنظمة حقاً من الذكاء الحقيقي؟
ماذا يعني عندما يستدلّ نظام ذكاء اصطناعي؟
الاستدلال يعني ببساطة أنّ روبوت الدردشة يقضي وقتاً إضافياً في العمل على حل المشكلة. وأوضح دان كلاين، أستاذ علوم الحاسوب في جامعة كاليفورنيا، بيركلي، والرئيس التنفيذي للتكنولوجيا في شركة الذكاء الاصطناعي الناشئة Scaled Cognition، أنّ «الاستدلال هو عندما يقوم النظام بعمل إضافي بعد طرح السؤال».
قد يُقسِّم المشكلة إلى خطوات فردية أو يحاول حلّها عبر التجربة والخطأ. كان الإصدار الأصلي من ChatGPT يُجيب عن الأسئلة فوراً. أمّا أنظمة الاستدلال الجديدة، فيمكنها أن تعمل على المشكلة لعدة ثوانٍ، أو حتى دقائق، قبل تقديم الإجابة.
هل يمكنك أن تكون أكثر تحديداً؟
في بعض الحالات، يصقل نظام الاستدلال نهجه تجاه السؤال، محاولاً مراراً تحسين الطريقة التي اختارها. وأحياناً، قد يُجرِّب عدة طرق مختلفة لمعالجة المشكلة قبل أن يستقر على إحداها. أو قد يعود ويتحقق من عمل أنجزه قبل بضع ثوانٍ، فقط ليرى ما إذا كان صحيحاً. ببساطة، يحاول النظام كل ما في وسعه للإجابة عن سؤالك. ويشبه هذا نوعاً ما الطالب في المدرسة الابتدائية الذي يكافح لإيجاد طريقة لحل مسألة رياضية ويخربش عدة خيارات مختلفة على ورقة.
مبدئياً، يمكنه أن يستدلّ حول أي شيء. لكنّ الاستدلال يكون أكثر فاعلية عند طرح أسئلة تتعلّق بالرياضيات أو العلوم أو برمجة الحاسوب.
كيف يختلف روبوت الدردشة القائم على الاستدلال عن الروبوتات السابقة؟
كان بإمكانك أن تطلب من روبوتات الدردشة السابقة أن توضّح كيف توصّلت إلى إجابة معيّنة أو أن تتحقق من عملها الخاص. وبما أنّ النسخة الأصلية من ChatGPT تعلّمت من نصوص الإنترنت، حيث يُظهر الناس كيف توصّلوا إلى إجابات أو تحققوا من حلولهم، فقد كانت قادرة على نوع من هذا التفكير الذاتي أيضاً.
لكنّ نظام الاستدلال يذهب أبعد من ذلك. يمكنه أن ينجز الأمور من دون أن يُطلب منه. كما يمكنه القيام بها بطرق أوسع وأكثر تعقيداً. وتسمّيه الشركات نظام استدلال لأنّه يبدو وكأنّه يعمل مثل شخص يُفكِّر في مشكلة صعبة.
لماذا يعدّ استدلال الذكاء الاصطناعي مهمّاً الآن؟
تعتقد شركات مثل OpenAI أنّها أفضل طريقة لتحسين روبوتات الدردشة الخاصة بها. ولعدة سنوات، اعتمدت هذه الشركات على مفهوم بسيط: كلما ضخّت المزيد من بيانات الإنترنت في روبوتات الدردشة، كان أداء هذه الأنظمة أفضل. لكنّ في عام 2024، استهلكت تقريباً كل النصوص الموجودة على الإنترنت. وهذا يعني أنّها احتاجت إلى طريقة جديدة لتحسين روبوتات الدردشة. فبدأت ببناء أنظمة استدلال.
كيف تبني نظام استدلال؟
في العام الماضي، بدأت شركات مثل OpenAI بالاعتماد بشكل كبير على تقنية تُعرف باسم «التعلم بالتعزيز». ومن خلال هذه العملية، التي يمكن أن تمتد لأشهر، يمكن لنظام الذكاء الاصطناعي أن يتعلّم السلوك الصحيح من خلال التجربة والخطأ المكثفة. فمثلاً، عبر العمل على آلاف المسائل الرياضية، يمكنه أن يتعلّم أي أساليب تؤدّي إلى الإجابة الصحيحة وأيّها لا.
وصمّم الباحثون آليات تغذية مراجعة معقّدة، تُظهر للنظام متى قام بعمل صحيح ومتى أخطأ. ويصف جيري تورك، الباحث في OpenAI الأمر بأنّه «يشبه تدريب كلب بعض الشيء. إذا قام النظام بعمل جيد، تعطيه قطعة بسكويت. وإذا لم يقم بذلك، تقول له: كلب سيّئ».
هل يعمل التعلّم بالتعزيز؟
يعمل بشكل جيد في مجالات معيّنة، مثل الرياضيات والعلوم وبرمجة الحاسوب. وهي مجالات يمكن فيها تحديد السلوك الجيد والسيّئ بوضوح. فالمسائل الرياضية لها أجوبة محدّدة.
أمّا في مجالات مثل الكتابة الإبداعية والفلسفة والأخلاق، فلا يعمل التعلم بالتعزيز بالكفاءة عينها، إذ يصعب التمييز فيها بين الجيّد والسيّئ. ويعتقد الباحثون أنّ العملية يمكن أن تحسّن أداء نظام الذكاء الاصطناعي عموماً، حتى عندما يجيب عن أسئلة خارج نطاق الرياضيات والعلوم.
وكشف جاريد كابلان، كبير العلماء في شركة Anthropic: «أنّه يتعلّم تدريجاً أنماط الاستدلال التي تقوده في الاتجاه الصحيح وتلك التي لا تفعل».
ينقسم خبراء الذكاء الاصطناعي حول هذا السؤال. فهذه الأساليب لا تزال جديدة نسبياً، ولا يزال الباحثون يحاولون فهم حدودها. وفي مجال الذكاء الاصطناعي، غالباً ما تتطوّر الأساليب الجديدة بسرعة في البداية، ثم تتباطأ لاحقاً.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

تزوج من روبوت في ترند جديد يجتاح العالم؟ النهار تتحقق FactCheck
تزوج من روبوت في ترند جديد يجتاح العالم؟ النهار تتحقق FactCheck

النهار

timeمنذ 19 دقائق

  • النهار

تزوج من روبوت في ترند جديد يجتاح العالم؟ النهار تتحقق FactCheck

المتداول: فيديو يظهر، وفقاً للمزاعم، "رجلاً يحتفل بزفافه من روبوت"، وذلك "في ترند جديد يجتاح العالم". الحقيقة: هذه المشاهد ليست حقيقية، لكونها منشأة بالذكاء الاصطناعي. FactCheck# "النّهار" دقّقت من أجلكم تظهر المشاهد رجلاً مسناً وقف بجانب روبوت أنثى بلباس عروس، مقبلاً إياها، على وقع تصفيق أشخاص في المكان. وقد انتشر المقطع أخيرا في حسابات كتبت معه، بالعربية والانكليزية (من دون تدخل): "ماذا؟ أمرٌ لا يُصدّق، لكنّه حقيقي. حفلات الزفاف من الروبوت أصبحت موضةً جديدة". وحاز المقطع مئات آلاف المشاهدات ومئات التعليقات والمشاركات. لقطة من الفيديو المتناقل بالمزاعم الخاطئة (اكس) الا ان الاعتقاد ان هذه المشاهد حقيقية، اعتقاد خاطئ. فالبحث عن المقطع، بتجزئته الى صور ثابتة (Invid)، يوصلنا الى مصدره، حساب Remix Master، الذي نشره في تيك توك، في 22 تموز 2025، مع تعليق: "أمرٌ مذهل، ولكنه حقيقي. حفلات الزواج من الروبوتات أصبحت موضةً جديدة! تزوج هذا الرجل المُسنّ من عروسه الروبوت المُزوّدة بالذكاء الاصطناعي، آملاً حياة هادئة خالية من تعقيدات العلاقات الإنسانية. يزداد عدد الرجال الأكبر سناً الذين يختارون الزوجات الروبوت بسبب وفائهنّ وطبيعتهنّ الهادئة وابتعادهنّ عن الدراما. ومع انتشار الذكاء الاصطناعي المُتقدّم، أصبحت هذه الشريكات الروبوت مطلوبات بشدة. أهلاً بكم في مستقبل الحب...". وقد أرفق الحساب الفيديو بملاحظة، تبياناً لحقيقته: "منشىء الفيديو صنّفه انه من انتاج الذكاء الاصطناعي". @ Incredible but true, robot weddings are becoming the new trend! This senior just tied the knot with his AI-powered robot bride, hoping for a peaceful life without the 'complications' of human relationships. More and more older men are choosing robot wives for their loyalty, calm nature, and zero drama. With the rise of advanced AI, these robotic partners are now highly sought after. Welcome to the future of love where happily ever after comes with a motherboard! #RobotWedding #SeniorLove #LoveRobot #AiWife #RobotWife لقطة من الفيديو المنشور في حساب Remix Master في تيك توك في 22 تموز 2025 وأمكن ملاحظة مؤشرات الى أنه كذلك: وجوه من دون ملامح واضحة، وبعضها مشوه (الصورة 1). وأصابع تشوّهت عند التصفيق (2). 1- 2- فحص الفيديو في مواقع متخصصة بكشف الفيديوات الزائفة، مثل Hive Moderation ، يعطي نتيجة انه منشأ على الارجح بالذكاء الاصطناعي بنسبة عالية بلغت 72%. لقطة للحساب في تيك توك حاولوا طرد جني من سيدة؟ النهار تتحقق FactCheck تقييمنا النهائي: اذاً، ليس صحيحاً أن "رجلاً احتفل بزفافه من روبوت"، وفقاً لما يشاهد في الفيديو، وذلك "في ترند جديد يجتاح العالم". في الواقع، هذه المشاهد ليست حقيقية، لكونها منشأة بالذكاء الاصطناعي. وقد نشرها حساب Remix Master بهذا الوصف في تيك توك، في 22 تموز 2025.

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

شبكة النبأ

timeمنذ ساعة واحدة

  • شبكة النبأ

احتيال شركات الذكاء الاصطناعي يجب أن يتوقف

بوسع المشرعين والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأميركيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات... بقلم: كريستوفر ماركيز كمبريدج ــ مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي. باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأميركي دونالد ترمب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأميركي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات، ضرورة أشد إلحاحا. وكما توثق الصحافية كارين هاو في كتابها "إمبراطورية الذكاء الاصطناعي"، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود. كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في "فهم الكون". لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة. تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأميركية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو "ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء"، بينما تهدف شركة Anthropic إلى "تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد". المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. للاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج "شركات المنفعة العامة" أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف "المنفعة العامة"، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة. أكدت خطة عمل ترمب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأميركيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي. * كريستوفر ماركيز، أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب "المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف"

Google تعزز أمان هواتف Android عبر ساعات Wear OS الذكية
Google تعزز أمان هواتف Android عبر ساعات Wear OS الذكية

صدى البلد

timeمنذ 7 ساعات

  • صدى البلد

Google تعزز أمان هواتف Android عبر ساعات Wear OS الذكية

تواصل Google تعزيز التكامل بين هواتف Android و ساعات Wear OS الذكية، ويبدو أن المرحلة المقبلة ستشهد تطورًا أكثر ذكاءً في هذا المجال. مع إصدار Android 15، قدمت Google ميزة أمنية ذكية تُدعى "التحقق من الهوية" (Identity Check)، ظهرت لأول مرة على هواتف Pixel ضمن تحديث Pixel Drop في ديسمبر 2024، قبل أن تصل لاحقًا إلى هواتف Galaxy من خلال تحديث One UI 7. الميزة مصممة للعمل فقط عندما يكون الهاتف خارج المواقع الموثوقة مثل المنزل أو المكتب، لتقليل عدد مطالبات التحقق الأمنية في الأماكن التي يحددها المستخدم كآمنة. الهدف هو تعزيز الحماية عند التواجد في الأماكن العامة، ما يجعل من الصعب على اللصوص فتح الهاتف في حال تمت سرقته. الساعة الذكية كمؤشر للثقة وفقًا لسلاسل برمجية تم اكتشافها في النسخة التجريبية من Google Play Services بإصدار 25.29.31، يبدو أن Google تعمل بهدوء على ترقية جديدة للميزة. تشير هذه السطور إلى أن الساعة الذكية المتصلة والموجودة بالقرب من الهاتف يمكن أن تُستخدم كمؤشر ثقة على أن الهاتف لا يزال في يد مالكه الشرعي. الآلية المقترحة لا تعني التخلي الكامل عن التحقق بالبصمة أو رمز المرور، لكنها قد تقلل من عدد مرات المطالبة بها. فإذا كانت الساعة الذكية مشغّلة بالفعل ومفتوحة عبر رمز PIN خاص بها، فبإمكان النظام اعتبار وجودها دليلاً إضافيًا على أن المستخدم هو من يحمل الجهاز، ما يساهم في تقليل التحقق المتكرر ويُبقي الأمان على مستواه دون تعقيد إضافي. خطوة ذكية نحو تجربة استخدام أكثر سلاسة رغم أن الميزة لا تزال قيد التطوير ولا يوجد تأكيد رسمي بشأن موعد إطلاقها أو شكلها النهائي، إلا أن هذه الخطوة تعكس تطور أدوات الحماية من السرقة في Android. استخدام الساعة الذكية كمفتاح أمان إضافي يعد تطورًا منطقيًا، طالما أن الهاتف والساعة لا يُسرقان معًا في نفس الوقت. في حال نُفذت الفكرة كما هو متوقع، فإن مستخدمي Android سيحصلون على وسيلة أكثر سلاسة وذكاءً لحماية أجهزتهم دون الشعور بأن الأمان يُبطئ تجربتهم اليومية، ما يمثل مكسبًا كبيرًا لأي مستخدم ضاق ذرعًا بإدخال رمز المرور مرارًا وتكرارًا لأداء مهام بسيطة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store