أحدث الأخبار مع #تشات_جي_بي_تي


الغد
منذ 7 ساعات
- صحة
- الغد
هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟
في زمن تتشابك فيه الضغوط اليومية مع العزلة الرقمية، أصبح الإنسان أكثر حاجة إلى من يصغي له، حتى لو كان ذلك "المستمع" مجرّد تطبيق. منذ إطلاقه في نهاية 2022، فرض تشات جي بي تي وغيره من روبوتات المحادثة المدعومة بالذكاء الاصطناعي وجوده كـرفيق رقمي يتسلّل إلى تفاصيل الحياة اليومية لملايين المستخدمين حول العالم. اضافة اعلان من اختيار الكلمات في رسالة اعتذار، إلى المواساة عند الوحدة، أصبحت هذه الأدوات الذكية بمثابة ملاذٍ نفسي لدى البعض، ووسيلة فضفضة لدى آخرين. فهل نحن أمام ثورة في أدوات الدعم العاطفي؟ أم مجرد بديل مؤقت في غياب الأذن البشرية؟ وقد شهدت السنوات الأخيرة انتشاراً لافتاً لاستخدام روبوتات المحادثة ذات الأغراض العامة والتطبيقات الرقمية المتخصصة بالعلاج النفسي كأدوات دعم عاطفي. وبينما توفّر هذه الحلول الذكية متنفساً فورياً وطريقة سهلة للحصول على الأجوبة، يطرح استخدامها أسئلة جوهرية حول فعاليتها الحقيقية، وقدرتها على التعامل مع الحالات المعقدة، وحدودها الأخلاقية والعملية، فضلاً عن مخاطر الخصوصية. ما أسباب استخدام روبوتات المحادثة للحصول على الدعم النفسي؟ أصبح استخدام روبوتات المحادثة ذات الأغراض العامة مثل "تشات جي بي تي" و"ديب سيك" و"جميناي" وغيرها شائعاً بشكل متزايد كوسائل للحصول على الدعم العاطفي، رغم أنها لم تُصمَّم لهذا الغرض أساساً. وغالباً ما يلجأ المستخدمون إلى هذه المنصات لطلب النصيحة أو للتخفيف من التوتر أو لمجرد الفضفضة عند الشعور بالقلق أو الوحدة، بالأخص في حال صعوبة الوصول إلى خدمات الصحة النفسية التقليدية، أو في المجتمعات حيث لا تزال الصحة النفسية محاطة بوصمة اجتماعية. قدرة روبوتات الدردشة على تقديم المساعدة على مدار الساعة يتيح للأشخاص التواصل في أي وقت ومن أي مكان. وهو ما يُعتبر تحوّلاً جذرياً للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبة في الوصول إلى مراكز العلاج النفسي التقليدية. ما مخاطر استخدام روبوتات المحادثة العامة للدعم النفسي؟ رغم أن هذه الأدوات قد تمنح راحة مؤقتة، فهي ليست مؤهلة دائماً لتشخيص الحالات النفسية أو التعامل معها. فقد تخطئ في فهم السياق، أو تقدّم نصائح غير ملائمة، أو تعجز عن اكتشاف الحالات الحرجة مثل التفكير الانتحاري. كما لا تمتلك التطبيقات الحس الإنساني، فتفتقر إلى التعاطف الفعلي والقدرة على قراءة السياقات النفسية الدقيقة. ونظراً لاعتمادها على بيانات تدريبية واسعة، قد تكون متحيزة في بعض الأحيان، بالأخص ضد المجموعات المهمشة. إلى ذلك، تفتقر هذه المنصات إلى الإشراف المهني ولا تخضع لأي تنظيم طبي أو نفسي. وقد يؤدي الاعتماد المفرط على هذه الأدوات إلى عزوف المستخدمين عن طلب الدعم النفسي الفعلي، لأن الشعور الزائف بالاطمئنان قد يدفع الشخص الذي يعاني من اضطرابات إلى صرف النظر عن زيارة معالج نفسي مختص. ماذا عن التطبيقات المخصصة للصحة النفسية؟ تتفوق هذه التطبيقات المتخصصة مثل مثل "ويسا" (Wysa) و"ثيرابوت" (Therabot)، وغيرهما على روبوتات الدردشة العامة عند استخدامها للدعم النفسي، إذ صُمّمت بمراعاة المبادئ العلاجية ويشرف على تطويرها فرق من المتخصصين، ما يجعلها أكثر أماناً وفعالية في التعامل مع القضايا النفسية الحساسة. تسهم هذه التطبيقات في سد الفجوات في خدمات الصحة النفسية، من خلال توفير دعم يسير الكلفة ومتاح على مدار الساعة، لاسيما في المناطق التي تفتقر لخدمات الرعاية النفسية. وتشير بعض الدراسات إلى أنها قد تخفف أحياناً الأعراض النفسية بمستوى مماثل للعلاج التقليدي، كما توفّر مساحة آمنة للمستخدمين لمشاركة مشاعرهم الحساسة. وتؤدي أيضاً دوراً داعماً بين الجلسات العلاجية. ومع ذلك، يرى بعض الخبراء أن هذه الروبوتات تفتقر إلى التعاطف البشري، وقد تقدّم نصائح غير مناسبة، كما تثير مخاوف تتعلق بالخصوصية. لذا، ينصحون باستخدامها كأداة مساندة لا بديلاً عن الرعاية النفسية المتخصصة. كيف تتعامل هذه التطبيقات مع قضايا الخصوصية والأمان؟ يثير استخدام روبوتات المحادثة العامة للحصول على الدعم النفسي مخاوف تتعلق بالخصوصية والأمان. إذ يحذّر خبراء من أن البيانات الحساسة التي يشاركها المستخدمون قد تُخزَّن أو يُعاد استخدامها أو تتعرض للتسريب. ورغم أن شركات مثل "أوبن إيه أي" و"جوجل" طرحت أدوات للتحكم بالخصوصية، مثل خيار إلغاء حفظ البيانات، يرى منتقدون أن هذه الإجراءات غير كافية. وقد فتحت هيئات تنظيمية في أوروبا والولايات المتحدة تحقيقات وأرجأت إطلاق بعض هذه الخدمات بسبب المخاوف المتعلقة بالبيانات. هل يمكن للذكاء الاصطناعي أن يحلّ مكان المعالجين النفسيين؟ على الرغم من قدرة روبوتات المحادثة على تقديم دعم فوري ومنخفض التكلفة وخال من الوصمة الاجتماعية لمن يعانون من القلق أو الاكتئاب أو التوتر، فإنها تفتقر إلى العمق العاطفي، والحسّ الأخلاقي، والفهم الدقيق الذي يتمتع به الأطباء النفسيون البشر. وتعتمد هذه البرمجيات على ردود معدّة مسبقاً أو مستخلصة عبر نماذج تعلم آلي، ما يجعلها عاجزة عن إظهار التعاطف الحقيقي أو بناء علاقة علاجية أو التعامل مع الحالات النفسية المعقدة بمرونة. يقول الخبراء هذه الأدوات قد تُستخدم كحلول داعمة لسد الثغرات في خدمات الرعاية النفسية، خصوصاً في المناطق التي تفتقر لخدمات الصحة النفسية، لكنها ليست بديلاً عن المتخصصين المؤهلين لتشخيص الاضطرابات النفسية وعلاجها. ما السبيل الآمن لاستخدام الذكاء الاصطناعي في الصحة النفسية؟ مع ازدياد دمج الذكاء الاصطناعي في الرعاية النفسية، فإن النماذج الهجينة التي تجمع بين الدعم البشري والتقني قد تكون الحلّ الأمثل.يمكن لهذه التطبيقات أن تشكل نقطة دخول أو تشخيص أولي، على أن يتابع المستخدمون العلاج مع مختصين مرخصين. لكن نجاح هذه المبادرات يتوقف على رفع الوعي العام، وتنظيم القطاع، وتعزيز الثقافة الرقمية، بحسب موقع بلومبرغ. ما رأي الذكاء الاصطناعي في هذا الموضوع؟ طرحنا سؤالاً: "هل من الآمن استخدام الذكاء الاصطناعي للحصول على الدعم النفسي؟" على روبوت دردشة وأجاب بأن ذلك يمكن أن يكون أداة مساعدة لجوانب معينة من الدعم النفسي، لكن لا ينبغي أن يحل محل الاتصال البشري والمتخصصين في مجال الصحة النفسية. تضمنت الإجابة عدة جوانب إيجابية وأخرى سلبية، أبرزها: - الوصول السريع والمريح: يمكن للذكاء الاصطناعي أن يوفر مساعدة فورية في أي وقت، مما يجعله مفيداً للحصول على الدعم في اللحظات الحرجة أو عندما يصعب الوصول إلى الدعم البشري. - سرية المعلومات: قد يشعر بعض الأشخاص براحة أكبر في مشاركة مشاعرهم وأفكارهم مع نظام ذكاء اصطناعي مقارنة بمشاركة هذه المعلومات مع شخص حقيقي. - الدقة والتخصيص: يعتمد الأمان والفعالية على جودة النظام المستخدم. بعض البرمجيات المتطورة يمكن أن تقدم نصائح مبنية على البيانات والأبحاث الحديثة، في حين أن الأنظمة الأقل جودة قد تقدم نصائح غير دقيقة أو غير مناسبة. - القدرة على الفهم والتعاطف: يفتقر الذكاء الاصطناعي إلى القدرة على التعاطف والفهم العميق للحالة الإنسانية. قد يكون محدوداً في تقديم الدعم العاطفي المطلوب في الحالات المعقدة. - الأزمات النفسية الخطيرة: لا ينبغي الاعتماد على الذكاء الاصطناعي في حالات الأزمات النفسية الخطيرة أو التفكير الانتحاري. في مثل هذه الحالات، يجب التوجه إلى محترفين مؤهلين مثل الأطباء النفسيين أو المرشدين. - المخاوف الأمنية: يجب التأكد من أن أي منصة ذكاء اصطناعي تُستخدم للحفاظ على سلامة البيانات الشخصية وتطبيق سياسات الخصوصية. اقرأ أيضا: هل يمكن للذكاء الاصطناعي أن يكون معالجا نفسيا؟.. خبراء يجيبون


صحيفة الخليج
منذ 10 ساعات
- أعمال
- صحيفة الخليج
«مايكروسوفت» تعلن اعتماد أداة «غروك» للذكاء الاصطناعي في منصة «أزور»
أعلنت شركة «مايكروسوفت»، الاثنين، أنها ستضيف إلى «أزور»، وهي منصة حوسبة سحابية للمطورين، برنامج «غروك» القائم على الذكاء الاصطناعي التوليدي، في أعقاب جدل جديد بشأن هذه الأداة التي ابتكرتها شركة مملوكة للملياردير إيلون ماسك. وأثار «غروك» جدلاً خلال الأسبوع الفائت عندما ذكر عبارة «إبادة جماعية للبيض» في جنوب إفريقيا، وهو خطأ عزته شركة «اكس ايه آي» التي ابتكرت هذا النموذج وتمتلك أيضاً منصة «إكس» للتواصل الاجتماعي، إلى «تعديل غير مصرح به». وقال إيلون ماسك خلال مقابلة قصيرة مع الرئيس التنفيذي لشركة «مايكروسوفت» ساتيا ناديلا، بُثّت الاثنين خلال المؤتمر السنوي لشركة التكنولوجيا الكبرى «نسعى جاهدين من أجل الحقيقة». وأضاف: «ستكون هناك أخطاء دائماً، لكننا نسعى جاهدين للوصول إلى الحقيقة وتقليل عدد الأخطاء مع مرور الوقت وأعتقد أن ذلك مهم جداً لسلامة الذكاء الاصطناعي». ولن تشكل الإضافة المفاجئة لـ«غروك» إلى عدد كبير من نماذج الذكاء الاصطناعي التوليدي الأخرى المتوفرة على «أزور»، أخباراً سارة لشركة «أوبن ايه آي»، الشريك الرئيسي لـ«مايكروسوفت» في هذه التكنولوجيا. إطلاق «تشات جي بي تي» أطلقت «أوبن ايه آي» موجة الذكاء الاصطناعي التوليدي مع أداتها «تشات جي بي تي» في أواخر العام 2022 وتظل نجمة القطاع، خصوصاً بفضل استثمار «مايكروسوفت» بالمليارات فيها. هاجم إيلون ماسك باستمرار «أوبن ايه آي» في منصة «اكس» وفي القضاء، متهماً إياها بأنها «انتهكت» عقدها التأسيسي الذي يشير إلى أنها شركة غير ربحية وكان ماسك أحد مؤسسي هذه الشركة في العام 2015، لكنه استقال منها بعد ثلاث سنوات بسبب خلافات جوهرية. مهندسون قائمون على الذكاء الاصطناعي سجّل الرئيس التنفيذي لـ«أوبن ايه آي» سام ألتمان مداخلة في مؤتمر «مايكروسوفت» وتحدّث مباشرة مع ساتيا ناديلا لتسليط الضوء على أحدث الابتكارات. ستكون نماذج «غروك» مُتاحة على «أزور ايه آي فاوندري» وهي منصة توفر مئات النماذج للمطورين المشتركين في الخدمة، بما في ذلك نماذج «ديب سيك» و«ميسترال» و«ميتا». وأكد ناديلا أهمية الخيارات المتعددة التي تقدمها «فاوندري». وقال: «كمطورين، نحن مهتمون بأبعاد كثيرة: التكلفة والصدقية والوقت المستغرق وكذلك الجودة»، مضيفاً «أزور أوبن ايه آي هي الأفضل في فئتها، إذ تقدم ضمانات مثل الصدقية العالية وضوابط ممتازة للتكلفة». وتابع: «يسعدنا اليوم أن نعلن أنّ غروك المُبتكر من شركة اكس ايه آي سيُضاف إلى أزور». وكشفت «مايكروسوفت» النقاب أيضاً عن برنامج مساعد قائم على الذكاء الاصطناعي للمهندسين، قادر على الترميز عند الطلب ومتاح على «غيت هاب»، خدمة تطوير البرامج الخاصة بالشركة. تبرمج الأداة المساعدة الجديدة بشكل مستقل وتخطر المستخدم عند الانتهاء وتظهر كمبرمج بين آخرين داخل الفريق في المنصة. وليست البرامج المساعدة القائمة على الذكاء الاصطناعي والقادرة على البرمجة جديدة، لكنّ شركات التكنولوجيا العملاقة تَعِد منذ أشهر عدة بـ«مهندسين قائمين على الذكاء الاصطناعي» أكثر استقلالية وكفاءة. ويخشى عدد كبير من المراقبين والمنتقدين في سيليكون فالي من أن يؤدي ذلك إلى خسائر كبيرة في الوظائف. وقد شهدت «مايكروسوفت» حديثاً موجة جديدة من عمليات الصرف وأشار مصدر قريب من الملف إلى أن هذه الخطة الاجتماعية طالت «أقل من 3%» من القوى العاملة في المجموعة، أي نحو 6 آلاف شخص. «تعديل غير مصرح به» غالباً ما تتم برمجة نماذج الذكاء الاصطناعي التوليدي مسبقاً بواسطة مهندسين لتقديم محتوى معيّن أو تجنّب آخر أو للاستجابة بنبرة معينة، تركز نبرة «غروك» على الفكاهة بشكل خاص. واعتبر المستخدمون أن أحدث نموذج من شركة «أوبن ايه آي» متملق جداً، وأعلنت الشركة سريعا أنها ستجري تغييرات لتصحيح هذا الأمر. وبحسب لقطات شاشة، أشار «غروك» خلال الأسبوع الفائت إلى «إبادة جماعية للبيض» في جنوب إفريقيا رداً على أسئلة ليست على صلة بهذا الموضوع وهو ما يعكس الدعاية اليمينية المتطرفة بشأن القمع المزعوم للجنوب إفريقيين البيض. عندما سأله أحد المستخدمين عن سبب هوسه بالموضوع، أجاب روبوت المحادثة أن «منشئيه في اكس ايه آي أمروه بالتطرق إلى هذا الموضوع».

العربية
منذ 4 أيام
- أعمال
- العربية
"أوبن إيه آي" تساعد الإمارات في تطوير أحد أكبر مراكز البيانات بالعالم
تخطط شركة أوبن إيه.آي ، المدعومة من مايكروسوفت، تخطط للمساعدة في تطوير مركز بيانات جديد كبير في الإمارات. وذكرت وكالة بلومبرغ أن المركز ربما يصبح في نهاية المطاف أحد أكبر مراكز البيانات في العالم. وأضافت الوكالة، نقلًا عن أشخاص مطلعين، أن من المتوقع أن تكون الشركة المطوّرة لتطبيق "تشات جي.بي.تي" أحد المستأجرين الرئيسيين لمركز بيانات بقدرة 5 غيغاوات في أبوظبي. وأضاف التقرير أن مشاركة أوبن إيه.آي لم تُحسم بعد، ولكن ربما يصدر إعلان رسمي قريبًا. ووقّعت الإمارات والولايات المتحدة يوم الخميس اتفاقًا لبناء الدولة الخليجية أكبر مركز للذكاء الاصطناعي خارج الولايات المتحدة.


البيان
منذ 7 أيام
- أعمال
- البيان
«OpenAI» تدرس إنشاء مركز بيانات في الإمارات
تدرس شركة «أوبن إيه آي» (OpenAI) إمكانية إنشاء سعة جديدة لمركز بيانات في دولة الإمارات العربية المتحدة، في خطوة من شأنها تعزيز وجود الشركة في الشرق الأوسط بشكل ملحوظ، وفقاً لأشخاص مطلعين على الأمر. الصفقة لم تُحسم بعد وقد تطرأ عليها تغييرات، لكن من المتوقع الإعلان عنها هذا الأسبوع تزامناً مع زيارة الرئيس الأمريكي دونالد ترامب إلى الشرق الأوسط، بحسب الأشخاص الذين طلبوا عدم الكشف عن هوياتهم نظراً لسرية المحادثات. كما يتواجد الرئيس التنفيذي لشركة «أوبن إيه آي»، سام ألتمان، في المنطقة أيضاً في إطار جولة أوسع نطاقاً يشارك فيها عدد من قادة قطاع التكنولوجيا. تعزيز البنية التحتية للذكاء الاصطناعي صرحت «أوبن إيه آي»، المطورة لتطبيق «تشات جي بي تي»، مؤخراً أنها تتطلع إلى عقد شراكات مع حكومات وطنية بهدف تطوير مزيد من البنى التحتية للذكاء الاصطناعي خارج الولايات المتحدة، وتعزيز الريادة الأمريكية في هذا المجال. تأتي الصفقة المرتقبة ضمن سلسلة من التحركات الاستثمارية التي تشهدها المنطقة بالتزامن مع زيارة ترامب، والتي تتضمن أيضاً خططاً لمنح السعودية وصولاً أكبر إلى تقنيات أشباه الموصلات المتقدمة. استثمارات الإمارات في «أوبن إيه آي» تربط شركة «أوبن إيه آي» علاقة استراتيجية طويلة الأمد بدولة الإمارات، بدأت بشراكة عقدتها في عام 2023 مع شركة الذكاء الاصطناعي «جي 42» (G42). وفي عام 2024، تلقت «جي 42» استثماراً بقيمة 1.5 مليار دولار من شركة «مايكروسوفت»، الداعم الرئيسي لـ«أوبن إيه آي». كما شارك «إم جي إكس» (MGX)، في جولة تمويل أغلقتها «أوبن إيه آي» في أكتوبر بقيمة 6.6 مليارات دولار. ويخطط «إم جي إكس» أيضاً للمساهمة في مشروع مشترك قيمته 100 مليار دولار بين «أوبن إيه آي» و«سوفت بنك» (SoftBank Group) و«أوراكل» (Oracle) لتطوير بنية تحتية متقدمة للذكاء الاصطناعي داخل الولايات المتحدة. لا تزال تفاصيل السعة المستهدفة لمركز البيانات المزمع إنشاؤه في الإمارات غير واضحة، وفقاً للأشخاص المطلعين. ويعتمد تنفيذ المشروع بدرجة كبيرة على قدرة الشركة على استيراد رقائق متطورة من شركة «إنفيديا» (Nvidia)، وهي رقائق تُستخدم في تطوير وتدريب نماذج الذكاء الاصطناعي. وكانت الولايات المتحدة قد فرضت منذ عام 2023 قيوداً على تصدير هذه الرقائق إلى عدة دول بينها الإمارات، إلا أن إدارة ترامب تقترب حالياً من التوصل إلى اتفاق من شأنه تسهيل وصول الدولة إلى هذه التكنولوجيا، بحسب ما أوردته «بلومبرغ نيوز». الرقائق الأمريكية بين القيود والانفراجة أفادت «بلومبرغ نيوز» بأن الاتفاق الأمريكي قيد الدراسة حالياً قد يتيح للإمارات استيراد أكثر من مليون رقاقة متطورة من «إنفيديا»، على أن يُخصص معظمها لصالح شركات أمريكية تبني مراكز بيانات داخل الأراضي الإماراتية. وتُبدي إدارة ترامب استعداداً أكبر مقارنةً بعهد بايدن، للسماح بشحنات أشباه الموصلات إلى الشرق الأوسط. في وقت تعهدت دول خليجية بضخ استثمارات ضخمة في قطاعات التكنولوجيا والبنية التحتية الأمريكية.


الشرق الأوسط
١٣-٠٥-٢٠٢٥
- الشرق الأوسط
تطبيق «ميتا» للذكاء الاصطناعي... كارثة قد تهدد الخصوصية
منذ أن أطلق «تشات جي بي تي» ثورة الذكاء الاصطناعي التوليدي في نوفمبر (تشرين الثاني) 2022، أصبح التفاعل مع الذكاء الاصطناعي أشبه بغرفة اعتراف رقمية - خصوصية، حميمية، ومحمية من الرأي العام، (إلا إذا اخترت مشاركة شخص آخر). هذا على وشك أن يتغير جذرياً مع طرح «ميتا» لميزات التواصل الاجتماعي في تطبيقها المستقل للذكاء الاصطناعي، الذي صدر الأسبوع الماضي. قد تصبح تلك الاستفسارات الصامتة - «ما هذا الطفح الجلدي المحرج؟» أو «كيف يمكنني إخبار زوجتي أنني لم أعد أحبها؟» - مرئية قريباً لأي شخص يمرر علامة تبويب «اكتشف» (Discover) في التطبيق. وإذا كان المجتمع لا يزال يكافح من أجل فهم كيفية التعامل مع الذكاء الاصطناعي، فإن تغييرات «ميتا»، قد تزيد من الالتباس. بالنسبة للمستخدمين المتمرسين في مجال التكنولوجيا، قد يكون التحول من الخاص إلى العام أمراً سهلاً - على الأقل سيدركون حدوثه. لكن معظم الناس لا يراقبون كل تعديل في سياسات شركات التكنولوجيا الكبرى، وقد لا يدركون أن ما كان يبدو في السابق محادثة خاصة مع الذكاء الاصطناعي قد يصبح الآن مادة خصبة للجمهور، وجاهزاً للسخرية. (ولم تستجب «ميتا» لطلب «فاست كومباني» للتعليق). سرعان ما أصبح الذكاء الاصطناعي مزيجاً من محرك البحث والشخصية الرقمية الموثوقة. هل تذكرون الإحراج الناتج عن نشر رسالة خاصة علناً عن طريق الخطأ؟ تخيلوا الآن حدوث ذلك على نطاق واسع؛ حيث يتم الكشف من الملايين، دون علمهم، عن أسئلة وتجارب شخصية عميقة. هذا ليس مجرد قلق افتراضي، فمنشورات مستخدمي «ميتا» للذكاء الاصطناعي بدأت تظهر بالفعل في موجز التواصل الاجتماعي social feed للتطبيق، بما في ذلك الاستفسارات الشفهية التي تُطرح عبر الوضع الصوتي، مثل سؤال إحدى المستخدمات عن حمض الفوليك، الذي كشف أيضاً عن عمرها وحالتها بعد انقطاع الطمث. يبدو أن خلاصة «ديسكوفر» تُشكّل كارثةً في مجال الخصوصية، حيث يُشارك المستخدمون، دون قصد، تفاصيلَ لمنشورات خام وغير مُفلترة من حياتهم - بعيداً عن الصورة المُنتقاة والمصقولة التي اعتدنا على عرضها على منصات التواصل الاجتماعي. صرحت شركة «ميتا»، في بيان صحافي، بأن تطبيق الذكاء الاصطناعي الخاص بها يهدف إلى «ربطك بالأشخاص والأشياء التي تُهمّك»، ووصفت خلاصة «ديسكوفر» بأنها «مكانٌ للمشاركة واستكشاف كيفية استخدام الآخرين للذكاء الاصطناعي». وبينما تُصرّ الشركة على أنه «لا يُشارك أي شيء إلا إذا اخترت نشره»، فإن التطبيق يُحفّز الناس على المشاركة - بل والإفراط في المشاركة - سواءً أدركوا ذلك تماماً أم لا. * مجلة «فاست كومباني»، خدمات «تريبيون ميديا».