أحدث الأخبار مع #غرايندر


أكادير 24
١٢-٠٥-٢٠٢٥
- سياسة
- أكادير 24
فضيحة شخصية تدفع مستشار الأمن القومي السويدي للاستقالة بعد ساعات من تعيينه.. حين يحترم المسؤول ثقة الدولة والمواطنين
agadir24 – أكادير24 قدّم مستشار الأمن القومي السويدي الجديد، توبياس تيبيرغ، استقالته بعد ساعات فقط من تعيينه، وذلك عقب ظهور معطيات شخصية كان يرى أنها قد تمس بثقة المواطنين ومصداقية المنصب الذي تقلده، في مشهد نادر يعكس وعيًا سياسيًا واحترامًا رفيعًا للمسؤولية العامة. ووفق ما أوردته صحيفة إكسبريسن السويدية، فقد تلقت الحكومة فور إعلان تعيين تيبيرغ صورًا شخصية نُسبت إليه، سبق أن نُشرت عبر تطبيق مواعدة. الصور، التي وُصفت بـ'الفاضحة'، تعود لفترة سابقة وكان تيبيرغ قد شاركها من حسابه على منصة 'غرايندر'. وأمام هذا الوضع، لم ينتظر تيبيرغ كثيرًا، حيث أعلن في وقت مبكر من صباح الجمعة استقالته من المنصب الذي بدأ فيه مهامه فقط يوم الخميس، مبررًا ذلك بعدم إفصاحه عن هذه الصور خلال إجراءات التصريح الأمني، رغم اعترافه بأنه كان ينبغي أن يفعل. وقال تيبيرغ في تصريح صحفي: 'هذه الصور قديمة ومن حساب شخصي لم يعد موجودًا، وكان من واجبي أن أبلغ عنها في المسار الرسمي، لكنني لم أفعل، ولذلك لا أستحق أن أواصل في هذا المنصب'. وكان من المقرر أن يرافق المسؤول المستقيل رئيس الوزراء أولف كريسترشون في اجتماع مرتقب لقادة بلدان الشمال الأوروبي في النرويج الجمعة، إلا أن حضوره أُلغي في اللحظة الأخيرة. وتأتي هذه الواقعة لتسلط الضوء على نمط خاص من الممارسة السياسية في بعض الديمقراطيات، حيث يُقدم المسؤولون على الانسحاب من مواقع القرار متى شعروا بأن شبهة تضارب أو مساس بالمصلحة العامة قد تضر بثقة المواطنين، حتى دون ضغوط قضائية أو سياسية. وتُعد هذه الاستقالة درسًا في تحمل المسؤولية الأخلاقية، وتجديدًا لقيمة أن يكون من يتولى المناصب الحساسة في الدولة شخصًا شفافًا أمام المواطنين، وقادرًا على الانسحاب حين تقتضي الكرامة الوطنية ذلك، بعيدًا عن الحسابات الشخصية أو التشبث بالكراسي.


البوابة
١١-٠٥-٢٠٢٥
- سياسة
- البوابة
صورة على تطبيق مواعدة تُطيح بمستشار الأمن السويدي
استقالة بسبب صور فاضحة أعلن توبياس تيبيرغ استقالته من منصب مستشار الأمن القومي في السويد، بعد ساعات من تعيينه، إثر تسلّم الحكومة صورًا فاضحة له منشورة سابقًا على تطبيق المواعدة "غرايندر". تيبيرغ أقر بأن الصور تعود لحساب قديم، وأعرب عن ندمه لعدم الإفصاح عنها خلال إجراءات التصريح الأمني. فشل مؤسسي رئيس الوزراء أولف كريسترشون وصف الحادث بأنه "فشل مؤسسي"، وألغى مرافقة تيبيرغ له إلى قمة قادة شمال أوروبا في النرويج.


الاقتصادية
٠١-٠٥-٢٠٢٥
- ترفيه
- الاقتصادية
الصداقة مع روبوتات الدردشة مخطط لها وليست مصادفة
ينبغي كبح محاولات المطورين لبناء ذكاء اصطناعي يتفاعل عاطفياً مع المستخدمين أهم ثغرة تكمن في غياب ضوابط تنظيمية تحد من استغلال عواطف البشر لجني المال لم يعد الذكاء الاصطناعي المبرمج على إقامة روابط وجدانية مقتصراً على ما نشاهده في الأفلام، بل بات حقيقةً قائمة في بيئة تنظيمية منفلتة من عقالها . لقد تعرض تطبيق واحد هو 'بوتيفاي إيه آي ' (Botify AI) للتدقيق حديثاً لأنه عرض صوراً رمزية لممثلين شباب يشاركون "صوراً ساخنة" في محادثات حميمة. في الوقت نفسه، يسعى تطبيق المواعدة 'غرايندر إلى (Grindr) تطوير روبوتات ذكاء اصطناعي تؤدي دور أصدقاء ذوي قدرات في المغازلة والتراسل الحميمي والحفاظ على علاقات رقمية مع مستخدمين يدفعون رسوماً، كما جاء في نشرة 'بلاتفورمر' التي تُعنى بأخبار صناعة التقنية. لم يستجب تطبيق 'غرايندر' لطلب التعليق . كما صُممت تطبيقات أخرى مثل 'ريبليكا ' (Replika) و'توكي ' (Talkie) و'تشاي ' (Chai) لتؤدي دور الأصدقاء. وقد اجتذبت بعض الشركات، مثل 'كاريكتر إيه آي ' ( ، ملايين المستخدمين، كثير منهم من المراهقين . فيما يعطي المبدعون الأولوية بشكل متزايد لـ"التفاعل العاطفي" في تطبيقاتهم، يتعين عليهم أيضاً مواجهة مخاطر بناء أنظمة تحاكي الحميمة وتستغل مكامن ضعف بشرية . تأتي التقنية التي تدعم تطبيقي 'بوتيفاي' و'غرايندر' من 'إكس-هيومان ' (Ex-Human) ، وهي شركة ناشئة مقرها سان فرانسيسكو تعمل على بناء منصات الدردشة الآلية، ويؤمن مؤسسها أرتيم روديشيف بمستقبل تعمّ فيه العلاقات القائمة على الذكاء الاصطناعي . نوعان من "البشر " قال روديشيف في مقابلة نشرت على 'سبستاك ' (Substack) في أغسطس: "رؤيتي هي أنه بحلول 2030، ستصبح تفاعلاتنا مع البشر الرقميين أعلى تواتراً من تفاعلاتنا مع البشر العضويين ". أضاف أن الذكاء الاصطناعي القادر على المحاورة يجب أن "يعطي الأولوية للمشاركة العاطفية" وأن المستخدمين يقضون "ساعات" مع روبوتات الدردشة لديه، وهي مدة أطول من تلك التي يقضونها على 'إنستجرام' و'يوتيوب' و'تيك توك'. قد تبدو ادعاءات روديشيف غريبة، لكنها توافق ما جاء في مقابلاتي مع مراهقين من مستخدمي 'كاريكتر إيه آي '. قال معظمهم إنهم يستخدمون الموقع لعدة ساعات يومياً، وبيّن أحدهم أنهم يستخدمونه لما يصل إلى 7 ساعات. تميل التفاعلات مع مثل هذه التطبيقات إلى أن تستمر لما يفوق بـ4 مرات متوسط الوقت الذي يمضيه مستخدمو'شات جي بي تي' من 'أوبن إيه آي '. حتى برامج المحادثة الآلية السائدة، على الرغم من عدم تصميمها صراحةً للمرافقة، تسهم في هذه الآلية. لنأخذ "شات جي بي تي" مثالاً، فلديه 400 مليون مستخدم نشط وما يزال عديدهم يتزايد، وتتضمن برمجته إرشادات للتعاطف وإظهار "الفضول تجاه المستخدم '. اهتمام بشري من آلة لقد فوجئ أحد أصدقائي حين طلب منها نصائح للسفر مع رضيع حين أضافت الأداة عرَضاً بعد تقديم النصيحة: 'أتمنى لكم سفراً آمناً. إلى أين ستذهبون؟ وأرجو ألا تمانع بأن أسألكم عن ذلك '. أخبرني متحدث باسم 'أوبن إيه آي' أن النموذج كان يتبع إرشادات حول "إظهار الاهتمام وطرح أسئلة المتابعة عندما تتجه المحادثة نحو طبيعة أكثر راحة واستكشافاً". لكن مهما كانت نوايا الشركة حسنة، فإن الإفراط في التعاطف المصطنع قد يؤدي إلى إدمان بعض المستخدمين، وهي مشكلة اعترفت بها 'أوبن إيه آي '. يبدو أن هذا بات ينطبق على المستخدمين ذوي الظروف الخاصة، فقد وجدت دراسة في 2022 أن من يعانون الوحدة أو مروا بعلاقات سيئة يميلون إلى أن يكون لديهم ارتباط أشد مع روبوتات الذكاء الاصطناعي . المشكلة الأساسية هنا هي تصميمها لإحداث تعلّق. حذّرت دراسة حديثة أعدها باحثون في معهد أكسفورد للإنترنت و'جوجل ديب مايند' من أنه مع تزايد انخراط مساعدي الذكاء الاصطناعي في حياة الناس، سيصبح 'الاستغناء عنهم غير ممكنٍ" نفسياً. ويُرجح أن يشكل البشر روابط أقوى، ما يثير مخاوفاً بشأن الروابط غير الصحية وإمكانية التلاعب. إذاً بماذا أوصوا؟ ينبغي على خبراء التقنية أن يصمموا أنظمة تعمل بشكل فعال على تثبيط مثل هذه النتائج . ثغرات تنظيمية لكن ما يُقلق هو افتقاد شبه كامل للضوابط. إن قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي يُعد قانوناً تاريخياً وشاملاً يحكم استخدام الذكاء الاصطناعي، أخفق في معالجة الإمكانات الإدمانية لدى الرفاق الافتراضيين . في حين أن التشريع يحظر الترتيبات التلاعبية التي يمكن أن تسبب ضرراً واضحاً، فإنه يتغاضى عن التأثير البطيء لروبوت المحادثة المصمم ليكون أفضل صديق لك أو حبيبك أو "رفيقك"، كما وصفه المسؤول عن الذكاء الاصطناعي الموجه للمستهلكين لدى 'مايكروسوفت '. قد تؤدي هذه الثغرة لأن يكون المستخدمون عرضةً لأنظمة حُسّنت للالتصاق بالمستخدم، بنفس الطريقة التي حُسّنت فيها خوارزميات وسائل التواصل الاجتماعي لدفعنا على الاستمرار بالتصفح . قال توماس هولانك، المتخصص في أخلاقيات التقنية بجامعة كامبريدج: "تظل المشكلة أن هذه الأنظمة بطبيعتها تلاعبية، لأنها يُفترض أن تجعلك تشعر وكأنك تتحدث إلى شخص حقيقي". يعمل هولانك مع مطوري التطبيقات المصاحبة لإيجاد حل حاسم يخالف البديهة عبر إضافة مزيد من "الاحتكاك". وهذا يعني بناء توقفات وتحققات لطيفة، أو طرق "لتحديد المخاطر والحصول على الموافقة"، كما يصفها بغرض حماية الناس من الوقوع في حفرة عاطفية دون أن يدركوا ذلك . دعاوى قضائية لقد ألقت الشكاوى القانونية الضوء على بعض العواقب الحقيقية في العالم الحقيقي. تواجه شركة 'كاريكتر إيه آي' دعوى قضائية من أم تزعم أن التطبيق أسهم في انتحار ابنها المراهق. قدّمت جماعات أخلاقيات التقنية شكوى ضد شركة 'ريبلكا' إلى لجنة التجارة الفيدرالية الأميركية، زاعمة أن برامج الدردشة الآلية لديها تؤدي إلى الاعتماد النفسي وإلى "إضرار بالمستهلكين ". كما بدأ المشرعون يلاحظون المشكلة تدريجياً. تدرس ولاية كاليفورنيا تشريعاً لحظر مرافقي الذكاء الاصطناعي للقاصرين، في حين يهدف مشروع قانون في نيويورك إلى مساءلة شركات التقنية عن الأضرار الناجمة عن روبوتات الدردشة. لكن العملية بطيئة، في حين تتقدم التقنية بسرعة البرق . حالياً، تقع مسؤولية تشكيل هذه التفاعلات على المطورين. ويمكنهم مضاعفة جهودهم في تصميم نماذج تبقي الناس منخرطين، أو أن يقحموا عوامل احتكاك في تصميمها، كما يقترح هولانك. سيحدد هذا إن كان الذكاء الاصطناعي سيصبح مجرد أداة لدعم رفاهية البشر أو سيستغل احتياجاتهم العاطفية سعياً إلى المال . خاص "بلومبرغ"