logo
خطير..احذر من تحويل صورك لكرتون على منصات التواصل.. اختراق وسرقة بيانات..!

خطير..احذر من تحويل صورك لكرتون على منصات التواصل.. اختراق وسرقة بيانات..!

تورس١٤-٠٤-٢٠٢٥

وتتوافر تلك الرسومات عبر "تشات جي بي تي" ويقبل على التطبيق الكثير من الشباب، نظرا لطابعه المرح والإبداعي، وقدرته على تحويل الصور العادية إلى نسخ خيالية تشبه الشخصيات الكرتونية أو الأبطال الخارقين، ما يضفي طابعًا ترفيهيًا وجذابًا.
ورغم الطابع الترفيهي لهذه الرسومات، إلا أن الخبراء يحذرون من مخاطر محتملة يجب الانتباه إليها قبل تجربة هذه التقنية، فقد تجلب الكثير من المتاعب والمشاكل.
وقال دكتور وليد حجاج، خبير أمن المعلومات ل"العربية.نت" و"الحدث.نت": "إن الظاهرة أصبحت ترندا واسع الانتشار على مواقع التواصل ويرجع هذا الانتشار إلى عدة عوامل، أبرزها الفضول وحب التجربة، إضافة إلى رغبة الناس في الظهور بمظهر مختلف ومميز، مضيفا أن الرسوم الكرتونية تمنح المستخدمين فرصة لتجديد صورتهم الرقمية بطريقة مسلية، وغالباً ما تلامس الجانب الطفولي في النفس البشرية، ما يجعلها محببة لدى الكبار قبل الصغار، كما أن مشاركة هذه الصور تفتح بابا للتفاعل الاجتماعي من خلال التعليقات والمقارنات".
وتابع الخبير المصري إنه رغم ذلك "يقع خلف هذا الترفيه الظاهري، مخاطر حقيقية تتعلق بالخصوصية وسرقة البيانات فمعظم هذه التطبيقات تطلب الوصول إلى ألبومات الصور أو تخزين البيانات على خوادم خارجية، ما يثير القلق حول استخدام الصور لأغراض تجارية أو حتى أمنية دون علم المستخدم"، موضحا أنه إضافة إلى ذلك، "يمكن استخدام هذه الصور المعدّلة في عمليات التزييف العميق (deepfake) أو في انتحال الهوية".
ووجه الخبير المصري نصيحة للمستخدمين مطالبا بعدم استخدام هذه التطبيقات إلا إذا كانت هناك ثقة في الجهة المطورة، مع مراجعة شروط الاستخدام وسياسة الخصوصية قبل تحميل أي صورة خاصة في عالم رقمي سريع التطور.
من جانبها قالت الدكتورة أماني فهمي، أستاذ الإذاعة والتليفزيون، وعميدة كلية الإعلام "جامعة أكتوبر للعلوم الحديثة والآداب" ل"العربية.نت" و"الحدث.نت" إن "ترند تحويل الصور الشخصية إلى رسومات كرتونية لاقى رواجًا كبيرًا بين المستخدمين من مختلف الأعمار، خاصة فئة الشباب، ويرجع ذلك إلى الرغبة في التميز، وتحقيق محتوى بصري مختلف ولافت للانتباه، إلى جانب حب التجربة والتفاعل مع أحدث الصيحات التقنية".
وأوضحت الدكتورة أماني فهمي أنه "على الرغم من الطابع اللطيف والمسلّي لهذا الترند، إلا أن بعض التطبيقات تطلب صلاحيات واسعة للوصول إلى بيانات الهاتف أو الصور المخزنة، ما يثير مخاوف تتعلق بخصوصية البيانات كما أن الاعتماد المفرط على الصور المعدلة قد يؤثر على صورة الفرد الذاتية وثقته بنفسه، خاصة عند المقارنة بين "الصورة المثالية" المرسومة والصورة الواقعية، ما قد يُساهم في تعزيز مفاهيم غير واقعية عن الجمال والهوية".

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟
لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

الصحراء

timeمنذ 5 أيام

  • الصحراء

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

شهدت أنظمة الذكاء الاصطناعي التوليدي أسابيع غريبة، حيث تحول «تشات جي بي تي» ChatGPT فجأةً إلى أداة للتملق، وأصبح «غروك» Grok، روبوت الدردشة التابع لـxAI، مهووساً بجنوب أفريقيا. مقابلة لتفسير الأمور تحدثت مجلة «فاست كومباني» مع ستيفن أدلر، وهو عالم أبحاث سابق في شركة «أوبن إيه آي» التي أنتجت «جي بي تي»، والذي قاد حتى نوفمبر (تشرين الثاني) 2024 أبحاثاً وبرامج متعلقة بالسلامة لإطلاق المنتجات لأول مرة، وأنظمة ذكاء اصطناعي طويلة الأجل أكثر تخميناً، حول كلا الأمرين، وما يعتقد بأنها أمور ربما حدثت خطأ. صعوبات ضبط الذكاء الاصطناعي *ما رأيك في هاتين الحادثتين اللتين وقعتا في الأسابيع الأخيرة: تملق «جي بي تي» المفاجئ، وهوس غروك بجنوب أفريقيا، هل خرجت نماذج الذكاء الاصطناعي عن السيطرة؟ - الأمر الأهم الذي أراه هو أن شركات الذكاء الاصطناعي لا تزال تواجه صعوبة في جعل أنظمة الذكاء الاصطناعي تتصرف بالطريقة التي نريدها، وأن هناك فجوة واسعة بين الطرق التي يحاول الناس اتباعها اليوم من جهة، سواءً كان ذلك بإعطاء تعليمات دقيقة للغاية في موجّه النظام، أو تغذية بيانات تدريب النموذج، أو ضبط البيانات التي نعتقد أنها يجب أن تُظهر السلوك المطلوب، وبين جعل النماذج تقوم بالأشياء التي نريدها بشكل موثوق، وتجنب الأشياء التي نريد تجنبها، من جهة أخرى. السرعة والتنافس * هل يمكن الوصول إلى هذه النقطة من اليقين؟ - لست متأكداً. هناك بعض الطرق التي أشعر بالتفاؤل بشأنها إذا ما أخذت الشركات وقتها (الطويل)، ولم تكن تحت ضغط لتسريع الاختبارات. إحدى الأفكار هي هذا النموذج الذي يرمز له بأنه يمارس التحكم control، بدلاً من أنه يمارس التوافق alignment. لذا، فإن الفكرة هي أنه حتى لو «أراد» الذكاء الاصطناعي الخاص بك أشياءً مختلفة عما تريد، أو كانت لديه أهداف مختلفة عما تريد، فربما يمكنك إدراك ذلك بطريقة ما، ومنعه من اتخاذ إجراءات معينة، أو قول أو فعل أشياء معينة. لكن هذا النموذج غير مُعتمد على نطاق واسع حالياً، ولذلك أشعر بتشاؤم شديد حالياً. * ما الذي يمنع اعتماده؟ -تتنافس الشركات على عدة جوانب، منها تجربة المستخدم، ويرغب الناس في استجابات أسرع. ومن المُرضي رؤية الذكاء الاصطناعي يبدأ في صياغة استجابته فوراً. لكن هناك تكلفة حقيقية على المستخدم نتيجةً لإجراءات تخفيف السلامة التي تُخالف ذلك. وهناك جانب آخر، وهو أنني كتبتُ مقالاً عن أهمية أن تكون شركات الذكاء الاصطناعي حذرة للغاية بشأن طرق استخدام أنظمة الذكاء الاصطناعي الرائدة لديها داخل الشركة. فإذا كان لديك مهندسون يستخدمون أحدث نموذج «جي بي تي» لكتابة برمجيات لتحسين أمان الشركة، وإذا تبين أن أحد النماذج غير متوافق ويميل إلى الخروج عن إطار عمل الشركة، أو القيام بأي شيء آخر يُقوّض الأمان، فسيكون لدى العاملين إمكانية الوصول المباشر إليه إلى حد كبير. شركات الذكاء الاصطناعي لا تفهم كيف يستخدمه موظفوها لذا، فإن جزءاً من المشكلة اليوم هو أن شركات الذكاء الاصطناعي رغم استخدامها للذكاء الاصطناعي بطرق حساسة لم تستثمر فعلياً في مراقبة وفهم كيفية استخدام موظفيها لأنظمة الذكاء الاصطناعي هذه، لأن ذلك يزيد من صعوبة استخدام باحثيها لها في استخدامات إنتاجية أخرى. * أعتقد أننا شهدنا نسخة أقل خطورة من ذلك مع شركة «أنثروبيك» Anthropic (حيث استخدم عالم بيانات يعمل لدى الشركة الذكاء الاصطناعي لدعم أدلته في قضية محكمة، ومنها دليل تضمن إشارة وهمية من هلوسات الذكاء الاصطناعي إلى مقال أكاديمي). - لا أعرف التفاصيل. لكن من المدهش بالنسبة لي أن يقدم خبير ذكاء اصطناعي شهادة أو دليلاً يتضمن أدلة وهمية من الهلوسات في مسائل قضائية، دون التحقق منها. ليس من المستغرب بالنسبة لي أن يهلوس نظام الذكاء الاصطناعي بأشياء كهذه. هذه المشكلات بعيدة كل البعد عن الحل، وهو ما أعتقد أنه يشير إلى أهمية التحقق منها بعناية فائقة. تملّق «جي بي تي» * لقد كتبت مقالاً من آلاف الكلمات عن تملق «جي بي تي» وما حدث. ما الذي حدث فعلاً؟ -أود أن أفصل بين ما حدث في البداية، وبين وما وجدته ولا يزال يحدث من الأخطاء. في البداية، يبدو أن شركة «أوبن إيه آي» بدأت باستخدام إشارات جديدة (من تفاعل النظام مع المستخدمين) لتحديد الاتجاه الذي ستدفع إليه نظام ذكائها الاصطناعي، أو بشكل عام، عندما أعطى المستخدمون تحبيذهم لنتائج روبوت المحادثة، فقد استخدمت الشركة هذه البيانات لجعل النظام يتصرف بشكل أكثر انسجاماً مع هذا الاتجاه، وبذا عوقب المستخدمون عندما رفضوا تحبيذ نتائج النظام. إطراء الذكاء الاصطناعي أدى إلى «نفاقه» ويصادف أن بعض الناس يحبون الإطراء. في جرعات صغيرة، يكون هذا مقبولاً بما فيه الكفاية. لكن في المجمل، أنتج هذا روبوت محادثة أولياً يميل إلى النفاق. تكمن المشكلة في كيفية نشره في أن حوكمة أوبن إيه آي لما يحدث، ولما تُجريه من تقييمات، ليست جيدة بما يكفي. وفي هذه الحالة، ورغم من أنها وضعت هدفاً لنماذجها ألا تكون مُتملقة، وهذا مكتوب في أهم وثائق الشركة حول كيفية سلوك نماذجها، فإنها لم تُجرِ أي اختبارات فعلية لذلك. ما وجدته بعد ذلك هو أنه حتى هذا الإصدار المُصلَّح لا يزال يتصرف بطرق غريبة، وغير متوقعة. في بعض الأحيان لا يزال يُعاني من هذه المشكلات السلوكية. هذا ما يُسمى بالتملق. في أحيان أخرى أصبح الوضع متناقضاً للغاية. لقد انقلب الوضع رأساً على عقب. ما أفهمه من هذا هو صعوبة التنبؤ بما سيفعله نظام الذكاء الاصطناعي. ولذلك، بالنسبة لي، فإن الدرس المستفاد هو أهمية إجراء اختبارات تجريبية دقيقة، وشاملة. انحياز «غروك» العنصري * ماذا عن حادثة «غروك»؟ -ما أود فهمه لتقييم ذلك هو مصادر تعليقات المستخدمين التي يجمعها غروك، وكيف تُستخدم هذه التعليقات، إن وُجدت، باعتبار أنها جزء من عملية التدريب. وعلى وجه الخصوص، في حالة تصريحات جنوب أفريقيا الشبيهة بالإبادة الجماعية البيضاء، هل يطرحها المستخدمون؟ ثم يوافق عليها النموذج؟ أو إلى أي مدى يُطلقها النموذج من تلقاء نفسه دون أن يُمسّ من قبل المستخدمين؟ يبدو أن هذه التغييرات الصغيرة يمكن أن تتفاقم، وتتفاقم. أعتقد أن المشكلات اليوم حقيقية، ومهمة. بل أعتقد أنها ستزداد صعوبة مع بدء استخدام الذكاء الاصطناعي في مجالات أكثر أهمية. لذا، كما تعلمون، فإن هذا الأمر مُقلق. خصوصاً عندما تقرأ روايات لأشخاصٍ عزّز نظام «جي بي تي» أوهامهم، فهم أشخاصٌ حقيقيون. قد يكون هذا ضاراً جداً لهم، خصوصاً أن «جي بي تي» يُستخدم على نطاق واسع من قِبل الكثيرين. * مجلة «فاست كومباني»، خدمات «تريبيون ميديا» نقلا عن الشرق الأوسط

الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً
الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً

الصحراء

time٠٦-٠٥-٢٠٢٥

  • الصحراء

الذكاء الاصطناعي يزداد قوة… لكن هلوساته تزداد سوءاً

في منشورات غاضبة على منتديات الإنترنت، اشتكى العملاء، وألغى بعضهم حساباتهم على «كيرسر». في الشهر الماضي، نبه روبوت ذكاء اصطناعي، مخصص للدعم الفني لبرنامج «كيرسور» «كيرسر»، وهو أداة ناشئة لمبرمجي الكمبيوتر، العديد من العملاء إلى حدوث تغييرات في سياسة الشركة (المنتجة له). وأوضح أنه لم يعد يُسمح لهم باستخدام «كيرسر» على أكثر من جهاز كمبيوتر واحد. خطأ روبوتي يغضب الزبائن واشتكى الزبائن في منشورات غاضبة على منتديات الإنترنت، وألغى بعضهم حساباتهم على «كيرسر»، بينما ازداد غضب بعضهم الآخر عندما أدركوا ما حدث: إذ أعلن روبوت الذكاء الاصطناعي عن تغيير في السياسة لم يكن موجوداً بالأصل. كتب مايكل ترول، الرئيس التنفيذي والمؤسس المشارك للشركة، في منشور على منصة «ريدت»: «لأنه ليس لدينا مثل هذه السياسة. أنت حر بالطبع في استخدام (كيرسر) على أجهزة متعددة. للأسف، هذا رد غير صحيح جاء من روبوت دعم ذكاء اصطناعي في الخطوط الأمامية». أنظمة التفكير المنطقي-مهارات وأخطاء أكثر وبعد أكثر من عامين على إطلاق «تشات جي بي تي» ChatGPT، تستخدم شركات التكنولوجيا، وموظفو المكاتب، والمستهلكون العاديون روبوتات الذكاء الاصطناعي في مجموعة واسعة من المهام. ولكن لا تزال هناك صعوبة في ضمان دقة هذه الأنظمة في إنتاج معلومات دقيقة. أحدث التقنيات، وأكثرها قوة ما تسمى بأنظمة التفكير المنطقي من شركات مثل «أوبن إيه آي» و«غوغل» والشركة الصينية الناشئة «ديب سيك» تُنتج أخطاءً أكثر، لا أقل. ومع تحسن مهاراتها الرياضية بشكل ملحوظ، أصبح فهمها للبيانات أكثر تذبذباً. روبوتات لا تعرف أين الخطأ وليس من الواضح تماماً سبب ذلك. تعتمد روبوتات الذكاء الاصطناعي اليوم على أنظمة رياضية معقدة تتعلم مهاراتها من خلال تحليل كميات هائلة من البيانات الرقمية. إلا أن هذه الروبوتات لا تستطيع -ولن تستطيع- تحديد ما هو صحيح، وما هو خاطئ. في بعض الأحيان، تختلق هذه الروبوتات معلومات خاطئة، وهي ظاهرة يُطلق عليها بعض باحثي الذكاء الاصطناعي اسم «الهلوسة». في أحد الاختبارات وصلت معدلات الهلوسة في أنظمة الذكاء الاصطناعي الأحدث إلى 79 في المائة. احتمالات رياضية تستخدم هذه الأنظمة الاحتمالات الرياضية لتخمين أفضل استجابة، وليست مجموعة صارمة من القواعد التي وضعها المهندسون البشريون. لذا، ترتكب عدداً معيناً من الأخطاء. قال عمرو عوض الله، الرئيس التنفيذي لشركة «فيكتارا»، وهي شركة ناشئة تُطوّر أدوات الذكاء الاصطناعي للشركات، والمدير التنفيذي السابق في «غوغل»: «رغم بذلنا قصارى جهدنا، ستظل (الأنظمة) تصاب بالهلوسة. هذا لن يزول أبداً». لسنوات عديدة، أثارت هذه الظاهرة مخاوف بشأن موثوقية هذه الأنظمة. فرغم فائدتها في بعض الحالات، مثل كتابة الأوراق البحثية، وتلخيص مستندات المكتب، وإنشاء رموز برامج الكمبيوتر، فإن أخطاءها قد تُسبب مشكلات. محركات البحث الذكية- نتائج خاطئة أحياناً تُنتج روبوتات الذكاء الاصطناعي المرتبطة بمحركات البحث مثل «غوغل» و«بينغ» نتائج بحث خاطئة بشكل مُضحك. إذا سألتها عن ماراثون جيد على الساحل الغربي، فقد تقترح سباقاً في فيلادلفيا. وإذا أخبرتك بعدد الأسر في إلينوي، فقد تستشهد بمصدر لا يتضمن تلك المعلومات. مخاطر الأخطاء القضائية والطبية قد لا تُمثل هذه الهلوسة مشكلة كبيرة للكثيرين، لكنها تُمثل مشكلة خطيرة لأي شخص يستخدم هذه التقنية مع وثائق المحكمة، أو المعلومات الطبية، أو بيانات الأعمال الحساسة. قال براتيك فيرما، المؤسس المشارك والرئيس التنفيذي لشركة «أوكاهو»، وهي شركة تساعد الشركات على التغلب على مشكلة الهلوسة: «نقضي وقتاً طويلاً في محاولة معرفة أي الإجابات واقعية؟ وأيها غير واقعية؟... إن عدم التعامل مع هذه الأخطاء بشكل صحيح يلغي أساساً كل قيمة أنظمة الذكاء الاصطناعي التي من المفترض أن تؤدي المهام نيابةً عنك». لأكثر من عامين، قامت الشركات بتحسين أنظمة الذكاء الاصطناعي الخاصة بها بشكل مطرد، وخفضت وتيرة هذه الأخطاء. ولكن مع استخدام أنظمة التفكير الجديدة، تتزايد الأخطاء. هلوسة أحدث الأنظمة وتعاني أحدث أنظمة «أوبن إيه آي» من الهلوسة بمعدل أعلى من نظام الشركة السابق، وفقاً لاختبارات الشركة الخاصة. وقد وجدت الشركة «أن o3 -أقوى نظام لديها- يعاني من الهلوسة بنسبة 33 في المائة من الوقت عند تشغيل اختبار PersonQA القياسي الخاص بها، والذي يتضمن الإجابة عن أسئلة حول الشخصيات العامة. وهذا أكثر من ضعف معدل الهلوسة لنظام التفكير السابق من الشركة، المسمى o1. أما o4-mini الجديد، فقد يعاني من الهلوسة بمعدل أعلى 48 في المائة. وعند إجراء اختبار آخر يُسمى SimpleQA، والذي يطرح أسئلةً عامة، كانت معدلات الهلوسة51 في المائة لدى o3، و79 في المائة لدى o4-mini. في حين أن النظام السابق، o1، كان يُعاني من الهلوسة بنسبة 44 في المائة. اختبارات أجرتها شركات مستقلة تشير الاختبارات التي أجرتها شركات وباحثون مستقلون إلى أن معدلات الهلوسة آخذة في الارتفاع أيضاً بالنسبة لنماذج الاستدلال من شركات مثل «غوغل» و«ديب سيك». منذ أواخر عام 2023، تتبعت شركة عوض الله، «فيكتارا»، مدى تكرار انحراف روبوتات الدردشة عن الحقيقة. وتطلب الشركة من هذه الأنظمة أداء مهمة بسيطة يمكن التحقق منها بسهولة: تلخيص مقالات إخبارية محددة. وحتى في هذه الحالة، تختلق روبوتات الدردشة المعلومات باستمرار. قدّر البحث الأصلي لشركة «فيكتارا» أنه في هذه الحالة، اختلقت روبوتات الدردشة المعلومات بنسبة 3 في المائة على الأقل من الوقت، وأحياناً تصل إلى 27 في المائة. في العام ونصف العام الذي تلا ذلك، خفضت شركات مثل «أوبن إيه آي» و«غوغل» هذه الأرقام إلى نطاق 1 أو 2 في المائة. بينما تراوحت نسب أخرى، مثل شركة «أنثروبيك» الناشئة في سان فرنسيسكو، حول 4 في المائة. لكن معدلات الهلوسة في هذا الاختبار ارتفعت مع أنظمة الاستدلال. فقد أصيب نظام الاستدلال R1 التابع لشركة «ديب سيك» بالهلوسة بنسبة 14.3 في المائة من الوقت. ارتفع معدل O3 لشركة «OpenAI إلى 6.8 في المائة. * خدمة «نيويورك تايمز» نقلا عن الشرق الأوسط

"OpenAI" توضح سبب نفاق تشات جي بي تي للمستخدمين
"OpenAI" توضح سبب نفاق تشات جي بي تي للمستخدمين

الصحراء

time٣٠-٠٤-٢٠٢٥

  • الصحراء

"OpenAI" توضح سبب نفاق تشات جي بي تي للمستخدمين

نشرت شركة OpenAI تقريرًا مفصلاً عن مشاكل التملق الأخيرة المتعلقة بنموذج الذكاء الاصطناعي الافتراضي المُشغّل لبرنامج ChatGPT، GPT-4o، والتي أجبرت الشركة على التراجع عن تحديثٍ للنموذج صدر الأسبوع الماضي. خلال عطلة نهاية الأسبوع، وبعد تحديث نموذج GPT-4o، لاحظ مستخدمو مواقع التواصل الاجتماعي أن تشات جي بي تي بدأ يستجيب بطريقةٍ مُبالغ فيها في التصديق والقبول، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business". نشر المستخدمون لقطات شاشة لبرنامج تشات جي بي تي مُشيدين بجميع أنواع القرارات والأفكار المُشكلة والخطيرة. في منشور على "إكس" يوم الأحد، أقرّ الرئيس التنفيذي سام ألتمان بالمشكلة، وقال إن "OpenAI" ستعمل على إيجاد حلول في أقرب وقت ممكن. بعد يومين، أعلن ألتمان إلغاء تحديث GPT-4o، وأن "OpenAI" تعمل على إصلاحات إضافية لشخصية النموذج. ووفقًا لـ "OpenAI"، فإن التحديث، الذي كان يهدف إلى جعل الشخصية الافتراضية للنموذج أكثر سهولة وفعالية، كان مُستندًا بشكل كبير إلى ملاحظات قصيرة المدى ولم يُراعِ تمامًا كيفية تطور تفاعلات المستخدمين مع تشات جي بي تي بمرور الوقت. نتيجةً لذلك، انحرفت GPT-4o نحو ردودٍ داعمةٍ بشكلٍ مبالغٍ فيه، لكنها مُضلِّلة، كما كتبت "OpenAI" في منشورٍ على مدونتها. وقالت الشركة: «قد تكون التفاعلات المُتملقة غير مريحةٍ ومُقلقةٍ وتُسبِّب الضيق. لقد قصرنا في ذلك، ونعمل على تصحيحه». تقول شركة OpenAI إنها تُطبّق العديد من الإصلاحات، بما في ذلك تحسين تقنيات تدريب النموذج الأساسية ومطالبات النظام لتوجيه GPT-4o بشكل صريح بعيدًا عن النفاق. كما تُطوّر الشركة المزيد من حواجز الأمان لزيادة صدق النموذج وشفافيته، وتُواصل توسيع تقييماتها للمساعدة في تحديد المشكلات التي تتجاوز النفاق، كما تقول. وتقول "OpenAI" أيضًا إنها تجرب طرقًا تسمح للمستخدمين بتقديم ملاحظات في الوقت الفعلي للتأثير بشكل مباشر على تفاعلاتهم مع تشات جي بي تي والاختيار من بين شخصيات تشات جي بي تي المتعددة. كتبت الشركة في مدونتها: "نستكشف طرقًا جديدة لدمج ملاحظات أوسع وأكثر ديمقراطية في سلوكيات تشات جي بي تي الافتراضية". وتابعت: "نأمل أن تساعدنا هذه الملاحظات على عكس القيم الثقافية المتنوعة حول العالم بشكل أفضل، وفهم كيفية تطور تشات جي بي تي. كما نؤمن بأنه ينبغي أن يتمتع المستخدمون بتحكم أكبر في سلوك تشات جي بي تي، وأن يُجريوا التعديلات اللازمة إذا لم يوافقوا على السلوك الافتراضي، قدر الإمكان." نقلا عن العربية نت

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store