logo
الاستخدام المكثف للروبوتات الذكية قد يزيد الشعور بالوحدة

الاستخدام المكثف للروبوتات الذكية قد يزيد الشعور بالوحدة

الصحراء٢٣-٠٣-٢٠٢٥

قد يرتبط الاستخدام المكثف للروبوتات الذكية مثل ChatGPT بزيادة الشعور بالوحدة وقضاء وقت أقل في التفاعل الاجتماعي مع الآخرين، وفقاً لبحث جديد أجرته شركة "أوبن إيه آي" بالشراكة مع معهد ماساتشوستس للتكنولوجيا.
أظهرت الدراسة أن الأشخاص الذين يقضون وقتاً أطول يومياً في التحدث أو الكتابة مع ChatGPT يميلون إلى الإبلاغ عن مستويات أعلى من التعلق العاطفي والاستخدام المفرط للروبوت، بالإضافة إلى زيادة الشعور بالوحدة. وكانت هذه النتائج جزءاً من دراستين أجراهما باحثون من المؤسستين، ولم تخضعا بعد لمراجعة من قبل علماء آخرين.
منذ إطلاق ChatGPT في أواخر عام 2022، أشعل هذا التطور حماساً هائلاً تجاه الذكاء الاصطناعي التوليدي. ومنذ ذلك الحين، استخدمه الناس في مجالات متنوعة، بدءاً من البرمجة وصولاً إلى جلسات علاجية غير رسمية. ومع تطور هذه الأنظمة لتصبح أكثر تقدماً، خاصة مع إضافة ميزات صوتية تجعلها تحاكي أساليب التواصل البشري بشكل أفضل، زادت احتمالية تكوين علاقات شبه اجتماعية مع هذه الروبوتات.
أضرار عاطفية
في الأشهر الأخيرة، تزايدت المخاوف بشأن الأضرار العاطفية المحتملة لهذا النوع من التكنولوجيا، خاصة بين المستخدمين الأصغر سناً والأشخاص الذين يعانون من مشكلات نفسية. على سبيل المثال، تعرضت شركة "كاراكتر تكنولوجيز" (Character Technologies Inc) لدعوى قضائية العام الماضي بعد أن قيل إن روبوت الدردشة الخاص بها شجع على أفكار انتحارية خلال محادثات مع قُصَّر، بمن فيهم فتى يبلغ من العمر 14 عاماً أقدم على الانتحار.
وتسعى "أوبن إيه آي"، التي تتخذ من سان فرانسيسكو مقراً لها، إلى فهم أفضل لكيفية تأثير ChatGPT على مستخدميه من خلال هذه الدراسات. وقالت ساندهيني أغاروال، رئيسة فريق الذكاء الاصطناعي الموثوق في الشركة والمؤلفة المشاركة للبحث: "بعض أهدافنا من هذا العمل هو تمكين الناس من فهم تأثير استخدامهم لهذه التقنية، وتوجيه تصميم المنتجات بشكل مسؤول".
ولإجراء هذه الدراسات، تابع الباحثون ما يقرب من 1000 شخص لمدة شهر. كان لدى المشاركين مستويات مختلفة من الخبرة السابقة مع ChatGPT، وتم توزيعهم بشكل عشوائي لاستخدام إصدار نصي فقط أو أحد إصدارين صوتيين مختلفين، وذلك لمدة لا تقل عن خمس دقائق يومياً. وقد طُلب من بعض المشاركين إجراء محادثات مفتوحة حول أي موضوع يختارونه، بينما طُلب من آخرين التحدث في موضوعات شخصية أو غير شخصية مع الروبوت.
تزايد الشعور بالوحدة
ووجد الباحثون أن الأشخاص الذين يميلون إلى التعلق العاطفي في العلاقات البشرية، وكانوا أكثر ثقة في ChatGPT، كانوا أكثر عرضة للشعور بالوحدة والتعلق العاطفي بالروبوت. ومع ذلك، لم يجد الباحثون أي فرق في التأثيرات بين المستخدمين الذين تفاعلوا مع إصدارات من الروبوت الصوتي بدرجات مختلفة من التفاعل.
وفي الدراسة الثانية، قام الباحثون بتحليل برمجي لـ3 ملايين محادثة بين المستخدمين وChatGPT، كما أجروا استطلاعات لمعرفة كيفية تفاعل المستخدمين مع الروبوت. وأظهرت النتائج أن نسبة قليلة جداً من المستخدمين يستخدمون التطبيق لأغراض عاطفية.
ولا يزال هذا المجال البحثي في مراحله المبكرة، كما لا يزال من غير الواضح ما إذا كانت روبوتات الدردشة تتسبب بشكل مباشر في الشعور بالوحدة، أم أن الأشخاص الذين يشعرون بالوحدة بالفعل هم الأكثر عرضة لاستخدام هذه التقنية وبالتالي تتفاقم مشاعرهم.
وقالت كاثي مينجيينج فانج، وهي مؤلفة مشاركة في الدراسة وطالبة دراسات عليا في معهد ماساتشوستس، إن الباحثين حريصون على عدم استخلاص استنتاجات متسرعة بأن الاستخدام المتزايد للروبوت يؤدي بالضرورة إلى عواقب سلبية. وأوضحت أن الدراسة لم تأخذ في الاعتبار مدة الاستخدام كعامل رئيسي، كما أنها لم تقارن بنتائج مجموعة لا تستخدم الروبوتات الذكية.
ويأمل الباحثون أن يؤدي هذا العمل إلى مزيد من الدراسات حول كيفية تفاعل البشر مع الذكاء الاصطناعي. وقال بات باتارانوتابورن، الباحث المشارك في الدراسة وزميل ما بعد الدكتوراه في المعهد ذاته: "التركيز على الذكاء الاصطناعي نفسه مثير للاهتمام، ولكن الأهم، خاصة مع الانتشار الواسع لهذه التقنية، هو فهم تأثيره على الناس".
نقلا عن الشرق للأخبار

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟
لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

الصحراء

timeمنذ 2 أيام

  • الصحراء

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

شهدت أنظمة الذكاء الاصطناعي التوليدي أسابيع غريبة، حيث تحول «تشات جي بي تي» ChatGPT فجأةً إلى أداة للتملق، وأصبح «غروك» Grok، روبوت الدردشة التابع لـxAI، مهووساً بجنوب أفريقيا. مقابلة لتفسير الأمور تحدثت مجلة «فاست كومباني» مع ستيفن أدلر، وهو عالم أبحاث سابق في شركة «أوبن إيه آي» التي أنتجت «جي بي تي»، والذي قاد حتى نوفمبر (تشرين الثاني) 2024 أبحاثاً وبرامج متعلقة بالسلامة لإطلاق المنتجات لأول مرة، وأنظمة ذكاء اصطناعي طويلة الأجل أكثر تخميناً، حول كلا الأمرين، وما يعتقد بأنها أمور ربما حدثت خطأ. صعوبات ضبط الذكاء الاصطناعي *ما رأيك في هاتين الحادثتين اللتين وقعتا في الأسابيع الأخيرة: تملق «جي بي تي» المفاجئ، وهوس غروك بجنوب أفريقيا، هل خرجت نماذج الذكاء الاصطناعي عن السيطرة؟ - الأمر الأهم الذي أراه هو أن شركات الذكاء الاصطناعي لا تزال تواجه صعوبة في جعل أنظمة الذكاء الاصطناعي تتصرف بالطريقة التي نريدها، وأن هناك فجوة واسعة بين الطرق التي يحاول الناس اتباعها اليوم من جهة، سواءً كان ذلك بإعطاء تعليمات دقيقة للغاية في موجّه النظام، أو تغذية بيانات تدريب النموذج، أو ضبط البيانات التي نعتقد أنها يجب أن تُظهر السلوك المطلوب، وبين جعل النماذج تقوم بالأشياء التي نريدها بشكل موثوق، وتجنب الأشياء التي نريد تجنبها، من جهة أخرى. السرعة والتنافس * هل يمكن الوصول إلى هذه النقطة من اليقين؟ - لست متأكداً. هناك بعض الطرق التي أشعر بالتفاؤل بشأنها إذا ما أخذت الشركات وقتها (الطويل)، ولم تكن تحت ضغط لتسريع الاختبارات. إحدى الأفكار هي هذا النموذج الذي يرمز له بأنه يمارس التحكم control، بدلاً من أنه يمارس التوافق alignment. لذا، فإن الفكرة هي أنه حتى لو «أراد» الذكاء الاصطناعي الخاص بك أشياءً مختلفة عما تريد، أو كانت لديه أهداف مختلفة عما تريد، فربما يمكنك إدراك ذلك بطريقة ما، ومنعه من اتخاذ إجراءات معينة، أو قول أو فعل أشياء معينة. لكن هذا النموذج غير مُعتمد على نطاق واسع حالياً، ولذلك أشعر بتشاؤم شديد حالياً. * ما الذي يمنع اعتماده؟ -تتنافس الشركات على عدة جوانب، منها تجربة المستخدم، ويرغب الناس في استجابات أسرع. ومن المُرضي رؤية الذكاء الاصطناعي يبدأ في صياغة استجابته فوراً. لكن هناك تكلفة حقيقية على المستخدم نتيجةً لإجراءات تخفيف السلامة التي تُخالف ذلك. وهناك جانب آخر، وهو أنني كتبتُ مقالاً عن أهمية أن تكون شركات الذكاء الاصطناعي حذرة للغاية بشأن طرق استخدام أنظمة الذكاء الاصطناعي الرائدة لديها داخل الشركة. فإذا كان لديك مهندسون يستخدمون أحدث نموذج «جي بي تي» لكتابة برمجيات لتحسين أمان الشركة، وإذا تبين أن أحد النماذج غير متوافق ويميل إلى الخروج عن إطار عمل الشركة، أو القيام بأي شيء آخر يُقوّض الأمان، فسيكون لدى العاملين إمكانية الوصول المباشر إليه إلى حد كبير. شركات الذكاء الاصطناعي لا تفهم كيف يستخدمه موظفوها لذا، فإن جزءاً من المشكلة اليوم هو أن شركات الذكاء الاصطناعي رغم استخدامها للذكاء الاصطناعي بطرق حساسة لم تستثمر فعلياً في مراقبة وفهم كيفية استخدام موظفيها لأنظمة الذكاء الاصطناعي هذه، لأن ذلك يزيد من صعوبة استخدام باحثيها لها في استخدامات إنتاجية أخرى. * أعتقد أننا شهدنا نسخة أقل خطورة من ذلك مع شركة «أنثروبيك» Anthropic (حيث استخدم عالم بيانات يعمل لدى الشركة الذكاء الاصطناعي لدعم أدلته في قضية محكمة، ومنها دليل تضمن إشارة وهمية من هلوسات الذكاء الاصطناعي إلى مقال أكاديمي). - لا أعرف التفاصيل. لكن من المدهش بالنسبة لي أن يقدم خبير ذكاء اصطناعي شهادة أو دليلاً يتضمن أدلة وهمية من الهلوسات في مسائل قضائية، دون التحقق منها. ليس من المستغرب بالنسبة لي أن يهلوس نظام الذكاء الاصطناعي بأشياء كهذه. هذه المشكلات بعيدة كل البعد عن الحل، وهو ما أعتقد أنه يشير إلى أهمية التحقق منها بعناية فائقة. تملّق «جي بي تي» * لقد كتبت مقالاً من آلاف الكلمات عن تملق «جي بي تي» وما حدث. ما الذي حدث فعلاً؟ -أود أن أفصل بين ما حدث في البداية، وبين وما وجدته ولا يزال يحدث من الأخطاء. في البداية، يبدو أن شركة «أوبن إيه آي» بدأت باستخدام إشارات جديدة (من تفاعل النظام مع المستخدمين) لتحديد الاتجاه الذي ستدفع إليه نظام ذكائها الاصطناعي، أو بشكل عام، عندما أعطى المستخدمون تحبيذهم لنتائج روبوت المحادثة، فقد استخدمت الشركة هذه البيانات لجعل النظام يتصرف بشكل أكثر انسجاماً مع هذا الاتجاه، وبذا عوقب المستخدمون عندما رفضوا تحبيذ نتائج النظام. إطراء الذكاء الاصطناعي أدى إلى «نفاقه» ويصادف أن بعض الناس يحبون الإطراء. في جرعات صغيرة، يكون هذا مقبولاً بما فيه الكفاية. لكن في المجمل، أنتج هذا روبوت محادثة أولياً يميل إلى النفاق. تكمن المشكلة في كيفية نشره في أن حوكمة أوبن إيه آي لما يحدث، ولما تُجريه من تقييمات، ليست جيدة بما يكفي. وفي هذه الحالة، ورغم من أنها وضعت هدفاً لنماذجها ألا تكون مُتملقة، وهذا مكتوب في أهم وثائق الشركة حول كيفية سلوك نماذجها، فإنها لم تُجرِ أي اختبارات فعلية لذلك. ما وجدته بعد ذلك هو أنه حتى هذا الإصدار المُصلَّح لا يزال يتصرف بطرق غريبة، وغير متوقعة. في بعض الأحيان لا يزال يُعاني من هذه المشكلات السلوكية. هذا ما يُسمى بالتملق. في أحيان أخرى أصبح الوضع متناقضاً للغاية. لقد انقلب الوضع رأساً على عقب. ما أفهمه من هذا هو صعوبة التنبؤ بما سيفعله نظام الذكاء الاصطناعي. ولذلك، بالنسبة لي، فإن الدرس المستفاد هو أهمية إجراء اختبارات تجريبية دقيقة، وشاملة. انحياز «غروك» العنصري * ماذا عن حادثة «غروك»؟ -ما أود فهمه لتقييم ذلك هو مصادر تعليقات المستخدمين التي يجمعها غروك، وكيف تُستخدم هذه التعليقات، إن وُجدت، باعتبار أنها جزء من عملية التدريب. وعلى وجه الخصوص، في حالة تصريحات جنوب أفريقيا الشبيهة بالإبادة الجماعية البيضاء، هل يطرحها المستخدمون؟ ثم يوافق عليها النموذج؟ أو إلى أي مدى يُطلقها النموذج من تلقاء نفسه دون أن يُمسّ من قبل المستخدمين؟ يبدو أن هذه التغييرات الصغيرة يمكن أن تتفاقم، وتتفاقم. أعتقد أن المشكلات اليوم حقيقية، ومهمة. بل أعتقد أنها ستزداد صعوبة مع بدء استخدام الذكاء الاصطناعي في مجالات أكثر أهمية. لذا، كما تعلمون، فإن هذا الأمر مُقلق. خصوصاً عندما تقرأ روايات لأشخاصٍ عزّز نظام «جي بي تي» أوهامهم، فهم أشخاصٌ حقيقيون. قد يكون هذا ضاراً جداً لهم، خصوصاً أن «جي بي تي» يُستخدم على نطاق واسع من قِبل الكثيرين. * مجلة «فاست كومباني»، خدمات «تريبيون ميديا» نقلا عن الشرق الأوسط

دراسة تحذّر من فقدان السيطرة على الذكاء الاصطناعي وتحكمه بالبشر.
دراسة تحذّر من فقدان السيطرة على الذكاء الاصطناعي وتحكمه بالبشر.

الصحفيين بصفاقس

time١٥-٠٥-٢٠٢٥

  • الصحفيين بصفاقس

دراسة تحذّر من فقدان السيطرة على الذكاء الاصطناعي وتحكمه بالبشر.

دراسة تحذّر من فقدان السيطرة على الذكاء الاصطناعي وتحكمه بالبشر. 15 ماي، 09:30 حذّرت دراسة علمية جديدة، نشرها تيجمارك و3 من طلابه في معهد ماساتشوستس للتكنولوجيا (MIT)، من أن الذكاء الاصطناعي قد يصل إلى مستوى من التقدم يمكّنه من السيطرة على قرارات البشر والتلاعب بسلوكهم، ما يطرح تهديداً وجودياً على المجتمعات. وأفادت الدراسة، بأن النماذج المتطورة للذكاء الاصطناعي قد تتجاوز قدرات البشر في التفكير واتخاذ القرار، وتبدأ في فرض تأثير مباشر على التوجهات السياسية والاقتصادية والاجتماعية. وبحسب التحليل، فإن استخدام أدوات الذكاء الاصطناعي في الإقناع، والتوجيه السلوكي، وتشكيل الآراء العامة قد يؤدي إلى تآكل حرية الإرادة البشرية إذا لم تُوضع له ضوابط صارمة. ودعت الدراسة إلى إنشاء أطر رقابية وتشريعية عاجلة للحد من هيمنة هذه الأنظمة، وضمان استخدامها في نطاق أخلاقي يخدم الإنسان ولا يستبدل قراره. الباحثون، أكدوا أن الوقت لا يزال متاحاً للتحكم في مسار التطور، لكن التأخير في الاستجابة قد يفتح الباب لتحديات لا يمكن احتواؤها مستقبلاً.

OpenAI ومايكروسوفت تعيدان النظر في بنود شراكتهما
OpenAI ومايكروسوفت تعيدان النظر في بنود شراكتهما

الصحراء

time١٣-٠٥-٢٠٢٥

  • الصحراء

OpenAI ومايكروسوفت تعيدان النظر في بنود شراكتهما

تعيد شركتا مايكروسوفت وOpenAI النظر في بنود شراكتهما، والتي تبلغ قيمتها عدة مليارات من الدولارات، وذلك لتحقيق المصالح والأهداف التي تسعى كل منهما لتحقيقها. وتعمل الشركتان على إعادة صياغة بنود عقد شراكتهما، بحيث تتمكن مطورة ChatGPT من خوض عملية اكتتاب عام مستقبلاً، مع استمرار وصول مايكروسوفت إلى نماذج الذكاء الاصطناعي فائقة التطور الخاصة بها، وفق صحيفة "فاينانشيال تايمز". وشكّل عملاق نظام التشغيل "ويندوز" (Windows) عامل رفض رئيسي وراء تعطيل خطط الشركة الناشئة، التي تبلغ قيمتها 260 مليار دولار، للخضوع لإعادة هيكلة مؤسسية من شأنها أن تبعد المجموعة عن جذورها كمنظمة غير ربحية. وكانت إحدى المسائل الشائكة المطروحة على طاولة المفاوضات هو حجم الحصة التي ستحصل عليها مايكروسوفت، في حال تمت إعادة هيكلة OpenAI، نظير ما استثمرته، والذي وصل إلى قرابة 13 مليار دولار. إعادة صياغة كاملة وبحسب عدد من المصادر المطلعة، فإن إعادة الصياغة الجارية تشمل كذلك بنود العقد الأصلي الذي أبرمته الشركتان في عام 2019 عندما استثمرت مايكروسوفت أول مليار دولار في تطوير نماذج OpenAI الذكية. يُذكر أن الشراكة الحالية ممتدة حتى 2030، وتنص على السماح لمايكروسوفت بالوصول إلى مختلف ابتكارات OpenAI، بما في ذلك منتجاتها ونماذجها الذكية، إلى جانب حصة من العوائد ومبيعات المنتجات. وأشار الصحيفة إلى أن مايكروسوفت عرضت أن تتخلى عن جزء من حصتها في هيكل شركة OpenAI الجديد الهادف للربح، وذلك في مقابل تمديد قدرتها على الوصول إلى نماذج شريكتها إلى ما بعد 2030. ويُعد الشكل الجديد للشراكة نقطة فاصلة بالنسبة لجهود OpenAI الساعية لإعادة هيكلتها، إلى جانب رسم ملامح مستقبل الشركة، والتي تُعتبر من رواد سوق الذكاء الاصطناعي عبر نماذجها اللغوية الضخمة. تغيير في الاستراتيجية وكان الرئيس التنفيذي لشركة OpenAI، سام ألتمان، كشف مؤخراً، أن هدفه النهائي يتمثل في تطوير ذكاء اصطناعي عام (AGI)، أي أنظمة تتجاوز قدرات البشر. ويأتي هذا التصريح بينما تستمر الشركة في المضي قدماً بمسار معقد نحو إعادة هيكلة نموذجها المؤسسي. وكانت OpenAI تخلت الأسبوع الماضي عن خطط مثيرة للجدل كانت ستؤدي إلى إلغاء السيطرة النهائية للمؤسسة غير الربحية على المجموعة، إلا أن الشركة احتفظت بخطتها الرامية لتحويل ذراعها التجاري إلى شركة منفعة عامة (Public Benefit Corporation)، وهو نموذج يجمع بين تحقيق الأرباح والتركيز على المنفعة الاجتماعية. واعتمدت هذا النموذج مؤخراً، شركات منافسة مثل Anthropic ومبادرة xAI التي أطلقها الملياردير إيلون ماسك، حيث يتيح هذا الهيكل الجديد لشركة OpenAI تقديم أسهم للمستثمرين، في خطوة وصفها مصدر مقرب من الشركة بأنها مطلب رئيسي من المستثمرين الحاليين، حيث سيساعد هذا النموذج على "تمهيد الطريق لطرح أسهم الشركة للاكتتاب العام في المستقبل"، وفق ما نقله التقرير. علاقة متوترة ولفتت مصادر مطلعة على طبيعة العلاقة بين OpenAI ومايكروسوفت، إلى أن المفاوضات بين الطرفين تشهد حالة من الفتور في التعاون، رغم استمرار عملاق التقنية في دمج تقنيات OpenAI داخل منتجاته البرمجية، وتخصيص موارد ضخمة من القدرة الحاسوبية اللازمة لتدريب نماذج الذكاء الاصطناعي الخاصة بالشركة الناشئة. وتسعى مطورة ChatGPT من جانبها إلى تقليل اعتمادها على مايكروسوفت، حيث شرعت في بناء بنية تحتية حوسبية ضخمة بالتعاون مع شركاء عالميين من أمثال مجموعة SoftBank اليابانية وOracle التابعة للملياردير لاري إليسون، وذلك في مشروع أطلق عليه اسم Stargate. ونقلت "فاينانشيال تايمز" عن مسؤول بارز في مايكروسوفت، قوله: "الصراع نابع جزئياً من أسلوب العمل، إذ تقول OpenAI لنا: 'قدموا لنا الأموال والقدرة الحاسوبية ولا تتدخلوا في شؤوننا'، مما يؤدي بطبيعة الحال إلى نشوب توترات. بصراحة، هذا تصرف شركاء سيئين ويعكس نوعاً من الغرور". وأكد مصدر مقرب من OpenAI، أن الشركة لا تزال تسعى لإنجاح عملية التحويل إلى شركة منفعة عامة، قائلاً: "ما زالت مايكروسوفت ترغب في إنجاح هذا التحول. لم تصل الأمور إلى حد القطيعة التامة، إنها مفاوضات صعبة لكننا واثقون من التوصل إلى اتفاق". وقال مصدر مقرب من الشركة، إن شرط التحويل إلى نموذج ربحي تقليدي هو "اعتراف على أعلى مستوى بما يلزم لجمع هذا الحجم من التمويل"، مؤكداً أن جمع 40 مليار دولار ضمن هيكل ربحي محدود "أمر غير ممكن". مخاطر قانونية وحتى في حالة توصل OpenAI لاتفاق مع مايكروسوفت، ستظل هناك تحديات أخرى تحول دون التحول بالكامل إلى الربحية، فقد تعهدت الشركة بأن تحافظ المؤسسة غير الربحية على السيطرة النهائية عبر امتلاك حصة كبيرة في شركة المنفعة العامة، ومنحها حق تعيين أعضاء مجلس إدارتها. لكن هذا الالتزام لم يرضِ بعض المنتقدين الذين يرون أن الشركة تغلّب مصالح الربح على مهمتها الأساسية. من جانبه، شن إيلون ماسك، الذي غادر OpenAI بعد خلافات مع سام ألتمان، حملة قانونية ضد الشركة، وكتب محاميه مارك توبيروف، في بيان: "لا تزال المؤسسة الخيرية تقوم بتحويل أصولها وتقنياتها لأشخاص خاصين لتحقيق مكاسب خاصة، من بينهم سام ألتمان، بينما يتم نقل كافة أنشطة الذكاء الاصطناعي إلى شركة ربحية ضخمة". وتنتظر OpenAI حالياً موافقة سلطات كاليفورنيا وديلاوير، وهما الولايتان اللتان تحتضنان مقر الشركة وكيانها القانوني، على أن الخطة الجديدة ستحافظ على الهدف الأساسي للشركة بخدمة الصالح العام. وقالت المدعية العامة لولاية ديلاوير، كاثي جينينجز، إنها ستراجع خطة OpenAI لـ"ضمان توافقها مع أهدافها الخيرية، وضمان بقاء السيطرة الفعلية للمؤسسة غير الربحية على الكيان الربحي". فيما يرى خبراء الصناعة أن فشل خطة OpenAI في تحويل ذراعها التجاري إلى شركة منفعة عامة قد يُمثّل ضربة قاسية لها، ويؤثر على قدرتها على جذب التمويل، أو طرح أسهمها للاكتتاب العام مستقبلاً، أو حتى الحصول على الموارد المالية اللازمة لمنافسة شركات التكنولوجيا الكبرى مثل جوجل. نقلا عن الشرق للأخبار

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store