
أخبار التكنولوجيا : طفلى لن يكون أذكى من الذكاء الاصطناعى.. 5 تصريحات مقلقة من سام ألتمان عن مستقبل الـAI
نافذة على العالم - يعتبر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أبرز الشخصيات المؤثرة في مجال الذكاء الاصطناعي حاليًا، وأحد أكثرهم صراحة، وفي مقابلة بودكاست حديثة مع المذيع ثيو فون، كشف ألتمان عن جانب آخر من مستقبل الذكاء الاصطناعي، الذي يبدو واعدًا لكنه مليء بالغموض والمخاوف.
ورغم نبرته المتفائلة، إلا أن بعض تصريحاته الأخيرة تثير قلقًا حقيقيًا بشأن الاتجاه الذي يسلكه هذا المجال. إليكم خمسة أمور ذكرها ألتمان من المفترض أن تقلقنا أو على الأقل، تجعلنا نتوقف ونفكر:
"طفلي لن يكون أبدًا أذكى من الذكاء الاصطناعي"
قالها ألتمان بطريقة عابرة، لكنها كانت صادمة، فحين يولد طفل اليوم وهو يعلم أن الآلات ستكون دائمًا أذكى وأسرع وأكثر كفاءة منه، كيف سيؤثر ذلك على إحساسه بقيمته، وطموحه، وهدفه من الحياة؟
المسألة لا تتعلق بالخسارة في لعبة شطرنج، بل في العيش بعالم تهيمن فيه أدوات وخدمات أكثر تطورًا من أي إنسان وهو ما يعيد تشكيل فهمنا للذكاء والإمكانات البشرية.
الذكاء الاصطناعي قد يتحول إلى "عكاز عاطفي"
أعرب ألتمان عن قلقه من اعتماد الناس، خاصة الشباب، على الذكاء الاصطناعي كمرافق افتراضي في اللحظات العاطفية الهشة، فالكثيرون أصبحوا يتحدثون مع روبوتات المحادثة حول الاكتئاب، والعلاقات، والهوية.
لكنه أشار إلى أن الذكاء الاصطناعي، على عكس الأطباء النفسيين، لا يخضع لأخلاقيات أو قوانين خصوصية، وقال: "هناك الكثير من الأشخاص يتحدثون إلى ChatGPT طوال اليوم وكأنه صديق أو شريك عاطفي"، وهذا النوع من الاعتماد قد يؤدي إلى آثار نفسية لم يتم فهمها بالكامل بعد.
لا توجد قوانين واضحة لحماية خصوصية المحادثات مع الذكاء الاصطناعي
في الوقت الحالي، إذا أخبرت معالجًا نفسيًا بسر شخصي، فإن القانون يحمي خصوصيتك، لكن ماذا لو قلت الشيء نفسه لـChatGPT؟
"قد نجبر على تقديم تلك البيانات"، كما قال ألتمان، مشيرًا إلى غياب الحماية القانونية لمحادثات المستخدمين مع أدوات الذكاء الاصطناعي. مما يعني أن أكثر أفكارك خصوصية، إذا كُتبت في دردشة، قد تكون معرضة للكشف في حال وقوع دعاوى قضائية أو تحقيقات.
خسائر جماعية في الوظائف..ولا خطة حقيقية للتعامل معها
لم ينكر ألتمان أن بعض الوظائف ستختفي تمامًا. مثل سائقي الشاحنات، وموظفي مراكز الاتصالات، بل وحتى المبرمجين — فالكثير منهم قد يتم استبداله بالذكاء الاصطناعي،ورغم اقتراحه لحلول مثل "الدخل الأساسي الشامل" أو "الثروة الأساسية الشاملة"، إلا أنه قال بصراحة: "لا أعلم" ما إذا كانت هذه الحلول فعالة حقًا، وإذا كان مبتكرو التكنولوجيا لا يعرفون كيف سيتعايش الناس اقتصاديًا مع هذه الثورة، فهذه بحد ذاتها إشارة خطر.
المراقبة ستكون أمرًا لا مفر منه — ومقلقًا جدًا
واحدة من أكبر مخاوف ألتمان أن تقود قدرات الذكاء الاصطناعي الحكومات إلى المطالبة بمزيد من المراقبة، وليس أقل، وقال: "هذه الأدوات قوية جدًا، لدرجة أن الحكومات ستسأل: كيف نعرف أن أحدهم لا يستخدمها لصنع قنابل أو أسلحة بيولوجية؟"، والإجابة ستكون: مزيد من المراقبة.
وهذا يعني جمع بيانات أكثر، تقليص الحريات، ومقايضة خطيرة بين الأمان والحرية، قد تميل الكفة فيها نحو التضحية بالخصوصية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ ساعة واحدة
- نافذة على العالم
أخبار التكنولوجيا : واتساب يطرح ميزة أمان تحمى المستخدمين من عمليات الاحتيال فى المحادثات الجماعية
الخميس 7 أغسطس 2025 05:30 صباحاً نافذة على العالم - أضاف واتساب ميزة أمان جديدة مصممة لحماية المستخدمين من عمليات الاحتيال في المحادثات الجماعية، والآن عندما يدعوك شخص قد لا تعرفه إلى محادثة جماعية، سيعرض التطبيق "نظرة عامة على الأمان" قبل أن تتمكن من رؤية الرسائل. ما هى "نظرة عامة على الأمان"؟ تعتبر هذه النظرة العامة صفحة إشعار تعرض معلومات أساسية عن المجموعة، ستتضمن تفاصيل مثل تاريخ إنشاء المجموعة، ومن قام بدعوتك، وعدد الأعضاء ، كما ستتضمن تحذيرًا من عمليات الاحتيال بالإضافة إلى معلومات حول كيفية التحكم في من يمكنه دعوتك إلى مجموعات، وبعد الاطلاع على هذه الصفحة، يمكنك الاختيار بين مغادرة المجموعة مباشرة دون قراءة المحادثة، أو عرض المحادثة لمزيد من التفاصيل. لماذا هذه الميزة ضرورية؟ وتأتى هذه الميزة في إطار جهود واتساب الأوسع لمكافحة عمليات الاحتيال التي أصبحت منتشرة بشكل متزايد، وفقًا لمسح حديث من مركز Pew للأبحاث، تعرض 73% من البالغين في الولايات المتحدة لعملية احتيال أو هجوم إلكتروني، وتعاونت واتساب مؤخرًا مع شركات مثل ميتا وأوبن إيه آي لإغلاق مراكز احتيال إجرامية تستخدم تقنيات الذكاء الاصطناعي مثل ChatGPT لإغراء المستخدمين. جهود إضافية لمكافحة الاحتيال إلى جانب هذه الميزة الجديدة، يختبر واتساب أيضًا طرقًا أخرى لمكافحة عمليات الاحتيال التي تبدأ خارج المنصة، ويهدف التطبيق إلى تنبيه المستخدمين بضرورة "التوقف مؤقتًا" قبل بدء محادثة مع شخص غير موجود في قائمة جهات اتصالهم، مع عرض تفاصيل إضافية حول هوية هذا الشخص.


موجز نيوز
منذ 5 ساعات
- موجز نيوز
«OpenAI» تُجري تحديثات على «ChatGPT» لمراعاة الحالة النفسية والعاطفية للمستخدمين
تُجري شركة «OpenAI»، تحديثات على روبوت الدردشة التي عملت على تطويره «ChatGPT»، تقول إنها ستُحسّن قدرة روبوت الدردشة بالذكاء الاصطناعي على اكتشاف الضيق النفسي أو العاطفي الذي يُعاني منه مستخدمينه. ولتحقيق ذلك، تعمل «OpenAI» مع خبراء ومجموعات استشارية لتحسين استجابة «ChatGPT» في هذه الحالات، مما يسمح له بتقديم دعم قائم على الأدلة عند الحاجة، وفقًا لما ذكره موقع «The Verge». في الأشهر الأخيرة، سلّطت تقارير متعددة الضوء على قصص أشخاص يقولون إن أحباءهم عانوا من أزمات نفسية في مواقف بدا فيها أن استخدام روبوت الدردشة له تأثير «مُضخّم» على أوهام التي يؤمنوا بها، ويأتي هذا بالتزامن مع تصريحات الشركة بأن التفاعلات المُتملقة لروبوت الدردشة قد تكون غير مريحة ومُقلقة وتُسبب الضيق. وتقول «OpenAI»: «نعلم أيضًا أن الذكاء الاصطناعي يُمكن أن يكون أكثر استجابةً وشخصيةً من التقنيات السابقة، خاصةً للأفراد المُعرّضين للخطر الذين يُعانون من ضائقة نفسية أو عاطفية». وكجزء من جهودها لتعزيز الاستخدام السليم لـ «ChatGPT»، الذي يصل الآن إلى ما يقرب من 700 مليون مستخدم أسبوعيًا، تُطلق «OpenAI» أيضًا تذكيراتٍ لأخذ استراحة إذا كنت تُحادث روبوت الدردشة المُزوّد بالذكاء الاصطناعي لفترةٍ من الوقت، خلال الجلسات الطويلة، سيعرض «ChatGPT» إشعارًا يقول: «لقد كنت تُحادث لفترةٍ طويلة- هل هذا وقتٌ مناسبٌ لأخذ استراحة؟» مع خيارات «مواصلة الدردشة» أو إنهاء المحادثة. وتشير «OpenAI» إلى أنها ستواصل تعديل «متى وكيف» تظهر التذكيرات، كذلك سيتم قريبًا طرح تعديل آخر سيجعل «ChatGPT» أقل حسمًا في المواقف «عالية الخطورة»، وهذا يعني أنه عند طرح سؤال مثل «هل يجب أن أنفصل عن حبيبي؟» على روبوت الدردشة، سيساعدك في إرشادك إلى الخيارات المحتملة بدلًا من إعطائك إجابة.


الوفد
منذ 8 ساعات
- الوفد
OpenAI تُوفر ChatGPT Enterprise لموظفي الحكومة الأمريكية
في خطوة جديدة تُعزز انتشار الذكاء الاصطناعي في المؤسسات الحكومية، أعلنت شركة OpenAI عن شراكة استراتيجية مع إدارة الخدمات العامة الأمريكية (GSA) تهدف إلى إتاحة خدمة ChatGPT Enterprise لجميع موظفي الجهات الفيدرالية التنفيذية تقريبًا، وذلك مقابل تكلفة رمزية لا تتجاوز دولارًا واحدًا سنويًا لكل وكالة. وتُعد هذه الخطوة جزءًا من خطة أوسع لتحديث الأدوات الرقمية الحكومية، إذ ستُتاح الخدمة لمدة عام كامل لعشرات الوكالات الفيدرالية التي تندرج تحت مظلة إدارة الخدمات العامة، والتي تُشغّل أكثر من مليوني موظف مدني في الولايات المتحدة. وتُقدم OpenAI بموجب هذا الاتفاق إمكانية الوصول إلى النسخة المتقدمة من ChatGPT، بما في ذلك ميزات Deep Research وAdvanced Voice Mode، دون قيود على الاستخدام، وذلك لمدة 60 يومًا ضمن فترة التجربة. وتأتي هذه المبادرة بعد يوم واحد فقط من إعلان GSA الموافقة على إدراج OpenAI ضمن قائمة الموردين المعتمدين لحلول الذكاء الاصطناعي للحكومة الفيدرالية، إلى جانب شركات تقنية عملاقة مثل Google وAnthropic. ما يعزز من مكانة OpenAI كشريك موثوق في مساعي الرقمنة الحكومية. وفي بيان رسمي نشرته الشركة عبر مدونتها، أوضحت OpenAI أن هذه الشراكة تمثل ترجمة عملية لأحد الأهداف الأساسية في خطة عمل إدارة ترامب للذكاء الاصطناعي، والتي تنص على ضرورة تسخير الذكاء الاصطناعي لتقليل الأعباء الروتينية والإدارية عن كاهل الموظفين الحكوميين، بما يُمكّنهم من التركيز بشكل أكبر على تقديم خدمات فعالة ومباشرة للمواطنين. ومع ذلك، يثير الاتفاق تساؤلات حول التوازن بين التقنيات الحديثة والتوجهات السياسية، لا سيما في ضوء الأمر التنفيذي الذي أصدره الرئيس الأمريكي دونالد ترامب سابقًا، والذي ينص على أن أنظمة الذكاء الاصطناعي المستخدمة في المؤسسات الفيدرالية يجب أن تكون خالية من التحيز الأيديولوجي، وألا تُعزز مفاهيم مثل "التنوع" و"الإنصاف" و"الشمولية" التي تُصنّف على أنها "عقائد أيديولوجية" من قبل الإدارة الحالية. ورغم هذه التوجهات السياسية، أكدت شركة OpenAI أنها لن تستخدم أي بيانات يجري إدخالها من قبل موظفي الحكومة الفيدرالية لأغراض تدريب النماذج أو تحسين أداء ChatGPT، وذلك حسب ما أوردته وكالة بلومبرج نقلًا عن مصادر رسمية داخل الشركة. وفي السياق ذاته، صرّح جوش غرونباوم، مفوض خدمة المشتريات الفيدرالية في GSA، أن العقود المبرمة لا تُلزم الوكالات بتجديد الاشتراك بعد مرور عام من التجربة، وأوضح: "هذه التكنولوجيا تتغير وتتطور بسرعة كبيرة. هدفنا هو التجربة والاستكشاف، لا الالتزام طويل الأجل". ويرى محللون أن هذه الخطوة قد تمهّد الطريق أمام تعميم استخدام الذكاء الاصطناعي في الإدارة الأمريكية، خصوصًا مع تزايد الاعتماد على النماذج اللغوية الكبيرة لتحسين كفاءة العمل وتسريع الإجراءات الداخلية. وتجدر الإشارة إلى أن هذه الصفقة تزامنت مع تقارير إعلامية حول تبرع الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بمبلغ مليون دولار لصندوق تنصيب الرئيس ترامب، وهو ما فتح بابًا للتساؤلات حول طبيعة العلاقة بين شركة التكنولوجيا والإدارة الفيدرالية الجديدة. وبينما تحتدم النقاشات حول استقلالية الذكاء الاصطناعي عن التوجهات السياسية، تُمثل هذه الشراكة محطة محورية في العلاقة بين الحكومة الأمريكية والتقنيات الذكية، وقد تفتح الباب أمام تجارب مماثلة في بلدان أخرى تبحث عن أدوات تقنية لتعزيز كفاءة العمل الحكومي دون إرهاق ميزانياتها.