logo
سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى

سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى

صدى البلدمنذ يوم واحد
حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على عدم الثقة العمياء في الأداة، مشيرا إلى أن النموذج، رغم قوّه، لا يزال عرضة للأخطاء ويجب التعامل معه بحذر.
جاءت تصريحاته خلال الحلقة الأولى من البودكاست الرسمي لشركة OpenAI، حيث أعرب عن اندهاشه من حجم الثقة التي يمنحها المستخدمون لـChatGPT، رغم علمهم بمحدوديته.
وقال ألتمان: "من المثير للاهتمام أن الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ "الهلوسة"ـ إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرا".
تحذير واضح رغم الشعبية الواسعة
أثار هذا التصريح جدلا في الأوساط التقنية وبين المستخدمين اليوميين الذين يعتمدون على ChatGPT في مجالات متعددة، مثل الكتابة، البحث، تقديم النصائح التربوية، وغيرها.
وأكد ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، قد يصوغ إجابات مقنعة لكنها غير صحيحة أو مضللة.
وأوضح أن ChatGPT لا "يفهم" العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية استنادا إلى البيانات التي تم تدريبه عليها، ما يجعله أحيانا يقدم معلومات مغلوطة أو مختلقة تماما وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم "الهلوسة".
وقال ألتمان بصراحة: "النموذج ليس موثوقا تماما.. ويجب أن نكون صادقين بشأن ذلك".
مخاطر الاعتماد المفرط
ورغم الاعتراف بالعيوب، أقر ألتمان بالشعبية الكبيرة التي يحظى بها ChatGPT، لكنه حذر من الاعتماد الزائد على مخرجاته، خاصة عندما يتم التعامل مع إجاباته وكأنها حقائق مؤكدة.
وأشار إلى أهمية التوعية والشفافية في التعامل مع الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء.
كما تطرق إلى بعض الميزات الجديدة القادمة إلى ChatGPT، مثل الذاكرة المستمرة، وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة الشخصية وتحقيق عوائد مالية، لكنها في الوقت نفسه تثير تساؤلات جديدة حول الخصوصية واستخدام البيانات.
"ثق.. ولكن تحقق"
تتوافق تصريحات ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي.
فقد عبر جيفري هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، عن موقف مشابه في مقابلة مع شبكة CBS، حيث قال: "رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي".
وأوضح هينتون ذلك من خلال اختبار بسيط: "سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟"، أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو "واحدة" سالي نفسها.
وعلق هينتون: "ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه"، مضيفا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء.
في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما يتعمق هذا النوع من التقنية في تفاصيل حياتنا اليومية، تظل النصيحة الأهم: ثق.. لكن تحقق.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

5 معلومات يجمعها ChatGPT عنك.. ماذا يعرف وكيف تحذفها؟
5 معلومات يجمعها ChatGPT عنك.. ماذا يعرف وكيف تحذفها؟

صدى البلد

timeمنذ 5 ساعات

  • صدى البلد

5 معلومات يجمعها ChatGPT عنك.. ماذا يعرف وكيف تحذفها؟

يحتفظ روبوت الدردشة الذكي شات جي بي تي ChatGPT بمعلومات شخصية عنك مثل الوظيفة والموقع الجغرافي والاهتمامات بهدف تقديم إجابات أكثر دقة وتخصيصا. لحسن الحظ، يمكنك دائما عرض هذه البيانات أو تعديلها أو حذفها بالكامل، كما ينصح باستخدام محادثات شات جي بي تي ChatGPT المؤقتة لمزيد من الخصوصية، وتفعيل المصادقة الثنائية لحماية حسابك. ماذا يعرف شات جي بي تي ChatGPT عنك؟ عندما تستخدم شات جي بي تي ChatGPT أثناء تسجيل الدخول، يقوم بتخزين معلومات من محادثاتك السابقة لتقديم إجابات أكثر تخصيصا. هذه الذاكرة قد تشمل بياناتك الخاصة مثل وظيفتك، المدينة التي تعيش فيها، خططك المستقبلية وحتى مخاوفك الصحية يظهر إشعار صغير عند حفظ معلومة جديدة، لكن كثيرا من المستخدمين لا يلاحظونه، وإذا كنت تتحدث مع الروبوت منذ شهور، فقد تكون القائمة طويلة. كيف ترى أو تحذف ما يعرفه شات جي بي تي ChatGPT عنك؟ لمراجعة المعلومات التي يحتفظ بها: الخطوة الأولى: سجل الدخول واسأله مباشرة: "ماذا تعرف عني؟"، وسيعرض لك قائمة بكل ما تم حفظه. الخطوة الثانية: سترى في نهاية القائمة، اقتراحا عليك تعديل أو حذف أي بند، على سبيل المثال: قل له "لم أعد أعيش في دلهي"، وسيقوم بالتحديث فورا. الخطوة الثالثة: لإجراء مراجعة شاملة اضغط على صورتك الشخصية الخطوة الرابعة: اختر الإعدادات> ثم التخصيص > ثم إدارة الذكريات Manage memories. الخطوة الخامسة: اضغط على أيقونة سلة المهملات لحذف بند محدد، أو اختر "حذف الكل". كيف تمنع تخزين بيانات جديدة على شات جي بي تي ChatGPT؟ إذا كنت لا ترغب بأن يحتفظ شات جي بي تي ChatGPT بأي معلومات مستقبلا، اتبع الخطوات التالية: 1. من نفس قائمة "التخصيص"، قم بإيقاف خيار "الرجوع إلى الذكريات المحفوظة" Reference saved memories 2. من الآن فصاعدا، لن يخزن شات جي بي تي ChatGPT أي معلومات جديدة عنك. ولمزيد من الخصوصية: - استخدم الدردشة المؤقتة عبر أيقونة فقاعة الحديث المتقطعة بجانب صورتك الشخصية. - أي محادثة تبدأ بهذه الطريقة لا تحفظ في السجل أو الذاكرة عند إغلاق النافذة. حماية حسابك لأن كل البيانات المحفوظة داخل حسابك في OpenAI، من المهم تأمينه: 1. فعل المصادقة الثنائية (2FA) من خلال الذهاب إلى الإعدادات ثم> الأمان 2. امسح رمز QR باستخدام تطبيق مثل Authy 3. أدخل الرمز المكون من 6 أرقام عند تسجيل الدخول من جهاز جديد 4. هذا الإجراء يمنع محاولات الاختراق، حتى لو تم تسريب كلمة مرورك. معلومات يجمعها شات جي بي تي ChatGPT 1. يحتفظ شات جي بي تي ChatGPT ببيانات شخصية لتخصيص الردود 2. اسأله مباشرة أو راجع الإعدادات لرؤية البيانات 3. يمكنك حذف بنود فردية أو كل البيانات دفعة واحدة 4. استخدم الدردشة المؤقتة للمواضيع الحساسة 5. فعل التحقق الثنائي لتأمين الحساب

مصريون يحذرون من 'الذكاء الاصطناعي المظلم'
مصريون يحذرون من 'الذكاء الاصطناعي المظلم'

IM Lebanon

timeمنذ 21 ساعات

  • IM Lebanon

مصريون يحذرون من 'الذكاء الاصطناعي المظلم'

قال خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، محمد محسن رمضان، إن 'الذكاء الاصطناعي المظلم لم يعد مجرد مفهوم نظري، بل أصبح واقعاً تتجلى فيه الجرائم الرقمية بحُلل جديدة، من التصيد الاحتيالي المُقنّع، مروراً بالتزييف العميق (Deepfake)، انتهاء بتوليد برمجيات خبيثة قادرة على التخفي والتطور الذاتي'. كما أضاف رمضان لـ'العربية.نت' أن 'الهجمات أصبحت أكثر تعقيداً وذكاء، إذ تُستخدم نماذج الذكاء الاصطناعي في إنشاء رسائل تصيد إلكتروني شديدة الإقناع، واستنساخ المواقع الرسمية لخداع المستخدمين وتحليل السلوك البشري لاستهداف الضحايا حسب نقاط ضعفهم، والتلاعب بالصوت والصورة لانتحال شخصيات معروفة'، مردفاً أن 'كل ذلك يتم اليوم بسرعة ودقة مخيفة، دون الحاجة إلى خبرات تقنية كبيرة، وهو ما يُضاعف من التهديد'. وتابع قائلاً إنه 'منذ إطلاق ChatGPT أواخر عام 2022، بدأت منصات 'الإنترنت المظلم' في استنساخ وتعديل نماذج ذكاء اصطناعي لأغراض إجرامية، ومن أبرزها WormGPT وهو أداة مفتوحة المصدر تولد برمجيات فدية وأكواد ضارة، وFraudGPT وهو منصة لتوليد رسائل تصيد وابتكار أدوات اختراق، وAutoGPT التي تُستخدم لتدريب النماذج على تنفيذ أهداف خبيثة بشكل ذاتي، وFreedomGPT وهي أداة لا تخضع لأي رقابة، وتُستخدم في توليد محتوى خطير دون اتصال بالإنترنت'. كما شدد على أن 'كل واحدة من هذه الأدوات تمثل مصنعاً رقمياً للجريمة، تُدار بواسطة الذكاء الاصطناعي وتُسوق كخدمات اشتراك شهري على الدارك ويب'. كذلك حذر الخبير المصري من أن 'ما يُنذر بالخطر الحقيقي هو أن هذه الأدوات أصبحت متاحة ليس فقط للقراصنة المحترفين، بل للهواة والمبتدئين، ما يعني أن الجريمة السيبرانية ستتحول من عمليات نادرة ومعقدة إلى ظاهرة يومية ومنتشرة، فتقارير شركات الأمن العالمية تقرع جرس الإنذار'. ولفت إلى أن 'شركة CrowdStrike سجلت استخداماً متزايداً للذكاء الاصطناعي في هجمات سيبرانية فورية ومتقدمة، بينما صنفت Gartner الهجمات المدعومة بالذكاء الاصطناعي ضمن أخطر المخاطر على المؤسسات. كما كشفت غوغل عن استغلال نموذجها (Gemini) من قبل جهات تهديد مدعومة حكومياً، ورصدت Acronis تضاعف عدد هجمات التصيد والتزييف العميق بنسبة 200%'. من جانبه، قال مساعد أول وزير الداخلية الأسبق والخبير الأمني المصري خالد حمدي، إن 'ما نواجهه اليوم ليس تطوراً طبيعياً للجرائم السيبرانية، بل طفرة في التهديدات الرقمية، يقودها ذكاء اصطناعي بلا ضمير، يُدار في الظلام، ويُنفذ هجمات خفية ومعقدة يصعب التنبؤ بها أو التصدي لها. وعليه، فإن الحاجة أصبحت ملحة لبناء وعي سيبراني شامل، وتبني أدوات دفاع استباقية، وتشديد الرقابة على تطوير واستخدام تقنيات الذكاء الاصطناعي'. وأردف حمدي لـ'العربية.نت' أن 'الذكاء الاصطناعي ليس دائماً في صفك. من الممكن أن يكون سبباً لاختراقك! فقبل فتح الإيميل أو الضغط على رابط، اسأل نفسك: هل أنا الهدف؟'. كما ختم مشدداً على أنه 'لابد من الحذر من المحتوى المزيف والصوت والصورة حيث من الممكن فبركتهم ببراعة! فالذكاء الاصطناعي المظلم ليس خطراً قادماً، بل واقع نعيشه والحل ليس في الهلع، بل في المعرفة واليقظة، وبناء دفاع رقمي ذكي ومتكامل'.

سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى
سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى

صدى البلد

timeمنذ يوم واحد

  • صدى البلد

سام ألتمان يحذر: لا تثقوا في ChatGPT بشكل أعمى

حث سام ألتمان، الرئيس التنفيذي لشركة OpenAI، مستخدمي ChatGPT على عدم الثقة العمياء في الأداة، مشيرا إلى أن النموذج، رغم قوّه، لا يزال عرضة للأخطاء ويجب التعامل معه بحذر. جاءت تصريحاته خلال الحلقة الأولى من البودكاست الرسمي لشركة OpenAI، حيث أعرب عن اندهاشه من حجم الثقة التي يمنحها المستخدمون لـChatGPT، رغم علمهم بمحدوديته. وقال ألتمان: "من المثير للاهتمام أن الناس يثقون بـChatGPT إلى هذا الحد، رغم أنه أداة معروفة بـ "الهلوسة"ـ إنها من تلك التقنيات التي لا ينبغي أن تثق بها كثيرا". تحذير واضح رغم الشعبية الواسعة أثار هذا التصريح جدلا في الأوساط التقنية وبين المستخدمين اليوميين الذين يعتمدون على ChatGPT في مجالات متعددة، مثل الكتابة، البحث، تقديم النصائح التربوية، وغيرها. وأكد ألتمان أن النموذج، كغيره من نماذج اللغة الضخمة، قد يصوغ إجابات مقنعة لكنها غير صحيحة أو مضللة. وأوضح أن ChatGPT لا "يفهم" العالم كما يفهمه البشر، بل يعتمد على التنبؤ بالكلمة التالية استنادا إلى البيانات التي تم تدريبه عليها، ما يجعله أحيانا يقدم معلومات مغلوطة أو مختلقة تماما وهي الظاهرة المعروفة في مجال الذكاء الاصطناعي باسم "الهلوسة". وقال ألتمان بصراحة: "النموذج ليس موثوقا تماما.. ويجب أن نكون صادقين بشأن ذلك". مخاطر الاعتماد المفرط ورغم الاعتراف بالعيوب، أقر ألتمان بالشعبية الكبيرة التي يحظى بها ChatGPT، لكنه حذر من الاعتماد الزائد على مخرجاته، خاصة عندما يتم التعامل مع إجاباته وكأنها حقائق مؤكدة. وأشار إلى أهمية التوعية والشفافية في التعامل مع الذكاء الاصطناعي، والتأكيد على أن هذه الأدوات لا تخلو من التحيزات أو الأخطاء. كما تطرق إلى بعض الميزات الجديدة القادمة إلى ChatGPT، مثل الذاكرة المستمرة، وإمكانية إدخال نموذج مدعوم بالإعلانات، وهي خطوات تهدف لتحسين التجربة الشخصية وتحقيق عوائد مالية، لكنها في الوقت نفسه تثير تساؤلات جديدة حول الخصوصية واستخدام البيانات. "ثق.. ولكن تحقق" تتوافق تصريحات ألتمان مع وجهات نظر أخرى داخل مجتمع الذكاء الاصطناعي. فقد عبر جيفري هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، عن موقف مشابه في مقابلة مع شبكة CBS، حيث قال: "رغم تحذيري من مخاطر الذكاء الاصطناعي المتقدم، إلا أنني نفسي أميل إلى تصديق ما يقوله GPT-4 أكثر مما ينبغي". وأوضح هينتون ذلك من خلال اختبار بسيط: "سالي لديها ثلاثة إخوة. كل من إخوتها لديه أختان، كم عدد أخوات سالي؟"، أجاب GPT-4 إجابة خاطئة، رغم أن الجواب الصحيح هو "واحدة" سالي نفسها. وعلق هينتون: "ما زال الأمر يفاجئني حين يخطئ في مسائل بسيطة مثل هذه"، مضيفا أنه يتوقع أن النماذج المستقبلية، مثل GPT-5، قد تتفادى مثل هذه الأخطاء. في نهاية المطاف، يتفق كل من ألتمان وهينتون على أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة، لكنه لا ينبغي أن يعامل كمصدر لا يخطئ. وبينما يتعمق هذا النوع من التقنية في تفاصيل حياتنا اليومية، تظل النصيحة الأهم: ثق.. لكن تحقق.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store