6 أخطاء شائعة في استخدام روبوتات الدردشة الذكية
سرايا - نشرت صحيفة "واشنطن بوست" الأمريكية تقريرًا تحذيريًا حول الاستخدام المتزايد لروبوتات الدردشة الذكية مثل "ChatGPT" و"Google Gemini" و"Claude"، مشيرة إلى مجموعة من الأخطاء الشائعة التي يقع فيها المستخدمون، والتي قد تُعرض خصوصيتهم وسمعتهم للخطر.
وبحسب الصحيفة، فإن العديد من المستخدمين أصبحوا يعتمدون على هذه الأدوات في أعمالهم اليومية، سواء في الكتابة أو البحث أو حتى التواصل الشخصي، دون إدراكهم الكامل للمخاطر المحتملة.
روبوت دردشة بالذكاء الاصطناعي.. واتساب يقدم أداة جديدة
وفيما يلي أبرز 6 نصائح قدّمها التقرير لتجنب الاستخدام الخاطئ لهذه الأدوات الذكية:
احذر من النشر العلني دون قصد
بعض المنصات، مثل "Meta AI"، تتيح للمستخدمين مشاركة المحادثات عبر الإنترنت عبر زر "النشر العام"، حيث حذرت الصحيفة من مشاركة محتوى قد يكون حساسًا دون التأكد من إعدادات الخصوصية.
لا تعامل الروبوت كمستشار عاطفي أو صديق
رغم قدرة الذكاء الاصطناعي على محاكاة اللغة والمشاعر، إلا أنه لا يفهم السياق الإنساني الحقيقي. الاعتماد عليه في مشكلات شخصية قد يعطي انطباعًا زائفًا بالارتباط أو الفهم.
تحقّق من صحة المعلومات دائمًا
روبوتات الدردشة قد تولّد معلومات خاطئة بثقة، في ما يُعرف بـ"الهلاوس". التقرير ينصح بعدم الاعتماد الكامل عليها كمصدر موثوق للمعلومة دون التحقق من مصادر أخرى.
لا تستخدم النصوص كما هي
ينصح الخبراء بإعادة صياغة المحتوى الناتج عن الذكاء الاصطناعي ليكون أكثر أصالة وإنسانية، خاصة في الخطابات أو الرسائل أو المحتوى الإبداعي.
كن حذرًا من مشاركة البيانات الحساسة
بعض المنصات قد تحتفظ بمحادثاتك لسنوات وتستخدمها في تدريب النماذج، مما يزيد من مخاطر الخصوصية. مشاركة معلومات بنكية أو شخصية حساسة غير مستحبة إطلاقًا.
فكر دائمًا في سيناريو التسريب
ودعا التقرير المستخدمين للتفكير في النتائج لو تسربت محادثاتهم إلى العلن، سواء في وسائل الإعلام أو المحاكم أو عبر منصات التواصل الاجتماعي.
وختمت الصحيفة تقريرها بالتشديد على أن أدوات الذكاء الاصطناعي التوليدي هي "وسائل مساعدة وليست بدائل"، مشيرة إلى أنها تفتح آفاقًا واسعة للإبداع والتفكير، لكنها لا تزال تفتقر للفهم والسياق الإنساني الحقيقي، وتبقى المسؤولية النهائية على عاتق المستخدم.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


جفرا نيوز
منذ 2 ساعات
- جفرا نيوز
"الديون المعرفية".. هكذا يؤثر "تشات جي بي تي" على دماغ الإنسان
جفرا نيوز - وجد الباحثون أن استخدام (ChatGPT) يُضعف الاتصال العصبي والذاكرة والشعور بالمسؤولية خلصت دراسة علمية مهمة ولافتة إلى أن برنامج المحادثة القائم على الذكاء الاصطناعي، والذي يحظى برواج كبير في العالم، "تشات جي بي تي"، يؤثر على دماغ الإنسان ويؤدي إلى آثار تظل لطول العُمر. وجاءت النتائج اللافتة في دراسة جديدة أجراها باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) بعنوان "دماغك على ChatGPT: تراكم الديون المعرفية عند استخدام مساعد ذكاء اصطناعي في كتابة المقالات". وبحسب تقرير نشره موقع "بي سايكولوجي توداي" المتخصص واطلعت عليه "العربية نت"، فقد توصل الباحثون إلى نتائجهم باستخدام تخطيط كهربية الدماغ (EEGs) والتحليل اللغوي ومقابلات ما بعد المهمة، ووجدوا أن استخدام (ChatGPT) يُضعف الاتصال العصبي والذاكرة والشعور بالمسؤولية. وبينما سمح استخدام الذكاء الاصطناعي بتسهيل المهام، إلا أن قلة الجهد المطلوب قد تُضعف، مع مرور الوقت، الإدراك والتفكير النقدي والإبداع. ويقول التقرير إن هذه النتائج تُثير قلقاً طويل الأمد لم يتم الإجابة عليه بعد، وهو أنه مع تزايد الاستعانة بالذكاء الاصطناعي في العمليات المعرفية، هل سيؤثر ذلك على مرونتنا العصبية ونمونا ومهارات التفكير النقدي وقدرتنا على التعلم مع مرور الوقت؟ وقسم الباحثون 54 طالباً مشاركاً إلى ثلاث مجموعات، وقاموا بتقييمهم على مدار أربعة أشهر، أما المجموعة الأولى فاستخدمت تطبيق "تشات جي بي تي" حصرياً لكتابة المقالات، والمجموعة الثانية هي مجموعة محركات البحث، واستخدمت عمليات بحث تقليدية على الإنترنت مثل غوغل (بدون ذكاء اصطناعي)، والمجموعة الثالثة هي مجموعة الدماغ فقط، وهذه المجموعة كتبت مقالات باستخدام ذاكرتها ومنطقها فقط. وخلص الباحثون في هذه الدراسة الى جملة نتائج، أهمها: انخفاض النشاط العصبي والاتصال مع استخدام الذكاء الاصطناعي، فكلما زاد استخدام مساعدة الذكاء الاصطناعي، قلّ نشاط شبكات الدماغ الرئيسية، وخاصة تلك المرتبطة بالذاكرة والانتباه والوظائف التنفيذية. كما وجد الباحثون أن مستخدمي الذكاء الاصطناعي احتفظوا بالمعلومات بشكل أقل، وواجه معظم مستخدمي (ChatGPT) صعوبة في الاقتباس بدقة من مقالاتهم، على عكس أولئك الذين استخدموا أدمغتهم فقط أو البحث التقليدي. كما خلص الباحثون أيضاً إلى أن استخدام الذكاء الاصطناعي يخفض الشعور بالتأليف، حيث كان لدى مستخدمي الذكاء الاصطناعي شعورٌ متباينٌ بالتأليف، حيث ادّعى بعض المشاركين الملكية الكاملة بينما أنكرها آخرون. وأطلق الباحثون على هذا التأثير اسم "الديون المعرفية"، في إشارة إلى كيف أن الاعتماد المتكرر على أنظمة الذكاء الاصطناعي قد يُضعف العمليات المعرفية الكامنة وراء التفكير المستقل. ويوضح هذا "الدين المعرفي" أن الفائدة قصيرة المدى للإنتاجية وانخفاض الجهد الذهني قد تؤدي إلى تكاليف طويلة المدى في انخفاض التفكير النقدي والإبداع والتعلم والذاكرة.


الوكيل
منذ 2 ساعات
- الوكيل
أبل تعلن عن تحديثات كبرى وميزات ذكاء اصطناعي جديدة
الوكيل الإخباري- أعلنت شركة أبل في مؤتمرها السنوي للمطورين عن إصلاح شامل لأنظمة التشغيل، وتوفير نموذج الذكاء الاصطناعي الخاص بها للمطورين، مع التركيز على ميزات عملية لتحسين تجربة المستخدم. اضافة اعلان من أبرز الميزات الجديدة: الترجمة الحية للمكالمات الهاتفية. فرز المكالمات المجهولة تلقائيًا. تحسين المساعد "سيري". دمج توليد الصور من ChatGPT مع الحفاظ على خصوصية المستخدم. تصميم بصري جديد باسم "الزجاج السائل". وأكدت الشركة أن هذه التحديثات أصبحت ممكنة بفضل تطور رقائقها. ورغم ذلك، تراجع سهم أبل بنسبة 1.5% خلال المؤتمر. سكاي نيوز


سواليف احمد الزعبي
منذ 3 ساعات
- سواليف احمد الزعبي
أسئلة تدفع الذكاء الإصطناعي إلى إنتاج كميات 'صادمة' من الانبعاثات الكربونية
#سواليف اكتشف باحثون ألمان أن طرح أسئلة تحتاج إلى #تفكير_عميق على #روبوتات_الدردشة مثل ChatGPT يجعلها تستهلك طاقة أكبر ما يؤدي لانبعاثات كربونية أعلى بكثير من الأسئلة البسيطة. ويشير الباحثون من جامعة ميونخ للعلوم التطبيقية بألمانيا إلى أن كل استفسار يتم إدخاله إلى نموذج لغوي كبير مثلChatGPT يتطلب طاقة ويؤدي إلى انبعاثات ثاني أكسيد الكربون. ويؤكد الباحثون أن مستويات #الانبعاثات تعتمد على #روبوت_الدردشة والمستخدم وموضوع السؤال. وقارنت الدراسة بين 14 نموذجا للذكاء الاصطناعي وتخلص إلى أن الإجابات التي تتطلب استدلالا معقدا تسبب انبعاثات كربونية أكبر من الإجابات البسيطة. الاستفسارات التي تحتاج إلى استدلال مطول، مثل الجبر المجرد أو الفلسفة، تتسبب في انبعاثات تصل إلى 6 أضعاف تلك الناتجة عن مواضيع أكثر بساطة مثل السئلة التاريخية. ويوصي الباحثون المستخدمين باستمرار لروبوتات الدردشة #الذكاء_الاصطناعي بتعديل نوع الأسئلة التي يطرحونها للحد من الانبعاثات الكربونية. وقامت الدراسة بتقييم ما يصل إلى 14 نموذجا لغويا كبيرا على 1000 سؤال موحد عبر مواضيع مختلفة لمقارنة انبعاثاتها الكربونية. ويوضح مؤلف الدراسة ماكسيميليان داونر: 'التأثير البيئي لاستجواب النماذج اللغوية الكبيرة المدربة يتحدد بشكل كبير من خلال منهجيتها في الاستدلال، حيث تزيد عمليات الاستدلال الصريح بشكل كبير من استهلاك الطاقة وانبعاثات الكربون'. ويضيف: 'وجدنا أن النماذج المزودة بقدرات استدلالية تنتج انبعاثات ثاني أكسيد الكربون أكثر بـ50 مرة من النماذج التي تقدم إجابات موجزة'. وعندما يطرح المستخدم سؤالا على روبوت دردشة الذكاء الاصطناعي، يتم تحويل الكلمات أو أجزاء من الكلمات في الاستفسار إلى سلسلة من الأرقام ومعالجتها بواسطة النموذج. وهذه العملية التحويلية وغيرها من عمليات الحوسبة للذكاء الاصطناعي تنتج انبعاثات كربونية. فالنماذج التي تعتمد على تحليل متعمق وتفكير استدلالي معقد تستهلك طاقة أكبر بشكل ملحوظ، إذ تصل إلى إنتاج 543 رمزا في المتوسط لكل إجابة، مقارنة بنحو 40 رمزا فقط في حالة النماذج التي تقدم إجابات مختصرة ومباشرة. ويكشف التحليل المفصل عن مفارقة صارخة بين الدقة والاستدامة في نماذج الذكاء الاصطناعي. فنجد أن نموذج Cogito الذي يتميز بدقة تصل إلى 85%، ينتج انبعاثات كربونية تزيد 3 مرات عن تلك الصادرة عن نماذج مماثلة الحجم تقدم إجابات موجزة. وفي المقابل، لم تتمكن أي من النماذج التي حافظت على انبعاثات أقل من 500 غرام من مكافئ ثاني أكسيد الكربون (وهو وحدة قياس تأثير الغازات الدفيئة على المناخ) من تجاوز نسبة 80% من الدقة في الإجابات. ولتوضيح حجم المشكلة بشكل ملموس، يقدم الباحثون مقارنة عملية صادمة: فمجرد طرح 600 ألف سؤال على نموذج DeepSeek R1 يولد انبعاثات كربونية تعادل تلك الناتجة عن رحلة طيران ذهابا وإيابا بين لندن ونيويورك. أما إذا استخدمنا نموذج Qwen 2.5 من Alibaba Cloud للإجابة على نفس الأسئلة، فيمكن الحصول على أكثر من ثلاثة أضعاف عدد الإجابات بنفس مستوى الدقة مع الحفاظ على نفس كمية الانبعاثات. ويؤكد الدكتور داونر أن المستخدمين العاديين يمكنهم لعب دور مهم في تخفيف هذه الآثار البيئية، من خلال تبني ممارسات أكثر استدامة في تفاعلهم مع أنظمة الذكاء الاصطناعي. وينصح في هذا الصدد باللجوء إلى نمط الاستخدام الواعي الذي يركز على طلب الإجابات المختصرة عندما لا تكون هناك حاجة للتفاصيل، وحصر استخدام النماذج عالية الاستهلاك للطاقة في المهام التي تتطلب فعلا قدرات معالجة معقدة.