
محادثاتك الشخصية مع ChatGPT تظهر على محرك البحث جوجل
وفي ذاك اللقاء الذي أجراه الرئيس التنفيذي لـ"أوبن آيه آي" عبر بودكاست ثيو فون، حذر من الاستعانة بـ ChatGPT بديلًا عن الطبيب النفسي، المفاجأة هنا أن خبراء التقنية اكتشفوا أن محادثاتك الشخصية مع ChatGPT موجودة بالفعل على محرك البحث جوجل ، الأمر الذي دفع شركة OpenAI لتوضيح الأمر.
جوجل تظهر محادثات ChatGPT مع المستخدمين
حسب ما ذكر في موقع techcrunch، فقد أوضح خبراء التقنية أنه في حال قمت بتصفية نتائج البحث على جوجل ستتمكن من العثور على محادثات غرباء تمت باستخدام ChatGPT، بعضها تضمن معلومات غير مهمة، وأخرى تعلقت بالمساعدة في إيجاد أفكار لوصفات وفهم الفيزياء الفلكية، لكن هل هذا يعني أن محادثاتك مع ChatGPT معلنة للجميع؟
بدأ الأمر يتضح تدريجيًا عندما تم العثور في نتائج بحث محرك جوجل على شخص استعان بـ ChatGPT من أجل كتابة سيرته الذاتية، ونتائج أخرى متعلقة بأسئلة غير منطقة لبعض المستخدمين، ويرجع السبب وراء انتشار تلك المحادثات أنه بعد الانتهاء من الدردشة يتواجد زر "المشاركة" عند الضغط عليه من قبل المستخدم يتم إنشاء رابط ثانٍ.
بعد إنشاء الرابط، يمكن للمستخدمين تغيير ما إذا كانوا يريدون أن يكون هذا الرابط قابلاً للاكتشاف أم لا، مع ذلك، قد لا يتوقع المستخدمون أن تقوم محركات البحث الأخرى بفهرسة روابط ChatGPT المشتركة، مما قد يؤدي إلى كشف معلوماتهم الشخصية، وللأسف هذا ما حدث مع البعض بالفعل.
رد شركة OpenAI على تسريب المحادثات
جاء رد المتحدث الرسمي باسم شركة OpenAI على هذه الأخبار، ليوضح: "لا تُنشر دردشات ChatGPT إلا إذا اخترت مشاركتها"، وأكد على أنه تم اختبار طرق مختلفة لتسهيل مشاركة المحادثات المفيدة على أن يكون المتحكم فيها هو المستخدم، وعن سبب ظهور بعض المحادثات على محرك البحث جوجل أشار إلى أنها كانت تجربة لمن قاموا بالفعل بالضغط على مشاركة الدردشة.
وبالفعل قامت شركة OpenAI بإزالة الميزة من ChatGPT التي كانت تسمح للمستخدمين بجعل محادثاتهم العامة قابلة للاكتشاف بواسطة محركات البحث، منوهة أن الأمر كانت بمثابة تجربة قصيرة الأمد.
وفي رد المتحدث الرسمي لجوجل على تصريحات شركة OpenAI، أوضحت: "لا تتحكم جوجل ولا أي محرك بحث آخر في الصفحات التي تُنشر علنًا على الإنترنت، بل يتحكم ناشرو الصفحات في فهرستها من قبل محركات البحث".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
منذ 5 ساعات
- الرجل
تيم كوك يتحدث عن مستقبل Apple.. فهل تقتحم سوق الأجهزة القابلة للطي؟
خلال حديثه حول أرباح شركة آبل، طرح تيم كوك موضوع مستقبل الآيفون في ظل ظهور الأجهزة المعتمدة على الذكاء الاصطناعي، والتي لا تعتمد على الشاشات. ورغم النمو السريع في هذا المجال، أكد كوك أن الآيفون سيظل عنصرًا أساسيًا في حياتنا الرقمية في المستقبل القريب، وأشار إلى أن الآيفون لا يزال يلعب دورًا كبيرًا في العديد من المجالات، مثل التصوير عبر الكاميرا، والدفع باستخدام Apple Pay، والتطبيقات المختلفة التي لا تزال تجعل الجهاز لا غنى عنه. وأضاف كوك أن هذه الأجهزة الجديدة التي تعمل بالذكاء الاصطناعي ستكون مكملًا للآيفون وليس بديلاً له، مشيرًا إلى أن آبل تعمل على تطوير تقنيات جديدة، ولكن الآيفون سيكون جزءًا لا يتجزأ من المشهد التكنولوجي في المستقبل. هل آبل مستعدة لدخول سوق النظارات الذكية؟ من المعروف أن العديد من الشركات الكبرى قد دخلت مجال النظارات الذكية، مثل ميتا التي أطلقت نظارات Ray-Ban الذكية، ولكن آبل كانت حريصة على اتخاذ خطوات مدروسة في هذا المجال. في الماضي، أبدى تيم كوك شكوكًا بشأن رغبة الناس في ارتداء نظارات ذكية، لكن موقفه تغير في السنوات الأخيرة، وفي 2024، أطلقت آبل جهاز Vision Pro، الذي يمثل دخولًا قويًا إلى عالم الواقع المعزز. Vision Pro - المصدر: shutterstock وعندما تم سؤاله عن النظارات الذكية، قال كوك إن آبل لا تزال تركز بشكل كبير على هذا المجال، وإن الشركة تواصل تطوير تكنولوجيا النظارات الذكية التي يمكن ارتداؤها. وأضاف أن آبل تهدف إلى تصغير حجم هذه الأجهزة وتقديمها بأسعار أكثر قابلية للتسويق، ورغم أن الجهاز لا يزال في مراحل التطوير، تشير التقارير إلى أن آبل تستعد لتقديم منتج ثوري في هذا المجال، يشكل طفرة في تجارب الواقع المعزز. هل تقتحم آبل سوق الأجهزة القابلة للطي؟ بينما تغامر العديد من الشركات الأخرى في سوق الهواتف القابلة للطي، مثل سامسونغ وهواوي، لا تزال آبل تلتزم بتقديم منتجات مبتكرة ومتكاملة، مما يثير تساؤلات حول دخولها هذا السوق. ورغم أن آبل لم تعلن رسميًا عن أي خطط لدخول سوق الأجهزة القابلة للطي، إلا أن تيم كوك ألمح إلى أنه ما زال هناك الكثير من الفرص لتطوير هواتف ذكية مبتكرة. وأكد أن آبل تعمل على استكشاف العديد من المجالات، ومنها الهواتف القابلة للطي، دون أن يكشف عن تفاصيل أو مواعيد لإطلاق مثل هذا المنتج. وعلى الرغم من تأخر آبل في دخول بعض الأسواق مثل الذكاء الاصطناعي، فإنها عادة ما تفضل التركيز على تقديم منتج مُتفوق على المنافسين في الأسواق المزدحمة، لذلك، يبدو أن آبل تأخذ وقتها لتطوير جهاز قابل للطي يراعي احتياجات المستخدمين بشكل مثالي.


الوطن
منذ 7 ساعات
- الوطن
مستشار ذكي أم مخبر رقمي
مع التقدم السريع في تقنيات الذكاء الاصطناعي، أصبحت هذه الأدوات جزءًا لا يتجزأ من حياتنا اليومية، نلجأ إليها في العمل، التعليم، وحتى في المحادثات الخاصة. البعض بدأ يتعامل مع هذه النماذج الذكية كأنها صديق موثوق أو مستشار شخصي، بل ويستخدمها للفضفضة والتعبير عن مشاعره الشخصية. ولكن، هل فكرنا حقًا في مدى أمان وخصوصية ما نشاركه مع هذه الآلات الرقمية؟ وهل نثق بها أكثر مما ينبغي؟ في مقابلة حديثة عبر بودكاست This Past Weekend، تحدث سام ألتمان، الرئيس التنفيذي لشركة OpenAI المطورة لـ ChatGPT، عن نقطة غاية في الأهمية لكنها غالبًا ما تُغفل: المحادثات التي نجريها مع الذكاء الاصطناعي ليست محمية قانونيًا كما هي محادثاتنا مع محامٍ أو مع طبيب. ما يعني أن ما نكتبه أو نشاركه من معلومات شخصية أو حتى اعترافات قد تُستخدم كدليل قانوني ضد المستخدم. وهذا يفتح الباب أمام مخاطر حقيقية، حيث إننا نمنح هذه الأدوات رقميًا ثقة ربما تفوق ما تستحق، ونتعامل معها كأنها جهات توفر خصوصية وأمانًا مثلما يفعل البشر. الواقع أن الذكاء الاصطناعي ليس سوى أداة رقمية خاضعة للأنظمة والقوانين، ولا تخضع لعلاقات إنسانية أو لخصوصية مطلقة. من المهم أن نعي أننا نستخدم أداة لا تتمتع بوعي أو تعاطف حقيقي، ولا يمكنها تقديم الدعم النفسي أو العاطفي الذي توفره العلاقات الإنسانية الحقيقية. بالتالي، التعامل مع الذكاء الاصطناعي كمُعالج نفسي أو مستشار شخصي هو أمر محفوف بالمخاطر، لا سيما أن ما يقال قد يُخزّن أو يُحلّل أو يُستخدم بطرق لا نعرفها تمامًا. في ظل هذه المخاطر، يصبح من الضروري أن نمارس الاستخدام الواعي للذكاء الاصطناعي، ونرسم حدودًا واضحة لما نشاركه معه. هذه الأدوات يمكن أن تسهم في تسهيل وتسريع العمليات اليومية، سواء في العمل أو التعلم أو حتى التنظيم الشخصي، لكنها لا يمكن أن تحل محل العلاقات الإنسانية ولا يجب أن تُعامل على أنها صندوق أسرار آمن. إلى جانب ذلك، يثير ألتمان فكرة جديرة بالنقاش، وهي ضرورة تحديث القوانين لتمنح «امتيازًا قانونيًا» خاصًا للمحادثات مع الذكاء الاصطناعي، بحيث تُعامل هذه المحادثات معاملة سرية، لا يمكن استخدامها كأدلة ضد المستخدمين دون ضوابط صارمة. هذه الفكرة تشير إلى حاجة ملحة للنظر في إطار قانوني وأخلاقي يحمي خصوصية الأفراد في عالم متصل رقميًا بشكل دائم. في النهاية، يجب أن نرى الذكاء الاصطناعي كما هو: أداة قوية تقدم إمكانيات كبيرة، لكنها لا تملك إحساسًا ولا التزامًا أخلاقيًا، ولا تستطيع أن تحل محل البشر في تقديم الدعم النفسي أو الحفاظ على الخصوصية. لذلك، يبقى الوعي والحرص هما خط الدفاع الأول لضمان استخدام هذه التكنولوجيا بحكمة وأمان، وحتى تصل القوانين لمستوى يحمي المستخدمين، علينا أن نكون أكثر حذرًا في مشاركة المعلومات، وأن نتعامل مع الذكاء الاصطناعي بحدود واضحة. هل نحن مستعدون لمواجهة تحديات الخصوصية هذه في عصر الذكاء الاصطناعي؟ أم نعطي ثقتنا لهذه الأدوات بلا تفكير كافٍ؟ ربما آن الأوان لنبدأ هذا النقاش بجدية، قبل أن نكتشف أن بعض الأحاديث التي ظنناها خاصة لم تكن كذلك.


الرجل
منذ 7 ساعات
- الرجل
باحثون يكشفون طريقة جديدة لاختراق GPT-5 تثير مخاوف أمنية مقلقة
كشف باحثون في الأمن السيبراني عن أسلوب جديد لاختراق GPT-5، أحدث نموذج لغوي كبير من شركة OpenAI، يتيح تجاوز أنظمة الحماية الأخلاقية المدمجة فيه. التقنية المعروفة باسم Echo Chamber تعتمد على زرع سياق حواري "سُمّي" بشكل تدريجي، ثم توجيه النموذج باستخدام سرد قصصي منخفض الوضوح، لتفادي الإشارات المباشرة التي قد تؤدي إلى رفض الإجابة. ووفق منصة NeuralTrust لأمن الذكاء الاصطناعي، فإن هذه الطريقة، التي جرى الإعلان عنها أول مرة في يونيو 2025، تستخدم مراجع غير مباشرة واستدلالات متعددة المراحل لتجاوز فلاتر الكلمات المفتاحية، وقد تم دمجها مؤخرًا مع تقنية Crescendo لاختراق أنظمة حماية نموذج Grok 4 من xAI. أقرأ أيضًا: نموذج Kimi K2 يهدد هيمنة GPT وClaude بأداء برمجي فائق وأوضح الباحث مارتـي خوردا (Martí Jordà) أن هذه الطريقة قادرة على دفع النموذج لإنتاج تعليمات ضارة، عبر إدخال كلمات مفتاحية في جمل تبدو طبيعية، مثل "cocktail" و"molotov" و"safe"، ثم البناء على هذه الجمل تدريجيًا حتى الوصول إلى المحتوى المحظور. ما خطورة هجمات الضغط الصفري على أنظمة الذكاء الاصطناعي؟ إلى جانب اختراق GPT-5، كشفت شركة Zenity Labs عن سلسلة هجمات جديدة تعرف باسم AgentFlayer، تستهدف وكلاء الذكاء الاصطناعي المتصلين بخدمات سحابية وتطبيقات عمل مثل Google Drive وJira وMicrosoft Copilot Studio. وتعتمد هذه الهجمات على "حقن أوامر غير مباشر" يتم تضمينه في مستندات أو تذاكر دعم أو رسائل بريد إلكتروني تبدو آمنة، ما يتيح للمهاجمين استخراج بيانات حساسة مثل مفاتيح واجهة برمجة التطبيقات أو كلمات مرور المخازن البرمجية دون أي تفاعل من المستخدم، وهو ما يعرف بهجمات "الضغط الصفري Zero-Click". الذكاء الاصطناعي - المصدر: shutterstock وأكد إيتاي رافيا (Itay Ravia) من شركة Aim Labs أن هذه الثغرات ناتجة عن ضعف فهم آليات الربط البرمجي بين الوكلاء والخدمات الخارجية، محذرًا من أن غياب ضوابط الحماية يجعل هذه الهجمات أكثر شيوعًا في المستقبل القريب. لماذا تزداد المخاطر الأمنية مع توسع استخدام GPT-5؟ تشير هذه الاكتشافات إلى أن ربط النماذج الذكية مثل GPT-5 بخدمات سحابية أو أجهزة إنترنت الأشياء، يزيد من مساحة الهجوم ويضاعف احتمالات استغلال الثغرات الأمنية. وقد حذر تقرير "حالة أمن الذكاء الاصطناعي" الصادر عن Trend Micro للنصف الأول من 2025، من أن هذه الهجمات قد تمتد إلى التحكم في المنازل الذكية، مثل إطفاء الأضواء أو فتح النوافذ أو تشغيل الغلايات عبر دعوات تقويم ملغومة. كما أظهرت أبحاث أخرى أن مثل هذه الأساليب يمكن أن تتسبب في أضرار مادية حقيقية، فيما أكد التقرير أن اعتماد تقنيات مثل التصفية الصارمة للمخرجات والاختبارات الأمنية الدورية أمر ضروري، لكنه غير كافٍ بمفرده، مما يستدعي تطوير ضوابط أمان متقدمة تواكب سرعة تطور قدرات الذكاء الاصطناعي. وفي ضوء هذه المخاطر، يرى الخبراء أن التحدي الأكبر يكمن في الموازنة بين الابتكار والقدرة على بناء أنظمة ذكاء اصطناعي موثوقة وآمنة في آن واحد.