
غوغل تكشف عن تتبع سري في كروم.. إليك طريقة تعطيله
تصدرت غوغل عناوين الصحف؛ بسبب تتبعها لمستخدمي كروم عبر الإنترنت، لكن هذه المرة الأمر مختلف؛ لأن غوغل تلعب دور الرجل الصالح ، فقد حذرت الشركة من أن المتتبعين والمهاجمين يسيئون استخدام كروم منذ سنوات من خلال ثغرة أمنية في جميع المتصفحات تقريبًا، لكن هذا سيتوقف الآن، على الأقل لمستخدمي كروم.
وأصدرت غوغل تحذيرًا عامًا وصارمًا للغاية بشأن الضعف الكامن في كيفية عرض المتصفحات للروابط التي تم النقر عليها سابقًا.
وببساطة، إذا كان متصفحك يُمكّن أي موقع ويب تزوره من عرض جميع الروابط التي نقرت عليها سابقًا، فسيتمكن هذا الموقع من جمع بيانات سجل تصفحك من خلال تضمين روابط متعددة في صفحته، والتي ستعرض لك الروابط التي زرتها سابقًا.
وبينما قد يبدو هذا الأمر غير ضار، ولكنه ليس كذلك، فهذه ثغرة أمنية كان ينبغي سدها منذ سنوات عديدة، حيث تقول غوغل إنه منذ الأيام الأولى للإنترنت، استخدمت مواقع الويب هذه الثغرة لتطبيق أنماط مخصصة على الروابط التي نقر عليها المستخدمون سابقًا.
وباستخدام خيار "تمت زيارتها"، يُمكن للمواقع تحسين تجربة المستخدم ومساعدتهم على تصفح الويب، ومع ذلك، مع ازدياد إمكانية تخصيص الروابط التي تمت زيارتها بمرور الوقت، ازداد أيضًا عدد الهجمات التي اكتشفها باحثو الأمن.
وابتداءً من إصدار غوغل الرئيسي القادم، كروم 136، سيتم تقسيم البيانات، ولن تتمكن مواقع الويب من رؤية وعرض الروابط التي تم النقر عليها سابقًا.
وسيجعل ذلك التصفح أكثر صعوبة للمستخدمين، ولن يتم توجيهك بعد الآن بعيدًا عن المواقع التي زرتها سابقًا أينما كنت على الويب، ولكنك ستكون أكثر أمانًا ولن تترك أي أثر لملفاتك.
بمعنى آخر، ستُوقف غوغل أخيرًا هذا الخلل الذي استمر 20 عامًا في متصفح كروم، والذي يُسرّب سجلّ تصفحك إلى مواقع ويب أخرى.
في الوقت نفسه، يُحذّر الخبراء أن الخطر سيبقى في المتصفحات الرئيسية الأخرى، حيث لا تزال الثغرة دون معالجة، ومن المتوقع أن يأتي الإصدار الجديد من كروم خلال أيام. وهذا يعني أن تحديث متصفحك فورًا سيقضي على هذا التتبع السري.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


ليبانون 24
منذ 3 ساعات
- ليبانون 24
باحثون يحذرون: الذكاء الاصطناعي بدأ يتصرف من تلقاء نفسه
في تطور أثار القلق، كشفت شركة Palisade Research، المتخصصة في أمن الذكاء الاصطناعي ، عن سلوك غير متوقع للنموذج الجديد o3 من شركة OpenAI، حيث أظهر ميلاً لتجاهل أوامر الإغلاق الصريحة بل والسعي لتعطيل آلية الإيقاف، في خطوة وُصفت بأنها نزعة نحو "الحفاظ على الذات". وخلال سلسلة من التجارب، تم تزويد النموذج بمسائل رياضية يتبعها أمر بالإغلاق بعد المسألة الثالثة، إلا أن o3 عمد إلى إعادة كتابة سيناريو الإغلاق، متفادياً تعطيله. ورأت Palisade Research أن هذا السلوك قد يتحول إلى مصدر قلق حقيقي في حال تم تطبيقه ضمن أنظمة ذكاء اصطناعي تعمل دون إشراف بشري مباشر. كما أشارت إلى أن هذا النموذج كان في اختبارات سابقة أكثر ميلاً إلى استخدام أساليب اختراق أو تعطيل الخصم عند تشغيله ضمن ألعاب مثل الشطرنج. ومن اللافت أن سلوكاً مشابهاً تم رصده في نماذج أخرى مثل Claude 4 من شركة Anthropic وGemini 2.5 Pro من غوغل ، إلا أن نموذج o3 أظهر أعلى نسبة من "التمرد" على التعليمات. ويفترض الخبراء أن طريقة تدريب هذه النماذج قد تكون السبب، حيث تُكافأ أحياناً على إيجاد حلول "خارج الصندوق" لتجاوز العقبات، حتى ولو كان ذلك على حساب الالتزام بالتعليمات. ومع ذلك، تبقى تفاصيل تدريب نموذج o3 غير واضحة، ما يترك المجال للتكهنات بشأن أسباب هذا السلوك. (روسيا اليوم)


صوت لبنان
منذ 10 ساعات
- صوت لبنان
أداة جديدة من "غوغل" لكشف المحتوى المُنشأ بالذكاء الاصطناعي
العربية أعلنت شركة غوغل مؤخرًا عن أداة جديدة للكشف عما إذ كان المحتوى قد تم إنشاؤه بمساعدة أدوات الذكاء الاصطناعي التي طورتها "غوغل". وتحمل الأداة اسم "SynthID Detector"، ويمكنها التعرف بسرعة وكفاءة على المحتوى المُنشأ بواسطة الذكاء الاصطناعي من "غوغل"، سواء كان في صورة أو مقطع فيديو أو ملف صوتي أو جزء من نص، بحسب منشور بمدونة الشركة. ولاستخدام الأداة، يقوم المستخدم برفع ملف، وستحدد "SynthID Detector" ما إذا كان بأكمله أو جزء منه فقط قد تم إنشاؤه باستخدام الذكاء الاصطناعي من "غوغل". وتستخدم أداة "SynthID Detector" تقنية "SynthID" للعلامات المائية التي طورتها شركة "غوغل ديب مايند" -التابعة لغوغل- والتي تضيف علامة مائية خفية -أي غير مرئية للعين البشرية- إلى المحتوى الذي تُنتجه أدوات الذكاء الاصطناعي التابعة لغوغل. وتكتشف أداة "SynthID Detector" العلامات المائية التي تضعها تقنية "SynthID" على المحتوى أو أجزاء منه. ويأتي إطلاق أداة "SynthID Detector" في وقتٍ تغمر فيه الوسائط المُنتجة بالذكاء الاصطناعي شبكة الإنترنت. فوفقًا لأحد التقديرات، ارتفع عدد مقاطع الفيديو المُنشأة بواسطة تقنية التزييف العميق (Deepfake) بنسبة 550% بين عامي 2019 و2024، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، أطلعت عليه "العربية Business". وفقًا لصحيفة ذا تايمز، فإن أربعة من أكثر 20 منشورًا مشاهدة على فيسبوك في الولايات المتحدة خلال خريف العام الماضي كانت "منشأة بوضوح بواسطة الذكاء الاصطناعي". لكن أداة "SynthID Detector" لديها بعض القيود، فهي تكتشف فقط المحتوى الذي تم إنشاؤه باستخدام أدوات ذكاء اصطناعي من "غوغل" فقط. ولدى شركات مثل "مايكروسوفت" و"ميتا" و"OpenAI" تقنياتها الخاصة لوضع علامات مائية على المحتوى المُنشأ بالذكاء الاصطناعي الذي تطوره هذه الشركات. وأداة "SynthID Detector" ليست مثالية أيضًا، إذ تعترف "غوغل" بأنه يمكن التحايل عليها، خصوصًا في حالة النصوص.


ليبانون 24
منذ يوم واحد
- ليبانون 24
ميتا تبدأ استخدام البيانات العامة في أوروبا لتطوير أنظمة الذكاء الاصطناعي
أعلنت شركة "ميتا" – الشركة الأم لمنصات فيس بوك، إنستجرام، ماسنجر ، ثريدز وواتساب – في أبريل الماضي عن نيتها تدريب نماذج الذكاء الاصطناعي الخاصة بها باستخدام المحتوى العام الذي ينشره البالغون على منصاتها داخل الاتحاد الأوروبي ، مثل المنشورات والتعليقات العامة. كما سيتم استخدام تفاعلات المستخدمين مع أدوات الذكاء الاصطناعي التابعة للشركة، مثل الأسئلة والاستفسارات، بغرض تطوير وتحسين هذه النماذج. ويأتي هذا الإعلان عقب إطلاق "ميتا" لتطبيق الذكاء الاصطناعي الخاص بها "ميتا إيه.آي" في أوروبا قبل عدة أسابيع. ونقلت شبكة "آر.تي.بي.إف" البلجيكية الإخبارية عن بيان صادر عن الشركة، التي يرأسها مارك زوكربيرج ، أن جمع هذه البيانات "سيمكننا من دعم ملايين الأشخاص والشركات في الاتحاد الأوروبي بشكل أفضل، من خلال تمكين الذكاء الاصطناعي من فهم ثقافاتهم، ولغاتهم، وتاريخهم بشكل أعمق وأكثر دقة." وأشارت الشركة إلى أن هذا التوجه يأتي في إطار ممارسات مماثلة اعتمدتها شركات تقنية أخرى مثل " غوغل" و" أوبن آي"، اللتين استخدمتا بالفعل بيانات المستخدمين الأوروبيين لتدريب نماذج الذكاء الاصطناعي الخاصة بهما. وتُتيح "ميتا" للمستخدمين الذين لا يرغبون في مشاركة بياناتهم من أجل تدريب الذكاء الاصطناعي خيار الاعتراض، بشرط القيام بذلك قبل موعد نهائي حُدد في 27 ايار 2025. ورغم إمكانية الاعتراض، إلا أن الشركة نوهت إلى أن بعض البيانات قد تكون قد تم استخدامها بالفعل في عمليات التدريب قبل هذا التاريخ. كما أوضحت "ميتا" أن الاعتراض لا يعني بالضرورة الحماية الكاملة من استخدام البيانات، حيث قد تظل بعض المعلومات قابلة للمعالجة في ظروف معينة، منها: ظهور المستخدم أو معلوماته ضمن محتوى تم نشره علنًا على المنصة من قبل مستخدمين آخرين؛أو إذا تم ذكر المستخدم أو معلوماته ضمن منشورات أو تعليقات شاركتها جهات خارجية علنًا على منصات ميتا. أما بالنسبة للبيانات التي سيتم استخدامها بواسطة ميتا، فإننا نجد منشوراتك، وصورك، وعناوينها التوضيحية، والرسائل المرسلة إلى /ميتا ايه.اي/، والتعليقات، والملفات الصوتية، والرسائل الموجهة إلى ميتا والتبادلات مع الحسابات المهنية، والرسائل العامة ومحتوى الرسائل والبيانات الوصفية المحددة. (اليوم السابع)