
تحديث جديد لنظام "آبل" ببصمات لبنانية
أصدرت شركة "آبل" تحديثا أمنيا جديدا لنظام iOS 18.4 لهواتف "الآيفون" تضمن معالجة العديد من المشاكل الأمنية التي تم اكتشافها مؤخرا في النظام.
ولأول مرة في تاريخ الشركة، حمل التحديث بصمات لبنانية واضحة، حيث شكرت الشركة في موقعها الرسمي الباحث الأمني اللبناني حسن شيت من فريق Semicolon لمساهمته في الكشف عن واحدة من أخطر الثغرات الأمنية التي استدعت إصدار تحديث عاجل للنظام لمعالجتها.
وفي التفاصيل، تمكن فريق Semicolon من اكتشاف ثغرة أمنية خطيرة تهدد خصوصية مستخدمي اجهزة آيفون وآيباد في جميع أنحاء العالم، حيث تتيح الثغرة الوصول إلى صور المستخدمين والتحكم بها حتى لو تم تفعيل خيارات حماية متقدمة مثل تقنية التعرف على الوجه Face ID التي تستطيع الثغرة تجاوزها دون علم المستخدم. ورغم اصلاح الثغرة من خلال التحديث الجديد التحديث الجديد، لم تسمح آبل لفريق Semicolon بنشر المزيد من المعلومات التقنية عن الثغرة وكيفية اكتشافها واستغلالها، ودعى الفريق كافة مستخدمي أجهزة آبل إلى تحديث النظام بشكل عاجل لتفادي المخاطر الأمنية.
يذكر، أنها ليست المرة الأولى التي يلمع بها اسم لبنان في مجال الأمن الإلكتروني حول العالم، حيث تتصدر أسماء الباحثين الأمنيين اللبنانيين لوائح شرف كبرى الشركات العالمية مثل ميتا وغووغل ومايكروسوفت.
ويعد فريق Semicolon اللبناني واحدا من أهم الفرق الأمنية على مستوى العالم، حيث ضم منذ تأسيسه عام 2016 نخبة من ألمع العقول اللبنانية في مجال الأمن الإلكتروني، وقد أعلن الفريق مؤخرا عن إبلاغه عما يزيد عن 3000 ثغرة أمنية في مختلف الشركات العالمية خلال السنوات القليلة الماضية، مع عوائد مكافآت تخطت المليون دولار أمريكي تقاضاها نتيجة مساهمته الفاعلة في حماية هذه الشركات.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المنار
منذ ساعة واحدة
- المنار
تنافس تكنولوجي بين الصين واميركا: 'ديب سيك' تطلق نموذج R1
أطلقت شركة ديب سيك الصينية الناشئة، التي أحدثت صدمةً في الأسواق هذا العام، بهدوء نسخةً مُحسّنة من نموذجها للاستدلال بالذكاء الاصطناعي. لم تُصدر الشركة إعلانًا رسميًا، ولكن تم إصدار نسخة R1 من 'ديب سيك' المُحسّنة على منصة Hugging Face لتخزين نماذج الذكاء الاصطناعي. برزت 'ديب سيك' هذا العام بعد أن تفوّق نموذجها الاستدلالي المجاني ومفتوح المصدر R1 على عروض منافسيها، بما في ذلك 'ميتا' و'OpenAI'. وقد صدم انخفاض التكلفة وقصر مدة التطوير الأسواق العالمية، مما أثار مخاوف من أن شركات التكنولوجيا الأميركية العملاقة تُفرط في الإنفاق على البنية التحتية، مما يُفقد مليارات الدولارات من قيمة أسهم شركات التكنولوجيا الأميريكية الكبرى، مثل شركة إنفيديا، الرائدة في مجال الذكاء الاصطناعي. نموذج 'ديب سيك R1″، هو نموذج استدلال محُسن، ما يعني أن الذكاء الاصطناعي قادر على تنفيذ مهام أكثر تعقيدًا من خلال عملية تفكير منطقية تدريجية. يأتي نموذج DeepSeek R1 المُحسّن خلف نموذجي الاستدلال o4-mini وo3 من 'OpenAI' مباشرةً على 'LiveCodeBench'، وهو موقع يُقارن النماذج بمقاييس مختلفة. أصبح 'ديب سيك' مثالاً يُظهر استمرار تطور الذكاء الاصطناعي الصيني رغم محاولات أميركا تقييد وصول البلاد إلى الرقائق وغيرها من التقنيات. جدير بالذكر كشفت شركتا التكنولوجيا الصينيتان العملاقتان 'بايدو' و'تنيست' عن كيفية تحسينهما لنماذج الذكاء الاصطناعي الخاصة بهما للتعامل مع قيود صادرات أشباه الموصلات الأميركية. انتقد جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، المُصممة لوحدات معالجة الرسومات اللازمة لتدريب نماذج الذكاء الاصطناعي الضخمة، ضوابط التصدير الأميركية يوم الأربعاء. وقال هوانغ: 'استندت أميركا في سياستها إلى افتراض أن الصين لا تستطيع تصنيع رقائق الذكاء الاصطناعي. لطالما كان هذا الافتراض موضع شك، والآن أصبح خاطئًا تمامًا'. وأضاف هوانغ: 'السؤال ليس ما إذا كانت الصين ستمتلك ذكاءً اصطناعيًا، بل إنها تمتلكه بالفعل'.


المنار
منذ ساعة واحدة
- المنار
تنافس تكنولوجي بين الصين واميركا: 'ديب سيك' تطلق نموذج R1
أطلقت شركة ديب سيك الصينية الناشئة، التي أحدثت صدمةً في الأسواق هذا العام، بهدوء نسخةً مُحسّنة من نموذجها للاستدلال بالذكاء الاصطناعي. لم تُصدر الشركة إعلانًا رسميًا، ولكن تم إصدار نسخة R1 من 'ديب سيك' المُحسّنة على منصة Hugging Face لتخزين نماذج الذكاء الاصطناعي. برزت 'ديب سيك' هذا العام بعد أن تفوّق نموذجها الاستدلالي المجاني ومفتوح المصدر R1 على عروض منافسيها، بما في ذلك 'ميتا' و' OpenAI '. وقد صدم انخفاض التكلفة وقصر مدة التطوير الأسواق العالمية، مما أثار مخاوف من أن شركات التكنولوجيا الأميركية العملاقة تُفرط في الإنفاق على البنية التحتية، مما يُفقد مليارات الدولارات من قيمة أسهم شركات التكنولوجيا الأميريكية الكبرى، مثل شركة إنفيديا، الرائدة في مجال الذكاء الاصطناعي . نموذج 'ديب سيك R1″، هو نموذج استدلال محُسن، ما يعني أن الذكاء الاصطناعي قادر على تنفيذ مهام أكثر تعقيدًا من خلال عملية تفكير منطقية تدريجية. يأتي نموذج DeepSeek R1 المُحسّن خلف نموذجي الاستدلال o4-mini وo3 من 'OpenAI' مباشرةً على 'LiveCodeBench'، وهو موقع يُقارن النماذج بمقاييس مختلفة. أصبح 'ديب سيك' مثالاً يُظهر استمرار تطور الذكاء الاصطناعي الصيني رغم محاولات أميركا تقييد وصول البلاد إلى الرقائق وغيرها من التقنيات. جدير بالذكر كشفت شركتا التكنولوجيا الصينيتان العملاقتان 'بايدو' و'تنيست' عن كيفية تحسينهما لنماذج الذكاء الاصطناعي الخاصة بهما للتعامل مع قيود صادرات أشباه الموصلات الأميركية. انتقد جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، المُصممة لوحدات معالجة الرسومات اللازمة لتدريب نماذج الذكاء الاصطناعي الضخمة، ضوابط التصدير الأميركية يوم الأربعاء. وقال هوانغ: 'استندت أميركا في سياستها إلى افتراض أن الصين لا تستطيع تصنيع رقائق الذكاء الاصطناعي. لطالما كان هذا الافتراض موضع شك، والآن أصبح خاطئًا تمامًا'. وأضاف هوانغ: 'السؤال ليس ما إذا كانت الصين ستمتلك ذكاءً اصطناعيًا، بل إنها تمتلكه بالفعل'. المصدر: مواقع


ليبانون 24
منذ 17 ساعات
- ليبانون 24
ثغرات جديدة... الذكاء الاصطناعي يُعقّد كشف الاحتيال عبر البريد الإلكتروني
ساهمت أدوات الدردشة المعتمدة على الذكاء الاصطناعي في تعقيد اكتشاف رسائل البريد الإلكتروني الاحتيالية، وجعلت وسائل الكشف التقليدية أقل فعالية. ووفقًا لتقديرات مكتب التحقيقات الفيدرالي (FBI)، فقد حقق المحتالون أرباحًا ضخمة وصلت إلى 16.6 مليار دولار، مستفيدين من رسائل بريد إلكتروني بسيطة ومخططات انتحال هوية. وأشار خبراء إلى أن مواجهة هذا النوع من الاحتيال يتطلب مقاربة جديدة، تعتمد بشكل أكبر على وعي المستخدمين وتحقيق الشركات في الرسائل قبل وصولها إلى صناديق البريد. كما أوضح الخبراء أن برامج مثل ChatGPT وغيرها من أدوات الذكاء الاصطناعي تمكّن المحتالين، خصوصًا غير المتقنين للغة الإنجليزية ، من صياغة رسائل خالية من الأخطاء اللغوية تُشبه في أسلوبها تلك التي يرسلها جهات موثوقة. في السابق، كان المحتالون يعتمدون على أدوات غير فعالة مثل google translate ، والتي كانت في كثير من الأحيان حرفية للغاية في ترجماتها ولم تتمكن من التقاط القواعد النحوية ونبرة الصوت، وبفضل الذكاء الاصطناعي الذي أصبح الآن قادرا على الكتابة بطلاقة في معظم اللغات، اصبح من الصعب للغاية الإبلاغ عن الرسائل الضارة. وقال تشيستر ويسنيفسكي، مدير أمن المعلومات الميداني العالمي في شركة سوفوس لوكالة "أكسيوس"، إن "الرسائل الحقيقية تحتوي على بعض الأخطاء النحوية لأن الناس لا يجيدون الكتابة، بمقارنة بأخطاء ChatGPT التي يصعب كشفها". من جانبها، قالت راشيل توباك ، الرئيسة التنفيذية لشركة " SocialProof Security"، إن المحتالين يقومون الآن بتدريب أدوات الذكاء الاصطناعي على رسائل البريد الإلكتروني التسويقية الحقيقية من البنوك وتجار التجزئة ومقدمي الخدمات حتى تكون غير قابلة للكشف. وأضافت "إنهم يبدون حتى كما لو كانوا في صوت الشخص الذي اعتدت العمل معه". وأشارت توباك إلى أن أحد العملاء الأيسلنديين الذي لم يشعر بالقلق من قبل بشأن تعرض موظفيه لرسائل البريد الإلكتروني الاحتيالية أصبح يشعر بالقلق الآن. وتابعت: "في السابق، كان الوضع آمنا للغاية؛ لأن 350 ألف شخص فقط يتحدثون الأيسلندية بارتياح. أما الآن، فقد أصبح الوضع مختلفا تماما بالنسبة للجميع". ولكن اكتشاف رسائل الاحتيال ليس مستحيلاً. في فريق توباك الأحمر، عادةً ما يتم اكتشافها عندما يمارس شخص ما تسميه جنون العظمة المهذب، أو عندما يرسل رسالة نصية أو يتصل بالمنظمة أو الشخص الذي يتم انتحال شخصيته للتأكد من إرساله رسالة مشبوهة. وعن خطورة هذه الرسائل، قال مايك بريتون ، مدير تكنولوجيا المعلومات في شركة " Abnormal AI": "بعيدا عن القواعد النحوية، يكمن الخطر الحقيقي في كيفية قياس هذه الأدوات للدقة والسرعة". وأضاف بريتون: "في غضون دقائق، يمكن للمحتالين استخدام برامج المحادثة الآلية لإنشاء ملفات حول فرق المبيعات في كل شركة من شركات فورتشن 500، ثم استخدام تلك النتائج لكتابة رسائل بريد إلكتروني مخصصة وقابلة للتصديق". وكشف بريتون، أن المحتالين الآن يقومون أيضًا بتضمين أنفسهم في سلاسل البريد الإلكتروني الموجودة باستخدام نطاقات متشابهة لصيغ البريد الرسمية، مما يجعل رسائلهم غير قابلة للتمييز تقريبا عن الرسائل المشروعة. وحذر بريتون من أن أدوات الذكاء الاصطناعي التوليدية منخفضة التكلفة للفيديوهات المزيفة واستنساخ الأصوات قد تأخذ عمليات الاحتيال إلى مستويات جديدة قريبا. وقال بريتون: "سيصل الأمر إلى حدّ إجبارنا جميعا على استخدام كلمات آمنة، ونتواصل عبر زووم، ونحتاج إلى مفتاح سريّ مشترك مُسبقًا". "سيصل هذا المفتاح إلى هنا قبل أن تدركوا ذلك".