
أخبار التكنولوجيا : الكشف عن المهن الأكثر عرضة لخطر الاستبدال بواسطة الذكاء الاصطناعى.. تعرف عليها
نافذة على العالم - حذر العلماء من أن الذكاء الاصطناعي قد يستحوذ على بعض الوظائف، حيث كشف باحثو مايكروسوفت عن 40 وظيفة يُرجح أن يُلغيها الذكاء الاصطناعي، ولعل المترجمون الفوريون على رأس القائمة.
ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإنه من المرجح أيضًا أن يواجه المؤرخون والكتاب والمؤلفون وعلماء السياسة والصحفيون تزايدًا في استخدام الذكاء الاصطناعى في السنوات القادمة، ومع ذلك، ليست الوظائف التي تتطلب القراءة والكتابة فقط هي التي قد تُستغنى عنها.
وجد الباحثون أن المهن التي تتطلب التحدث إلى العملاء أو مساعدة الناس في العثور على المعلومات قد تُصبح أيضًا أقل أهمية بسبب الذكاء الاصطناعي، ويشمل ذلك مضيفات الركاب، ومندوبي المبيعات، وموظفي خدمة العملاء،
لكن هناك أخبارًا سارة للعديد من العمال الصناعيين المهرة، حيث صُنف وعمال الجسور والأقفال، ومشغلو معالجة المياه ضمن الأقل عرضة للاستبدال.
كما أنه من خلال مراجعة أكثر من 200,000 سجل دردشة مجهول الهوية باستخدام روبوت الدردشة Bing Copilot AI من مايكروسوفت، حدد الباحثون المهام التي يستخدمها الناس للمساعدة في أغلب الأحيان.
وكتبت الباحثة الرئيسية كيران توملينسون، الباحثة الأولى في مايكروسوفت، وزملاؤها في البحث في ورقة بحثية أولية أن هذه المهام هي "تقديم المعلومات والمساعدة، والكتابة، والتدريس، وتقديم المشورة"، وبمقارنة هذه المهام بالمهام المطلوبة في كل مهنة، حسبت السيدة توملينسون ما أسمته "درجة تطبيق الذكاء الاصطناعي".
هذا ليس مقياسًا دقيقًا لاحتمالية أتمتة وظيفة ما، بل هو مقياس لمدى قدرة كل مهنة على الاستفادة من روبوتات الدردشة القائمة على الذكاء الاصطناعي.
وعلى الرغم من أن مؤيدي الذكاء الاصطناعي يجادلون بأن هذه الكفاءة المُحسّنة قد تؤدي إلى خلق فرص عمل، إلا أن الباحثون يُقرّون بإمكانية تسريح العمال في القطاعات ذات التطبيقات العملية العالية.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ ساعة واحدة
- نافذة على العالم
أخبار التكنولوجيا : مايكروسوفت تكشف عن نظام ذكاء اصطناعى جديد يكتشف البرامج الضارة ويحظرها
الخميس 7 أغسطس 2025 08:30 صباحاً نافذة على العالم - كشفت مايكروسوفت النقاب عن نظام ذكاء اصطناعى جديد قادر على اكتشاف البرامج الضارة وحظرها بشكل مستقل، دون أى مساعدة بشرية، حيث يُطلق على هذا النموذج الأولى اسم Project Ire، وهو مصمم لإجراء هندسة عكسية لملفات البرامج وتحديد ما إذا كانت آمنة أم ضارة، مما يمثل خطوة كبيرة إلى الأمام فى مجال الأمن السيبراني. ووفقًا لمنشور مايكروسوفت على مدونتها، يمكن لـ Project Ire تحليل ملف البرنامج بالكامل حتى لو لم تكن لديه معلومات مسبقة عن مصدره أو غرضه،ويستخدم البرنامج أدوات فك التجميع وأدوات متقدمة أخرى لفحص الشيفرة البرمجية، وفهم سلوكها، وتحديد ما إذا كانت تشكل خطرًا. تُعد هذه الأداة ثمرة جهد مشترك بين Microsoft Research وMicrosoft Defender Research وMicrosoft Discovery & Quantum. وأوضحت مايكروسوفت: "كان هذا النوع من العمل يُنجز يدويًا فى العادة بواسطة محللين خبراء، وهو أمر قد يكون بطيئًا ومُرهقًا". غالبًا ما يعانى باحثو الأمن من إرهاق التنبيهات واستنزافها، مما يُصعّب الحفاظ على الاتساق فى عمليات الكشف عن البرامج الضارة على نطاق واسع. ويتميز Project Ire عن غيره من أدوات أمن الذكاء الاصطناعي بصعوبة أتمتة تصنيف البرامج الضارة بشكل خاص. لا توجد طريقة واضحة للآلة للتحقق من قراراتها، ويمكن أن تظهر العديد من سمات البرامج الضارة أيضًا فى البرامج الشرعية. هذا يُصعّب تدريب نظام دقيق وموثوق. ولمعالجة هذا الأمر، زوّدت مايكروسوفت مشروع Ire بنظام يُنشئ ما يُسمى "سلسلة الأدلة"، وهو تتبع خطوة بخطوة يُظهر كيفية وصول العميل إلى استنتاجه، ويسمح مسار التدقيق هذا للخبراء البشريين بالتحقق لاحقًا من النتائج ويُحسّن المساءلة فى حالة وجود أخطاء، ويبدأ تحليل مشروع Ire بفرز نوع الملف وبنيته، ثم إعادة بناء تدفق التحكم الخاص به باستخدام أدوات مثل Ghidra وangr. يُمكنه بعد ذلك استدعاء أدوات مختلفة من خلال واجهة برمجة تطبيقات لتلخيص كل دالة برمجية، وإضافة النتائج إلى سلسلة الأدلة الخاصة به. واختبرت مايكروسوفت هذا البرنامج فى تقييمين رئيسيين. فى إحدى التجارب، حللت مجموعة بيانات من برامج تشغيل ويندوز، بعضها ضار والبعض الآخر آمن. حدد الذكاء الاصطناعى 90% من الملفات بشكل صحيح، بينما تم تصنيف 2% فقط من الملفات الآمنة بشكل خاطئ على أنها تهديدات، هذا منح Project Ire درجة دقة 0.98 وسرعة استدعاء 0.83. فى اختبار واقعى أكثر صعوبة، أعطت مايكروسوفت الذكاء الاصطناعى ما يقرب من 4000 ملف معقد لم تتم مراجعتها من قبل أى أنظمة آلية أخرى، وكانت هذه الملفات مخصصة للفحص اليدوى من قبل الخبراء. حتى فى ظل هذه الظروف، حقق Project Ire درجة دقة عالية بلغت 0.89، مع معدل إيجابيات خاطئة بلغ 4% فقط. فى الواقع، كان Project Ire أول برنامج هندسة عكسية، بشرى أو آلى، فى مايكروسوفت يُنتج حالة كشف عن البرامج الضارة قوية بما يكفى لتبرير الحظر التلقائى لعينة من التهديدات المستمرة المتقدمة (APT). وقد تم الآن تحييد هذه البرامج الضارة بواسطة Microsoft Defender.


الوفد
منذ 10 ساعات
- الوفد
مايكروسوفت تُطلق Gaming Copilot.. مساعد ذكي جديد يُحدث نقلة في تجربة اللعب
تُواصل مايكروسوفت توسيع نطاق استخدامات الذكاء الاصطناعي، وهذه المرة تستهدف مجتمع اللاعبين بشكل مباشر، فقد أعلنت الشركة في مارس الماضي عن تطويرها لمساعد ذكي مخصص للألعاب يُدعى Gaming Copilot، والآن أصبح الإصدار التجريبي منه متاحًا للتجربة لمستخدمي برنامج Xbox Insider على أجهزة الكمبيوتر عبر شريط الألعاب (Game Bar). ويُعتبر "Gaming Copilot" خطوة جديدة من مايكروسوفت تهدف إلى تحسين تجربة اللعب من خلال تقديم دعم فوري وتفاعلي داخل اللعبة، فهو يُشبه من حيث المفهوم خدمات الدعم الفني التقليدية للألعاب، ولكن بشكل أكثر ذكاءً وحداثة، حيث يستخدم الذكاء الاصطناعي لتحليل ما يمر به اللاعب في الوقت الفعلي، ويُقدّم النصائح بناءً على نشاطه وسياق اللعب. مساعد رقمي يُدرك ما تلعبه يظهر "Gaming Copilot" كمربع دردشة على الشاشة، ويُمكن للاعبين التفاعل معه نصيًا أو صوتيًا (إذا كان هناك ميكروفون متصل بالجهاز)، ويُتيح هذا المساعد الذكي طرح الأسئلة المتعلقة بمستوى معين داخل اللعبة، أو كيفية التغلب على تحدٍ ما، أو حتى استكشاف معلومات إضافية حول عناصر اللعب والأسلحة والتكتيكات. ما يميز هذا المساعد هو أنه يفهم سياق اللعبة التي تلعبها حاليًا، ويستفيد من لقطات الشاشة والمعلومات المتوفرة عن نشاطك داخل المنصة ليُقدّم اقتراحات دقيقة وفورية، وتقول مايكروسوفت إن هذا المساعد يُمكنه أيضًا إرشاد المستخدمين إلى ألعاب جديدة مناسبة لتفضيلاتهم، بالإضافة إلى الإجابة على استفسارات تتعلق بالحسابات والإعدادات في نظام Xbox. مزايا أولية وتحديثات مستقبلية في المرحلة الحالية، يدعم الإصدار التجريبي من "Gaming Copilot" اللغة الإنجليزية فقط، ويُتاح استخدامه في مناطق محددة مثل الولايات المتحدة، نيوزيلندا، اليابان وسنغافورة، وتُشير مايكروسوفت إلى أن الخدمة ما تزال محدودة الانتشار، ولكنها تعمل على توسيع نطاق التجربة لتشمل مزيدًا من المستخدمين حول العالم في المستقبل القريب. ولم تتوقف خطط الشركة عند هذا الحد، إذ أكدت أنها تنوي تطوير مزايا إضافية لاحقًا، من بينها خاصية "التدريب الاستباقي"، التي من شأنها أن تُساعد اللاعبين على تطوير مهاراتهم قبل مواجهة تحديات محددة داخل الألعاب، أي أن المساعد قد يتحوّل من مجرد أداة للمساعدة اللحظية إلى مدرب افتراضي يهيئك للعب باحترافية أعلى. دعم للألعاب المحمولة أيضًا ولم تغفل مايكروسوفت عن منصات الألعاب المحمولة، حيث أطلقت إصدارًا تجريبيًا مخصصًا للأجهزة المحمولة التي تعمل بنظام Windows، ورغم أن هذه النسخة لا تزال قيد الاختبار ومحدودة الوظائف حاليًا، إلا أن دخولها إلى السوق يُشير إلى نية الشركة في دعم جميع أنواع الأجهزة المستخدمة في اللعب، سواء كانت منصات ألعاب منزلية، كمبيوترات، أو أجهزة محمولة. ما أهمية Gaming Copilot للمستقبل؟ يمثل هذا المساعد نقلة في كيفية تفاعل اللاعبين مع الألعاب، حيث يُضيف عنصرًا من الدعم التفاعلي الذكي داخل التجربة الحية، فبدلًا من الخروج من اللعبة للبحث عن حلول عبر الإنترنت أو مشاهدة مقاطع فيديو، يمكن للاعب الآن الاستفسار مباشرة من المساعد والحصول على إجابة مخصصة لحالته داخل اللعبة. ويبدو أن مايكروسوفت تراهن على دمج الذكاء الاصطناعي في مختلف جوانب منظومتها الترفيهية، ومع نجاحها في مجال الإنتاجية من خلال أدوات مثل Copilot في Word وExcel، فإن دخولها مجال الألعاب عبر Xbox Copilot قد يكون بداية لعصر جديد من التفاعل الذكي والمخصص داخل تجارب اللعب.


أهل مصر
منذ 11 ساعات
- أهل مصر
تحليل إخباري: دور مايكروسوفت في مراقبة الفلسطينيين
كشف تحقيق صحفي مشترك أجرته صحيفة "الجارديان" ومجلة "+972" ومنصة "لوكال كول" عن تفاصيل صادمة حول تعاون شركة مايكروسوفت مع وحدة الاستخبارات الإسرائيلية 8200، مما أثار تساؤلات جدية حول أخلاقيات الشركات التكنولوجية الكبرى ودورها في الصراعات السياسية. جوهر التحقيق التحقيق يركز على مشروع ضخم أطلقته الوحدة 8200 لتخزين ملايين المكالمات الهاتفية التي يجريها الفلسطينيون في غزة والضفة الغربية على خوادم مايكروسوفت السحابية "أزور". كان هدف المشروع هو إنشاء أداة مراقبة جماعية واسعة النطاق لم يكن الجيش الإسرائيلي قادرًا على تنفيذها باستخدام خوادمه الخاصة بسبب محدودية السعة التخزينية. نقاط رئيسية من التحقيق لقاء عالي المستوى: يكشف التحقيق أن الرئيس التنفيذي لمايكروسوفت، ساتيا ناديلا، التقى بقائد الوحدة 8200، يوسي سريئيل، في أواخر عام 2021. خلال هذا الاجتماع، حصل سريئيل على موافقة ناديلا على خطة لتخصيص منطقة معزولة داخل منصة "أزور" لتخزين كميات هائلة من البيانات الاستخباراتية. نظام المراقبة: بدأ النظام العمل في عام 2022، وسمح للوحدة 8200 بجمع وتخزين تسجيلات المكالمات الهاتفية اليومية لملايين الفلسطينيين لفترات طويلة. هذا النظام العشوائي يختلف عن المراقبة السابقة التي كانت تتطلب تحديد أهداف محددة مسبقًا، مما يتيح للجيش الإسرائيلي العودة إلى المحادثات الهاتفية لأي شخص يصبح موضع اهتمام في وقت لاحق. تداعيات استخدام البيانات: وفقًا لثلاثة مصادر من الوحدة 8200، تم استخدام المعلومات المستخلصة من هذه المكالمات في التحضير لضربات جوية وعمليات عسكرية في غزة والضفة الغربية. كما أشار أحد المصادر إلى أن هذه البيانات استخدمت لابتزاز أشخاص، أو اعتقالهم، أو تبرير قتلهم. موقف مايكروسوفت: تزعم مايكروسوفت أن ناديلا لم يكن على علم بنوع البيانات التي كانت الوحدة 8200 تخطط لتخزينها. كما أن متحدثًا باسم الشركة أكد أن الشركة "لا تملك أي معلومات" عن محتوى البيانات، وأن الشراكة كانت بهدف "تعزيز الأمن السيبراني" في إسرائيل. ومع ذلك، تشير الوثائق المسربة إلى أن مهندسي مايكروسوفت عملوا عن كثب مع الوحدة 8200 لتصميم وتنفيذ تدابير أمنية متقدمة لتلبية متطلباتهم، وأن هذا المشروع كان سريًا للغاية داخل الشركة. الأبعاد المالية: يوضح التحقيق أن مايكروسوفت رأت في هذه الشراكة فرصة تجارية مربحة، حيث توقع المسؤولون التنفيذيون إيرادات بمئات الملايين من الدولارات، مع إشارة إلى أن الوحدة 8200 تأمل في "توسيع نطاق العمل الحيوي عشرة أضعاف" في السنوات القادمة. الخاتمة: تساؤلات أخلاقية وتحديات قانونية هذا التحقيق يضع مايكروسوفت في موقف حرج، خاصة وأنها تواجه بالفعل ضغوطًا من موظفين ومستثمرين بشأن علاقاتها مع الجيش الإسرائيلي. بينما تنفي الشركة علمها باستخدام تقنياتها في استهداف المدنيين، تشير مصادر التحقيق إلى أن هذا النظام قد ساهم بشكل مباشر في عمليات عسكرية تسببت في سقوط ضحايا. تثير هذه القضية تساؤلات عميقة حول مسؤولية الشركات التكنولوجية الكبرى عندما تُستخدم منتجاتها في سياقات عسكرية أو استخباراتية حساسة. هل يمكن لشركة عملاقة مثل مايكروسوفت أن تدعي عدم المعرفة بنوع البيانات التي يتم تخزينها على خوادمها، خاصة عندما يكون التعامل مع وحدة استخبارات عسكرية؟ وما هي الحدود الأخلاقية التي يجب أن تلتزم بها هذه الشركات لحماية حقوق الإنسان وخصوصية الأفراد في مناطق الصراع؟