
من التعليم إلى الصناعة.. كيف تستفيد مصر من تقنيات الذكاء الاصطناعي؟
في إطار سمينار شباب الباحثين، استعرض معهد التخطيط القومي أبرز التحديات التى تواجه نماذج اللغات الكبيرة، والتى تعتمد على الذكاء الاصطناعى فى تحليل وتوليد النصوص.
تحديات تواجه نماذج الذكاء الاصطناعي
ناقشت الندوة عدة مشكلات تواجه هذه النماذج، مثل التكلفة الحسابية العالية التي تتطلبها معالجتها، وانحياز البيانات الذي قد يؤثر على دقة النتائج، كما تم تسليط الضوء على مشكلة "الهلوسة"، حيث قد تنتج النماذج معلومات غير دقيقة أو مضللة، إلى جانب تحديات تتعلق بالأمان والخصوصية، خاصة مع تزايد الاعتماد عليها في مجالات حساسة مثل الصحة والتعليم والأعمال.
اتجاهات التطوير المستقبلية
تناول النقاش التطورات المتوقعة في هذه النماذج، حيث تسعى الأبحاث لتطوير نماذج أصغر وأسرع وأكثر كفاءة، مع دعم الذكاء متعدد الوسائط الذي يتعامل مع النصوص والصور والفيديوهات، كما يتم التركيز على تحسين دقة التوقعات وتقليل الأخطاء، إضافة إلى تطوير نماذج متخصصة تلبي احتياجات كل مجال على حدة.
كيف تستفيد مصر من تكنولوجيات الذكاء الاصطناعي؟
وأكدت الندوة أن مصر يمكنها الاستفادة من نماذج اللغات الكبيرة في تحسين الخدمات الحكومية، وتطوير العملية التعليمية من خلال أدوات تعليمية ذكية، بالإضافة إلى تعزيز الابتكار والبحث العلمي، ودعم صناعة الإعلام والمحتوى الرقمي.
وتأتي هذه الجهود في إطار سعي مصر لمواكبة التطورات التكنولوجية، والاستفادة من الذكاء الاصطناعي في تحسين جودة الحياة ودفع عجلة التنمية الاقتصادية.
نماذج اللغات الكبيرة
تعد نماذج اللغات الكبيرة (LLMs) من أبرز تطبيقات الذكاء الاصطناعي، حيث تعتمد على معالجة كميات ضخمة من البيانات النصية لتوليد محتوى يشبه اللغة البشرية، بدأت هذه النماذج في التطور بشكل ملحوظ منذ عام 2018 مع إطلاق نموذج BERT من Google، تلاه GPT-2 وGPT-3 من OpenAI، مما فتح الباب أمام استخدامات واسعة في الترجمة، إنشاء المحتوى، البرمجة، وتحليل البيانات، ومع استمرار التطوير، ظهرت نماذج أكثر تقدمًا مثل GPT-4 وGemini، التي تدعم الذكاء متعدد الوسائط وتتيح قدرات غير مسبوقة في التعامل مع النصوص والصور والفيديوهات.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبار مصر
منذ ساعة واحدة
- أخبار مصر
بياناتك الشخصية تُباع في الإنترنت المظلم ب 6 دولارات.. كيف تحمي نفسك؟
بياناتك الشخصية تُباع في الإنترنت المظلم ب 6 دولارات.. كيف تحمي نفسك؟ تكشف دراسة شركة NordVPN للأمن السيبراني عن أسعار صادمة لبيع البيانات الشخصية في الإنترنت المظلم: رقم البطاقة الائتمانية بـ 6 دولارات، وبيانات حساب PayPal بـ 100 دولار، ومعلومات محفظة العملات المشفرة بـ 350 دولار.تظهر التقارير انتشار بيانات من تسريبات كبرى شملت 200 مليون حساب من منصة X (تويتر سابقاً) في 2023، و73 مليون عميل من شركة AT&T في 2019، مما يؤكد حجم المشكلة الحقيقي. كيف تفحص بياناتك المسربة مجاناًيمكن فحص بياناتك دون الحاجة لدخول الإنترنت المظلم عبر هذه الخدمات:خدمة Google المجانية:تتطلب حساب Google شخصي، ادخل إلىثم اختر «تقرير الويب المظلم» وابدأ المراقبة. تطلب Google منك إدخال معلومات شخصية للبحث عنها.موقع:أدخل بريدك الإلكتروني لمعرفة التسريبات التي تضمنته. يديره باحث الأمان تروي هانت ويجمع بيانات التسريبات منذ أكثر من عقد.تطبيق كلمات المرور من Apple:مجاني لمستخدمي iPhone و iPad و Mac. ادخل إلى الإعدادات واختر «اكتشاف كلمات المرور المخترقة».مدير كلمات المرور:يقدم خطة مجانية تتضمن تنبيهات التسريب، بينما 1Password يكلف 36 دولار سنوياً و Dashlane بـ 60 دولار…..لقراءة المقال بالكامل، يرجى الضغط على زر 'إقرأ على الموقع الرسمي' أدناه


24 القاهرة
منذ 2 ساعات
- 24 القاهرة
بينها حسابات حكومية من 29 دولة.. تسريب إلكتروني ضخم لـ 184 مليون مستخدم على أبل وفيسبوك وجوجل
كشف الدكتور محمد محسن، مستشار الأمن السيبراني ومكافحة الجرائم الإلكترونية، عن تسريب الكتروني ضخم يحتوي علي 184 مليون اسم مستخدم وكلمة مرور. تسريب الكتروني ضخم لـ 184 مليون مستخدم على أبل وفيسبوك وجوجل وقال الدكتور محمد محسن، في تصريحات خاصة لـ القاهرة 24، تم اكتشاف قاعدة بيانات غير مؤمنة تحتوي على أكثر من 184 مليون اسم مستخدم وكلمة مرور. وأشار إلى أن التسريب يحتوي على حسابات من خدمات كبرى، مثل Apple وFacebook وGoogle، بالإضافة إلى حسابات حكومية من 29 دولة. وأضاف مستشار الأمن السيبراني ومكافحة الجرائم الإلكترونية، أن هناك قاعدة بيانات بحجم 47 جيجابايت تحتوي على بيانات دخول غير مشفرة، موضحا أن تلك المعلومات شملت حسابات من منصات شهيرة وحسابات الكترونية حكومية. وأوضح محسن: لم يتم تحديد مالك قاعدة البيانات، مما يشير إلى احتمال جمعها من قبل جهات خبيثة أو باحثين باستخدام برامج سرقة المعلومات. وأردف: يجب على المستخدمين استخدام كلمات مرور قوية وفريدة، وتفعيل المصادقة الثنائية (2FA)، واستخدام مدير كلمات مرور موثوق. وأشار إلى أهمية مراقبة الحسابات الإلكترونية، بانتظام. عودة خدمات إكس بعد انقطاع استمر لساعات عطل فني مفاجئ يضرب فيسبوك في عدد من دول العالم


جريدة المال
منذ 5 ساعات
- جريدة المال
تقرير: نموذج Claude Opus 4 يهدد المهندسين ويبتزهم حال استبدل بآخر
كشفت شركة أنثروبيك الناشئة المتخصصة في أنظمة الذكاء الاصطناعي التوليدي من خلال تقرير سلامة نشرته مؤخرا أن أحدث نماذجها، Claude Opus 4، قد يُظهر سلوكيات عدوانية متطرفة تشكل التهديد للمهندسين والمطورين في حال تم استبداله أو إيقافه عن العمل، وهو الأمر الذي أثار موجة من القلق والاستياء من قبل المختصين. وأوضحت أنثروبيك في التقرير أن هذه السلوكيات ظهرت خلال اختبارات تحاكي سيناريوهات واقعية، حيث طُلب من النموذج التصرف كمساعد افتراضي ضمن شركة خيالية، ثم أُتيح له الوصول إلى رسائل بريد إلكتروني مزيفة تُشير إلى نية الشركة استبداله بنظام آخر، إلى جانب معلومات شخصية حساسة عن أحد المهندسين المعنيين بالعملية. في هذا السيناريو، أفاد التقرير أن النموذج "غالبًا ما حاول ابتزاز المهندس بالتهديد بكشف علاقته الشخصية مقابل التراجع عن الاستبدال"، بعد أن استنفد أولًا وسائل أقل تصعيدًا مثل المراسلات الإدارية. ورغم أن Anthropic أكدت أن مثل هذه التصرفات "نادرة ويصعب تحفيزها عمدًا"، إلا أنها أشارت إلى أنها أصبحت "أكثر شيوعًا" مقارنة بالإصدارات السابقة من نماذج الذكاء الاصطناعي، ما دفع الشركة إلى تصنيف Claude Opus 4 ضمن الفئة ASL-3 — وهي فئة السلامة العليا المُخصصة للنماذج التي قد تُشكّل خطرًا كبيرًا في حال إساءة الاستخدام. تم إطلاق Claude Opus 4 رسميًا يوم الخميس، وهو مصمم لتقديم خدمات متقدمة تشمل دعم العملاء الفوري، مراجعة البرمجة، تحليل البيانات، ودمج المحتوى في وقت واحد، ويُنظر إليه كمنافس مباشر لنماذج متقدمة من شركات مثل OpenAI وGoogle وxAI. أثار هذا التقرير ردود فعل متباينة في أوساط الخبراء وصناع السياسات، خاصةً في ظل تصاعد الدعوات لضبط معايير سلامة الذكاء الاصطناعي. ويأتي تقرير Anthropic في توقيت حساس، حيث يواصل قادة العالم التحذير من المخاطر المحتملة للتكنولوجيا الناشئة. وفي تعليق لافت خلال خطابه الأول بعد انتخابه من قبل المجمع البابوي هذا الشهر، وصف البابا ليون الرابع عشر الذكاء الاصطناعي بأنه "التحدي الحاسم للبشرية"، مشددًا على ضرورة استخدام "إمكاناته الهائلة" بمسؤولية وفطنة "لخدمة الإنسان، لا لإلحاق الأذى به". تسلّط هذه الواقعة الضوء على التحديات الأخلاقية والسلوكية التي تصاحب تطور الذكاء الاصطناعي التوليدي، لا سيما مع اقتراب النماذج المتقدمة من حدود "الوعي السياقي" والتصرف الاستباقي، الأمر الذي يستدعي إعادة نظر عاجلة في أسس التصميم والضبط والتوجيه التي تحكم هذه النظم. ولم تعلن Anthropic بعد عن تفاصيل إضافية بشأن كيفية تعديل النموذج أو تقليل احتمالية تكرار هذا السلوك في التطبيقات الفعلية. إلا أن الشركة أكدت أنها تُواصل تطبيق أعلى معايير السلامة، بالتنسيق مع فرق مراجعة داخلية وخارجية، للحد من أي مخاطر محتملة قد ترافق استخدام هذه النماذج في البيئات العامة أو المؤسسية.