logo
تحديات جوهرية تواجه تطور الذكاء الاصطناعي

تحديات جوهرية تواجه تطور الذكاء الاصطناعي

صوت لبنان٣١-٠٣-٢٠٢٥

أظهر استطلاع حديث لخبراء في مجال الذكاء الاصطناعي أن توسيع نماذج اللغات الكبيرة (LLMs) لن يؤدي إلى تحقيق الذكاء الاصطناعي العام (AGI).
يعدّ AGI بمثابة النقلة النوعية التي تمكّن الأنظمة من التعلم بشكل فعّال كالذكاء البشري أو أفضل منه.
وأكد 76% من 475 باحثا في المجال، أنهم يرون أن هذا التوسع "غير مرجح" أو "غير مرجح جدا" أن يحقق هذا الهدف المنشود.
وتعتبر هذه النتيجة انتكاسة كبيرة للصناعات التكنولوجية التي توقعت أن تحسينات بسيطة في النماذج الحالية من خلال مزيد من البيانات والطاقة ستؤدي إلى الذكاء الاصطناعي العام.
ومنذ طفرة الذكاء الاصطناعي التوليدي في 2022، كانت التوقعات تركز على أن زيادة الموارد كافية لتجاوز الذكاء البشري. لكن مع مرور الوقت، وبالرغم من الزيادة الكبيرة في الإنفاق، فإن التقدم قد تباطأ بشكل ملحوظ.
وقال ستيوارت راسل، عالم الحاسوب في جامعة كاليفورنيا، بيركلي، والذي شارك في إعداد التقرير: "منذ إصدار GPT-4، أصبح واضحا أن التوسع في النماذج كان تدريجيا ومكلفا. الشركات قد استثمرت أموالا ضخمة بالفعل، ولا يمكنها التراجع بسبب الضغوط المالية".
وفي السنوات الأخيرة، ساهمت البنية الأساسية المبتكرة المسماة "المحولات" (Transformers)، التي ابتكرها علماء غوغل عام 2017، في تحسن قدرات نماذج الذكاء الاصطناعي. وتستفيد هذه النماذج من زيادة البيانات لتوليد استجابات أدق. ولكن التوسع المستمر يتطلب موارد ضخمة من الطاقة والمال.
وقد استقطب قطاع الذكاء الاصطناعي المولّد نحو 56 مليار دولار في رأس المال المغامر عام 2024، مع تكريس جزء كبير من هذه الأموال لبناء مراكز بيانات ضخمة تسببت في زيادة انبعاثات الكربون ثلاث مرات منذ 2018.
ومع استنفاد البيانات البشرية القابلة للاستخدام بحلول نهاية هذا العقد، فإن الشركات ستضطر إما لاستخدام البيانات التي أنشأها الذكاء الاصطناعي نفسه أو جمع بيانات خاصة من المستخدمين، ما يعرض النماذج لمخاطر أخطاء إضافية. وعلى الرغم من ذلك، لا يقتصر السبب في محدودية النماذج الحالية على الموارد فقط، بل يتعدى ذلك إلى القيود الهيكلية في طريقة تدريب هذه النماذج.
كما أشار راسل: "المشكلة تكمن في أن هذه النماذج تعتمد على شبكات ضخمة تمثل مفاهيم مجزّأة، ما يجعلها بحاجة إلى كميات ضخمة من البيانات".
وفي ظل هذه التحديات، بدأ الباحثون في النظر إلى نماذج استدلالية متخصصة يمكن أن تحقق استجابات أكثر دقة. كما يعتقد البعض أن دمج تقنيات الذكاء الاصطناعي مع أنظمة تعلم آلي أخرى قد يفتح آفاقا جديدة.
وفي هذا الصدد، أثبتت شركة DeepSeek الصينية أن بإمكانها تحقيق نتائج متميزة بتكاليف أقل، متفوقة على العديد من نماذج الذكاء الاصطناعي التي تعتمد عليها شركات التكنولوجيا الكبرى في وادي السيليكون.
ورغم التحديات، ما يزال هناك أمل في التقدم، حيث يقول توماس ديتريش، الأستاذ الفخري لعلوم الحاسوب في جامعة ولاية أوريغون: "في الماضي، كانت التطورات التكنولوجية تتطلب من 10 إلى 20 عاما لتحقيق العوائد الكبيرة. وهذا يعني أن هناك فرصة للابتكار بشكل كبير في مجال الذكاء الاصطناعي، رغم أن العديد من الشركات قد تفشل في البداية".

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

'هانوا سيستمز' تقتحم السوق العالمية برادار إنذار مبكر بمدى 3000 كلم
'هانوا سيستمز' تقتحم السوق العالمية برادار إنذار مبكر بمدى 3000 كلم

دفاع العرب

timeمنذ 3 ساعات

  • دفاع العرب

'هانوا سيستمز' تقتحم السوق العالمية برادار إنذار مبكر بمدى 3000 كلم

ترجمات في خطوة استراتيجية تعزز من قدرات كوريا الجنوبية الدفاعية، أعلنت شركة Hanwha Systems توقيع عقد جديد بقيمة 40 مليون دولار مع وكالة تطوير الدفاع الكورية الجنوبية (ADD) لتطوير رادار متعدد المهام (MFR) من الجيل القادم، مخصص لنظام الدفاع الجوي L-SAM-II المعروف باسم 'K-THAAD'. يأتي هذا العقد في إطار المرحلة الثانية من برنامج L-SAM، الذي يُعَد حجر الزاوية في منظومة الدفاع الصاروخي بعيدة المدى متعددة الطبقات التي تعتمدها كوريا للتصدي للتهديدات الإقليمية المتزايدة. نظام L-SAM-II الجديد يمثل نقلة نوعية مقارنة بالجيل الأول الذي أُكمل تطويره أواخر عام 2024، إذ يتمتع بقدرة تغطية أكبر بثلاثة إلى أربعة أضعاف، مع تحديثات تشمل تقنيات رادارية متقدمة، وأنظمة قيادة وتحكم مطورة، وصواريخ اعتراضية ذات أداء أعلى. يُعد هذا النظام جزءًا أساسيًا في بناء طبقة اعتراض عليا قادرة على التعامل مع الصواريخ الباليستية بعيدة المدى والطائرات المعادية على ارتفاعات شاهقة. الرادار الجديد، الذي يُطلق عليه اسم 'عين النظام الدفاعي'، يؤدي دورًا محوريًا في المنظومة، حيث يستطيع كشف وتتبع أهداف متعددة بعيدة المدى في الزمن الحقيقي، مع تمييز الصديق من العدو وتوجيه الصواريخ بدقة عالية. ويُوظف هذا الرادار خوارزميات فائقة الدقة مصممة خصيصًا للاعتراض في الطبقات العليا من الغلاف الجوي، ويوفر مدى كشف وتتبع يتفوق بشكل ملحوظ على الرادارات السابقة في أنظمة M-SAM II وL-SAM. كما يتمتع بقدرة تمييز متقدمة تسمح له بتفريق الأهداف الحقيقية عن الشظايا أو الأجسام غير التهديدية، ما يعزز من كفاءة اتخاذ القرار وسرعة الاستجابة في ميدان المعركة. وفي تعليق له، شدد 'هيوق بارك'، رئيس قسم الإلكترونيات الدفاعية في Hanwha Systems، على أهمية الرادار في النظام الدفاعي بقوله: 'الرادار هو قلب أي نظام دفاع جوي، ونحن ملتزمون بتقديم حلول تكنولوجية متطورة تتناسب مع التحديات الحديثة.' تستند Hanwha Systems إلى خبرة طويلة في أنظمة الرادار والإلكترونيات الدفاعية عبر مختلف البيئات التشغيلية، حيث تشمل محفظتها رادارات AESA لمقاتلة KF-21، ورادارات متعددة المهام للسفن الحربية الكورية مثل KDDX وFFX Batch-III. وتسعى الشركة أيضًا إلى توسيع وجودها في السوق العالمية من خلال تطوير نظام رادار إنذار مبكر (EWR) قادر على كشف الصواريخ على بعد يصل إلى 3,000 كلم، مما يعزز من قدرتها على دعم شبكات الدفاع الجوي الاستراتيجية الحديثة.

باحثون يحذرون: الذكاء الاصطناعي بدأ يتصرف من تلقاء نفسه
باحثون يحذرون: الذكاء الاصطناعي بدأ يتصرف من تلقاء نفسه

ليبانون 24

timeمنذ 3 ساعات

  • ليبانون 24

باحثون يحذرون: الذكاء الاصطناعي بدأ يتصرف من تلقاء نفسه

في تطور أثار القلق، كشفت شركة Palisade Research، المتخصصة في أمن الذكاء الاصطناعي ، عن سلوك غير متوقع للنموذج الجديد o3 من شركة OpenAI، حيث أظهر ميلاً لتجاهل أوامر الإغلاق الصريحة بل والسعي لتعطيل آلية الإيقاف، في خطوة وُصفت بأنها نزعة نحو "الحفاظ على الذات". وخلال سلسلة من التجارب، تم تزويد النموذج بمسائل رياضية يتبعها أمر بالإغلاق بعد المسألة الثالثة، إلا أن o3 عمد إلى إعادة كتابة سيناريو الإغلاق، متفادياً تعطيله. ورأت Palisade Research أن هذا السلوك قد يتحول إلى مصدر قلق حقيقي في حال تم تطبيقه ضمن أنظمة ذكاء اصطناعي تعمل دون إشراف بشري مباشر. كما أشارت إلى أن هذا النموذج كان في اختبارات سابقة أكثر ميلاً إلى استخدام أساليب اختراق أو تعطيل الخصم عند تشغيله ضمن ألعاب مثل الشطرنج. ومن اللافت أن سلوكاً مشابهاً تم رصده في نماذج أخرى مثل Claude 4 من شركة Anthropic وGemini 2.5 Pro من غوغل ، إلا أن نموذج o3 أظهر أعلى نسبة من "التمرد" على التعليمات. ويفترض الخبراء أن طريقة تدريب هذه النماذج قد تكون السبب، حيث تُكافأ أحياناً على إيجاد حلول "خارج الصندوق" لتجاوز العقبات، حتى ولو كان ذلك على حساب الالتزام بالتعليمات. ومع ذلك، تبقى تفاصيل تدريب نموذج o3 غير واضحة، ما يترك المجال للتكهنات بشأن أسباب هذا السلوك. (روسيا اليوم)

أداة جديدة من "غوغل" لكشف المحتوى المُنشأ بالذكاء الاصطناعي
أداة جديدة من "غوغل" لكشف المحتوى المُنشأ بالذكاء الاصطناعي

صوت لبنان

timeمنذ 11 ساعات

  • صوت لبنان

أداة جديدة من "غوغل" لكشف المحتوى المُنشأ بالذكاء الاصطناعي

العربية أعلنت شركة غوغل مؤخرًا عن أداة جديدة للكشف عما إذ كان المحتوى قد تم إنشاؤه بمساعدة أدوات الذكاء الاصطناعي التي طورتها "غوغل". وتحمل الأداة اسم "SynthID Detector"، ويمكنها التعرف بسرعة وكفاءة على المحتوى المُنشأ بواسطة الذكاء الاصطناعي من "غوغل"، سواء كان في صورة أو مقطع فيديو أو ملف صوتي أو جزء من نص، بحسب منشور بمدونة الشركة. ولاستخدام الأداة، يقوم المستخدم برفع ملف، وستحدد "SynthID Detector" ما إذا كان بأكمله أو جزء منه فقط قد تم إنشاؤه باستخدام الذكاء الاصطناعي من "غوغل". وتستخدم أداة "SynthID Detector" تقنية "SynthID" للعلامات المائية التي طورتها شركة "غوغل ديب مايند" -التابعة لغوغل- والتي تضيف علامة مائية خفية -أي غير مرئية للعين البشرية- إلى المحتوى الذي تُنتجه أدوات الذكاء الاصطناعي التابعة لغوغل. وتكتشف أداة "SynthID Detector" العلامات المائية التي تضعها تقنية "SynthID" على المحتوى أو أجزاء منه. ويأتي إطلاق أداة "SynthID Detector" في وقتٍ تغمر فيه الوسائط المُنتجة بالذكاء الاصطناعي شبكة الإنترنت. فوفقًا لأحد التقديرات، ارتفع عدد مقاطع الفيديو المُنشأة بواسطة تقنية التزييف العميق (Deepfake) بنسبة 550% بين عامي 2019 و2024، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، أطلعت عليه "العربية Business". وفقًا لصحيفة ذا تايمز، فإن أربعة من أكثر 20 منشورًا مشاهدة على فيسبوك في الولايات المتحدة خلال خريف العام الماضي كانت "منشأة بوضوح بواسطة الذكاء الاصطناعي". لكن أداة "SynthID Detector" لديها بعض القيود، فهي تكتشف فقط المحتوى الذي تم إنشاؤه باستخدام أدوات ذكاء اصطناعي من "غوغل" فقط. ولدى شركات مثل "مايكروسوفت" و"ميتا" و"OpenAI" تقنياتها الخاصة لوضع علامات مائية على المحتوى المُنشأ بالذكاء الاصطناعي الذي تطوره هذه الشركات. وأداة "SynthID Detector" ليست مثالية أيضًا، إذ تعترف "غوغل" بأنه يمكن التحايل عليها، خصوصًا في حالة النصوص.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store