logo
ثورة في الذكاء الاصطناعي.. كيف يمكن للضغط وحده حل الألغاز؟

ثورة في الذكاء الاصطناعي.. كيف يمكن للضغط وحده حل الألغاز؟

العربية٠٩-٠٣-٢٠٢٥

كشفت دراسة حديثة من جامعة كارنيجي ميلون عن نهج جديد قد يغير طريقة فهمنا لقدرات الذكاء الاصطناعي.
وأظهرت الأبحاث أن ضغط المعلومات وحده قد يكون كافيًا لحل بعض مهام التفكير المعقدة دون الحاجة إلى تدريب مسبق على بيانات ضخمة.
في هذا السياق، ابتكر الباحثان إسحاق لياو وألبرت جو نظامًا يحمل اسم CompressARC، يعتمد على تقنية ضغط المعلومات لاستخلاص الحلول، بدلًا من الطرق التقليدية التي تعتمد على التعلم المسبق من كميات هائلة من البيانات.
الذكاء الاصطناعي ذكاء اصطناعي رغم التطور.. الذكاء الاصطناعي ما زال بعيدا عن قدرات الدماغ البشرية
ووفقًا للنتائج المنشورة، فإن هذا النظام يعالج ألغاز التفكير المجرد باستخدام الألغاز نفسها فقط، متجاوزًا الفرضيات السائدة حول آليات تعلم الذكاء الاصطناعي، بحسب تقرير نشره موقع "arstechnica" واطلعت عليه "العربية Business".
ذكاء اصطناعي بلا بيانات تدريب!
على عكس نماذج الذكاء الاصطناعي التقليدية، لا يستخدم CompressARC أي بيانات تدريب خارجية.
فبدلًا من التعلم المسبق، يقوم بتحليل اللغز ذاته في الوقت الفعلي، محاولًا العثور على أنماط مخفية باستخدام خوارزميات الضغط.
تم اختبار النظام على معيار ARC-AGI، وهو مقياس بصري ابتكره الباحث فرانسوا شوليه لاختبار التفكير المجرد لدى الذكاء الاصطناعي.
وكانت النتائج مثيرة، حيث تمكن النظام من تحقيق 34.75% دقة في مجموعة التدريب، و20% في مجموعة التقييم، رغم اعتماده على وحدة معالجة رسومية واحدة فقط، مقارنة بالأنظمة الأخرى التي تحتاج إلى مراكز بيانات ضخمة.
هل يمكن أن يكون الضغط مفتاح الذكاء العام؟
تستند هذه الدراسة إلى نظريات رياضية قديمة، مثل تعقيد كولموغوروف، التي تربط بين قدرة الضغط والذكاء.
فكلما كان النظام قادرًا على تمثيل المعلومات بأكثر طريقة مضغوطة وكفاءة، كلما زادت قدرته على فهم الأنماط والتنبؤ بالنتائج – وهي سمات تُعتبر أساسية في الذكاء البشري.
ويأتي هذا البحث في وقت تشهد فيه صناعة الذكاء الاصطناعي سباقًا نحو نماذج ضخمة ومكلفة، مثل نموذج o3 من "OpenAI"، الذي أثار جدلًا واسعًا بإعلانه تحقيق أداء قريب من البشر في اختبار ARC-AGI.
ولكن، مع ظهور نظام CompressARC، قد يكون هناك طريق آخر نحو الذكاء الاصطناعي الفعّال، يعتمد على مبادئ الضغط بدلاً من القوة الحاسوبية الهائلة.
التحديات والمستقبل
رغم نتائجه الواعدة، لا يزال نظام CompressARC يعاني من قيود في حل بعض الألغاز الأكثر تعقيدًا، مثل العدّ والتعرف على الأنماط بعيدة المدى، كما أن نسبة دقته، رغم كونها ملفتة، لا تزال بعيدة عن مستوى البشر أو الأنظمة المتقدمة.
ومع ذلك، فإن هذه الدراسة تفتح بابًا جديدًا في أبحاث الذكاء الاصطناعي، حيث يمكن أن تصبح تقنيات الضغط عنصرًا أساسيًا في تطوير أنظمة أكثر كفاءة، قد تُحدث نقلة نوعية في كيفية تعاملنا مع البيانات واتخاذ القرارات المعقدة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟
هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟

العربية

time٠٧-٠٤-٢٠٢٥

  • العربية

هل يمكن التحكم في الذكاء العام الاصطناعي لمنع خروجه عن السيطرة؟

يتطلع قادة التكنولوجيا والأعمال في ظل زخم الحالي حول الذكاء الاصطناعي إلى الخطوة التالية في هذا المجال، ألا وهي "الذكاء العام الاصطناعي" (AGI)، وهي آلة تتمتع بذكاء وقدرات تُضاهي ذكاء الإنسان. لكن الأهم من الوصول إلى هذا الهدف، هو إيجاد طرق جديدة لضمان عدم عمل هذه الآلة -التي تتمتع بمستوى ذكاء البشر نفسه- ضد مصالح البشر. وحتى الآن لا يملك البشر وسيلة لمنع خروج الذكاء العام الاصطناعي -في حالة الوصول إليه- عن السيطرة، لكن باحثين في شركة " غوغل ديب مايند" التابعة لغوغل يعملون على هذه المشكلة، بحسب تقرير لموقع "ArsTechnica" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". وأصدر هؤلاء الباحثون ورقة بحثية جديدة، مكونة من 108 صفحات، تشرح طريقة تطوير الذكاء العام الاصطناعي بأمان. وفي حين يعتقد البعض في مجال الذكاء الاصطناعي أن الذكاء الاصطناعي العام مجرد حلم بعيد المنال، يتوقع باحثو "غوغل ديب مايند" إمكانية الوصول إليه بحلول عام 2030. ويعتقد الباحثون أن الذكاء العام الاصطناعي الشبيه بذكاء الإنسان قد يؤدي إلى "خطر جسيم"، لأجل هذا سعوا إلى فهم مخاطره. ما هي المخاطر؟ حدد الباحثون أربعة أنواع محتملة من مخاطر الذكاء العام الاصطناعي، وقدموا اقتراحات حول طرق التخفيف من هذه المخاطر. وصنّف فريق "ديب مايند" النتائج السلبية للذكاء العام الاصطناعي على أنها سوء الاستخدام، والانحراف، والأخطاء، والمخاطر الهيكلية. وقد ناقش البحث سوء الاستخدام والانحراف بإسهاب، ولكن لم يُغطَّ الأخيران إلا بإيجاز. تتشابه المشكلة المحتملة الأولى، وهي سوء الاستخدام، بشكل أساسي مع مخاطر الذكاء الاصطناعي الحالية. ومع ذلك، ولأن الذكاء العام الاصطناعي سيكون أقوى بحكم تعريفه، فإن الضرر الذي قد يُلحقه سيكون أكبر بكثير. وقد يُسيء أي شخص لديه إمكانية الوصول إلى الذكاء العام الاصطناعي استخدام النظام لإلحاق الضرر، على سبيل المثال، من خلال مطالبة النظام بتحديد ثغرات واستغلالها، أو إنشاء فيروس مُصمَّم يمكن استخدامه كسلاح بيولوجي. وقال فريق "ديب مايند" إنه سيتعين على الشركات التي تُطور الذكاء العام الاصطناعي إجراء اختبارات مكثفة ووضع بروتوكولات سلامة قوية لما بعد التدريب. بعبارة أخرى، حواجز أمان معززة للذكاء الاصطناعي. ويقترح الفرق أيضًا ابتكار طريقة لكبح القدرات الخطيرة تمامًا، تُسمى أحيانًا "إلغاء التعلم" (unlearning)، ولكن من غير الواضح ما إذا كان ذلك ممكنًا من دون تقييد قدرات النماذج بشكل كبير. أما مشكلة "الانحراف" فهي ليست محل قلق حاليًا مع الذكاء الاصطناعي التوليدي في صورته الحالية. لكن مع الذكاء العام الاصطناعي قد يختلف الأمر. تُصور مشكلة "الانحراف" هذه كآلة متمردة تجاوزت القيود التي فرضها عليها مصمموها، كما هو الحال في فيلم "ترميناترو". وبشكل أكثر تحديدًا، يتخذ الذكاء الاصطناعي إجراءات يعلم أنها لا تتماشى مع ما يقصده المطور. وقالت "ديب مايند" إن معيارها للانحراف في ما يتعلق بالذكاء العام الاصطناعي أكثر تقدمًا من مجرد الخداع أو التخطيط. ولتجنب ذلك، تقترح على المطورين استخدام تقنيات مثل الإشراف المُعزز، حيث تتحقق نسختان من الذكاء الاصطناعي من مخرجات بعضهما البعض، لإنشاء أنظمة قوية من لا يُحتمل أن تنحرف عن مسارها. وإذا فشل ذلك، تقترح "ديب مايند" إجراء اختبارات ضغط ومراقبة مكثفة لاكتشاف أي مؤشر على أن الذكاء الاصطناعي قد يبدأ في التمرد ضدنا. وقالت إن إبقاء الذكاء الاصطناعي العام في بيئة افتراضية آمنة للغاية وإشراف بشري مباشر يمكن أن يُساعد في التخفيف من حدة المشكلات الناجمة عن الانحراف. الأخطاء من ناحية أخرى، إذا لم يكن الذكاء الاصطناعي يعلم أن مخرجاته ستكون ضارة، ولم يكن المشغل البشري يقصد ذلك، فهذا "خطأ". ويحدث الكثير من هذه الأخطاء مع أنظمة الذكاء الاصطناعي الحالية. مع ذلك، قد تكون هذه المشكلة أصعب مع الذكاء العام الاصطناعي. تشير "ديب مايند" إلى أن الجيوش قد تنشر الذكاء العام الاصطناعي بسبب "الضغط التنافسي"، لكن هذه الأنظمة قد ترتكب أخطاء جسيمة لأنها ستُكلف بوظائف أكثر تعقيدًا بكثير من الذكاء الاصطناعي الحالي. لا تقدم الورقة البحثية حلًا مثاليًا للحد من الأخطاء. باختصار، يتلخص الأمر في عدم السماح للذكاء العام الاصطناعي بأن يصبح قويًا جدًا في المقام الأول. وتدعو "ديب مايند" إلى نشر الذكاء العام الاصطناعي تدريجيًا والحد من صلاحياته، وتمرير أوامر الذكاء العام الاصطناعي عبر نظام حماية يضمن أن تكون آمنة قبل تنفيذها. المخاطر الهيكلية تُعرف "ديب مايند" المخاطر الهيكلية على أنها عواقب غير المقصودة، وإن كانت حقيقية، للأنظمة متعددة الوكلاء التي تُسهم في تعقيد حياتنا البشرية المعقدة بالفعل. على سبيل المثال، قد يُنتج الذكاء العام الاصطناعي معلومات مُضلّلة تبدو مُقنعة لدرجة أننا لم نعد نعرف بمن أو بما نثق. كما تُثير الورقة البحثية احتمالية أن يُراكِم الذكاء العام الاصطناعي سيطرة متزايدة على الأنظمة الاقتصادية والسياسية، ربما من خلال وضع مخططات تعريفات جمركية مُفرطة. وقد تؤدي هذه المخاطر الهيكلية إلى أن نجد في يومٍ ما أن الآلات هي المُسيطرة بدلًا منّا. وتُعتبر هذه الفئة من المخاطر أيضًا الأصعب في الحماية منها، لأنها ستعتمد على طريقة عمل الأفراد والبنية التحتية والمؤسسات في المستقبل.

"ريديت" ستتيح للمستخدمين حظر المعلنين لمدة عام
"ريديت" ستتيح للمستخدمين حظر المعلنين لمدة عام

العربية

time١٥-٠٣-٢٠٢٥

  • العربية

"ريديت" ستتيح للمستخدمين حظر المعلنين لمدة عام

ستسمح شبكة ريديت قريبًا للمستخدمين بحظر المعلنين الذين لا يفضلونهم لمدة عام عبر ميزة جديدة ستطرها. وسيؤدي الضغط على زر "Hide" (إخفاء) على إعلان غير مرغوب فيه على "ريديت" إلى إخفاء الإعلانات المسقبلية من حساب هذا المُعلن لمدة عام على الأقل. وستظهر هذه الميزة على الموقع الإلكتروني لريديت وتطبيق "ريديت" لنظامي "أندرويد" و"iOS" خلال الأسابيع القليلة المقبلة، بحسب تقرير لموقع "Ars Technica" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". ولم توضح "ريديت" القيود التي ستُطبّقها لضمان عدم حظر المستخدمين لجميع المُعلِنين في تجربة خالية من الإعلانات. مع ذلك، أفاد بعض المستخدمين بالفعل برؤية حدّ يومي لإخفاء الإعلانات. وقال متحدث باسم "ريديت" إن حظر الإعلانات يأتي استجابةً للمستخدمين الذين يريدون "مزيدًا من التحكم في الإعلانات التي يرونها". وأشار المتحدث إلى أنه بإمكان المستخدمين أيضًا "الإبلاغ" عن أي إعلان إذا رأوا أنه يخالف سياسات "ريديت". كما يؤدي الإبلاغ عن الإعلان إلى منع المُعلن من الوصول للمستخدم لمدة عام. تتيح "ريديت" بالفعل للمستخدمين حظر الإعلانات المتعلقة بالمواد الكحولية، والمواعدة، والمقامرة، و"السياسة والنشاط السياسي"، وفقدان الوزن وغيرها من الموضوعات. ومع ذلك، اشتكى بعض المستخدمين من فشل هذا النظام. وتتيح "ريديت" أيضًا للمستخدمين الذين لديهم حسابات في الولايات المتحدة ودول أخرى مختارة إيقاف الإعلانات المخصصة. وجعلت الشركة الإعلانات المخصصة إلزامية في بعض المناطق الجغرافية في سبتمبر 2023.

دراسة: الاعتماد غير الواعي على الذكاء الاصطناعي يهدد مهارات التفكير عند البشر
دراسة: الاعتماد غير الواعي على الذكاء الاصطناعي يهدد مهارات التفكير عند البشر

الرجل

time١٢-٠٣-٢٠٢٥

  • الرجل

دراسة: الاعتماد غير الواعي على الذكاء الاصطناعي يهدد مهارات التفكير عند البشر

كشفت دراسة حديثة، أجرتها "مايكروسوفت" بالتعاون مع "جامعة كارنيجي ميلون"، أن الثقة المفرطة في الذكاء الاصطناعي تقلل من الجهد الإدراكي للأفراد، مما قد يؤدي إلى تآكل مهارات التفكير النقدي لديهم. وأظهرت الدراسة، التي شملت 319 محترفًا، أن المستخدمين الذين يعتمدون على الذكاء الاصطناعي دون التشكيك في نتائجه يكونون أقل ميلاً لممارسة التفكير النقدي، وفي المقابل أظهر الأفراد الذين يثقون في قدراتهم التحليلية، قدرة أكبر على التحقق من صحة المعلومات، واتخاذ قرارات أكثر دقة. وأوضح "ليف تانكيلفيتش"، الباحث في "مايكروسوفت ريسيرش"، أن الذكاء الاصطناعي يمكن أن يكون أداة لتعزيز التفكير النقدي إذا تم التعامل معه كشريك في التفكير، وليس مجرد وسيلة سريعة للحصول على المعلومات، مؤكدًا ضرورة تصميم واجهات ذكاء اصطناعي شفافة، تساعد المستخدمين على فهم أساليب الاستدلال الخاصة به وتقييم دقة مخرجاته. مخاطر التفريغ الإدراكي وحذرت الدراسة من ظاهرة "التفريغ الإدراكي Cognitive Offloading"، حيث يعتمد الأفراد بشكل مفرط على التكنولوجيا في أداء المهام الذهنية، ما يقلل من مشاركتهم الفعلية في عملية التفكير. ورغم أن هذه الظاهرة ليست جديدة، فإن الذكاء الاصطناعي التوليدي، القادر على إنتاج نصوص وتحليلات معقدة، يزيد من خطر قبول المستخدمين للمخرجات دون مراجعة دقيقة. وأشار "تانكيلفيتش" إلى أن بعض المهنيين يواجهون صعوبة في تقييم مخرجات الذكاء الاصطناعي، بسبب نقص المعرفة التخصصية، خاصة في مجالات مثل برمجة الأكواد والتحليل المالي، مما يزيد من احتمال حدوث أخطاء غير مكتشفة. حلول لتعزيز التفكير النقدي واقترح الباحثون عدة استراتيجيات للحد من الاعتماد السلبي على الذكاء الاصطناعي، منها تطوير واجهات تفاعلية تعرض تفسيرات سياقية، وتقييمات للثقة، ووجهات نظر بديلة لمساعدة المستخدمين في التحقق من صحة المعلومات. كما أشاروا إلى أهمية مطالبة المستخدمين بإجراء مراجعات نشطة للمخرجات، بدلاً من قبولها دون تدقيق. وضربت الدراسة مثالاً على ذلك بمنصة الذكاء الاصطناعي Perplexity، التي توفر مسارًا منطقيًا واضحًا يشرح كيفية توصل النظام إلى نتائجه، مما يساعد المستخدمين على تقييمها بوعي أكبر. وأكد "تانكيلفيتش" أن مستقبل العمل المعرفي يعتمد بشكل متزايد على الإشراف الفعال على الذكاء الاصطناعي، مشيرًا إلى ضرورة تطوير مهارات التفكير النقدي لمواكبة التحولات الرقمية، وضمان الاستخدام الأمثل لهذه التقنيات.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store