أحدث الأخبار مع #TransactionsonMachineLearningResearch


الاتحاد
٠٢-٠٤-٢٠٢٥
- علوم
- الاتحاد
هل يستطيع الذكاء الاصطناعي التفكير مثلنا؟.. دراسة تكشف المفارقات!
مع التقدم السريع في الذكاء الاصطناعي، أصبح من الواضح أن هذه الأنظمة قادرة على تنفيذ مهام معقدة مثل تحليل البيانات، وإنتاج النصوص، وتقديم استشارات قانونية. ومع ذلك، هل يمكن للذكاء الاصطناعي أن يفكر مثل البشر؟.. فنحن نعلم أن الذكاء الاصطناعي لا يستطيع التفكير بنفس طريقة الإنسان، لكن بحثاً جديداً كشف كيف يمكن لهذا الاختلاف أن يؤثر على عملية اتخاذ القرار لدى الذكاء الاصطناعي، مما يؤدي إلى عواقب واقعية قد لا يكون البشر مستعدين لها. اقرأ أيضاً.. الذكاء الاصطناعي يحوّل الأفكار إلى كلام في الوقت الحقيقي دراسة حديثة نُشرت في مجلة "Transactions on Machine Learning Research" كشفت أن هناك فجوة جوهرية في كيفية استدلال البشر مقارنة بالنماذج اللغوية الكبيرة (LLMs) مثل GPT-4. والاستدلال هو عملية استخراج جواب أو نتيجة بناء على معلومات معروفة مسبقاً وقد تكون صحيحة أو خاطئة. فالبشر قادرون على التجريد والاستنتاج التناظري، بينما يعتمد الذكاء الاصطناعي بشكل أساسي على مطابقة الأنماط التي تعلمها، مما يؤدي إلى ضعف في قدرته على التكيف مع المواقف الجديدة.وفقاً لموقع "livescience". بحثت الدراسة في مدى قدرة نماذج اللغة الكبيرة (LLMs) على تكوين تشبيهات. وتم اختبار قدرة النماذج اللغوية الكبيرة مثل GPT-4 على حل مشكلات التناظر في سلاسل الحروف.وجد الباحثون أنه في كل من تشبيهات سلسلة الأحرف البسيطة ومسائل المصفوفات الرقمية - كانت المهمة إكمال مصفوفة بتحديد الرقم المفقود - كان أداء البشر جيدًا، لكن أداء الذكاء الاصطناعي انخفض بشكل حاد. لماذا يحدث هذا؟ تشير هذه النتائج إلى أن GPT-4 قد يعتمد بشكل كبير على أنماط محددة في بيانات تدريبه، مما يجعله أقل مرونة في التعامل مع مشكلات تتطلب استدلالاً تناظرياً عاماً. بالمقابل، يظهر البشر قدرة أفضل على تعميم الأنماط وتطبيقها في سياقات جديدة، حتى مع تغييرات في بنية المشكلة أو عند استخدام رموز غير مألوفة. ما التداعيات؟ تُبرز هذه الفجوة أهمية تطوير نماذج ذكاء اصطناعي تتمتع بقدرات استدلال أكثر مرونة، خاصةً في التطبيقات التي تتطلب فهماً عميقًا وتكيفاً مع سياقات متنوعة. كما تؤكد الدراسة على ضرورة تقييم أداء هذه النماذج ليس فقط بناءً على دقتها، بل أيضاً على مدى قدرتها على التكيف مع تغييرات في المشكلات المطروحة. لماذا يهمنا أن الذكاء الاصطناعي لا يفكر مثل البشر؟ أوضحت مارثا لويس، الأستاذة المساعدة في الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام، أن البشر لديهم قدرة فطرية على التجريد من الأنماط المحددة إلى قواعد أكثر عمومية، بينما يفتقر الذكاء الاصطناعي لهذه المهارة. فالذكاء الاصطناعي بارع في مطابقة الأنماط التي رآها سابقاً لكنه لا يستطيع تعميمها بشكل فعال. على سبيل المثال، إذا درّبنا نموذجاً على عدد هائل من الأمثلة، فسيتمكن من التعرف على الأنماط المتكررة، لكنه لن يتمكن بالضرورة من اكتشاف القاعدة الأساسية وراء هذه الأنماط. الكمية لا تعني الفهم تعمل معظم تطبيقات الذكاء الاصطناعي على زيادة كمية البيانات لتصبح أكثر دقة، ولكن كما قالت لويس: "الأمر لا يتعلق بكمية البيانات، بل بكيفية استخدامها". لماذا علينا الاهتمام؟ إذا استمر الاعتماد على الذكاء الاصطناعي دون تحسين قدراته في التفكير المجرد، فقد يؤدي ذلك إلى مشكلات في: اتخاذ القرارات: قد يتعامل الذكاء الاصطناعي مع الحالات الجديدة بالطريقة نفسها التي تعامل بها مع حالات سابقة، من دون فهم التغيرات الجوهرية. الأخلاقيات والتحيز: الذكاء الاصطناعي قد يكرر الأنماط الموجودة في البيانات من دون تحليل أعمق لسياقها وأخلاقياتها. التطبيقات المتقدمة: مثل الرعاية الصحية، والقانون، والتعليم، حيث يلعب التجريد والاستدلال البشري دورًا أساسيًا. ما الحل؟ نحتاج إلى تطوير نماذج ذكاء اصطناعي أكثر قدرة على التجريد والاستدلال، بحيث لا تكتفي بمقارنة الأنماط، بل تفهم المفاهيم الكامنة خلفها. هل يمكن الوثوق بالذكاء الاصطناعي في القرارات القانونية؟ مع تزايد الاعتماد على الذكاء الاصطناعي في الأبحاث القانونية، وتحليل السوابق القضائية، وحتى التوصيات في الأحكام، تبرز مشكلة كبيرة بشأن قدرة الذكاء الاصطناعي المحدودة على إجراء المقارنات والاستدلال التناظري. فعند التعامل مع القضايا القانونية، يعتمد القضاة والمحامون على مقارنة الحالات الجديدة بالسوابق القضائية. لكن بما أن الذكاء الاصطناعي يعتمد على مطابقة الأنماط بدلاً من فهم المبادئ القانونية الأساسية، فقد يفشل في التمييز بين الفروق الدقيقة في القضايا وتطبيق السوابق القانونية بشكل صحيح على حالات جديدة وتقديم توصيات عادلة ومتسقة. مثلاً: تخيل أن هناك سابقة قضائية لحالة تتعلق بالاحتيال الإلكتروني، ولكن القضية الجديدة تتضمن تقنيات جديدة لم تكن موجودة وقت صدور السابقة. البشر يمكنهم التفكير بشكل مرن لتطبيق القاعدة العامة، لكن الذكاء الاصطناعي قد يعجز عن الربط بين الحالتين بسبب الاختلافات الظاهرية. اقرأ أيضاً..الذكاء الاصطناعي يتقن الخداع! الدراسة أكدت أن تقييم الذكاء الاصطناعي لا يجب أن يقتصر على الدقة فقط، بل يجب أن يشمل قدرته على التكيف والاستدلال العميق. أي أننا بحاجة إلى نماذج أكثر ذكاءً واستقلالية في التفكير، وليس مجرد أدوات لحفظ البيانات واسترجاعها..بحيث لا يمكننا الاعتماد بالكامل على الذكاء الاصطناعي في القرارات القانونية دون تطويره ليكون أكثر قدرة على تحليل القواعد وتطبيقها بمرونة. حتى ذلك الحين، يجب أن يكون دوره داعماً وليس حاسماً. لمياء الصديق (أبوظبي)


الوئام
٠١-٠٤-٢٠٢٥
- علوم
- الوئام
دراسة: البشر لا يزالون أذكى من الـ AI
كشفت دراسة حديثة عن اختلاف جوهري في طريقة اتخاذ الذكاء الاصطناعي (AI) للقرارات مقارنة بالبشر، مما قد يؤدي إلى تبعات غير متوقعة في مجالات حيوية مثل القانون والبحث العلمي. وفقًا للدراسة، التي نُشرت في فبراير 2025 بمجلة Transactions on Machine Learning Research، تم اختبار قدرة النماذج اللغوية الكبيرة (LLMs) على حل مسائل القياس المنطقي، فتبين أن أداء الذكاء الاصطناعي ينخفض بشكل حاد مقارنة بالبشر، لا سيما في اختبارات تتطلب إكمال تسلسلات رقمية أو تحليل أنماط منطقية معقدة. ضعف في التعميم والاستدلال وجد الباحثون أن النماذج اللغوية تتأثر بترتيب الأسئلة وقد تميل إلى إعادة صياغة الإجابات بدلاً من استنتاجها. كما افتقرت إلى القدرة على التعلم بدون بيانات سابقة (zero-shot learning)، أي القدرة على التكيف مع أنماط جديدة لم يتم تدريبها عليها مسبقًا. وأوضحت مارثا لويس، أستاذة الذكاء الاصطناعي العصبي الرمزي بجامعة أمستردام والمؤلفة المشاركة للدراسة، أن الذكاء الاصطناعي يواجه صعوبة في حل مسائل القياس المنطقي في تسلسل الحروف. وعلى سبيل المثال، عند تقديم السؤال: 'إذا تحولت abcd إلى abce، فماذا يحدث لـ ijkl؟' فإن معظم البشر سيجيبون 'ijkm'. ورغم أن الذكاء الاصطناعي يجيب بشكل صحيح في هذه الحالة، فإنه يفشل في أنماط أكثر تعقيدًا مثل 'إذا تحولت abbcd إلى abcd، فماذا يحدث لـ ijkkl؟' حيث يخطئ النموذج في إدراك قاعدة حذف الحروف المتكررة التي يتبعها البشر intuitively. التداعيات على المجالات التطبيقية أكدت لويس أن النماذج اللغوية تتفوق في التعرف على الأنماط لكنها ضعيفة في التعميم. فبينما تعتمد تطبيقات الذكاء الاصطناعي على تحليل كميات ضخمة من البيانات، فإنها تفشل في فهم المبادئ المجردة بنفس الطريقة التي يعمل بها العقل البشري. ويثير هذا القصور مخاوف في قطاعات مثل القضاء، حيث تُستخدم النماذج اللغوية في تحليل السوابق القانونية وإعداد التوصيات القضائية. لكن ضعفها في الاستدلال القياسي قد يجعلها غير قادرة على إسقاط القواعد القانونية على قضايا جديدة ذات اختلافات طفيفة، مما قد يؤدي إلى قرارات غير دقيقة. وخلصت الدراسة إلى أن هذا القصور يمثل دليلًا إضافيًا على الحاجة إلى تقييم الأنظمة الذكية ليس فقط من حيث الدقة، بل أيضًا من حيث متانتها في معالجة المنطق والاستدلال المعرفي.