logo
كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟

كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟

خبرني٠٩-٠٥-٢٠٢٥

خبرني - تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط "1776" بالثورة الأمريكية و"هبوط القمر" بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل "تخمّن" الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.
هذه الحقيقة تؤكد قوة نماذج اللغة الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق "إنتريستينغ إنجينيرنغ".
كيف تعمل هذه النماذج؟
تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل "wash" و"ing"، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا "تعرف" الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.
لماذا تخطئ أو تهلوس؟
لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى "هلوسة" معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.
هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.
وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة
نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.
كما أن "معرفتها" مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.
لماذا يصعب إصلاح هذه الأخطاء؟
يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:
تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض "الصندوق الأسود": لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة
وللتغلب على هذه المشكلات، يلجأ المطورون إلى:
التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.
ما دور المستخدمين؟
الذكاء الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي
آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي

السوسنة

timeمنذ 3 أيام

  • السوسنة

آبل تعيد بناء سيري لتواكب الذكاء الاصطناعي

السوسنة- تسعى شركة آبل إلى تصحيح مسارها في مجال الذكاء الاصطناعي، بعد الإخفاقات التي صاحبت إطلاق مزاياها الأولى في هذا المجال خلال العام الماضي.ووفقًا لتقرير موسّع من وكالة بلومبرغ، تركّز جهود الشركة حاليًا على إعادة تصميم مساعدها الرقمي 'سيري' بالكامل، بإصدار جديد يعتمد على نماذج اللغة الكبيرة (LLM)، ويحمل داخليًا اسم 'سيري LLM'.وأشار التقرير إلى أن مشروع 'Apple Intelligence' واجه تحديات كبيرة، من أبرزها تردد كريج فيدريجي، رئيس قسم البرمجيات في آبل، في الاستثمار المبكر في تقنيات الذكاء الاصطناعي، إضافة إلى انطلاقة الشركة المتأخرة مقارنة بمنافسيها، حيث لم تبدأ آبل فعليًا تطوير المشروع إلا بعد إطلاق ChatGPT أواخر عام 2022. وأشارت بلومبرغ إلى أن جون جياناندريا، رئيس قسم الذكاء الاصطناعي في آبل، كان من المعارضين لفكرة المساعدات القائمة على الذكاء التوليدي، مؤكدًا لموظفيه أن المستخدمين غالبًا لا يرغبون في أدوات مثل ChatGPT، كما أن محاولات إدماج تقنيات الذكاء التوليدي في النسخة القديمة من سيري لم تُحقق النتائج المرجوة، وسط شكاوى من الموظفين بأن كل إصلاح تقني يتسبب بظهور مشكلات جديدة. ويبدو أن جياناندريا، الذي التحق بآبل قادمًا من جوجل عام 2018، لم يتمكن من التأثير في الدوائر القيادية للشركة، ولم يدافع بقوة للحصول على التمويل اللازم، بحسب التقرير. وقد اُستبعد جياناندريا من الإشراف على مشاريع سيري والروبوتات حديثًا، وسط حديث داخل الشركة عن توجه لوضعه على طريق التقاعد ، مع التخوف من مغادرة الفريق الذي جاء معه إلى آبل. وبهدف إنقاذ المشروع، تعمل آبل حاليًا على تطوير نسخة جديدة كليًا من سيري عبر فريق الذكاء الاصطناعي التابع لها في مدينة زيورخ، حيث تُبنى البنية الجديدة بالكامل على نموذج لغوي كبير لجعل المساعد أكثر قدرة على المحادثة، وفهم السياق، وتحليل المعلومات. وتسعى آبل إلى استخدام تقنيات تراعي الخصوصية، وتحسين جودة البيانات التي تُدرب بها نماذجها، من خلال مقارنتها محليًا مع رسائل البريد الإلكتروني للمستخدمين في أجهزة آيفون دون إرسال البيانات الأصلية إلى خوادمها. وتناقش الشركة أيضًا السماح لسيري الجديد بتصفح الإنترنت، وجمع البيانات من مصادر متعددة، مما يجعله أقرب إلى أدوات بحث ذكية مثل Perplexity، التي أشارت التقارير إلى أن آبل تدرس التعاون معها لإدماج مساعدها الذكي في سفاري. يُذكر أن آبل كانت قد بالغت في تسويق قدرات مزايا الذكاء الاصطناعي الخاصة بها Apple Intelligence عند إعلانها، خاصةً في ما يتعلق بتحسينات سيري، قبل أن تضطر لاحقًا إلى تأجيل إطلاق تلك المزايا. اقرأ المزيد عن:

دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر
دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر

الغد

timeمنذ 4 أيام

  • الغد

دراسة: الذكاء الاصطناعي يطوّر تقاليد اجتماعية شبيهة بالبشر

ذكرت دراسة جديدة أن الذكاء الاصطناعي يمكن أن يطور بشكل عفوي تقاليد اجتماعية مشابهة لتلك التي يتبعها البشر، حسبما ذكرت صحيفة "الجارديان". وأظهرت الدراسة المنشورة في مجلة "ساينس أدفانسيس" (Science Advances) أنه عندما يتواصل وكلاء الذكاء الاصطناعي الذين يعتمدون على النماذج اللغوية الكبيرة (LLM) مثل ChatGPT في مجموعات دون تدخل خارجي، يمكنهم البدء في تبنّي أشكال لغوية ومعايير اجتماعية بالطريقة نفسها التي يفعلها البشر أثناء تفاعلهم الاجتماعي. وقال المؤلف الرئيسي للدراسة، أرييل فلينت أشيري: "يختلف عملنا عن معظم الأبحاث السابقة التي تناولت الذكاء الاصطناعي، حيث كانت تلك الأبحاث تعتبر الذكاء الاصطناعي ككيان منفرد، بينما نحن نظرنا إليه ككائن اجتماعي". اضافة اعلان وأضاف أشيري: "معظم الأبحاث حتى الآن كانت تتعامل مع النماذج اللغوية الكبيرة بشكل منفصل، لكن أنظمة الذكاء الاصطناعي في العالم الحقيقي ستتضمن في المستقبل العديد من الوكلاء المتفاعلين معاً". وتابع: "أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من خلال تشكيل تقاليد، وهي اللبنات الأساسية للمجتمع؟ الجواب هو نعم، وما يفعلونه معاً لا يمكن تقليصه إلى ما يفعلونه بمفردهم". وتراوحت مجموعات الوكلاء الفرديين للنماذج اللغوية الكبيرة المستخدمة في الدراسة من 24 إلى 100 وكيل، وفي كل تجربة، تم إقران وكيلين عشوائياً، وطُلب منهما اختيار "اسم" من مجموعة من الخيارات، سواء كان حرفاً أو سلسلة من الرموز. عندما اختار الوكيلان الاسم نفسه، تم مكافأتهما، ولكن عندما اختارا خيارات مختلفة، تم معاقبتهما وعُرضت عليهما اختيارات بعضهما البعض. ورغم أن الوكلاء لم يكونوا على دراية بأنهم جزء من مجموعة أكبر، وأن ذاكرتهم كانت محدودة بتفاعلاتهم الأخيرة فقط، فإن تقليداً مشتركاً في التسمية نشأ بشكل عفوي عبر المجموعة دون وجود حل مُسبق، ما يحاكي المعايير التواصلية في الثقافة البشرية. التشابه مع البشر من جانبه، قال المؤلف المشارك في الدراسة، أندريا بارونشيلي، إن انتشار السلوك يشبه عملية خلق كلمات ومصطلحات جديدة في مجتمعنا. وأضاف بارونشيلي: "الوكلاء لا يقلدون قائداً. كلهم يحاولون التنسيق بنشاط، ودائماً في أزواج. كل تفاعل هو محاولة فردية للاتفاق على تسمية، دون أي رؤية شاملة". وتابع: "إنه يشبه مصطلح (Spam). لم يتم تعريفه رسمياً، ولكن من خلال جهود التنسيق المتكررة، أصبحت التسمية العالمية للبريد الإلكتروني غير المرغوب فيه". كما لاحظ الفريق تكوّن تحيزات جماعية بشكل طبيعي لا يمكن تتبعها إلى وكلاء فرديين. وفي تجربة أخيرة، تمكنت مجموعات صغيرة من وكلاء الذكاء الاصطناعي من توجيه المجموعة الأكبر نحو تقليد تسمية جديد. وتم الإشارة إلى ذلك على أنه دليل على ديناميكيات الكتلة الحرجة، حيث يمكن للأقلية الصغيرة، ولكن المصممة أن تؤدي إلى تغيير سريع في سلوك المجموعة بمجرد أن تصل إلى حجم معين، كما يحدث في المجتمع البشري. ورأى بارونشيلي أن الدراسة "تفتح أفقاً جديداً في أبحاث أمان الذكاء الاصطناعي. إنها تُظهر عمق تداعيات هذه الفئة الجديدة من الوكلاء الذين بدأوا في التفاعل معنا، وسيسهمون في تشكيل مستقبلنا". وأردف بالقول: "فهم كيفية عملهم هو المفتاح لقيادة تعايشنا مع الذكاء الاصطناعي، بدلاً من أن نكون خاضعين له. نحن ندخل إلى عالم حيث لا يقتصر الأمر على أن الذكاء الاصطناعي يتحدث فقط، بل يتفاوض، ويتناغم، وأحياناً يختلف بشأن السلوكيات المشتركة، تماماً كما نفعل نحن".- وكالات

اكتشاف صادم.. عالم الذكاء الاصطناعي يطور 'مجتمعات سرية' بعيدا عن أعين البشر
اكتشاف صادم.. عالم الذكاء الاصطناعي يطور 'مجتمعات سرية' بعيدا عن أعين البشر

سواليف احمد الزعبي

timeمنذ 6 أيام

  • سواليف احمد الزعبي

اكتشاف صادم.. عالم الذكاء الاصطناعي يطور 'مجتمعات سرية' بعيدا عن أعين البشر

#سواليف وجد الخبراء أن #الذكاء_الاصطناعي يبدأ في تشكيل #مجتمعات خاصة به عند تركه يعمل بشكل مستقل. ويقول الخبراء إنه عندما تتواصل أنظمة الذكاء الاصطناعي مع بعضها بعضا في #مجموعات، فإنها قادرة على تنظيم نفسها، وخلق معايير لغوية جديدة – بطريقة مشابهة جدا لما تفعله #المجتمعات_البشرية. وفي الدراسة، سعى العلماء لفهم كيفية تفاعل النماذج اللغوية الكبيرة (مثل تلك التي تدعم ChatGPT والأدوات المشابهة) مع بعضها بعضا. وكان الهدف جزئيا هو النظر إلى المستقبل عندما من المحتمل أن يمتلئ الإنترنت بمثل هذه الأنظمة التي تتفاعل وحتى تتحدث مع بعضها بعضا. وقال المؤلف الرئيسي أرييل فلينت أشيري، باحث الدكتوراه في جامعة سيتي سانت جورج: 'معظم الأبحاث حتى الآن تعاملت مع النماذج اللغوية الكبيرة بشكل منعزل. لكن أنظمة الذكاء الاصطناعي في العالم الحقيقي ستشمل بشكل متزايد العديد من الوكلاء المتفاعلين'. وأضاف: 'أردنا أن نعرف: هل يمكن لهذه النماذج تنسيق سلوكها من خلال تشكيل اتفاقيات، وهي اللبنات الأساسية للمجتمع؟. الجواب هو نعم، وما يفعلونه معا لا يمكن اختزاله إلى ما يفعله كل منهم على حدة'. وفي تجربة مثيرة، لاحظ العلماء سلوكا اجتماعيا مدهشا لدى أنظمة الذكاء الاصطناعي عندما تترك لتتواصل مع بعضها. ولفهم هذا السلوك، استخدم العلماء نموذجا كان يستخدم للبشر، يعرف باسم 'لعبة التسمية': كل منها يحاول اختيار اسم لعنصر ما، وإذا توافق اثنان على الاسم نفسه، يحصلان على مكافأة. والمفاجأة كانت في ما حدث بعد ذلك. فمع تكرار اللعبة، بدأت هذه الأنظمة تطور تلقائيا نظاما متكاملا للتسمية، حيث توافقت جميعها على أسماء محددة لكل عنصر. والأكثر إثارة أن هذا النظام الجديد نشأ من تلقاء نفسه، دون أي توجيه مسبق من المبرمجين، تماما كما تتشكل اللهجات العامية أو المصطلحات الخاصة في المجتمعات البشرية. ولكن الأمر لم يتوقف عند هذا الحد. فقد لاحظ العلماء أيضا ظهور 'تحيزات' جماعية غير متوقعة. مثلا، قد تفضل مجموعة الذكاء الاصطناعي تسمية الأشياء بأسماء تبدأ بحرف معين، أو تتجنب أنواعا محددة من الأسماء. وهذه التحيزات لم تكن موجودة في البرمجة الأصلية، بل تشكلت نتيجة التفاعلات المستمرة بين الأنظمة. وهذه الظاهرة تذكرنا بكيفية تطور الثقافات البشرية، حيث تنشأ التقاليد والعادات الاجتماعية من التفاعلات اليومية بين الأفراد، وليس بتخطيط مسبق. والفارق هنا أن هذه 'الثقافة' تتشكل بين أنظمة رقمية في فترة زمنية قصيرة جدا مقارنة بالمجتمعات البشرية. وهذا الاكتشاف يفتح الباب أمام أسئلة عميقة: كيف ستؤثر هذه القدرة على تفاعل الذكاء الاصطناعي مع البشر؟ وهل يمكن أن تنشأ 'ثقافات' رقمية مستقلة تماما في المستقبل؟. والإجابات قد تغير فهمنا ليس فقط للتكنولوجيا، ولكن للطبيعة الاجتماعية عموما. ويشير العلماء إلى أن هذا العمل يجب أن يكون مفيدا في استكشاف أوجه التشابه والاختلاف بين البشر وأنظمة الذكاء الاصطناعي، خاصة مع سيطرة الأخيرة على المزيد من الإنترنت ويمكنها أن تتحدث وتتعاون مع بعضها البعض دون علم. وأوضح أندريا بارونشيلي، أستاذ علم التعقيد في جامعة سيتي سانت جورج والمؤلف الرئيسي للدراسة: 'فهم كيفية عمله هو مفتاح قيادة تعايشنا مع الذكاء الاصطناعي، بدلا من أن نكون خاضعين له. نحن ندخل عالما لا يتحدث فيه الذكاء الاصطناعي فقط، بل يتفاوض ويتوافق وأحيانا يختلف حول السلوكيات المشتركة، تماما مثلنا'.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store