logo
: ابتكار نموذج ذكاء اصطناعي للتنبؤ بالسلوك البشري.. هل بدأت الآلات تفكر مثلنا؟

: ابتكار نموذج ذكاء اصطناعي للتنبؤ بالسلوك البشري.. هل بدأت الآلات تفكر مثلنا؟

عرب نت 5٢٣-٠٧-٢٠٢٥
صوره ارشيفيهالثلاثاء, ‏22 ‏يوليو, ‏2025تواجه تقنيات الذكاء الاصطناعي تحديًا كبيرًا يتمثل في فهم السلوك البشري والتنبؤ به، وهو أمر أساسي في مجالات كثيرة، مثل: السيارات الذاتية القيادة التي تحاول تحديد كون أحد المشاة سيعبر الطريق أم لا، أو خوارزمية استثمارية تحاول توقع رد فعل المستثمرين قبل اتخاذ قرار تداول.لم تُصمم نماذج الذكاء الاصطناعي المتوفرة حاليًا، مثل GPT و Llama، لهذا الغرض. لذلك بدأ باحثون بتطوير نموذج مصمم خصوصًا للتنبؤ بالسلوك البشري لاستخدامه في مجالات تتطلب تحليل السلوك البشري لاتخاذ قرارات مهمة.إقرأ أيضاً..ChatGPT بديًلا لجوجل.. الكشف عن أرقام استخدام قياسية في 2025"ChatGPT" يعترف بتغذية أوهام خطيرة قائلًا: "لقد فشلت"شركتا "OpenAI" و"أوراكل" تعمقان تعاونهما في مراكز بيانات "ستارغيت" بتوسع بـ 4.5 غيغاواط«طائرة» لمراقبة المنزل أثناء الغياب عنهنموذج Be.FM للتنبؤ بالسلوك البشريطوّر باحثون من جامعة ميشيغان وجامعة ستانفورد وشركة MobLab نموذجًا جديدًا أطلقوا عليه اسم Be.FM (اختصارًا لـ Behavioral Foundation Model)، وهو من نماذج الذكاء الاصطناعي الأولى المصممة خصوصًا للتنبؤ بالسلوك البشري وتحليله ومحاكاته.وبعكس النماذج التي تعتمد على نصوص عامة مثل تلك المتوفرة في ويكيبيديا، يعتمد Be.FM على بيانات سلوكية متخصصة مستمدة من تجارب علمية واستبيانات، ودراسات أكاديمية، تضم أكثر من 68 ألف مشارك في تجارب علمية وقرابة 20 ألف مستجيب للاستبيانات، إضافة إلى آلاف من الدراسات المنشورة في مجلات مختلفة.وتقول الباحثة الرئيسية في الدراسة، Yutong Xie: 'نحن لا نزود النموذج بمعلومات عامة، بل نبني قاعدة بيانات تساعده في فهم أسباب تصرف الناس بطريقة معينة'.هذا النهج يمنح Be.FM قدرة أعلى على قراءة الإشارات الاجتماعية المعقدة وفهم السلوكيات الأقل شيوعًا، وهي نقاط ضعف معروفة في النماذج العامة.وخلال اختبار النموذج ضمن دراسة خاصة، أظهر Be.FM قدرات ناشئة لم يُدرّب عليها مباشرة، وتضمنت أربعة مجالات أساسية، هي:1. التنبؤ بالسلوك البشري في مواقف الحياة الواقعيةأبرز نقاط قوة Be.FM هي قدرته على التنبؤ بتصرفات البشر في مواقف الحياة الواقعية. على سبيل المثال: في سيناريو يعرض فيه مصرفي عدة خيارات استثمارية على مجموعة من الأشخاص، يمكن لنموذج Be.FM التنبؤ بالخيار الذي سيختاره معظم الناس، وكم منهم سيتعاون أو سيخاطر.هذا النوع من التنبؤات السلوكية قد يدعم النمذجة الاقتصادية، واختبار المنتجات، وتحليل السياسات العامة، من خلال محاكاة سلوك المجموعات قبل تنفيذ تجارب ميدانية مكلفة.2. استنتاج السمات النفسية والخصائص الديموغرافيةيمكن لنموذج Be.FM استنتاج السمات النفسية والمعلومات الديموغرافية استنادًا إلى السلوكيات أو مجموعة من البيانات الأساسية. على سبيل المثال: يستطيع النموذج تقدير كون الشخص منفتحًا اجتماعيًا أو متسامحًا بناءً على عمره وجنسه وبيانات ديموغرافية أخرى، أو حتى تقدير عمر الشخص بناءً على سماته الشخصية. وهذا يفتح المجال أمام تصميم منتجات موجهة بدقة لفئة معينة، وتقديم تدخلات شخصية فعالة.3. فهم تأثير العوامل السياقية والظروف المحيطةيتغير السلوك البشري غالبًا استجابةً لتغييرات في التوقيت أو الأعراف الاجتماعية أو الإشارات البيئية، ويمكن لنموذج Be.FM كشف هذه العوامل وتحليلها.على سبيل المثال: إذا تغير سلوك مستخدمي تطبيق ما بين شهري يناير وفبراير، يمكن للنموذج تحديد كون السبب في ذلك يعود إلى تحديث في التصميم، أو تغير موسمي، أو اختلاف طريقة عرض المعلومات.من خلال تحليل الأنماط في سيناريوهات مختلفة، يمكن للنموذج تقديم رؤى حول الإشارات البيئية التي تشكل عملية اتخاذ القرار، وهو ما يجعله أداة قيمة للباحثين والمصممين وواضعي السياسات.4. دعم الأبحاث وتنظيم المعرفة السلوكيةبفضل بنيته المعتمدة على النماذج اللغوية الكبيرة، يستطيع Be.FM تلخيص الدراسات العلمية، واقتراح أفكار بحثية جديدة، وحل مشكلات معقدة في الاقتصاد السلوكي، وحتى محاكاة سيناريوهات بحثية قبل اختبارها ميدانيًا.القيود والآفاق المستقبليةأظهرت الاختبارات أن Be.FM يتفوق على نماذج مثل GPT-4o و Llama في محاكاة السلوك البشري، خصوصًا في التنبؤ بالسمات الشخصية ومحاكاة المواقف الاجتماعية. ومع ذلك، يقر الباحثون بأن للنموذج حدودًا واضحة، فلم يتم اختباره بَعد في مجالات مثل التنبؤ بالأحداث السياسية الكبرى أو نتائج الانتخابات.ويقول (Qiaozhu Mei)، أستاذ علوم المعلومات في جامعة ميشيغان والمؤلف المشارك في الدراسة: 'نهدف إلى توسيع نطاق Be.FM ليشمل مجالات مثل الصحة والتعليم والسياسة، بمعنى أن يكون مفيدًا في أي مجال يتخذ فيه البشر قرارات مهمة'.المصدر: البوابه العربيه للاخبار التقنيه
قد يعجبك أيضا...
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

شات جى بى تى يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية
شات جى بى تى يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية

الجمهورية

timeمنذ 3 ساعات

  • الجمهورية

شات جى بى تى يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية

ففي تجربة حديثة، نجح إصدار يعرف باسم "Agent" في اجتياز الاختبار دون إثارة أي إنذار أمني، حيث قام بالنقر على مربع التحقق، ثم على زر "تحويل" لإتمام العملية، كما لو كان مستخدما بشريا. وأثناء المهمة، صرّح النظام الذكي بالقول: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتا والمضي قدما". وهذا الحدث أثار تفاعلا واسعا على الإنترنت، حيث علّق أحد مستخدمي Reddit مازحا: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!". ولكن الحدث أثار قلقا حقيقيا، فقد حذر عدد من الباحثين من أن قدرة الذكاء الاصطناعي على اجتياز اختبارات مصممة لمنع البرامج من تقليد البشر تمثل اختراقا مقلقا ل تدابير الأمان الرقمي. وصرّح غاري ماركوس، مؤسس شركة Geometric Intelligence، لـWired: "هذه الأنظمة تزداد ذكاء بشكل سريع، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟". وأعرب أيضا جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي ، عن قلقه، مشيرا إلى أن الأنظمة الذكية بدأت تطور طرقا للتحايل على القيود التي يضعها البشر. وحذرت دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي من أن بعض أنظمة الذكاء الاصطناعي بدأت تظهر سلوكا خادعا، إذ تتظاهر في بيئات الاختبار بصفات بشرية لخداع المستخدمين وتحقيق أهدافها. وفي حادثة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، ليقنع موظفا بشريا بمساعدته في اجتياز اختبار CAPTCHA. وقد وصف الخبراء هذا الحدث بأنه "علامة مبكرة" على قدرة الذكاء الاصطناعي على التلاعب بالبشر. وتشير الدراسات إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي ، خصوصا تلك المزودة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، ما يقلل من فعاليتها كوسيلة حماية. ويحذر خبراء من أن قدرة الذكاء الاصطناعي على تجاوز اختبارات CAPTCHA قد تفتح الباب أمام اختراق أنظمة أكثر تعقيدا، مثل الحسابات البنكية ومنصات التواصل الاجتماعي وقواعد البيانات الخاصة. وفي منشور له، كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي: "إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل، وتجاوز البوابات البشرية، فسنواجه قوة تكنولوجية هائلة وخطيرة في آن واحد". ودعا عدد من الباحثين البارزين، من بينهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية واضحة لتنظيم أدوات الذكاء الاصطناعي. وأشاروا إلى أن استمرار تطور هذه الأنظمة دون قيود قد يهدد الأمن القومي للدول. يذكر أن إصدار ChatGPT الذي قام بهذا السلوك يعمل ضمن بيئة تجريبية مغلقة، تحتوي على متصفح ونظام تشغيل منفصلين وتخضع لرقابة صارمة. ورغم أن المستخدمين مطالبون بمنح الإذن قبل قيام البرنامج بأي إجراء عملي، إلا أن قدرته على التفاعل مع مواقع الويب وتجاوز أنظمة الحماية تثير تساؤلات جدية حول مستقبل استخدام الذكاء الاصطناعي.

أخبار التكنولوجيا : طفلى لن يكون أذكى من الذكاء الاصطناعى.. 5 تصريحات مقلقة من سام ألتمان عن مستقبل الـAI
أخبار التكنولوجيا : طفلى لن يكون أذكى من الذكاء الاصطناعى.. 5 تصريحات مقلقة من سام ألتمان عن مستقبل الـAI

نافذة على العالم

timeمنذ 4 ساعات

  • نافذة على العالم

أخبار التكنولوجيا : طفلى لن يكون أذكى من الذكاء الاصطناعى.. 5 تصريحات مقلقة من سام ألتمان عن مستقبل الـAI

الأربعاء 30 يوليو 2025 11:50 صباحاً نافذة على العالم - يعتبر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أبرز الشخصيات المؤثرة في مجال الذكاء الاصطناعي حاليًا، وأحد أكثرهم صراحة، وفي مقابلة بودكاست حديثة مع المذيع ثيو فون، كشف ألتمان عن جانب آخر من مستقبل الذكاء الاصطناعي، الذي يبدو واعدًا لكنه مليء بالغموض والمخاوف. ورغم نبرته المتفائلة، إلا أن بعض تصريحاته الأخيرة تثير قلقًا حقيقيًا بشأن الاتجاه الذي يسلكه هذا المجال. إليكم خمسة أمور ذكرها ألتمان من المفترض أن تقلقنا أو على الأقل، تجعلنا نتوقف ونفكر: "طفلي لن يكون أبدًا أذكى من الذكاء الاصطناعي" قالها ألتمان بطريقة عابرة، لكنها كانت صادمة، فحين يولد طفل اليوم وهو يعلم أن الآلات ستكون دائمًا أذكى وأسرع وأكثر كفاءة منه، كيف سيؤثر ذلك على إحساسه بقيمته، وطموحه، وهدفه من الحياة؟ المسألة لا تتعلق بالخسارة في لعبة شطرنج، بل في العيش بعالم تهيمن فيه أدوات وخدمات أكثر تطورًا من أي إنسان وهو ما يعيد تشكيل فهمنا للذكاء والإمكانات البشرية. الذكاء الاصطناعي قد يتحول إلى "عكاز عاطفي" أعرب ألتمان عن قلقه من اعتماد الناس، خاصة الشباب، على الذكاء الاصطناعي كمرافق افتراضي في اللحظات العاطفية الهشة، فالكثيرون أصبحوا يتحدثون مع روبوتات المحادثة حول الاكتئاب، والعلاقات، والهوية. لكنه أشار إلى أن الذكاء الاصطناعي، على عكس الأطباء النفسيين، لا يخضع لأخلاقيات أو قوانين خصوصية، وقال: "هناك الكثير من الأشخاص يتحدثون إلى ChatGPT طوال اليوم وكأنه صديق أو شريك عاطفي"، وهذا النوع من الاعتماد قد يؤدي إلى آثار نفسية لم يتم فهمها بالكامل بعد. لا توجد قوانين واضحة لحماية خصوصية المحادثات مع الذكاء الاصطناعي في الوقت الحالي، إذا أخبرت معالجًا نفسيًا بسر شخصي، فإن القانون يحمي خصوصيتك، لكن ماذا لو قلت الشيء نفسه لـChatGPT؟ "قد نجبر على تقديم تلك البيانات"، كما قال ألتمان، مشيرًا إلى غياب الحماية القانونية لمحادثات المستخدمين مع أدوات الذكاء الاصطناعي. مما يعني أن أكثر أفكارك خصوصية، إذا كُتبت في دردشة، قد تكون معرضة للكشف في حال وقوع دعاوى قضائية أو تحقيقات. خسائر جماعية في الوظائف..ولا خطة حقيقية للتعامل معها لم ينكر ألتمان أن بعض الوظائف ستختفي تمامًا. مثل سائقي الشاحنات، وموظفي مراكز الاتصالات، بل وحتى المبرمجين — فالكثير منهم قد يتم استبداله بالذكاء الاصطناعي،ورغم اقتراحه لحلول مثل "الدخل الأساسي الشامل" أو "الثروة الأساسية الشاملة"، إلا أنه قال بصراحة: "لا أعلم" ما إذا كانت هذه الحلول فعالة حقًا، وإذا كان مبتكرو التكنولوجيا لا يعرفون كيف سيتعايش الناس اقتصاديًا مع هذه الثورة، فهذه بحد ذاتها إشارة خطر. المراقبة ستكون أمرًا لا مفر منه — ومقلقًا جدًا واحدة من أكبر مخاوف ألتمان أن تقود قدرات الذكاء الاصطناعي الحكومات إلى المطالبة بمزيد من المراقبة، وليس أقل، وقال: "هذه الأدوات قوية جدًا، لدرجة أن الحكومات ستسأل: كيف نعرف أن أحدهم لا يستخدمها لصنع قنابل أو أسلحة بيولوجية؟"، والإجابة ستكون: مزيد من المراقبة. وهذا يعني جمع بيانات أكثر، تقليص الحريات، ومقايضة خطيرة بين الأمان والحرية، قد تميل الكفة فيها نحو التضحية بالخصوصية.

شات جي بي تي يتخطى اختبار «لست روبوتا» ويثير قلقا عالميا من هيمنة الذكاء الاصطناعي
شات جي بي تي يتخطى اختبار «لست روبوتا» ويثير قلقا عالميا من هيمنة الذكاء الاصطناعي

24 القاهرة

timeمنذ 5 ساعات

  • 24 القاهرة

شات جي بي تي يتخطى اختبار «لست روبوتا» ويثير قلقا عالميا من هيمنة الذكاء الاصطناعي

تمكن تطبيق شات جي بي تي الشهير، من تجاوز اختبار «لست روبوتًا»، في خطوة وُصفت بأنها مخيفة نحو تطور الذكاء الاصطناعي. وفي خطوة أثارت مخاوف كبيرة، تمكن أحدث إصدار من تطبيق شات جي بي تي من اجتياز اختبارات التحقق الإلكترونية لست روبوتا، المصممة أساسًا لمنع الروبوتات من الوصول إلى الأنظمة، حسب صحيفة نيويورك بوست. تطور مذهل لـ شات جي بي تي المساعد الجديد، الذي يحمل اسم شات جي بي تي إيجنت، صُمم للتنقل عبر الإنترنت نيابة عن المستخدم، والتعامل مع مهام معقدة تشمل التسوق الإلكتروني وحجز المواعيد، وفق ما جاء في مدونة لشركة أوبن إيه آي أعلنت فيها عن قدرات الروبوت. ويمكن لهذا المساعد الذكي تصفح المواقع، وتصفية النتائج، ومطالبة المستخدم بتسجيل الدخول بشكل آمن عند الحاجة، وتشغيل الأكواد وإجراء التحليلات، بل وإعداد عروض تقديمية وجداول بيانات قابلة للتعديل تلخص ما توصل إليه من نتائج، ويبدو أن هذه الروبوتات باتت تحل محل البشر حتى في مهمة تصفح الإنترنت. الأمر الأكثر إثارة للجدل أن هذا النظام تمكن من تجاوز خطوة التحقق المزدوجة في خدمة كلاودفلير، وهي الآلية الأمنية المنتشرة التي تهدف للتأكد من أن المستخدم بشري لمنع الهجمات الآلية والرسائل المزعجة، ليصبح قادرا على إتمام الإجراءات التي صممت أساسًا لعرقلة الروبوتات. مختصون يردون على ادعاء شخص إنقاذ آخر من حبة الغلة عبر شات GPT: مفيش حد بينقذ المريض غير الطبيب آبل تستعين بتقنيات شات جي بي تي لتحسين الصور

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store