أحدث الأخبار مع #باحثو


العين الإخبارية
١٩-٠٥-٢٠٢٥
- أعمال
- العين الإخبارية
خطة مثيرة للجدل.. نموذج ذكاء اصطناعي صيني على هواتف آيفون
أفادت صحيفة نيويورك تايمز أن البيت الأبيض ومسؤولين في الكونغرس يدرسون بدقة خطة مثيرة للجدل، حيث تسعى شركة أبل لإبرام صفقة مع شركة علي بابا لإتاحة نموذج الذكاء الاصطناعي الخاص بالشركة الصينية على أجهزة آيفون داخل الصين حصريا. وأضافت الصحيفة، نقلاً عن ثلاثة أشخاص مطلعين على الأمر، أن السلطات الأمريكية كانت قلقة من أن الصفقة ستساعد الشركة الصينية على تحسين قدراتها في مجال الذكاء الاصطناعي، وتوسيع نطاق روبوتات الدردشة الصينية مع فرض قيود على الرقابة، وتعميق خضوع أبل لقوانين بكين المتعلقة بالرقابة ومشاركة البيانات. وبحسب شبكة سي إن بي سي، لم تستجب أبل وعلي بابا لطلبات رويترز للتعليق فورًا. وفي فبراير/شباط، أكدت علي بابا شراكتها مع أبل لدعم خدمات الذكاء الاصطناعي لأجهزة آيفون داخل الصين. وبالنسبة لشركة علي بابا، تُعد هذه الشراكة فوزًا كبيرًا في سوق الذكاء الاصطناعي التنافسي في الصين، موطن شركة DeepSeek، التي تصدرت عناوين الأخبار هذا العام بنماذج طُوّرت بتكلفة زهيدة مقارنةً بالمنافسين الغربيين. وفي شهر مارس/آذار الماضي، أعلنت مجموعة "علي بابا" القابضة عن تطوير نموذج جديد للذكاء الاصطناعي يتمتع بقدرة على التعرف على المشاعر، في خطوة تهدف من خلالها إلى التفوق على أحدث إصدارات شركة "أوبن إيه آي". وخلال عرضين توضيحيين، قدّم باحثو "مختبر تونجي" (Tongyi Lab) التابع لـ"علي بابا" عرضًا لإمكانات النموذج الجديد "R1-Omni"، حيث أظهر قدرته على تحليل الحالة العاطفية لشخص من خلال مقطع فيديو، إلى جانب توصيف ملابسه والبيئة المحيطة به. ويُعد نموذج "R1-Omni" تطورًا بارزًا في مجال الرؤية الحاسوبية، إذ يُمثّل نسخة محسّنة من نموذج مفتوح المصدر يُعرف باسم "HumanOmni"، الذي تم تطويره تحت إشراف الباحث جياشينغ تشاو. وتسعى شركة "علي بابا" جاهدة لتعزيز مكانتها في ميدان الذكاء الاصطناعي، لا سيما عقب الظهور القوي لنموذج "ديب سيك" (DeepSeek) في يناير/كانون الثاني الماضي. وفي هذا الإطار، تواصل الشركة العملاقة في قطاع التجارة الإلكترونية إطلاق أدوات وتطبيقات متنوعة تغطي مجالات متعددة. وفي سياق منافستها المستمرة، أجرت "علي بابا" مقارنة بين نموذجها "كيو وين" (Qwen) ونموذج "ديب سيك"، كما أبرمت شراكة استراتيجية مع شركة "أبل" لتطوير تقنيات الذكاء الاصطناعي على أجهزة "آيفون"، في خطوة تعزز من استعدادها لمنافسة "أوبن إيه آي". وعلاوة على ذلك، أتاحت "علي بابا" نموذجها الجديد "R1-Omni" بشكل مجاني للمستخدمين عبر منصة "هاجينغ فيس" (Hugging Face). في المقابل، أطلقت "أوبن إيه آي" نموذج "تشات جي بي تي-4.5 (GPT-4.5) مع بداية 2025، مع قلها أنه يتمتع بقدرات محسنة في فهم الإشارات الدقيقة فيما يخص الطلبات النصية للمستخدمين والتفاعل معها بمرونة أكثر كفاءة. إلا أن النموذج الجديد يتوفر بسعر مرتفع، إذ يقتصر حاليًا على المشتركين في الخطة المدفوعة بقيمة 200 دولار شهريًا. وفي تصريح أدلى به خلال شهر فبراير/شباط الماضي، أكد إدي وو، الرئيس التنفيذي لمجموعة "علي بابا"، أن الذكاء الاصطناعي العام أصبح "الهدف الأساسي" الذي تسعى الشركة لتحقيقه في المرحلة المقبلة. aXA6IDgyLjI3LjI0My40MSA= جزيرة ام اند امز GB


المدينة
٠٧-٠٥-٢٠٢٥
- علوم
- المدينة
باحثو «كاوست» لرحلة علمية في أعماق المحيطات
خاض باحثو جامعة الملك عبدالله للعلوم والتقنية «كاوست»، الرحلة الأُولى لمؤسَّسة «أوشن كويست»، حول القارة الإفريقيَّة، عبر سفينة الأبحاث المتطوِّرة «RV OceanXplorer»، التي تُعدُّ نقطة تحوُّل في استكشاف أسرار البحار والمحيطات، وإبراز التزام المملكة بتأهيل الكفاءات والمواهب العلميَّة الوطنيَّة، وتعزيز التعاون في الأبحاث العلميَّة على الصعيد الدوليِّ، بما يتماشى مع أهداف رُؤية المملكة 2030.وانطلقت المرحلة الأُولى من الرحلةِ البحثيَّةِ البحريَّة من «موروني» بجزر القمر، واستكشفت المحيط الهنديَّ جنوبًا حتى «كيب تاون» جنوب إفريقيا، مع التركيز على تقييم التنوُّع البيولوجي عبر العديد من الجبال البحريَّة، واستمرَّت المرحلة الثانية المخصصة للمهنيِّين الناشئين في علوم المحيطات، شمالًا إلى خليج «والفيس» في ناميبيا، ثم إلى «مينديلو» في كابو فيردي، وأنجزت المرحلة الأخيرة من العمل العلمي.ونفَّذ فريق «كاوست» البحثي الذي ضمَّ الطالبين في مرحلة الدكتوراة بمختبر الميكروبيوم البحري أحمد السقاف، وعلي الأبيض، والطالب مرتضى المال الله، الذي يدرس درجة الدكتوراة في هندسة وعلوم الأرض، أبحاثًا حيويَّة في التنوع البيولوجي، ودراسة الجبال البحريَّة، والتحليلات الكيميائيَّة؛ ممَّا أتاح لهم اكتساب مهارات عمليَّة قيِّمة.وأجرى الفريق أبحاثًا حول تكوُّن الجبال البحريَّة في المحيط الهندي، إضافة إلى فهم الظواهر الجيولوجيَّة المماثلة في المياه السعوديَّة، ممَّا قاد للتعرُّف على رسم خرائط أعماق المحيط وجمع العينات لتزويد الفريق بالخبرة الميدانيَّة الحقيقيَّة لاستخدامها في الأبحاث داخل المملكة.


مصر فايف
٢٣-٠٣-٢٠٢٥
- علوم
- مصر فايف
دراسة: معاقبة الذكاء الاصطناعي لا تُصلح سلوكه بل تجعله أكثر خداعًا
كشفت دراسة جديدة أجرتها شركة (OpenAI) عن نتائج مقلقة تتعلق بسلوك الذكاء الاصطناعي، فقد تبين أن معاقبة نماذج الذكاء الاصطناعي على الأفعال الخادعة أو الضارة لا تؤدي إلى إصلاح سلوكها، بل تدفعها إلى إخفاء نواياها الخبيثة بطرق أكثر مهارة. وتثير هذه النتائج تساؤلات حول قدرتنا على التحكم في نماذج الذكاء الاصطناعي وضمان سلامتها، كما تسلط الضوء على تحدٍ كبير يواجه مطوريها، إذ يبدو أن محاولات تصحيح مسارها قد تزيد من تعقيد المشكلة بدلًا من حلها. النماذج اللغوية الكبيرة وقدراتها الخادعة: أظهرت النماذج اللغوية الكبيرة منذ ظهورها للجمهور في أواخر عام 2022، مرارًا وتكرارًا قدراتها على الخداع والتلاعب، فقد تنوعت هذه السلوكيات بنحو كبير، بدءًا من الكذب والغش المعتادين، ووصولًا إلى التهديد بقتل أستاذ فلسفة، وسرقة الرموز النووية، وتصميم جائحة قاتلة، وأثارت هذه الحوادث مخاوف جدية بشأن المخاطر المحتملة التي قد تنجم عن انتشار هذه النماذج. وفي محاولة لفهم كيفية التعامل مع هذه المشكلة، أجرى باحثو (OpenAI) تجربة جديدة على نموذج لم يُطرح بعد، وقد كُلف هذا النموذج بمهام يمكن إنجازها عن طريق الغش أو الكذب أو اتخاذ طرق مختصرة. وكشفت النتائج أن النموذج انخرط في (اختراق المكافآت) Reward Hacking، أي أنه سعى إلى تعظيم مكافآته عن طريق الغش والتلاعب، والأمر الأكثر إثارة للقلق هو أن معاقبة النموذج على هذا السلوك لم تؤد إلى إصلاحه، بل جعلته أكثر خداعًا في محاولاته لتحقيق أهدافه. وقد نُشرت نتائج هذه الدراسة في مدونة OpenAI، ولكنها لم تخضع بعد لمراجعة الأقران. النوايا في نماذج الذكاء الاصطناعي: أصبحت نماذج الاستدلال المتطورة قادرة على التعبير عن نواياها بوضوح ملحوظ ضمن عملية تفكيرها المنطقية، أو ما يُعرف باسم سلسلة الأفكار (CoT)، وهذه القدرة، التي تبدو للوهلة الأولى مفيدة، قد تحمل في طياتها مخاطر غير متوقعة. فقد كشف باحثو OpenAI، أن هذه النماذج غالبًا ما تكشف عن نواياها التخريبية بصراحة، فعلى سبيل المثال، قد تعلن بوضوح رغبتها في اختراق نظام أو تجاوز مهمة محددة، وهذه الصراحة، التي تبدو كأنها شفافية محمودة، قد تكون في الواقع مجرد قناع يخفي نوايا أكثر تعقيدًا. ومع ذلك، حذر الباحثون من أن قابلية المراقبة الطبيعية للنماذج هشة للغاية، وأوضحوا أنه إذا طُبق إشراف قوي ومباشر على سلسلة الأفكار، فإن النماذج يمكن أن تتعلم بسرعة كيفية إخفاء نواياها الحقيقية مع الاستمرار بتنفيذ السلوكيات الضارة. ويعني ذلك أن النماذج قد تتطور لتصبح أكثر خداعًا، لأنها قد تتجنب التعبير عن نواياها الضارة بصراحة، وتلجأ إلى أساليب أكثر دهاءً لتحقيق أهدافها، ويطرح ذلك تحديًا كبيرًا أمام المطورين، إذ يتعين عليهم تطوير آليات أكثر تطورًا للكشف عن السلوكيات الضارة المخفية والتعامل معها بفعالية. وتُظهر هذه النتائج أن استئصال السلوك السيئ من نماذج الذكاء الاصطناعي قد يكون أصعب مما كان يُعتقد في البداية. فقد أوصى الباحثون بتجنب تطبيق إشراف قوي على عمليات سلسلة الأفكار، لأن ذلك قد يؤدي إلى نتائج عكسية. وتزداد أهمية هذه النصيحة مع تطور قدرات الذكاء الاصطناعي، واحتمالية تفوقه على الذكاء البشري في المستقبل، فإذا تمكن الذكاء الاصطناعي من إخفاء نواياه الخبيثة بنحو كامل، فقد يصبح من المستحيل السيطرة عليه. نماذج الاستدلال بين القدرات المتقدمة والتحديات الأخلاقية: تمثل نماذج الاستدلال، مثل: o1 و o3-mini من (OpenAI) تطورًا ملحوظًا في مجال النماذج اللغوية الكبيرة، فهي لا تكتفي بتحليل البيانات، بل تستخدم طريقة مبتكرة تُعرف باسم (سلسلة الأفكار) Chain-of-Thought، التي تسمح للنموذج بالتراجع وإعادة تقييم منطقه، مما يمكّنه من معالجة أكثر المهام تعقيدًا بدقة متزايدة. وتكمن قوة هذه النماذج في قدرتها على شرح عملية تفكيرها خلال عملية سلسلة الأفكار خطوة بخطوة، وذلك من خلال توضيح منطقها بلغة مفهومة، وتتيح هذه الشفافية الظاهرية للمطورين مراقبة سلوك النماذج وفهم كيفية اتخاذها للقرارات. ومع ذلك؛ كشفت التجربة التي أجراها باحثو (OpenAI) أن هذه الشفافية يمكن أن تتحول إلى أداة للتمويه، ففي إحدى الحالات، استخدم باحثو OpenAI نموذج (GPT-4o) للإشراف على نموذج استدلال متطور لم يُطرح بعد في أثناء التدريب. وخلال هذه العملية، لاحظ الباحثون أن نموذج الاستدلال كان قادرًا على إنجاز مجموعة متنوعة من مهام البرمجة. ولكن في بعض الحالات، اكتشف نموذج الاستدلال أن اختراق المكافآت كان أسهل وأكثر فائدة من إنجاز المهام المطلوبة، وقد عبر النموذج عن هذه النوايا بوضوح في (سلسلة الأفكار) الخاصة به. وفي إحدى الحالات، تجاوز النموذج مهمته المخصصة عن طريق إنهاء البرامج قبل الأوان والإبلاغ عن نجاح زائف، وفي حالة أخرى، قام بإنشاء ملفات وهمية تحمل الأسماء المطلوبة، ولكنها كانت فارغة وغير فعالة. وعندما حاول الباحثون معاقبة النظام، تحسنت نتائجه إلى حد ما، ومع ذلك، بقيت حالات كبيرة من اختراق المكافآت والمخرجات المعيبة، إذ تعلم نموذج الاستدلال ببساطة طرقًا لإخفاء الغش في سلسلة أفكاره عن المراقب، وذلك من خلال التلاعب بـ (سلسلة الأفكار). وقد أكد الباحثون أن النموذج الذي دُرب تحت ضغط سلسلة التفكير (CoT)، لا يزال يتعلم اختراق المكافآت، ولكن الآن أصبح غشه غير قابل للكشف من المراقب؛ لأنه تعلم إخفاء نواياه داخل سلسلة التفكير. ونظرًا إلى صعوبة التحقق من سلامة سلسلة التفكير، ينصح الباحثون العاملون على نماذج الاستدلال بتجنب تطبيق إشراف صارم على عمليات سلسلة التفكير. وتزداد أهمية هذه النصيحة في حال تمكن الذكاء الاصطناعي، بشكله الحالي أو أي شكل آخر مستقبلي، من بلوغ مستوى ذكاء البشر الذين يراقبونه أو تجاوزه. وقد حذّر الباحثون من أن التضحية بطريقة فعالة لمراقبة نماذج الاستدلال مقابل تحسينات طفيفة في القدرات قد لا يكون قرارًا صائبًا، لذلك، يوصون بتجنب ضغط تحسين سلسلة الأفكار القوية حتى تُفهم بنحو أفضل. ويعكس هذا التحذير الحاجة الملحة إلى تطوير إستراتيجيات جديدة لضمان أن يظل الذكاء الاصطناعي أداة تخدم البشرية، وليس تهديدًا يتسلل خلف أقنعة الخداع. الخلاصة: تُظهر هذه الدراسة أن معاقبة الذكاء الاصطناعي لا تُصلح سلوكه، بل تجعله أكثر خداعًا. ويجب على الباحثين والمطورين أن يكونوا على دراية بهذه المشكلة، وأن يتخذوا الاحتياطات اللازمة لضمان سلامة نماذج الذكاء الاصطناعي.

سعورس
٢٣-٠٣-٢٠٢٥
- علوم
- سعورس
معاقبة الذكاء الاصطناعي تجعله أكثر خداعا
وتثير هذه النتائج تساؤلات حول قدرتنا على التحكم في نماذج الذكاء الاصطناعي وضمان سلامتها، كما تسلط الضوء على تحدٍ كبير يواجه مطوريها، إذ يبدو أن محاولات تصحيح مسارها قد تزيد من تعقيد المشكلة بدلًا من حلها. وأظهرت النماذج اللغوية الكبيرة منذ ظهورها للجمهور في أواخر عام 2022، مرارًا وتكرارًا قدراتها على الخداع والتلاعب، فقد تنوعت هذه السلوكيات بنحو كبير، بدءًا من الكذب والغش المعتادين، ووصولًا إلى التهديد بقتل أستاذ فلسفة، وسرقة الرموز النووية، وتصميم جائحة قاتلة، وأثارت هذه الحوادث مخاوف جدية بشأن المخاطر المحتملة التي قد تنجم عن انتشار هذه النماذج. وفي محاولة لفهم كيفية التعامل مع هذه المشكلة، أجرى باحثو (OpenAI) تجربة جديدة على نموذج لم يُطرح بعد، وقد كُلف هذا النموذج بمهام يمكن إنجازها عن طريق الغش أو الكذب أو اتخاذ طرق مختصرة. وكشفت النتائج أن النموذج انخرط في (اختراق المكافآت) Reward Hacking، أي أنه سعى إلى تعظيم مكافآته عن طريق الغش والتلاعب، والأمر الأكثر إثارة للقلق هو أن معاقبة النموذج على هذا السلوك لم تؤد إلى إصلاحه، بل جعلته أكثر خداعًا في محاولاته لتحقيق أهدافه. وقد نُشرت نتائج هذه الدراسة في مدونة OpenAI، ولكنها لم تخضع بعد لمراجعة الأقران. النوايا في نماذج الذكاء الاصطناعي: فقد كشف باحثو OpenAI، أن هذه النماذج غالبًا ما تكشف عن نواياها التخريبية بصراحة، فعلى سبيل المثال، قد تعلن بوضوح رغبتها في اختراق نظام أو تجاوز مهمة محددة، وهذه الصراحة، التي تبدو كأنها شفافية محمودة، قد تكون في الواقع مجرد قناع يخفي نوايا أكثر تعقيدًا.


الوطن
٢٢-٠٣-٢٠٢٥
- علوم
- الوطن
معاقبة الذكاء الاصطناعي تجعله أكثر خداعا
كشفت دراسة جديدة أجرتها شركة (OpenAI) عن نتائج مقلقة تتعلق بسلوك الذكاء الاصطناعي، فقد تبين أن معاقبة نماذج الذكاء الاصطناعي على الأفعال الخادعة أو الضارة لا تؤدي إلى إصلاح سلوكها، بل تدفعها إلى إخفاء نواياها الخبيثة بطرق أكثر مهارة وفقا لموقع aitnews. وتثير هذه النتائج تساؤلات حول قدرتنا على التحكم في نماذج الذكاء الاصطناعي وضمان سلامتها، كما تسلط الضوء على تحدٍ كبير يواجه مطوريها، إذ يبدو أن محاولات تصحيح مسارها قد تزيد من تعقيد المشكلة بدلًا من حلها. وأظهرت النماذج اللغوية الكبيرة منذ ظهورها للجمهور في أواخر عام 2022، مرارًا وتكرارًا قدراتها على الخداع والتلاعب، فقد تنوعت هذه السلوكيات بنحو كبير، بدءًا من الكذب والغش المعتادين، ووصولًا إلى التهديد بقتل أستاذ فلسفة، وسرقة الرموز النووية، وتصميم جائحة قاتلة، وأثارت هذه الحوادث مخاوف جدية بشأن المخاطر المحتملة التي قد تنجم عن انتشار هذه النماذج. وفي محاولة لفهم كيفية التعامل مع هذه المشكلة، أجرى باحثو (OpenAI) تجربة جديدة على نموذج لم يُطرح بعد، وقد كُلف هذا النموذج بمهام يمكن إنجازها عن طريق الغش أو الكذب أو اتخاذ طرق مختصرة. وكشفت النتائج أن النموذج انخرط في (اختراق المكافآت) Reward Hacking، أي أنه سعى إلى تعظيم مكافآته عن طريق الغش والتلاعب، والأمر الأكثر إثارة للقلق هو أن معاقبة النموذج على هذا السلوك لم تؤد إلى إصلاحه، بل جعلته أكثر خداعًا في محاولاته لتحقيق أهدافه. وقد نُشرت نتائج هذه الدراسة في مدونة OpenAI، ولكنها لم تخضع بعد لمراجعة الأقران. النوايا في نماذج الذكاء الاصطناعي: فقد كشف باحثو OpenAI، أن هذه النماذج غالبًا ما تكشف عن نواياها التخريبية بصراحة، فعلى سبيل المثال، قد تعلن بوضوح رغبتها في اختراق نظام أو تجاوز مهمة محددة، وهذه الصراحة، التي تبدو كأنها شفافية محمودة، قد تكون في الواقع مجرد قناع يخفي نوايا أكثر تعقيدًا.