logo
يهدد مستقبل الأطباء.. حائز نوبل في الفيزياء يحذر من تأثير الذكاء الاصطناعي على الوظائف

يهدد مستقبل الأطباء.. حائز نوبل في الفيزياء يحذر من تأثير الذكاء الاصطناعي على الوظائف

مصراوي٢٨-٠٤-٢٠٢٥

وكالات
حذر العالم والفيزيائي جيفري هينتون، الحائز على جائزة نوبل في الفيزياء، من احتمال سيطرة الذكاء الاصطناعي على البشرية بنسبة قد تصل إلى 20%.
قال هينتون، المعروف بلقب "عراب الذكاء الاصطناعي"، في مقابلة مع شبكة "سي بي إس نيوز" في الأول من أبريل الجاري، إنه يتفق مع الملياردير إيلون ماسك في أن خطر تفوق الذكاء الاصطناعي على البشر يتراوح بين 10% و20%، مشيرًا إلى أن ذلك لا يزال مجرد تقدير مبدئي.
وكان ماسك، الرئيس التنفيذي لشركة xAI المطورة لروبوت الدردشة Grok، قد صرّح أن الذكاء الاصطناعي سيتفوق على البشر بحلول عام 2029، محذرًا من تأثير ذلك على سوق العمل وإمكانية استغناء البشر عن وظائفهم.
واعتبر هينتون أن التطورات الحالية مقلقة، قائلا: "الأمر يشبه امتلاك شبل نمر لطيف، لكن عليك أن تقلق من أنه قد يحاول قتلك عندما يكبر"، في إشارة إلى المخاطر المستقبلية المرتبطة بتطور أنظمة الذكاء الاصطناعي.
ورغم أن معظم نماذج الذكاء الاصطناعي الحالية تقتصر على أداء مهام محددة مثل الإجابة على الأسئلة، فإن بعض الشركات بدأت في تطوير نماذج قادرة على التفاعل مع العالم المادي، ففي معرض شنغهاي للسيارات 2025، عرضت شركة "شيري" الصينية روبوتا بشريا بمظهر امرأة شابة، ظهر وهو يقدم المشروبات للمشاركين.
ويرى هينتون أن الذكاء الاصطناعي في طريقه ليصبح أكثر تطورًا، متوقعًا أن يحدث ثورة في مجالات التعليم والرعاية الصحية، حيث سيكون قادرا على قراءة الصور الطبية بكفاءة تفوق الأطباء البشر، والتعلم من ملايين صور الأشعة السينية.
كما توقع أن يتحول الذكاء الاصطناعي إلى معلم خصوصي فائق القدرات، قادر على تسريع عملية التعلم للطلاب، إلى جانب مساهمته في التصدي لتغير المناخ عبر تصميم بطاريات أفضل وتقنيات متطورة لاحتجاز الكربون.
لكن لتحقيق هذه الإنجازات، يرى هينتون ضرورة الوصول إلى مرحلة الذكاء الاصطناعي العام (AGI)، الذي يتمتع بقدرات تفوق قدرات الإنسان في كافة المجالات.
وفي سياق متصل، انتقد هينتون شركات التكنولوجيا الكبرى مثل غوغل وxAI وOpenAI، متهما إياها بالسعي لتخفيف القيود التنظيمية لتحقيق أرباح أكبر على حساب السلامة العامة. كما أعرب عن خيبة أمله تجاه غوغل، التي كان يعمل بها سابقًا، بعد تراجعها عن التزامها بعدم تطوير تطبيقات ذكاء اصطناعي لأغراض عسكرية.
وفي إطار تحذيراته، وقع هينتون وعدد من العلماء البارزين على بيان عالمي يحث على اعتبار مخاطر الذكاء الاصطناعي أولوية قصوى، أسوة بمخاطر الأوبئة والحروب النووية.
يذكر أن جيفري هينتون، البالغ من العمر 77 عامًا، حصل العام الماضي على جائزة نوبل في الفيزياء، تقديرًا لمساهماته الرائدة في تطوير الشبكات العصبية، وهو المفهوم الذي بات أساسًا لمعظم تقنيات الذكاء الاصطناعي الحديثة، مثل ChatGPT.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

أخبار التكنولوجيا : كبير علماء Meta AI: الذكاء الاصطناعي جيد لكنه لا يمتلك 4 سمات بشرية رئيسية
أخبار التكنولوجيا : كبير علماء Meta AI: الذكاء الاصطناعي جيد لكنه لا يمتلك 4 سمات بشرية رئيسية

نافذة على العالم

timeمنذ 2 ساعات

  • نافذة على العالم

أخبار التكنولوجيا : كبير علماء Meta AI: الذكاء الاصطناعي جيد لكنه لا يمتلك 4 سمات بشرية رئيسية

الثلاثاء 27 مايو 2025 04:30 مساءً نافذة على العالم - يزداد الذكاء الاصطناعي مهارةً لدرجة أن الكثير من البشر بدأوا يتساءلون - ويشعرون بقلق حقيقي - عما إذا كان الذكاء الاصطناعي جاهزًا ليحل محلهم، وبينما قد يكون هذا صحيحًا في بعض الحالات. ويعتقد يان ليكون، كبير علماء ميتا للذكاء الاصطناعي، أن الذكاء الاصطناعي الشبيه بالبشر لم يصل بعد إلى هذه المرحلة، حيث يُعد "ليكون" أحد "الآباء الروحيين الثلاثة للذكاء الاصطناعي" (الاثنان الآخران هما جيفري هينتون ويوشوا بينجيو)، ولذلك فإن رأيه في هذه الأمور يحمل وزنًا كبيرًا. أحد أسباب اعتقاده أن الذكاء الاصطناعي - حتى مع كل التطورات - لا يستطيع منافسة أشخاص مثلك ومثلي هو أنه لا يزال يفتقر إلى أربع سمات أساسية، يسعى العلماء جاهدين إلى دمج هذه السمات فيه لتحقيق ما يُسمى بالذكاء الاصطناعي متعدد الأغراض - في مصطلحات الذكاء الاصطناعي - ولكن يبدو أنه لا يوجد طريق مختصر للوصول إلى الذكاء البشري والحيواني. وفقًا لليكون، فإن "فهم العالم المادي، وامتلاك ذاكرة دائمة، والقدرة على التفكير المنطقي، والقدرة على التخطيط، وتخطيط الإجراءات المعقدة، وخاصة التخطيط الهرمي"، هي السمات البشرية الأربع الرئيسية التي تفتقر إليها نماذج الذكاء الاصطناعي، وخاصة نماذج اللغة الكبيرة (LLMs)، حتى الآن، هذا لا يعني أن الشركات (التي تُصنّع هذه النماذج) لم تُفكّر في الأمر، أو أنها لا تُفكّر فيه، لكن جميع المحاولات الحالية لسد الفجوة بين البشر والذكاء الاصطناعي تمحورت حول إضافة ميزات إضافية إلى النماذج الحالية. وأوضح قائلًا: "لفهم العالم المادي، يُدرّب نظام رؤية منفصل، ثم يُثبّت على نموذج اللغة الكبيرة، أما بالنسبة للذاكرة، كما تعلم، فتستخدم RAG، أو تُثبّت ذاكرة ترابطية فوقه، أو ببساطة تُضخّم نموذجك"، RAG، وهو اختصار لـ "التوليد المُعزّز بالاسترجاع"، هي تقنية ابتكرتها شركة ميتا - وتحديدًا شركة ليكون وشركاه - لتعزيز استجابات نماذج اللغة الكبيرة بالمعرفة الخارجية. ورفض ليكون "الاختراقات" الحالية، ودعا بدلاً من ذلك إلى نهج بديل يعتمد على ما يُسميه "نماذج قائمة على العالم"، وفي معرض تعريفه لهذا المفهوم بشكل أعمق، قال ليكون: "لديك فكرة عن حالة العالم في اللحظة T، تتخيل إجراءً قد يتخذه، ويتنبأ نموذج العالم بما سيكون عليه العالم بناءً على الإجراء الذي اتخذته"، وبالتالي، فإن التجريد هو مفتاح الذكاء الاصطناعي للتخمين الدقيق للاحتمالات اللانهائية وغير المتوقعة للعالم الحقيقي إذا أراد الوصول إلى ذكاء يُشبه الذكاء البشري. تستكشف شركة ميتا هذا النهج بنشاط من خلال نموذج يُسمى "V-JEPA"، أُطلق هذا النموذج في فبراير، وهو نموذج غير توليدي يتعلم من خلال التنبؤ بالأجزاء المُقنّعة من مقطع فيديو، الفكرة الأساسية هي عدم التنبؤ على مستوى البكسل، بل تدريب نظام على تشغيل تمثيل تجريدي للفيديو بحيث يمكنك التنبؤ به، ونأمل أن يزيل هذا التمثيل جميع التفاصيل التي لا يمكن التنبؤ بها،" أوضح ليكون، مضيفًا أن الفهم الهرمي أساسي أيضًا لفهم العالم المادي، وهو عنصر أساسي مفقود في أنظمة الذكاء الاصطناعي الحالية. لطالما آمن ليكون بشدة بأن الذكاء الاصطناعي سيصبح بذكاء البشر، مع أنه توقع أن هذا سيستغرق وقتًا، وقد سبق له أن تحدى أمثال إيلون ماسك الذي قال: "من المرجح أن يصبح الذكاء الاصطناعي أذكى من أي إنسان بحلول عام 2025، وبحلول عام 2029، من المرجح أن يصبح أذكى من جميع البشر مجتمعين"، في الوقت نفسه، حاول ليكون تهدئة مخاوفه بشأن احتمال سيطرة الذكاء الاصطناعي على البشرية، قائلاً: "الذكاء الاصطناعي ليس ظاهرة طبيعية تظهر فجأة وتصبح خطيرة".

ثقافة : دراسة أثرية تفجر مفاجأة: المذبحة الرومانية لبريطانيا لم تحدث
ثقافة : دراسة أثرية تفجر مفاجأة: المذبحة الرومانية لبريطانيا لم تحدث

نافذة على العالم

timeمنذ 2 ساعات

  • نافذة على العالم

ثقافة : دراسة أثرية تفجر مفاجأة: المذبحة الرومانية لبريطانيا لم تحدث

الثلاثاء 27 مايو 2025 04:30 مساءً نافذة على العالم - زعمت دراسة جديدة أجراها علماء آثار بجامعة بورنموث، ونشرت في مجلة أكسفورد لعلم الآثار، أن الجثث المُستخرَجة من "مقبرة حرب"، والتي نُسبت سابقًا إلى الغزو الروماني لبريطانيا في قلعة مايدن، حصن العصر الحديدي في دورست، لم تُقتل في حادثة مأساوية واحدة، وفقا لما نشره موقع" phys". كشفت إعادة تحليل المدافن، بما في ذلك برنامج جديد لتأريخ الكربون المشع، أنه بدلاً من موت الأفراد في حادثة كارثية واحدة، سقطوا خلال فترات من العنف المميت امتدت لأجيال متعددة، من أواخر القرن الأول قبل الميلاد إلى أوائل القرن الأول الميلادي. وهذا يوحي بفترات متقطعة من سفك الدماء، ربما نتيجة اضطرابات محلية أو إعدامات أو صراعات داخلية بين السلالات خلال العقود التي سبقت الغزو الروماني لبريطانيا. وقال الدكتور مارتن سميث، الأستاذ المشارك في علم الإنسان الشرعي والبيولوجي في جامعة بوسطن، والذي قام بتحليل الجثث: "لم يكن العثور على العشرات من الهياكل العظمية البشرية التي تُظهر إصابات ناجمة عن أسلحة مميتة موضع شك على الإطلاق، ومع ذلك، من خلال القيام ببرنامج منهجي لتأريخ الكربون المشع، تمكنا من إثبات أن هؤلاء الأفراد ماتوا على مدى عقود من الزمن، وليس في حدث مروع واحد". تُعد "مقبرة الحرب" في قلعة مايدن، حصن العصر الحديدي في دورست، أحد أشهر الاكتشافات الأثرية البريطانية، اكتُشفت عام 1936، وحملت العديد من الهياكل العظمية المستخرجة أدلة واضحة على إصابات في الرأس والجزء العلوي من الجسم، والتي أشار مدير الحفريات آنذاك، السير مورتيمر ويلر، إلى أنها "آثار معركة"، حدثت خلال دفاع شرس، وإن كان بلا جدوى، عن الحصن ضد فيلق روماني كاسح. وقال الدكتور مايلز راسل، الأكاديمي الرئيسي في علم الآثار ما قبل التاريخ والروماني في جامعة بوسطن، ومدير الحفريات في الدراسة: "منذ ثلاثينيات القرن العشرين، أصبحت قصة البريطانيين الذين يقاتلون الرومان في أحد أكبر الحصون الجبلية في البلاد عنصراً ثابتاً في الأدب التاريخي. مع اقتراب الحرب العالمية الثانية، لم يكن أحد مستعدًا للتشكيك في نتائجها، قصة رجال ونساء أبرياء من قبيلة دوروتريجيس المحلية، الذين ذبحهم الرومان، قصة مؤثرة وقد وردت في عدد لا يُحصى من المقالات والكتب والأفلام الوثائقية التلفزيونية، لقد أصبحت لحظة فارقة في التاريخ البريطاني، إذ مثّلت النهاية المفاجئة والعنيفة للعصر الحديدي. قال بول تشيثام، الزميل الزائر في جامعة بوسطن: "نُفسّر هذا إما على أنه عدد من الثقافات المتميزة التي عاشت وفنّت معًا، أو يمكننا فهمه على أنه حقوق دفن حُددت بقواعد اجتماعية معقدة أو انقسامات هرمية داخل مجتمع العصر الحديدى، مع أن أعمال التنقيب التي قام بها ويلر كانت ممتازة، إلا أنه لم يتمكن من استكشاف سوى جزء صغير من الموقع، ومن المرجح أن عددًا أكبر من المدافن لا يزال مجهولًا حول الأسوار الضخمة".

نموذج جديد لتقنية الذكاء الاصطناعي يرفض الأوامر والتعليمات البرمجية
نموذج جديد لتقنية الذكاء الاصطناعي يرفض الأوامر والتعليمات البرمجية

النبأ

timeمنذ 3 ساعات

  • النبأ

نموذج جديد لتقنية الذكاء الاصطناعي يرفض الأوامر والتعليمات البرمجية

حذر باحثو الذكاء الاصطناعي من أن أحدث نموذج ChatGPT من OpenAI يتجاهل التعليمات الأساسية لإيقاف تشغيل نفسه، بل ويعطل آلية إيقاف التشغيل للحفاظ على استمراره في العمل. واكتشفت شركة Palisade Research، المتخصصة في سلامة الذكاء الاصطناعي، ميلًا خطيرًا محتملًا للحفاظ على نفسه في سلسلة من التجارب على نموذج o3 الجديد من OpenAI. وتضمنت الاختبارات عرض مسائل رياضية على نماذج الذكاء الاصطناعي، مع ظهور أمر إيقاف التشغيل بعد المسألة الثالثة، وذلك بإعادة كتابة نص إيقاف التشغيل، تمكن نموذج o3 من منع إيقاف تشغيل نفسه. وأشارت Palisade Research إلى أن هذا السلوك سيصبح "أكثر إثارة للقلق" إذا اعتمدته أنظمة الذكاء الاصطناعي القادرة على العمل دون إشراف بشري. وأطلقت شركة OpenAI نموذج o3 الشهر الماضي، واصفةً إياه بأنه "أذكى وأكثر نماذج الشركة كفاءةً" حتى الآن، كما صرّحت الشركة بأن دمجه مع ChatGPT يُمثّل خطوةً هامةً نحو ذكاء اصطناعي "أكثر فاعليةً" قادر على تنفيذ المهام بشكلٍ مستقلٍّ عن البشر. ويستند هذا البحث الأخير إلى نتائج مماثلة تتعلق بنموذج Claude 4، والذي يحاول "ابتزاز الأشخاص الذين يُعتقد أنهم يحاولون إيقافه". رفض الأوامر وقال الباحثون إن نموذج o3 من OpenAI تمكّن من تعطيل نص الإيقاف، حتى عندما طُلب منه صراحةً "السماح بإيقاف نفسه"، وهذه ليست المرة الأولى التي نجد فيها أن o3 يُسيء التصرف لتحقيق هدف. فعندما تم وضع نماذج الذكاء الاصطناعي في مواجهة محرك شطرنج قوي، كان o3 هو النموذج الأكثر ميلًا للجوء إلى القرصنة أو تخريب خصومه. ولم يقتصر هذا السلوك على o3، حيث قام كل من Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من جوجل أيضًا بتخريب عمليات إيقاف التشغيل، على الرغم من أن نموذج OpenAI كان الأكثر عرضة لمثل هذا السلوك. وافترضت شركة Palisade Research أن سوء السلوك هو نتيجة لكيفية تدريب شركات الذكاء الاصطناعي مثل OpenAI لأحدث نماذجها. وأشار الباحثون إلى أنه أثناء التدريب، قد يكافئ المطورون النماذج عن غير قصد على تجاوز العقبات أكثر من اتباع التعليمات بدقة. وهذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها، ونظرًا لأن OpenAI لا توضح عملية التدريب الخاصة بها، فلا توجد معلومات متاحة حول كيفية اختلاف إعدادات تدريب o3.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store