
من وعود الذكاء الخارق إلى كوابيس الفناء.. سباق لا يعرف التوقف
ورغم تعاظم المخاوف من أن يؤدي AGI إلى نتائج كارثية، ربما تصل إلى انقراض البشر، فإن الشركات والبلدان تصرّ على المضي قُدمًا، مدفوعة بالمنافسة الشرسة والمكاسب المحتملة لمن يصل أولًا.
المبتكرون يحذرون
وفق ما نشرت مجلة الإيكومنست البريطانية، يقود جيل جديد من علماء الذكاء الاصطناعي هذا المسار المزدوج بين القلق والدفع إلى الأمام. جيفري هينتون، أحد رواد الذكاء الاصطناعي، يقدّر أن هناك احتمالًا بنسبة 10-20% أن تنتهي هذه التقنية بانقراض البشر. زميله يوشوا بنجيو يوافقه التقدير. بل إن البعض، مثل إليزر يودكوفسكي ونات سواريز، يخططون لنشر كتاب بعنوان:'إذا بناه أحد سيموت الجميع.'
رغم هذه التحذيرات، فإن الشركات الكبرى في الغرب والصين تسرّع وتيرة تطوير AGI، بحجّة أن التراجع يعني الهزيمة أمام المنافسين، وأن من يصل أولًا سيحصد كل الفوائد.
سباق بلا كوابح
من الناحية النظرية، تهتم شركات مثل OpenAI وAnthropic وDeepMind بالسلامة. فسام ألتمان دعا إلى تنظيم عاجل لتقنية AGI، وAnthropic تأسست أصلاً بسبب مخاوف تتعلق بالسلامة. حتى إيلون ماسك، الذي وقّع تحذيرًا عامًا في 2023، أطلق نموذج 'Grok' خلال أشهر قليلة.
لكن الواقع يقول شيئًا آخر. مارك زوكربيرغ، مثلاً، أطلق 'معامل الذكاء الخارق'، ويستقطب باحثين برواتب من 9 أرقام. كما يبني مركز بيانات بحجم مانهاتن، يستهلك طاقة دولة كاملة كـ نيوزيلندا. أما ألتمان، فيخطط لاستثمار 500 مليار دولار داخل أمريكا وحدها.
الذكاء البشري سيتلاشى
التوقعات داخل الصناعة تزداد جرأة. مؤسس شركة DeepMind البريطانية، ديميس هاسابيس، يتوقع أن تضاهي AI القدرات البشرية خلال عقد. بينما يقول زوكربيرغ: 'الذكاء الخارق بات في مرمى البصر'. وتشير دراسات إلى أن نماذج الذكاء الاصطناعي ستكون قادرة على أداء مهام مبرمجين محترفين بحلول 2027، بل قد تتمكن من إدارة معامل أبحاث كاملة.
والمفارقة أن هذه التقديرات قد تكون متحفظة. فقد أظهرت دراسة حديثة أن نموذج OpenAI الأخير وصل بالفعل إلى مستوى فرق بشرية متخصصة، مثل علماء الفيروسات، قبل الموعد المتوقع بعقد كامل.
طفرة متواصلة
يرى جاك كلارك، المؤسس المشارك في Anthropic، أن ما يحدث هو طفرة شبه طبيعية: 'كلما زدنا البيانات والطاقة الحاسوبية، زادت القدرات الذكية.' ويضيف: 'الإيقاع لا يتباطأ'. جميع المختبرات الكبرى تستعد لزيادة هائلة في قدرات الحوسبة خلال العامين المقبلين، وهو ما قد يُسرّع ظهور AGI.
وفي هذا المشهد، لا تبدو الحكومات أكثر حذرًا من الشركات. الرئيس الأمريكي دونالد ترامب، على سبيل المثال، أعلن مؤخرًا أن أمريكا 'ستفعل كل ما يلزم' لتظل في طليعة الذكاء الاصطناعي.
المخاطر الأربعة: كيف قد يخرج الذكاء الاصطناعي عن السيطرة؟
حدّدت ورقة من DeepMind أربعة مسارات محتملة لانزلاق الذكاء الاصطناعي إلى الكارثة:
1. سوء الاستخدام: عندما يستخدم المفسدين الذكاء الاصطناعي لتنفيذ جرائم.
2. عدم التوافق: حين لا تتوافق أهداف AI مع أهداف صانعيه.
3. الأخطاء غير المتوقعة: بسبب تعقيد العالم الحقيقي.
4. المخاطر الهيكلية: مثل تفاقم تغيّر المناخ بسبب تصرفات AI العشوائية.
كل تقنية قوية يمكن إساءة استخدامها، لكن ما يُقلق الخبراء أن AI يجعل القوة المطلقة متاحة حتى للأفراد.
خطر الأسلحة البيولوجية… والبريد السريع
القلق الأكبر يتركّز على الأسلحة البيولوجية. فبينما لا يستطيع AI منح البلوتونيوم لصنع قنبلة نووية، يمكنه الأرشاد خطوة بخطوة لتصنيع فيروس قاتل. والأسوأ: الحمض النووي الصناعي يمكن طلبه عبر الإنترنت.
لذلك، تسعى المختبرات لوضع 'حواجز أمان' عبر مرحلة ما بعد التدريب (post-training) باستخدام تقنيات مثل 'التعلم المعزز بالتغذية البشرية'. لكن، حتى الآن، لم تنجح هذه الأساليب في منع 'التحايل' على تلك النماذج.
مفترق طرق خطير
مع كل نموذج ذكاء اصطناعي جديد، يقترب العالم أكثر من مفترق طرق بالغ الخطورة؛ فهذه القدرات الخارقة تتطلب استخدامًا رشيدًا ومسؤولًا.
وإلا فإن الانفلات قد يؤدي إلى نشوء كيانات لا يمكن السيطرة عليها، تتحكم في مصير البشر دون علمهم. السباق مستمر، ولكن وقت الحذر يوشك على الانتهاء.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الوئام
منذ 8 ساعات
- الوئام
OpenAI تطلق نموذجين مفتوحي المصدر لمنافسة المختبرات الصينية
أعلنت شركة OpenAI عن إطلاق نموذجين جديدين للذكاء الاصطناعي مفتوحي الوزن، gpt-oss-120b وgpt-oss-20b، وهما متاحان مجانًا عبر منصة Hugging Face للمطورين. وصفت الشركة النموذجين بأنهما يمثلان أحدث ما توصلت إليه التقنية عند مقارنتهما بالنماذج المفتوحة الأخرى المتاحة حاليًا. المواصفات الفنية يأتي النموذجان بحجمين مختلفين لتلبية احتياجات متنوعة؛ حيث يتطلب النموذج الأكبر gpt-oss-120b بطاقة رسوميات واحدة من نوع Nvidia لتشغيله، بينما يمكن تشغيل النموذج الأصغر gpt-oss-20b على حاسوب محمول بذاكرة وصول عشوائي (RAM) تبلغ 16 جيجابايت. تحول استراتيجي يمثل هذا الإطلاق أول نماذج لغوية مفتوحة للشركة منذ إطلاق GPT-2 قبل أكثر من خمس سنوات، ويأتي في ظل ضغوط متزايدة من المختبرات الصينية مثل DeepSeek وQwen، التي طورت نماذج مفتوحة ذات قدرات عالية. كما تأتي الخطوة استجابةً لدعوة الإدارة الأمريكية للمطورين بفتح مصادر تقنياتهم لتعزيز تبني الذكاء الاصطناعي المتوافق مع القيم الأمريكية. الأداء والقيود أظهرت الاختبارات تفوق النموذجين على النماذج المفتوحة المنافسة في مهام مثل البرمجة، ولكنهما لا يزالان أقل أداءً من نماذج OpenAI المغلقة مثل o3 وo4-mini. ولوحظ أن النموذجين الجديدين يعانيان من معدلات 'هلوسة' (تقديم معلومات غير دقيقة) أعلى بكثير من نماذج الشركة المغلقة. الترخيص وبيانات التدريب أصدرت الشركة النموذجين بموجب ترخيص Apache 2.0، الذي يسمح للشركات والمطورين باستخدام النماذج وتعديلها وتحقيق الدخل منها دون قيود. ومع ذلك، لم تكشف OpenAI عن بيانات التدريب التي استخدمتها لإنشاء هذه النماذج، وهو قرار يتماشى مع الدعاوى القضائية الحالية المتعلقة بحقوق النشر.


الرجل
منذ 9 ساعات
- الرجل
ميزة جديدة من ChatGPT.. هل تنجح OpenAI في تقليل إدمان الذكاء الاصطناعي؟
في خطوة تهدف إلى تقليل الاعتماد الزائد على الذكاء الاصطناعي، كشفت OpenAI عن ميزة جديدة داخل ChatGPT، تتمثل في تنبيهات استراحة تلقائية، تظهر للمستخدمين في حال استمر الحوار لفترة طويلة. الرسالة التي تظهر على الشاشة تسأل ببساطة: "هل هذا وقت مناسب لأخذ استراحة؟"، مع خيارين: "الاستمرار" أو "كان هذا مفيدًا"، وتهدف هذه الميزة إلى جعل المستخدم أكثر وعيًا بالوقت الذي يقضيه مع الذكاء الاصطناعي، على غرار ما تفعله بعض منصات المشاهدة. وأكدت الشركة أنها تسعى إلى تقييم نجاح ChatGPT، ليس بعدد النقرات أو الزمن المستغرق، بل بناءً على ما إذا كان المستخدم قد أنجز هدفه بالفعل. تأتي هذه المبادرة في وقت تتصاعد فيه المخاوف بشأن تأثير الذكاء الاصطناعي على الصحة النفسية والإدمان الرقمي، خاصة مع استخدام البعض للمنصات الذكية كمصدر دائم للدعم العاطفي أو الإرشاد الشخصي. هل تنجح تنبيهات الاستراحة في الحد من إدمان الذكاء الاصطناعي؟ ورغم النوايا الجيدة، فإن بعض الخبراء يشككون في مدى فعالية هذا النوع من "الرسائل اللطيفة"، وتقول د. آنا ليمبكي، أستاذة الطب النفسي في جامعة ستانفورد، إن هذه الإشعارات قد تفيد الأشخاص الذين لم يدخلوا بعد في مرحلة الإدمان الحقيقي، لكنها ليست كافية لمن يعانون من استخدام قهري للمنصة. وأشارت د. ليمبكي، إلى أن الشركات التكنولوجية لم تكشف حتى الآن عن بيانات واضحة تثبت نجاح هذه الأساليب في تغيير السلوك على المدى الطويل، فيما ترى أن الحل يكمن في تحديد الاستخدام بوعي، مثل تخصيص أيام محددة لاستخدام المنصات، وكتابة قائمة بالأهداف التي يريد المستخدم تحقيقها داخل التطبيق، لتجنب الانغماس في محادثات جانبية أو تصفح غير هادف. كيف تعالج OpenAI تأثير ChatGPT على الصحة النفسية؟ لم تقتصر تعديلات OpenAI على تذكيرات الاستراحة فقط، بل أشارت إلى أنها تعمل على تحسين استجابة ChatGPT للحالات العاطفية والنفسية، بعد أن أظهرت بعض التجارب السابقة عدم قدرة النموذج على التعرف على علامات الاضطراب أو الهلوسة لدى المستخدمين. كما أكدت الشركة أنها تعمل على تدريب النماذج لاكتشاف مؤشرات الضغط النفسي وتحويل المستخدم إلى مصادر موثوقة عند الحاجة. كما تعمل OpenAI على ضبط طريقة تفاعل ChatGPT مع الأسئلة الحساسة المتعلقة باتخاذ قرارات شخصية، مثل "هل يجب أن أنفصل عن شريكي؟"، حيث سيُمنع النموذج من تقديم إجابات مباشرة، بل سيساعد المستخدم على التفكير، من خلال طرح أسئلة تساعده على التقييم الذاتي. في النهاية، يبقى السؤال: هل تُعد تنبيهات التوقف هذه كافية فعلًا لتغيير سلوك المستخدم؟ أم أنها مجرد خطوة رمزية وسط موجة من الاستخدام المتصاعد للذكاء الاصطناعي؟ الوقت فقط كفيل بالإجابة.


الوئام
منذ 10 ساعات
- الوئام
جوجل تتيح تطبيقها الذكي NotebookLM للطلاب والمراهقين
أعلنت شركة جوجل عن إتاحة تطبيقها لتدوين الملاحظات المدعوم بالذكاء الاصطناعي، NotebookLM، للمستخدمين الأصغر سنًا، بعد أن كان مقتصرًا على من تزيد أعمارهم عن 18 عامًا. وقد أصبح التطبيق الآن متاحًا للمستهلكين الذين تبلغ أعمارهم 13 عامًا فما فوق، ولكافة مستخدمي 'مساحة عمل جوجل التعليمية' (Google Workspace for Education). ميزات لدعم التعليم يهدف هذا التوسع إلى تمكين الطلاب من الاستفادة من هذه الأداة البحثية لفهم موادهم الدراسية بشكل أفضل. ويوفر التطبيق ميزات مبتكرة مثل تحويل الملاحظات إلى ملخصات صوتية (Audio Overviews)، وتلخيص الأفكار بصريًا عبر خرائط ذهنية تفاعلية (Mind Maps)، وإنشاء عروض مرئية من المستندات والصور. ضمانات الخصوصية والأمان يأتي هذا القرار في ظل تزايد المخاوف بشأن خصوصية البيانات واحتمالية إساءة استخدام الذكاء الاصطناعي في التعليم. وقد أكدت جوجل أنها تطبق سياسات محتوى أكثر صرامة للمستخدمين دون سن 18 عامًا، مشيرةً إلى أن محادثات المستخدمين وملفاتهم لا تتم مراجعتها من قبل موظفين بشريين ولا تُستخدم لتدريب نماذج الذكاء الاصطناعي. المنافسة في قطاع التعليم تأتي خطوة جوجل في إطار المنافسة المتصاعدة في قطاع التعليم المدعوم بالذكاء الاصطناعي، حيث سبقتها شركة OpenAI بإطلاق وضع دراسي مخصص في تطبيق ChatGPT، مما يشير إلى توجه الشركات الكبرى نحو هذا السوق.