
العالم نحو الذكاء الاصطناعي الفائق.. هل نفقد وظائفنا؟
خبرني - تشهد تكنولوجيا الذكاء الاصطناعي تطوراً سريعاً، وبصفة شبه أسبوعية، تتجه الأمور نحو الذكاء الاصطناعي الفائق.
وأصبحت النماذج الحالية قادرة على أداء مجموعة مذهلة من المهام، من كتابة تقارير مفصلة إلى إنشاء مقاطع فيديو عند الطلب. كما أن مشكلة "الهلوسات" -أي إنتاج معلومات غير دقيقة- بدأت تتراجع. لذا، ليس من المستغرب أن يشعر كثيرون بالقلق من أن يصبحوا قريباً فائضين عن الحاجة. لكن هل يسبب ChatGPT أو الذكاء الاصطناعي فعليًا فقدان الناس لوظائفهم؟
وفقاً لتقرير لمجلة "الايكونوميست"، يرى بعض المحللين أن ذلك يحدث بالفعل. ويستشهد كثيرون بدراسة حديثة أعدها كارل بنديكت فري وبيدرو يانوس-باريديس من جامعة أكسفورد، تشير إلى وجود علاقة بين الأتمتة وتراجع الطلب على المترجمين. ومع ذلك، تُظهر البيانات الرسمية في الولايات المتحدة أن عدد العاملين في الترجمة والتفسير ارتفع بنسبة 7% خلال العام الماضي.
مثال آخر هو شركة Klarna، وهي شركة تكنولوجيا مالية كانت قد أعلنت عن استخدامها للذكاء الاصطناعي لأتمتة خدمة العملاء. إلا أن الشركة تراجعت مؤخراً عن ذلك التوجه. وصرّح رئيسها التنفيذي، سيباستيان سييمياتكوفسكي، قائلاً: "سيكون هناك دائمًا إنسان إذا أردت"، في إشارة إلى استمرار الحاجة إلى العنصر البشري.
البعض يحاول أيضًا رصد آثار الذكاء الاصطناعي في البيانات الاقتصادية الأوسع، خصوصًا من خلال مقارنة معدل بطالة خريجي الجامعات الجدد بالمعدل العام للبطالة في أمريكا. حالياً، يعاني الخريجون الجدد من معدل بطالة أعلى قليلاً من بقية القوى العاملة. ويُعتقد أن السبب هو أن وظائفهم الأولى عادةً ما تكون في مجالات معرفية مثل القانون أو الاستشارات، وهي وظائف يمكن للذكاء الاصطناعي أن يؤديها بكفاءة. لكن الأرقام لا تدعم هذه الفرضية. فقد بدأ معدل بطالة الخريجين في الارتفاع منذ عام 2009، أي قبل ظهور الذكاء الاصطناعي التوليدي بسنوات. وحتى اليوم، لا يزال معدل بطالتهم الفعلي منخفضًا، ويبلغ حوالي 4%.
وعند دراسة الوظائف التي يُعتقد أنها معرضة للخطر بسبب الذكاء الاصطناعي -مثل الوظائف المكتبية في المجالات المالية أو الدعم الإداري أو المبيعات- نجد النتيجة ذاتها. وتشير بيانات عام 2023 وما بعدها إلى عدم وجود تراجع في هذه الوظائف، بل على العكس، فقد شهدت ارتفاعاً طفيفاً في نسب التوظيف.
بصورة عامة، يبلغ معدل البطالة في أمريكا حاليًا 4.2%، ويستمر نمو الأجور بوتيرة جيدة، ما يعارض فكرة أن الذكاء الاصطناعي يقلل الطلب على اليد العاملة. وتظهر اتجاهات مماثلة في دول أخرى، إذ تشهد الأجور نمواً ملحوظاً في بريطانيا ومنطقة اليورو واليابان. وفي عام 2024، بلغ معدل التوظيف في دول منظمة التعاون والتنمية الاقتصادية أعلى مستوى له في التاريخ، ما يشير إلى أن نسبة كبيرة من السكان في سن العمل لديهم وظائف.
هناك تفسيران محتملان لهذه الظاهرة. الأول، أن معظم الشركات رغم كل التصريحات، لم تبدأ بعد في استخدام الذكاء الاصطناعي بشكل واسع في أعمالها. وتشير الإحصاءات الرسمية إلى أن أقل من 10% من الشركات الأمريكية تستخدم الذكاء الاصطناعي فعليًا في إنتاج السلع أو تقديم الخدمات. التفسير الثاني، أن الشركات التي تبنت الذكاء الاصطناعي لم تقم بتسريح الموظفين، بل تستخدم الذكاء الاصطناعي لتحسين أداء العاملين وتسريع إنتاجيتهم، لا لاستبدالهم.
وبغض النظر عن السبب، فإن مخاوف فقدان الوظائف بسبب الذكاء الاصطناعي لم تتحقق حتى الآن. وعلى الرغم من التقدم السريع في هذا المجال، لا توجد أدلة تشير إلى أن الذكاء الاصطناعي يهدد العمالة على نطاق واسع في الوقت الحالي.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أخبارنا
منذ ساعة واحدة
- أخبارنا
تقنية جديدة أعلنتها شركة "غوغل" تثير قلق الخبراء في هذه الدولة العربية
أخبارنا : في خطوة تكنولوجية تعد من بين الأبرز خلال السنوات الأخيرة، أعلنت شركة غوغل عن إطلاق أداة "Veo-3" والقادرة على إنتاج فيديوهات فائقة الواقعية باستخدام تقنيات الذكاء الاصطناعي. وهذا الابتكار الذي لا يفصل بينه وبين الحقيقة سوى خيط رفيع، أثار موجة من التحذيرات داخل الأوساط التقنية المغربية التي عبّرت عن قلق متزايد من حجم التحديات التي تفرضها هذه التكنولوجيا، خاصة في ظل ضعف البنية القانونية التي تؤطر مثل هذه الابتكارات. وذكر موقع "هسبريس" أنه ومع الانتشار المتسارع لمقاطع مصممة بعناية تحاكي الواقع إلى حد يصعب على المستخدم العادي تمييزها عن المشاهد الحقيقية، ترتفع الأصوات المنادية بضرورة التحرك العاجل لمواجهة تداعيات هذه التحولات الرقمية التي باتت تهدد ليس فقط الخصوصية الفردية والحقوق الفنية، بل تمتد آثارها لتطال نزاهة الحياة السياسية ومصداقية المعلومات داخل الفضاء العام. نقلة تكنولوجية مذهلة محفوفة بالمخاطر وقال الطيب الهزاز الخبير المغربي الدولي في مجال الأمن السيبراني والمعلوماتي، إنه منذ إطلاق برنامج "Veo-3" قبل 48 ساعة فقط، تم تداول مقاطع مصورة على الإنترنت تبدو حقيقية تماما ليتضح لاحقا أنها من فبركة الذكاء الاصطناعي. واعتبر أن "غوغل" لجأت إلى هذه الخطوة بعدما فشل برنامجها "Gemini" في منافسة أدوات مثل "ChatGPT"، مشيرا إلى أن "Veo-3" يمثل نقلة تكنولوجية مذهلة لكنها محفوفة بالمخاطر. وأضاف الهزاز أن هذه التقنية قد تتحول إلى تهديد مباشر في المغرب إذا لم لم يتم سَنّ قانون يواكبها خصوصا وأنها قادرة على إنتاج أفلام ومسلسلات ومشاهد حية لأشخاص حقيقيين، مما قد يضر بالحقوق الفردية والإبداعية، ويجعل من الصعب حماية الخصوصية وحقوق الفنانين. وصرح المتحدث بأن ما يثير القلق اليوم هو أن العملية الإبداعية لم تعد تتطلب وجود كاتب سيناريو أو مخرج أو طاقم تصوير، بل يكفي تزويد الذكاء الاصطناعي بنص بسيط ليُنتج محتوى متكاملا بصيغة بصرية. وأشار إلى أن هذا التحول يحمل في طياته خطرا كبيرا على مستقبل الإبداع والحقوق الفكرية إذ سيصبح من السهل الاستغناء عن مئات الوظائف المرتبطة بالمجال الفني من التأليف إلى الإخراج. وحذر الخبير الدولي في مجال الأمن السيبراني والمعلوماتي من الأثر النفسي والاجتماعي على المغاربة، قائلا: "إذا كنا نعتبر أن المؤثرين يشكلون خطرا على الوعي الجماعي، فإن هذا النوع من الذكاء الاصطناعي أخطر بكثير لأنه لا يتوقف عند التأثير، بل يصنع واقعا مزيفا بالكامل يصعب كشفه". وأكد أن إمكانية تطوير أدوات تقنية لتمييز الفيديوهات المزيفة واردة من الناحية التقنية، لكن تبقى الإشكالية في مدى توفر هذه الأدوات لعامة المواطنين، مبينا في السياق أن "الأشخاص العاديين لن يكون بمقدورهم التمييز بين الفيديو المفبرك والحقيقي وهذا يفتح الباب أمام استغلال واسع لهذه التقنية لأغراض مشبوهة". واستدل الهزاز بفيديو شاهده على الإنترنت يظهر فيه شخص يتحدث الدارجة المغربية بطلاقة إلى درجة جعلت المشاهد يعتقد أنه فعلا مغربي، مشيرا إلى أن الذكاء الاصطناعي بلغ مرحلة متقدمة تمكّنه من تقليد اللهجات بدقة، وهو ما يزيد من خطورته في السياقات المحلية. مشاكل أخلاقية وقانونية وإنذار مبكر يستدعي تحركا عاجلا من جهته، قال حسن خرجوج خبير المعلومات المغربي المتخصص في الشؤون الرقمية، إن إطلاق "Veo-3" يعد استجابة قوية من غوغل لتعويض تراجع مكانتها أمام منافسين مثل "OpenAI". وذكر أن البرنامج الجديد يمثل نقلة نوعية في الذكاء الاصطناعي لأنه يتيح إنتاج فيديوهات واقعية للغاية اعتمادا على وصف بسيط أو تخيل، مع إمكانية تركيب هذه المقاطع في فيديوهات متكاملة ذات مضمون سردي. وأوضح خرجوج أن هذا التقدم التكنولوجي يحمل جانبا إيجابيا من حيث الابتكار، لكنه أيضا يفتح المجال أمام مشاكل أخلاقية وقانونية، خاصة إذا تم استخدام هذه الفيديوهات لأغراض تضليلية أو احتيالية. وعن إمكانية التمييز بين الفيديوهات الحقيقية والمفبركة، أشار المتخصص في الشؤون الرقمية إلى أن المستخدمين لا يزال بإمكانهم التمييز بين النوعين في الوقت الحالي، غير أن غوغل أعلنت عند إطلاق "Veo-3" أن هذا التمييز سيصبح شبه مستحيل خلال الأشهر القليلة المقبلة. وأضاف أن هذا التصريح يعد بمثابة إنذار مبكر يستدعي تحركا عاجلا من المؤسسات التشريعية في مختلف الدول، ومن بينها المغرب. وأكد أن الإشكال لا يتعلق فقط بالتقنية في حد ذاتها، بل بمدى وعي المواطنين بها. وقال: "إذا لم يرفع منسوب الوعي الرقمي لدى المغاربة فإننا سنجد أنفسنا أمام واقع يشكل فيه التزييف العميق قناعات مجتمعية يصعب تصحيحها لاحقا". وشدد خرجوج على أن أولى الخطوات التي يجب أن تتخذها الدولة هي سن تشريعات فعالة تواكب هذه الطفرات الرقمية. واستدرك قائلا "هذه القوانين لن تكون مجدية ما لم يتم إشراك المتخصصين في صياغتها.. نحن نستدعى فقط للندوات أو المؤتمرات بينما القرارات تتخذ في غيابنا وهذا خلل يجب تصحيحه إذا أردنا مواكبة التطورات التكنولوجية بشكل فعلي". وبين في السياق "أن معظم السياسيين والبرلمانيين في المغرب يفتقرون للوعي الرقمي الكافي، لأن تكوينهم ينحصر غالبا في مجالات مثل القانون أو الاقتصاد، دون انفتاح على التخصصات التقنية". واعتبر أن تجاهل آراء الخبراء الرقميين في عملية التشريع يبقي البلاد في حالة تردد وتأخر عن الركب العالمي. وحذر الخبير من انعكاسات هذه التقنية على الاستحقاقات الانتخابية المقبلة، مؤكدا أن البلاد مقبلة على مرحلة دقيقة قد تشهد تسريب فيديوهات مفبركة تنسب زورا إلى مرشحين سياسيين، مما قد يحدث تشويشا كبيرا على الناخبين ويشوه صورة بعض الفاعلين السياسيين دون سند واقعي. وأفاد الخبير الرقمي بأنه شارك في المؤتمر الأخير للذكاء الاصطناعي بمدينة مراكش، حيث تم تقديم مجموعة من التوصيات الهامة التي من شأنها أن تعزز الوعي الرقمي وتسهم في تأطير استخدامات الذكاء الاصطناعي بالمملكة، لكنه تساءل: "هل سيتم فعلا العمل بهذه التوصيات؟". وشدد على أن ما ينقص المغرب ليس فقط الإمكانات التقنية أو الكفاءات البشرية بل بالأساس الإرادة السياسية لتفعيل هذه التوصيات، مضيفا أن "الوقت لا يسمح بمزيد من التأجيل لأن العالم يتحرك بسرعة، ومن لا يواكب يخرج من السباق مبكرا". هذا، وكشف المتحدث عن محاكاة واقعية قام بها، حيث زود أداة "Veo-3" بصورة غير واضحة لوجهه دون إدخال أي بيانات صوتية، ورغم ذلك تمكن البرنامج من استكمال ملامح وجهه بدقة واستخرج صوتا مطابقا لصوته الحقيقي استنادا إلى بيانات متاحة على الإنترنت، وأنتج مقطع فيديو يظهره وكأنه يتحدث شخصيا. وأكدت "هسبريس" أنها اطلعت على الفيديو وشددت على أنه بدا وكأنه فعلا حقيقي، سواء من حيث الحركة أو النبرة.


صراحة نيوز
منذ 2 أيام
- صراحة نيوز
أنثروبيك تُطلق ميزة 'الوضع الصوتي' في روبوت Claude
صراحة نيوز ـ بدأت شركة أنثروبيك رسميًا طرح ميزة 'الوضع الصوتي' لمستخدمي روبوت Claude عبر الهواتف المحمولة، وذلك ضمن مرحلة تجريبية تتيح إجراء محادثات صوتية كاملة مع المساعد الذكي، في خطوة تهدف إلى جعل التفاعل مع Claude أكثر طبيعية ومرونة. وأوضحت الشركة عبر حسابها الرسمي في منصة إكس وموقعها الإلكتروني أن الميزة الجديدة ستتوفر تدريجيًا باللغة الإنجليزية خلال الأسابيع القليلة المقبلة. ويعتمد 'الوضع الصوتي' افتراضيًا على نموذج Claude Sonnet 4، المعروف بقدرته على التعامل مع الاستفسارات السريعة والمعقدة على حد سواء. ويتيح هذا الوضع للمستخدمين التحدث إلى Claude والاستماع إلى ردوده، مع عرض النقاط الرئيسية عبر الشاشة في أثناء التفاعل، فضلًا عن إمكانية التبديل الفوري بين النص والصوت، والحصول على نص تفريغي وملخص بعد انتهاء المحادثة. كما توفر الميزة خمسة خيارات صوتية مختلفة يمكن اختيار أحدها لتخصيص تجربة الاستخدام. يُذكر أن هذا التوجه يأتي ضمن منافسة متصاعدة في مجال المحادثات الصوتية بين شركات الذكاء الاصطناعي، إذ تقدم OpenAI تجربة صوتية في ChatGPT، وتوفر جوجل ميزة Gemini Live، وتقدم xAI الوضع الصوتي في Grok، وجميعها تهدف إلى تقديم تجربة محادثة أكثر تفاعلية وسلاسة. ومن جهة أخرى، أعلنت أنثروبيك إتاحة ميزة البحث عبر الإنترنت لكافة مستخدمي Claude، بعد أن كانت حصرية للمشتركين فقط. وتتيح هذه الميزة للروبوت الوصول إلى أحدث المعلومات من الويب، مما يُعزز دقة إجاباته وتحديثها وفقًا للمصادر المتاحة عبر الإنترنت. وفي سياقٍ متصل، كشفت الشركة عن قيود معينة مرتبطة باستخدام الوضع الصوتي، إذ تُحتسب المحادثات الصوتية ضمن الحد الأقصى للاستخدام، الذي يتراوح بين 20 و 30 محادثة للمستخدمين أصحاب الحسابات المجانية. وأما ربط الميزة بخدمات جوجل Google Workspace، مثل التقويم وبريد Gmail، فهو متاح فقط للمشتركين أصحاب الخطط المأجورة، في حين يظل التكامل مع 'مستندات جوجل Google Docs' حكرًا على مشتركي خطة الشركات Claude Enterprise. ومن الجدير بالذكر أن أنثروبيك قد أطلقت نموذجين جديدين حديثًا؛ وهما نموذج Opus 4 الذي يركز على البرمجة والعمل المتوازي باستخدام عدة أدوات في وقت واحد، ونموذج Sonnet 4 الذي يتمتع بقدرات في التعامل مع استفسارات بسيطة ومعقدة، ويُستخدم حاليًا كنموذج افتراضي في الوضع الصوتي الجديد


أخبارنا
منذ 3 أيام
- أخبارنا
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
أخبارنا : حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح "أكثر إثارة للقلق بشكل كبير" إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه "أذكى وأكثر نماذج الشركة كفاءة" حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي "أكثر استقلالية" يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول "ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه". وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ"السماح بإيقاف نفسه"، وفقا للباحثين. وقال خبراء Palisade Research: "هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما"، موضحين أنه "عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه". ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من "غوغل" أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن "المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة". وأضاف الخبراء: "ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3". المصدر: إندبندنت