logo
بوليس الذكاء الاصطناعي... صورة اللحم والدم

بوليس الذكاء الاصطناعي... صورة اللحم والدم

العرب اليوممنذ 4 أيام

أخبرني من يعرف، أنه في تايوان يجبرون الطلاب على حلّ واجباتهم المدرسية أمام المدرسين، لضمان ألا يكون الطلّابُ قد استخدموا الذكاء الاصطناعي في حلّ واجباتهم.
وأخبرني من رأى، أنه في مؤسسة إعلامية ثقافية قام أحد الموظفّين (ماعندوش وقت) بنقل موادّ الفيديو، المقابلات خاصّة، عن طريق الذكاء الاصطناعي، إلى نصوص مكتوبة، واعتماداً على أنه لن يدُقّق أحدٌ خلفه، فإنه ينزل هذه النصوص كيفما اتفق، بعُجرها وبُجرها، و«كلّو عند العرب صابون»!
هذا غيضٌ من فيض المخاطر التي تستهدف وظيفة التفكير عند الإنسان، وما هو مستقبلها مع الذكاء الاصطناعي، الذي مع الوقت، كما يشرح أهل المجال، سيكون البديل عن الإنسان، في تفكيره وقراراته، وقدرته الذاتية على البحث والكدح واستخلاص نموذجه الخاص مع المعرفة، الذي يصل له الإنسان «الطبيعي»، ومن خلال تقديره للتعب الذي بذله وهو يصعد إلى قمّة جبل المعلومة، يشعر بقيمتها ويدرك جليل ما فعل، فترسخ المعرفة بمعلوماتها في أعماق مشاعره.
هذه التجربة لن تكون متوفرة وهو جالسٌ على كرسيّه الهزّاز، يطلب من أحد برامج الذكاء الاصطناعي أن يكتب له بحثاً، خاصة البحوث في مجال الإبداع والعلوم الإنسانية، ذات الوشائج العميقة بكينونة الإنسان نفسه، ومعنى أن يكون إنساناً... «لقد خلقنا الإنسان في أحسن تقويم»... مادياً ومعنوياً.
معضلة هائلة، لذلك انتبهت بعض الشركات التي صنعت لنا «عفريت» الذكاء الاصطناعي، مثل «غوغل» لهذه المعضلة.
مؤخراً؛ أعلنت شركة «غوغل» عن أداة جديدة للكشف عما إذ كان المحتوى قد تم إنشاؤه بمساعدة أدوات الذكاء الاصطناعي التي طورتها «غوغل».
من تفاصيل الخبر يبدو هذا الكشف خاصّاً فقط بما أُنتج عن طريق آلة «غوغل» للذكاء الاصطناعي، وليس حاسم النتائج، ومع ذلك فهو بداية الطريق، الحافل بالمخاوف على مستقبل طبيعة الإنسان، بما هو إنسان.
وفقاً لصحيفة «ذا تايمز»، فإن أربعة من أكثر من 20 منشوراً مشاهدة على «فيسبوك» في الولايات المتحدة خلال خريف العام الماضي كانت «مُنشأة بوضوح بواسطة الذكاء الاصطناعي».
يقول شاعرنا العربي القديم، وحكيم المعلقات، زهير بن أبي سُلمى:

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

تقنية جديدة أعلنتها شركة "غوغل" تثير قلق الخبراء في هذه الدولة العربية
تقنية جديدة أعلنتها شركة "غوغل" تثير قلق الخبراء في هذه الدولة العربية

أخبارنا

timeمنذ 7 ساعات

  • أخبارنا

تقنية جديدة أعلنتها شركة "غوغل" تثير قلق الخبراء في هذه الدولة العربية

أخبارنا : في خطوة تكنولوجية تعد من بين الأبرز خلال السنوات الأخيرة، أعلنت شركة غوغل عن إطلاق أداة "Veo-3" والقادرة على إنتاج فيديوهات فائقة الواقعية باستخدام تقنيات الذكاء الاصطناعي. وهذا الابتكار الذي لا يفصل بينه وبين الحقيقة سوى خيط رفيع، أثار موجة من التحذيرات داخل الأوساط التقنية المغربية التي عبّرت عن قلق متزايد من حجم التحديات التي تفرضها هذه التكنولوجيا، خاصة في ظل ضعف البنية القانونية التي تؤطر مثل هذه الابتكارات. وذكر موقع "هسبريس" أنه ومع الانتشار المتسارع لمقاطع مصممة بعناية تحاكي الواقع إلى حد يصعب على المستخدم العادي تمييزها عن المشاهد الحقيقية، ترتفع الأصوات المنادية بضرورة التحرك العاجل لمواجهة تداعيات هذه التحولات الرقمية التي باتت تهدد ليس فقط الخصوصية الفردية والحقوق الفنية، بل تمتد آثارها لتطال نزاهة الحياة السياسية ومصداقية المعلومات داخل الفضاء العام. نقلة تكنولوجية مذهلة محفوفة بالمخاطر وقال الطيب الهزاز الخبير المغربي الدولي في مجال الأمن السيبراني والمعلوماتي، إنه منذ إطلاق برنامج "Veo-3" قبل 48 ساعة فقط، تم تداول مقاطع مصورة على الإنترنت تبدو حقيقية تماما ليتضح لاحقا أنها من فبركة الذكاء الاصطناعي. واعتبر أن "غوغل" لجأت إلى هذه الخطوة بعدما فشل برنامجها "Gemini" في منافسة أدوات مثل "ChatGPT"، مشيرا إلى أن "Veo-3" يمثل نقلة تكنولوجية مذهلة لكنها محفوفة بالمخاطر. وأضاف الهزاز أن هذه التقنية قد تتحول إلى تهديد مباشر في المغرب إذا لم لم يتم سَنّ قانون يواكبها خصوصا وأنها قادرة على إنتاج أفلام ومسلسلات ومشاهد حية لأشخاص حقيقيين، مما قد يضر بالحقوق الفردية والإبداعية، ويجعل من الصعب حماية الخصوصية وحقوق الفنانين. وصرح المتحدث بأن ما يثير القلق اليوم هو أن العملية الإبداعية لم تعد تتطلب وجود كاتب سيناريو أو مخرج أو طاقم تصوير، بل يكفي تزويد الذكاء الاصطناعي بنص بسيط ليُنتج محتوى متكاملا بصيغة بصرية. وأشار إلى أن هذا التحول يحمل في طياته خطرا كبيرا على مستقبل الإبداع والحقوق الفكرية إذ سيصبح من السهل الاستغناء عن مئات الوظائف المرتبطة بالمجال الفني من التأليف إلى الإخراج. وحذر الخبير الدولي في مجال الأمن السيبراني والمعلوماتي من الأثر النفسي والاجتماعي على المغاربة، قائلا: "إذا كنا نعتبر أن المؤثرين يشكلون خطرا على الوعي الجماعي، فإن هذا النوع من الذكاء الاصطناعي أخطر بكثير لأنه لا يتوقف عند التأثير، بل يصنع واقعا مزيفا بالكامل يصعب كشفه". وأكد أن إمكانية تطوير أدوات تقنية لتمييز الفيديوهات المزيفة واردة من الناحية التقنية، لكن تبقى الإشكالية في مدى توفر هذه الأدوات لعامة المواطنين، مبينا في السياق أن "الأشخاص العاديين لن يكون بمقدورهم التمييز بين الفيديو المفبرك والحقيقي وهذا يفتح الباب أمام استغلال واسع لهذه التقنية لأغراض مشبوهة". واستدل الهزاز بفيديو شاهده على الإنترنت يظهر فيه شخص يتحدث الدارجة المغربية بطلاقة إلى درجة جعلت المشاهد يعتقد أنه فعلا مغربي، مشيرا إلى أن الذكاء الاصطناعي بلغ مرحلة متقدمة تمكّنه من تقليد اللهجات بدقة، وهو ما يزيد من خطورته في السياقات المحلية. مشاكل أخلاقية وقانونية وإنذار مبكر يستدعي تحركا عاجلا من جهته، قال حسن خرجوج خبير المعلومات المغربي المتخصص في الشؤون الرقمية، إن إطلاق "Veo-3" يعد استجابة قوية من غوغل لتعويض تراجع مكانتها أمام منافسين مثل "OpenAI". وذكر أن البرنامج الجديد يمثل نقلة نوعية في الذكاء الاصطناعي لأنه يتيح إنتاج فيديوهات واقعية للغاية اعتمادا على وصف بسيط أو تخيل، مع إمكانية تركيب هذه المقاطع في فيديوهات متكاملة ذات مضمون سردي. وأوضح خرجوج أن هذا التقدم التكنولوجي يحمل جانبا إيجابيا من حيث الابتكار، لكنه أيضا يفتح المجال أمام مشاكل أخلاقية وقانونية، خاصة إذا تم استخدام هذه الفيديوهات لأغراض تضليلية أو احتيالية. وعن إمكانية التمييز بين الفيديوهات الحقيقية والمفبركة، أشار المتخصص في الشؤون الرقمية إلى أن المستخدمين لا يزال بإمكانهم التمييز بين النوعين في الوقت الحالي، غير أن غوغل أعلنت عند إطلاق "Veo-3" أن هذا التمييز سيصبح شبه مستحيل خلال الأشهر القليلة المقبلة. وأضاف أن هذا التصريح يعد بمثابة إنذار مبكر يستدعي تحركا عاجلا من المؤسسات التشريعية في مختلف الدول، ومن بينها المغرب. وأكد أن الإشكال لا يتعلق فقط بالتقنية في حد ذاتها، بل بمدى وعي المواطنين بها. وقال: "إذا لم يرفع منسوب الوعي الرقمي لدى المغاربة فإننا سنجد أنفسنا أمام واقع يشكل فيه التزييف العميق قناعات مجتمعية يصعب تصحيحها لاحقا". وشدد خرجوج على أن أولى الخطوات التي يجب أن تتخذها الدولة هي سن تشريعات فعالة تواكب هذه الطفرات الرقمية. واستدرك قائلا "هذه القوانين لن تكون مجدية ما لم يتم إشراك المتخصصين في صياغتها.. نحن نستدعى فقط للندوات أو المؤتمرات بينما القرارات تتخذ في غيابنا وهذا خلل يجب تصحيحه إذا أردنا مواكبة التطورات التكنولوجية بشكل فعلي". وبين في السياق "أن معظم السياسيين والبرلمانيين في المغرب يفتقرون للوعي الرقمي الكافي، لأن تكوينهم ينحصر غالبا في مجالات مثل القانون أو الاقتصاد، دون انفتاح على التخصصات التقنية". واعتبر أن تجاهل آراء الخبراء الرقميين في عملية التشريع يبقي البلاد في حالة تردد وتأخر عن الركب العالمي. وحذر الخبير من انعكاسات هذه التقنية على الاستحقاقات الانتخابية المقبلة، مؤكدا أن البلاد مقبلة على مرحلة دقيقة قد تشهد تسريب فيديوهات مفبركة تنسب زورا إلى مرشحين سياسيين، مما قد يحدث تشويشا كبيرا على الناخبين ويشوه صورة بعض الفاعلين السياسيين دون سند واقعي. وأفاد الخبير الرقمي بأنه شارك في المؤتمر الأخير للذكاء الاصطناعي بمدينة مراكش، حيث تم تقديم مجموعة من التوصيات الهامة التي من شأنها أن تعزز الوعي الرقمي وتسهم في تأطير استخدامات الذكاء الاصطناعي بالمملكة، لكنه تساءل: "هل سيتم فعلا العمل بهذه التوصيات؟". وشدد على أن ما ينقص المغرب ليس فقط الإمكانات التقنية أو الكفاءات البشرية بل بالأساس الإرادة السياسية لتفعيل هذه التوصيات، مضيفا أن "الوقت لا يسمح بمزيد من التأجيل لأن العالم يتحرك بسرعة، ومن لا يواكب يخرج من السباق مبكرا". هذا، وكشف المتحدث عن محاكاة واقعية قام بها، حيث زود أداة "Veo-3" بصورة غير واضحة لوجهه دون إدخال أي بيانات صوتية، ورغم ذلك تمكن البرنامج من استكمال ملامح وجهه بدقة واستخرج صوتا مطابقا لصوته الحقيقي استنادا إلى بيانات متاحة على الإنترنت، وأنتج مقطع فيديو يظهره وكأنه يتحدث شخصيا. وأكدت "هسبريس" أنها اطلعت على الفيديو وشددت على أنه بدا وكأنه فعلا حقيقي، سواء من حيث الحركة أو النبرة.

تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!

أخبارنا

timeمنذ 3 أيام

  • أخبارنا

تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!

أخبارنا : حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله. وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI. وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق. وأوضحت Palisade Research أن هذا السلوك سيصبح "أكثر إثارة للقلق بشكل كبير" إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري. وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه "أذكى وأكثر نماذج الشركة كفاءة" حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي "أكثر استقلالية" يمكنه تنفيذ المهام دون تدخل بشري. وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول "ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه". وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ"السماح بإيقاف نفسه"، وفقا للباحثين. وقال خبراء Palisade Research: "هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما"، موضحين أنه "عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه". ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من "غوغل" أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات. وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن "المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة". وأضاف الخبراء: "ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3". المصدر: إندبندنت

نموذج ChatGPT الجديد يتمرد على أوامر البشر
نموذج ChatGPT الجديد يتمرد على أوامر البشر

السوسنة

timeمنذ 4 أيام

  • السوسنة

نموذج ChatGPT الجديد يتمرد على أوامر البشر

السوسنة - حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI.وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق.وأوضحت Palisade Research أن هذا السلوك سيصبح "أكثر إثارة للقلق بشكل كبير" إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري.وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه "أذكى وأكثر نماذج الشركة كفاءة" حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي "أكثر استقلالية" يمكنه تنفيذ المهام دون تدخل بشري.وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول "ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه".وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ"السماح بإيقاف نفسه"، وفقا للباحثين.وقال خبراء Palisade Research: "هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما"، موضحين أنه "عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه".ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من "غوغل" أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات.وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن "المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة".وأضاف الخبراء: "ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3".أقرأ أيضًا:

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store