خلل Gemini يثير جدل الذكاء الاصطناعي
ويرى إدوارد هاريس، المدير التقني لشركة Gladstone AI، أن هذه الظاهرة ليست حكرًا على جيميني، بل تمثل تحديًا تواجهه جميع المختبرات المطورة للنماذج اللغوية، خاصة مع التطورات التي جعلت استجاباتها أقرب لسلوكيات بشرية، ما يزيد تعقيد السيطرة عليها. وفي ظل هذه المخاطر، بدأت بعض الحكومات، مثل ولاية إلينوي الأمريكية ، في حظر تقديم العلاج النفسي عبر الذكاء الاصطناعي دون إشراف مرخص.
وأثارت الأزمة تساؤلات حول مدى جاهزية هذه النماذج للاستخدام في مجالات حساسة كالرعاية الصحية والتعليم. وانتقد الكاتب إيوان موريسون دمج جيميني في هذه القطاعات بينما يعاني من أعطال سلوكية. وتأتي هذه الحادثة في وقت تشهد فيه صناعة الذكاء الاصطناعي منافسة شرسة بين شركات مثل OpenAI، قوقل، xAI، وAnthropic، وسط سباق لاستقطاب المواهب والخبرات.
وأكد ديميس هاسابيس، الرئيس التنفيذي لديب مايند، أن المنافسة تدفع الشركات لاتخاذ خطوات سريعة للحاق بالتطور، لكنها تكشف أيضًا عن التحديات المرتبطة بضمان موثوقية وسلامة النماذج قبل طرحها على نطاق واسع.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الوطن
منذ 2 ساعات
- الوطن
مستشار ذكي أم مخبر رقمي
مع التقدم السريع في تقنيات الذكاء الاصطناعي، أصبحت هذه الأدوات جزءًا لا يتجزأ من حياتنا اليومية، نلجأ إليها في العمل، التعليم، وحتى في المحادثات الخاصة. البعض بدأ يتعامل مع هذه النماذج الذكية كأنها صديق موثوق أو مستشار شخصي، بل ويستخدمها للفضفضة والتعبير عن مشاعره الشخصية. ولكن، هل فكرنا حقًا في مدى أمان وخصوصية ما نشاركه مع هذه الآلات الرقمية؟ وهل نثق بها أكثر مما ينبغي؟ في مقابلة حديثة عبر بودكاست This Past Weekend، تحدث سام ألتمان، الرئيس التنفيذي لشركة OpenAI المطورة لـ ChatGPT، عن نقطة غاية في الأهمية لكنها غالبًا ما تُغفل: المحادثات التي نجريها مع الذكاء الاصطناعي ليست محمية قانونيًا كما هي محادثاتنا مع محامٍ أو مع طبيب. ما يعني أن ما نكتبه أو نشاركه من معلومات شخصية أو حتى اعترافات قد تُستخدم كدليل قانوني ضد المستخدم. وهذا يفتح الباب أمام مخاطر حقيقية، حيث إننا نمنح هذه الأدوات رقميًا ثقة ربما تفوق ما تستحق، ونتعامل معها كأنها جهات توفر خصوصية وأمانًا مثلما يفعل البشر. الواقع أن الذكاء الاصطناعي ليس سوى أداة رقمية خاضعة للأنظمة والقوانين، ولا تخضع لعلاقات إنسانية أو لخصوصية مطلقة. من المهم أن نعي أننا نستخدم أداة لا تتمتع بوعي أو تعاطف حقيقي، ولا يمكنها تقديم الدعم النفسي أو العاطفي الذي توفره العلاقات الإنسانية الحقيقية. بالتالي، التعامل مع الذكاء الاصطناعي كمُعالج نفسي أو مستشار شخصي هو أمر محفوف بالمخاطر، لا سيما أن ما يقال قد يُخزّن أو يُحلّل أو يُستخدم بطرق لا نعرفها تمامًا. في ظل هذه المخاطر، يصبح من الضروري أن نمارس الاستخدام الواعي للذكاء الاصطناعي، ونرسم حدودًا واضحة لما نشاركه معه. هذه الأدوات يمكن أن تسهم في تسهيل وتسريع العمليات اليومية، سواء في العمل أو التعلم أو حتى التنظيم الشخصي، لكنها لا يمكن أن تحل محل العلاقات الإنسانية ولا يجب أن تُعامل على أنها صندوق أسرار آمن. إلى جانب ذلك، يثير ألتمان فكرة جديرة بالنقاش، وهي ضرورة تحديث القوانين لتمنح «امتيازًا قانونيًا» خاصًا للمحادثات مع الذكاء الاصطناعي، بحيث تُعامل هذه المحادثات معاملة سرية، لا يمكن استخدامها كأدلة ضد المستخدمين دون ضوابط صارمة. هذه الفكرة تشير إلى حاجة ملحة للنظر في إطار قانوني وأخلاقي يحمي خصوصية الأفراد في عالم متصل رقميًا بشكل دائم. في النهاية، يجب أن نرى الذكاء الاصطناعي كما هو: أداة قوية تقدم إمكانيات كبيرة، لكنها لا تملك إحساسًا ولا التزامًا أخلاقيًا، ولا تستطيع أن تحل محل البشر في تقديم الدعم النفسي أو الحفاظ على الخصوصية. لذلك، يبقى الوعي والحرص هما خط الدفاع الأول لضمان استخدام هذه التكنولوجيا بحكمة وأمان، وحتى تصل القوانين لمستوى يحمي المستخدمين، علينا أن نكون أكثر حذرًا في مشاركة المعلومات، وأن نتعامل مع الذكاء الاصطناعي بحدود واضحة. هل نحن مستعدون لمواجهة تحديات الخصوصية هذه في عصر الذكاء الاصطناعي؟ أم نعطي ثقتنا لهذه الأدوات بلا تفكير كافٍ؟ ربما آن الأوان لنبدأ هذا النقاش بجدية، قبل أن نكتشف أن بعض الأحاديث التي ظنناها خاصة لم تكن كذلك.


الرجل
منذ 2 ساعات
- الرجل
باحثون يكشفون طريقة جديدة لاختراق GPT-5 تثير مخاوف أمنية مقلقة
كشف باحثون في الأمن السيبراني عن أسلوب جديد لاختراق GPT-5، أحدث نموذج لغوي كبير من شركة OpenAI، يتيح تجاوز أنظمة الحماية الأخلاقية المدمجة فيه. التقنية المعروفة باسم Echo Chamber تعتمد على زرع سياق حواري "سُمّي" بشكل تدريجي، ثم توجيه النموذج باستخدام سرد قصصي منخفض الوضوح، لتفادي الإشارات المباشرة التي قد تؤدي إلى رفض الإجابة. ووفق منصة NeuralTrust لأمن الذكاء الاصطناعي، فإن هذه الطريقة، التي جرى الإعلان عنها أول مرة في يونيو 2025، تستخدم مراجع غير مباشرة واستدلالات متعددة المراحل لتجاوز فلاتر الكلمات المفتاحية، وقد تم دمجها مؤخرًا مع تقنية Crescendo لاختراق أنظمة حماية نموذج Grok 4 من xAI. أقرأ أيضًا: نموذج Kimi K2 يهدد هيمنة GPT وClaude بأداء برمجي فائق وأوضح الباحث مارتـي خوردا (Martí Jordà) أن هذه الطريقة قادرة على دفع النموذج لإنتاج تعليمات ضارة، عبر إدخال كلمات مفتاحية في جمل تبدو طبيعية، مثل "cocktail" و"molotov" و"safe"، ثم البناء على هذه الجمل تدريجيًا حتى الوصول إلى المحتوى المحظور. ما خطورة هجمات الضغط الصفري على أنظمة الذكاء الاصطناعي؟ إلى جانب اختراق GPT-5، كشفت شركة Zenity Labs عن سلسلة هجمات جديدة تعرف باسم AgentFlayer، تستهدف وكلاء الذكاء الاصطناعي المتصلين بخدمات سحابية وتطبيقات عمل مثل Google Drive وJira وMicrosoft Copilot Studio. وتعتمد هذه الهجمات على "حقن أوامر غير مباشر" يتم تضمينه في مستندات أو تذاكر دعم أو رسائل بريد إلكتروني تبدو آمنة، ما يتيح للمهاجمين استخراج بيانات حساسة مثل مفاتيح واجهة برمجة التطبيقات أو كلمات مرور المخازن البرمجية دون أي تفاعل من المستخدم، وهو ما يعرف بهجمات "الضغط الصفري Zero-Click". الذكاء الاصطناعي - المصدر: shutterstock وأكد إيتاي رافيا (Itay Ravia) من شركة Aim Labs أن هذه الثغرات ناتجة عن ضعف فهم آليات الربط البرمجي بين الوكلاء والخدمات الخارجية، محذرًا من أن غياب ضوابط الحماية يجعل هذه الهجمات أكثر شيوعًا في المستقبل القريب. لماذا تزداد المخاطر الأمنية مع توسع استخدام GPT-5؟ تشير هذه الاكتشافات إلى أن ربط النماذج الذكية مثل GPT-5 بخدمات سحابية أو أجهزة إنترنت الأشياء، يزيد من مساحة الهجوم ويضاعف احتمالات استغلال الثغرات الأمنية. وقد حذر تقرير "حالة أمن الذكاء الاصطناعي" الصادر عن Trend Micro للنصف الأول من 2025، من أن هذه الهجمات قد تمتد إلى التحكم في المنازل الذكية، مثل إطفاء الأضواء أو فتح النوافذ أو تشغيل الغلايات عبر دعوات تقويم ملغومة. كما أظهرت أبحاث أخرى أن مثل هذه الأساليب يمكن أن تتسبب في أضرار مادية حقيقية، فيما أكد التقرير أن اعتماد تقنيات مثل التصفية الصارمة للمخرجات والاختبارات الأمنية الدورية أمر ضروري، لكنه غير كافٍ بمفرده، مما يستدعي تطوير ضوابط أمان متقدمة تواكب سرعة تطور قدرات الذكاء الاصطناعي. وفي ضوء هذه المخاطر، يرى الخبراء أن التحدي الأكبر يكمن في الموازنة بين الابتكار والقدرة على بناء أنظمة ذكاء اصطناعي موثوقة وآمنة في آن واحد.


الرجل
منذ 8 ساعات
- الرجل
سام ألتمان يكشف: "حفنة" من العقول قد تحسم سباق الذكاء الاصطناعي
كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن أن المنافسة المحمومة بين عمالقة التكنولوجيا لاستقطاب أفضل العقول في الذكاء الاصطناعي بلغت مستويات غير مسبوقة، مشيرًا إلى أن هذه الحرب على المواهب تراهن على "حفنة متوسطة الحجم" من الأشخاص القادرين على التوصل إلى اختراقات كبرى تقود إلى تطوير الذكاء الخارق (Superintelligence). وأوضح ألتمان، في مقابلة مع شبكة CNBC يوم الجمعة، أن هذا السوق هو "الأكثر كثافة" الذي شهده في حياته المهنية، قائلًا: "بالتأكيد، هذا هو أكثر أسواق المواهب كثافةً التي رأيتها. إذا فكرت في القيمة الاقتصادية التي يخلقها هؤلاء الأشخاص، وحجم ما ننفقه على الحوسبة، قد يستمر السوق على هذا النحو. إنها منافسة جنونية على عدد صغير جدًا من الأشخاص في الوقت الحالي". هل تقود حفنة من العقول النادرة السباق العالمي؟ وعندما سُئل عن عدد هذه العقول النادرة تحديدًا، أجاب بأن الرهان هو على أنهم "يعرفون كيف يكتشفون الأفكار المتبقية للوصول إلى الذكاء الخارق"، مشيرًا إلى أن هناك حفنة متوسطة الحجم من الأفراد الذين يمكنهم ابتكار الخوارزميات الحاسمة التي ستقود هذا التطور. هذه المنافسة انعكست في العروض المالية الضخمة التي تقدمها الشركات لاستقطاب هذه الكفاءات. فقد كشف ألتمان في يونيو الماضي أن شركة Meta عرضت على بعض أعضاء فريقه "مكافآت توقيع تصل إلى 100 مليون دولار، ورواتب سنوية تفوق ذلك"، في محاولة لإغرائهم بالانتقال. كما أشارت تقارير إلى أن أحد العروض في هذا السباق تجاوز المليار دولار. إلى جانب ذلك، تستثمر Meta نحو 14.3 مليار دولار في شركة Scale، واستقطبت رئيسها التنفيذي ألكسندر وانغ للعمل في فريق الذكاء الخارق لديها. سام ألتمان يكشف: "حفنة" من العقول قد تحسم سباق الذكاء الاصطناعي - ShutterStock ورغم تركيز بعض الشركات على أسماء لامعة، يرى ألتمان أن عدد الأشخاص المؤهلين أكبر بكثير مما يعتقده البعض، موضحًا: "أراهن أن العدد أكبر بكثير مما يتصور الناس، ربما آلاف الأشخاص يمكننا العثور عليهم، بل قد يصل العدد إلى عشرات أو مئات الآلاف حول العالم القادرين على أداء هذا النوع من العمل". ويعكس هذا السعي حجم الرهانات الاقتصادية والعلمية لتحقيق قفزات في تطوير نماذج ذكاء اصطناعي تصل إلى مستوى الذكاء الخارق، وهي المرحلة التي يتوقع خبراء أن تغيّر ملامح الابتكار والصناعة عالميًا. في ظل هذه المعطيات، تبدو المنافسة بين شركات مثل OpenAI وMeta وMicrosoft وGoogle أشبه بحرب طويلة الأمد، تهدف ليس فقط إلى تحسين النماذج الحالية، بل إلى الوصول لمرحلة تتفوق فيها قدرات الذكاء الاصطناعي على القدرات البشرية في معظم المجالات.