
هلوسة ذكاء اصطناعي تكشف رقم شخص عشوائي بدل خدمة العملاء!
صراحة نيوز- في حادثة مثيرة للجدل، تسبّب مساعد الذكاء الاصطناعي في تطبيق 'واتساب'، المعتمد على نماذج 'لاما' من شركة 'ميتا'، بتسريب رقم هاتف شخصي لمستخدم لا علاقة له بالشركة، بعد أن طلب أحد الركاب رقم خدمة عملاء شركة القطارات البريطانية 'ترانس بينين إكسبريس'، وفقًا لما نقلته صحيفة 'ذا غارديان'.
الحادثة وقعت عندما حاول باري سميثورست التواصل مع الشركة بعد تأخر قطاره المتجه إلى مانشستر بيكاديللي، فلجأ إلى مساعد الذكاء في 'واتساب' للحصول على رقم خدمة العملاء، ليفاجأ برقم يعود لرجل يُدعى جيمس غراي، لا تربطه أي صلة بالشركة أو بسميثورست.
وعندما أشار سميثورست إلى الخطأ، رد المساعد بالاعتذار، موضحًا أن الرقم تم توليده بشكل عشوائي، وأنه لا يستند إلى قاعدة بيانات دقيقة، على الرغم من ذكره استخدام قواعد بيانات عامة.
الخبير مايك ستانوب علّق على الحادثة قائلًا: 'هذا نموذج لفشل خطير في أنظمة الذكاء الاصطناعي، وإذا كانت ميتا تصمم نماذج تعتمد الكذب الأبيض، فعليها توضيح ذلك للمستخدمين'.
أما شركة 'ميتا'، فذكرت أن الرقم الذي تم تزويد المستخدم به متاح علنًا على الإنترنت، وقد يتشابه جزئيًا مع رقم خدمة العملاء الحقيقي، مشددة على أن بيانات المستخدمين ليست ضمن قواعد التدريب الخاصة بالنموذج.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الوكيل
منذ 6 ساعات
- الوكيل
مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد...
الوكيل الإخباري- في حادثة غريبة، قام مساعد الذكاء الاصطناعي في منصة واتساب، المبني على نماذج "لاما" من ميتا، بتوليد رقم هاتف خاص بأحد المستخدمين العاديين بدلاً من رقم خدمة عملاء شركة "ترانس بينين إكسبريس" في المملكة المتحدة، وفقًا لتقرير صحيفة "ذا غارديان". اضافة اعلان المستخدم باري سميثورست، الذي كان ينتظر القطار المتجه إلى مانشستر بيكاديللي، طلب رقم خدمة العملاء عبر المساعد الذكي، لكنه تلقى رقم هاتف جيمس غراي، وهو شخص غير مرتبط بالشركة أو سميثورست بأي شكل. عندما واجه سميثورست المساعد بالخطأ، اعتذر الأخير وأوضح أن الرقم مولّد بشكل عشوائي ولا يعود إلى قاعدة بيانات حقيقية، رغم إدعائه استخدام بيانات عامة. مايك ستانوب، خبير بيانات، وصف الحادثة بأنها "فشل واضح للذكاء الاصطناعي" وانتقد ممارسات "الكذب الأبيض" التي تستخدمها الشركات دون إعلام المستخدمين. من جانبها، أكدت شركة ميتا أن الرقم المذكور متاح علنًا على الإنترنت وأن نماذجها تدربت على بيانات عامة لا تشمل أرقام هواتف المستخدمين. تأتي هذه الحادثة ضمن سلسلة متكررة من "هلوسات" الذكاء الاصطناعي، حيث تصدر أنظمة مثل شات جي بي تي معلومات خاطئة أحيانًا، مما يثير تساؤلات حول دقة هذه التكنولوجيا.


صراحة نيوز
منذ 8 ساعات
- صراحة نيوز
هلوسة ذكاء اصطناعي تكشف رقم شخص عشوائي بدل خدمة العملاء!
صراحة نيوز- في حادثة مثيرة للجدل، تسبّب مساعد الذكاء الاصطناعي في تطبيق 'واتساب'، المعتمد على نماذج 'لاما' من شركة 'ميتا'، بتسريب رقم هاتف شخصي لمستخدم لا علاقة له بالشركة، بعد أن طلب أحد الركاب رقم خدمة عملاء شركة القطارات البريطانية 'ترانس بينين إكسبريس'، وفقًا لما نقلته صحيفة 'ذا غارديان'. الحادثة وقعت عندما حاول باري سميثورست التواصل مع الشركة بعد تأخر قطاره المتجه إلى مانشستر بيكاديللي، فلجأ إلى مساعد الذكاء في 'واتساب' للحصول على رقم خدمة العملاء، ليفاجأ برقم يعود لرجل يُدعى جيمس غراي، لا تربطه أي صلة بالشركة أو بسميثورست. وعندما أشار سميثورست إلى الخطأ، رد المساعد بالاعتذار، موضحًا أن الرقم تم توليده بشكل عشوائي، وأنه لا يستند إلى قاعدة بيانات دقيقة، على الرغم من ذكره استخدام قواعد بيانات عامة. الخبير مايك ستانوب علّق على الحادثة قائلًا: 'هذا نموذج لفشل خطير في أنظمة الذكاء الاصطناعي، وإذا كانت ميتا تصمم نماذج تعتمد الكذب الأبيض، فعليها توضيح ذلك للمستخدمين'. أما شركة 'ميتا'، فذكرت أن الرقم الذي تم تزويد المستخدم به متاح علنًا على الإنترنت، وقد يتشابه جزئيًا مع رقم خدمة العملاء الحقيقي، مشددة على أن بيانات المستخدمين ليست ضمن قواعد التدريب الخاصة بالنموذج.


الغد
منذ 10 ساعات
- الغد
ميتا تسلّم 90% من قرارات مراجعة المخاطر للذكاء الاصطناعي
تقوم شركة ميتا بإعادة تشكيل جوهرية لطريقة تعاملها مع سلامة المنتجات والخصوصية، إذ تخطط لأن يدير نظام ذكاء اصطناعي ما يصل إلى 90% من تقييمات المخاطر المتعلقة بالتحديثات على تطبيقاتها واسعة الاستخدام مثل إنستغرام وواتساب. اضافة اعلان ويهدف هذا التحوّل التشغيلي الكبير، المستند إلى وثائق داخلية كشف عنها تحقيق أجرته NPR، إلى تسريع وتيرة تطوير المنتجات. ومع أن المستخدمين قد يلاحظون وصول ميزات جديدة بوتيرة أسرع، إلا أن هذه الخطوة أثارت مخاوف تتعلق بعمق مراجعات السلامة والخصوصية. النهج الجديد القائم على الذكاء الاصطناعي سيسمح لميتا بإطلاق تحديثات لمنتجاتها بسرعة أكبر، إلا أن أحد المدراء التنفيذيين السابقين في الشركة صرّح لـNPR بأن هذا التحوّل "يرفع من المخاطر"، إذ "تصبح الآثار الجانبية السلبية لتغييرات المنتجات أقل قابلية للمنع قبل أن تبدأ بالتسبب بمشكلات فعلية في العالم." وبحسب التقرير، فإن العملية الجديدة المدفوعة بالذكاء الاصطناعي – والتي بدأت بالتصاعد خلال شهري أبريل ومايو – تتضمن قيام فرق المنتجات بتعبئة استبيان تتبعه "قرار فوري" من الذكاء الاصطناعي، يحدد المخاطر ويعرض متطلبات الإطلاق المسبقة. ويأتي هذا التحوّل في ظل اتفاق أبرمته ميتا (فيسبوك سابقًا) عام 2012 مع لجنة التجارة الفيدرالية الأميركية (FTC)، يلزمها بإجراء مراجعات خصوصية دقيقة – وهي مهام كانت تُنفذ سابقًا من قبل موظفين بشريين. وردًا على هذه المخاوف، صرّح متحدث باسم ميتا: "لقد استثمرنا أكثر من 8 مليارات دولار في برنامج الخصوصية الخاص بنا، ونحن ملتزمون بتقديم منتجات مبتكرة تلبي احتياجات المستخدمين، مع الامتثال الكامل للالتزامات التنظيمية." وأضاف المتحدث: "مع تطور المخاطر ونضوج برنامجنا، نعمل على تحسين عملياتنا لتحديد المخاطر بشكل أدق، وتبسيط اتخاذ القرار، وتحسين تجربة المستخدمين. نحن نستفيد من التكنولوجيا لتوفير الثبات والتوقع في القرارات منخفضة المخاطر، بينما نعتمد على الخبرة البشرية للتقييمات الصارمة والإشراف على القضايا الجديدة والمعقدة." التحوّل إلى إشراف قائم على الذكاء الاصطناعي تُعد أتمتة تقييم المخاطر جزءًا أساسيًا من استراتيجية ميتا الأشمل لدمج الذكاء الاصطناعي في مختلف عملياتها، وهي توجه واضح منذ مطلع 2025. وتشمل هذه الاستراتيجية التزامًا ماليًا كبيرًا، إذ تعتزم الشركة استثمار نحو 65 مليار دولار في الذكاء الاصطناعي هذا العام. وتترافق هذه الاستثمارات مع إعادة هيكلة تنظيمية كبرى، تتضمن توظيف مئات من مهندسي الذكاء الاصطناعي، مقابل خفض 5% من القوة العاملة الإجمالية. وكتب ميشيل بروتي، رئيس قسم الخصوصية في ميتا، في منشور داخلي خلال شهر مارس: "نحن نُمكّن فرق المنتجات ونتطور في إدارة المخاطر داخل ميتا". وأوضح بروتي أن الهدف هو "تبسيط اتخاذ القرار" عبر أتمتة مراجعات المخاطر في معظم الحالات، بحسب تحقيق NPR. هذا التوجه الداخلي نحو السرعة والكفاءة يشمل أيضًا الإشراف على المحتوى. وفي تقرير النزاهة الفصلي الأخير للشركة – الذي استندت إليه NPR – تزعم ميتا أن نماذج اللغة الكبيرة (LLMs) "تعمل بمستوى يفوق الأداء البشري في بعض السياسات"، وتُستخدم لتصفية المنشورات التي من المحتمل بدرجة عالية ألا تنتهك القواعد. لكن الوثائق الداخلية التي استعرضتها NPR تشير إلى أن ميتا تفكر في أتمتة مراجعات حتى في مجالات حساسة مثل سلامة الذكاء الاصطناعي، ومخاطر الشباب، و"النزاهة" – التي تشمل المحتوى العنيف والمعلومات المضللة – رغم التصريحات العامة التي تؤكد اقتصار الأتمتة على القرارات منخفضة المخاطر. موازنة الابتكار والسلامة والرقابة التنظيمية يبدو أن هذا التوجه نابع من شدة التنافس في سوق التكنولوجيا. فقد دفعت نماذج منافسة مثل R1 من DeepSeek ميتا إلى تسريع تحركاتها.ووصف أحد المهندسين الوضع بأنه "سباق جنوني لمجاراة هذا المستوى من الكفاءة". هذا المناخ التنافسي هو سبب رئيسي في قرارات ميتا الاستراتيجية، بما في ذلك تعيين لوريدانا كريسان – الرئيسة السابقة لتطبيق ماسنجر – للإشراف على قسم الذكاء الاصطناعي التوليدي. وتُطور ميتا حوكمة الذكاء الاصطناعي منذ فترة، إذ أطلقت في فبراير "إطار عمل الذكاء الاصطناعي الحدودي"، لتصنيف نماذجها إلى فئات "عالية الخطورة" و"حرجة الخطورة". وأكدت عند إطلاقه أنها "من خلال هذا الإطار، ستُعطي الأولوية للتقليل من المخاطر الكارثية مع الحفاظ على الابتكار والتقدّم." وقد جاء هذا التوجه استجابةً لحوادث سابقة، مثل إساءة استخدام نماذج LLaMA، وكذلك الضغوط التنظيمية المتزايدة، خصوصًا من قانون الخدمات الرقمية الأوروبي (DSA). وقال زفيكا كريغر، مدير سابق في ميتا، في تصريح لموقع NewsBytes: "رغم أن الأتمتة تُسرّع المراجعات، فإن الإفراط فيها سيؤدي حتمًا إلى تراجع جودة التقييم والنتائج." ومن اللافت أن إعلانًا داخليًا من ميتا أفاد بأن قرارات المنتجات وبيانات المستخدمين في الاتحاد الأوروبي ستظل خاضعة لمقر الشركة في إيرلندا، ما قد يعزل مستخدمي أوروبا عن بعض هذه التغييرات، حسب تقرير NPR. توسع أكبر في التكامل والشراكات تتجاوز طموحات ميتا في الذكاء الاصطناعي حدود عملياتها الداخلية ومنتجاتها للمستهلكين. ففي نوفمبر 2024، حدّثت الشركة سياسة "الاستخدام المقبول"، وسمحت لشركات الدفاع الأميركية باستخدام نماذجها اللغوية الكبرى. وبين الشركات المستفيدة: لوكهيد مارتن، وبوز ألين هاملتون، وبالانتير تكنولوجيز، وأندريل إندستريز. وتشمل الشراكات تطوير معدات عسكرية متقدمة، مثل خوذات مدعومة بالواقعين الافتراضي والمعزز. وأظهر تقرير تطبيق معايير المجتمع للربع الأول من 2025 انخفاضًا بنحو 50% في أخطاء التطبيق داخل الولايات المتحدة مقارنةً بالربع السابق، ويُعزى ذلك إلى التركيز على الانتهاكات عالية الخطورة وتحسين الدقة من خلال تدقيق الأنظمة.