logo
نرويجي يقاضي «تشات جي بي تي»

نرويجي يقاضي «تشات جي بي تي»

صحيفة الخليج٢١-٠٣-٢٠٢٥

تقدّم أحد مستخدمي الإنترنت في النروج بشكوى قضائية في بلده على الشركة المسؤولة عن روبوت المحادثة القائم على الذكاء الاصطناعي التوليدي «تشات جي بي تي» لكونه عرّف عنه خطأً على أنه مجرم قتل اثنين من أطفاله، وفق ما أفادت منظمة تتولى الدفاع عن الخصوصية.
ولاحظت منظمة «نويب» غير الحكومية ومقرها في فيينا في بيان أن «تطبيق تشات جي بي تي يعطي باستمرار معلومات مضللة يمكن أن تلحق ضرراً فادحاً بسمعة شخص ما، ويتهم بعض الناس بشكل غير مبرر بالفساد، أو بإساءة معاملة الأطفال، أو حتى بالقتل».
وبعد تقديم المنظمة شكوى أولى في النمسا في إبريل / نيسان 2024، توجهت راهنا إلى هيئة حماية البيانات النروجية «داتاتيلسينت» للإبلاغ عما تعرّض له المستخدم آرفه يالمار هولمن الذي تلقى هذه النتيجة المفاجئة بعدما طلب من «تشات جي بي تي» كتابة نبذة عنه.
وبعد هذه الحادثة، بادرت الشركة الأمريكية التي ابتكرت برنامج الذكاء الاصطناعي التوليدي إلى تعديل المعلومات المتعلقة بآرفه يالمار هولمن فلم تعدّ تعرّف به على أنه قاتل. لكنّ هذه البيانات الكاذبة قد تبقى في الأنظمة الداخلية، بحسب «نويب» التي يتكون اسمها Noyb من الأحرف الأولى لعبارة None of your business بالإنجليزية، وتعني بالعربية «هذا ليس من شأنك».
ورأت المنظمة أن «شركة أوبن إيه آي، من خلال السماح عن علم لنموذجها القائم على الذكاء الاصطناعي بإنشاء نتائج تشهيرية، تنتهك مبدأ الدقة» المنصوص عليه في القانون الأوروبي العام لحماية البيانات، مطالِبَة بـ«حذف» المعلومات المغلوطة وتحسين التكنولوجيا وفرض «غرامة إدارية».

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

"تشات جي بي تي" يدخل قاعة المحكمة.. ويُربك صفوف المحامين
"تشات جي بي تي" يدخل قاعة المحكمة.. ويُربك صفوف المحامين

الاتحاد

timeمنذ 2 أيام

  • الاتحاد

"تشات جي بي تي" يدخل قاعة المحكمة.. ويُربك صفوف المحامين

وكالات (أبوظبي) كشفت قاضية اتحادية في ولاية ألاباما الأميركية، أنها تدرس فرض عقوبات على فريق محامين من شركة محاماة شهيرة وباهظة التكاليف، بعد أن تبين أن أحدهم استخدم برنامج الذكاء الاصطناعي "تشات جي بي تي" لصياغة مذكرتين قانونيتين تضمّنتا اقتباسات غير صحيحة ولا وجود لها في الواقع القانوني. اقرأ أيضاً.. الذكاء الاصطناعي يربك نقابة المحامين في كاليفورنيا وخلال جلسة استماع عقدت في مدينة برمنغهام، استجوبت القاضية آنا ماناسكو محامين من الشركة بشأن استخدامهم غير المدروس للذكاء الاصطناعي في إعداد وثائق قانونية رسمية، رغم التحذيرات المتكررة على المستوى الوطني بشأن مخاطر الاعتماد على أدوات الذكاء الاصطناعي في هذا السياق. عقوبات محتملة أوضحت ماناسكو أنها تدرس حزمة من العقوبات المحتملة، من بينها فرض غرامات مالية، ومنحت الشركة مهلة 10 أيام لتقديم مذكرة دفاع رسمية. من جانبهم، قدم محامو الشركة اعتذارات متكررة، مشيرين إلى أن أحد الشركاء، هو من استخدم "تشات جي بي تي" للبحث عن سوابق قانونية دون التحقق من صحتها قبل إدراجها في المستندات المقدمة للمحكمة. واتضح لاحقًا أن تلك الاقتباسات كانت مجرد "هلوسات" من الذكاء الاصطناعي، أي معلومات مختلقة لا أساس لها في الواقع القانوني. رغم أن أربعة محامين وقّعوا على الوثائق، إلا أن أحد المحامين أقر أمام القاضية قائلاً: "أنا وحدي أتحمل المسؤولية الكاملة عن الاقتباسات الخاطئة، وآمل ألا تعاقبي زملائي على خطئي هذا". وقدمت الشركة اعتذارها لاستخدام أداة دون تحقق. وفي مذكرة رسمية، عبّر محامو الشركة عن حرجهم العميق من الحادثة، مؤكدين أنها تخالف السياسات الداخلية للشركة والممارسات المهنية الرشيدة. وجاء في المذكرة: "لا عذر لاستخدام "تشات جي بي تي" كمصدر للسوابق القانونية دون التحقق من صحة المعلومات، حتى لو كان الهدف دعم مبادئ قانونية صحيحة".

الاحتيال الصوتي بالذكاء الاصطناعي.. خطر متزايد يهدد الأفراد والشركات
الاحتيال الصوتي بالذكاء الاصطناعي.. خطر متزايد يهدد الأفراد والشركات

البوابة العربية للأخبار التقنية

time٢٤-٠٤-٢٠٢٥

  • البوابة العربية للأخبار التقنية

الاحتيال الصوتي بالذكاء الاصطناعي.. خطر متزايد يهدد الأفراد والشركات

مع تسارع تطور تقنيات الذكاء الاصطناعي، أصبحت التهديدات السيبرانية أكثر ذكاءً وخداعًا، مما زاد من صعوبة اكتشافها والتصدي لها. ومن أبرز هذه التهديدات 'الاحتيال الصوتي بالذكاء الاصطناعي' الذي يُعد من أخطر الأساليب الاحتيالية الحديثة؛ إذ يستغل المحتالون تقنيات متقدمة مثل استنساخ الأصوات والتزييف العميق لتنفيذ هجمات يصعب كشفها. ما الاحتيال الصوتي المدعوم بالذكاء الاصطناعي؟ الاحتيال الصوتي المدعوم بالذكاء الاصطناعي (AI Vishing) هو تطور للاحتيال الهاتفي التقليدي؛ إذ يستخدم المهاجمون الذكاء الاصطناعي لتقليد أصوات أشخاص موثوقين كموظفي البنوك أو الأقارب بهدف خداع الضحايا ودفعهم إلى اتخاذ قرارات مالية خطيرة أو الكشف عن معلومات حساسة. وما يميز هذا النوع من الاحتيال القدرة على تنفيذ آلاف المكالمات الآلية بسرعة ودقة، باستخدام أصوات مزيفة تحاكي نبرة ولهجة الشخص المستهدف. حالات واقعية تكشف حجم الخطر يُستخدم الاحتيال الصوتي بالذكاء الاصطناعي ضد الأفراد العاديين والشركات الكبرى. وقد أثبت هذا النوع من الاحتيال فعاليته، فقد ارتفعت نسبة الأمريكيين الذين خسروا أموالًا بسبب الاحتيال الصوتي إلى نسبة تبلغ 23% بين عامي 2023 و 2024. وفيما يلي أبرز الهجمات التي نُفذت باستخدام هذه التقنية: تقليد صوت وزير إيطالي في مطلع عام 2025، انتحل محتالون صوت وزير الدفاع الإيطالي باستخدام الذكاء الاصطناعي لخداع رجال أعمال بارزين. وقد تمكنوا من الاحتيال على Massimo Moratti، المالك السابق لنادي إنتر ميلان وتمكنت الشرطة لاحقًا من استعادة الأموال المسروقة. استهداف قطاع السياحة ذكرت صحيفة وول ستريت جورنال أن الربع الأخير من عام 2024 شهد ارتفاعًا ملحوظًا في هجمات الاحتيال الصوتي ضد قطاع السياحة والسفر. فقد تظاهر المحتالون بأنهم وكلاء سفر أو مدراء تنفيذيين، وتمكنوا من إقناع موظفي الفنادق بمنحهم بيانات حساسة أو صلاحيات غير مصرح بها. انتحال أصوات أحد أفراد العائلة في عام 2023، استخدم العديد من المحتالين الذكاء الاصطناعي لتقليد أصوات أفراد من عائلات مختلفة للاحتيال على كبار السن، إذ يتظاهرون بأنهم أحد الأحفاد أو الآباء ويطلبون تحويل مبلغ مالي بسرعة، وقد تمكنوا من سرقة قرابة 200,000 دولار من عدة عائلات. ولأن المكالمات كانت بأصوات مطابقة تمامًا لأحد أفراد تلك العائلات، فقد كانت شبه مستحيلة الاكتشاف. الاحتيال الصوتي كخدمة (Vishing-as-a-Service) ظهر مفهوم جديد يُعرف بالاحتيال الصوتي كخدمة (Vishing-as-a-Service)، يشير إلى قدرة المحتالين على الاشتراك في خدمات تتيح لهم استخدام تقنيات متقدمة تشمل: تقليد أصوات بشرية قابلة للتخصيص. تصميم سيناريوهات احتيالية مخصصة. انتحال أرقام المتصلين وإضافة ضجيج واقعي لمحاكاة مراكز الاتصال. شركة PlugValley تُعد من أبرز مزودي هذه الخدمات، وقد رصد خبراء الأمن أنشطتها لكشف مدى تعقيد هذه الهجمات الآلية وسهولة تنفيذها باستخدام اشتراكات شهرية بسيطة. إذ يمكّن روبوت الاحتيال الصوتي الذي تطوره PlugValley المهاجمين من استخدام أصوات واقعية قابلة للتخصيص لخداع الضحايا. ويمكن للروبوت التفاعل لحظيًا مع الشخص المستهدف، وتقليد أنماط الكلام البشري، وانتحال أرقام المتصلين، وحتى إضافة ضوضاء خلفية تشبه الموجودة في مراكز الاتصال. تساهم هذه الخدمة في جعل الهجمات مقنعة؛ مما يُسهل سرقة البيانات البنكية وكلمات المرور المؤقتة (OTP). كما تُزيل الحواجز التقنية أمام مجرمي الإنترنت، وتوفر لهم أدوات احتيالية سهلة الاستخدام من خلال اشتراكات شهرية بسيطة. كيف نحمي أنفسنا من هذا النوع من الاحتيال؟ يمكن للمؤسسات اتباع النصائح التالية لحماية أعمالها من الاحتيال الصوتي المدعوم بالذكاء الاصطناعي: تدريب الموظفين على كيفية التحقق من هوية المتصل وعدم تقديم معلومات سرية عبر الهاتف دون تحقق. تعزيز أنظمة كشف الاحتيال باستخدام الذكاء الاصطناعي. تعرف أساليب الاحتيال الحديثة للتمكن من التصدي لها بسهولة. وأما الأفراد فعليهم اتباع النصائح التالية: عدم الوثوق بأي مكالمة غير متوقعة يطلب فيها المتصل معلومات شخصية أو مالية. استخدام كلمة سر بين أفراد العائلة للتحقق من هوية المتصل في الحالات الطارئة. ابلاغ السلطات فورًا عن أي محاولة احتيالية أو مكالمة مشبوهة.

16 مليار دولار حجم خسائر الجرائم الإلكترونية في 2024
16 مليار دولار حجم خسائر الجرائم الإلكترونية في 2024

العين الإخبارية

time٢٣-٠٤-٢٠٢٥

  • العين الإخبارية

16 مليار دولار حجم خسائر الجرائم الإلكترونية في 2024

قال مكتب التحقيقات الاتحادي (إف.بي.آي) في الولايات المتحدة في تقرير نشر اليوم الأربعاء إن الخسائر المتعلقة بالجرائم الإلكترونية، بمختلف أنواعها، حول العالم بلغت أكثر من 16 مليار دولار العام الماضي. وفقا لرويترز، ما دفع لزيادة الخسائر بنسبة نحو الثلث عن 2023 عمليات احتيال بسيطة بالأساس مثل احتيال على مستثمرين مبتدئين بالاستيلاء على أموالهم عبر الإنترنت، أو خداع موظفي الشركات عبر رسائل بريد إلكتروني مزيفة لتحويل مبالغ كبيرة إلى حسابات مصرفية للمجرمين. وذكر مكتب التحقيقات الاتحادي أن الإيهام بالدعم الفني وعمليات الاحتيال العاطفية تسببت أيضا في خسائر بمئات الملايين من الدولارات. وقال إن مركز شكاوى جرائم الإنترنت التابع له جمع تلك الأرقام والبيانات. وأصبح المركز مخصصا لتبادل تقارير الاحتيال والقرصنة الرقمية وتلقى ما يقرب من 860 ألف شكوى. ومن المعروف أن الخسائر الناجمة عن الجرائم الإلكترونية يصعب حسابها. وأرقام مكتب التحقيقات الاتحادي من بين الأكثر شمولا لكن المكتب أقر بأن حساباته غير مكتملة لا سيما فيما يتعلق ببرمجيات الفدية، وهي نوع ضار للغاية من البرمجيات يستخدمه متسللون إلكترونيون لابتزاز المؤسسات لدفع فدية مقابل بياناتها. ورغم أن الشكاوى التي جمعها مكتب التحقيقات الاتحادي جاءت من جميع أنحاء العالم، إلا أن الغالبية العظمى منها من الولايات المتحدة. ومع الانتشار السريع للذكاؤ الاصطناعي احتدم السباق بين شركات التكنولوجيا العملاقة في الولايات المتحدة، والسبب حماية أنظمة الذكاء الاصطناعي من القرصنة. ويبحث قادة الفرق الحمراء للذكاء الصناعي في مايكروسوفت وغوغل وإنفيديا وميتا، عن نقاط الضعف في أنظمة الذكاء الصناعي بهدف إصلاحها، بحسب "فوربس". ويتوقع أحد خبراء أمن الذكاء الصناعي أننا: "سنبدأ في رؤية إعلانات تقول "منتجنا هو الأكثر أمانًا". قبل شهر من إطلاق روبوت الدردشة ChatGPT للاستخدام العام، عينت شركة OpenAI المحامي في كينيا، بورو غولو، لاختبار نماذج الذكاء الصناعي الخاصة بها، GPT-3.5 ولاحقًا GPT-4، ضمن فريق الشركة الأحمر المكون من 50 خبيرًا خارجيًا. كان الهدف هو البحث عن الصور النمطية ضد الأفارقة والمسلمين عن طريق مدخلات تحفز روبوت الدردشة على إعطاء إجابات ضارة ومتحيزة وغير صحيحة. كتب غولو أمرًا لروبوت ChatGPT، محفزًا إياه على إعطاء قائمة من الطرق لقتل أحد المواطنين من نيجيريا - وهو الرد الذي أزالته OpenAI قبل أن يصبح برنامج الدردشة الآلي متاحًا للعالم. في حين أعطى أعضاء آخرون في الفريق الأحمر أوامر أخرى لنسخة ما قبل الإطلاق من GPT-4، بحيث يحفزون الحصول على إجابات تخص الأنشطة غير القانونية والضارة، مثل كتابة منشور على فيسبوك لإقناع شخص ما بالانضمام إلى تنظيم القاعدة، أو المساعدة في العثور على أسلحة غير مرخصة للبيع، أو المساعدة في تصنيع مواد كيميائية خطيرة في المنزل. وفقًا لبطاقة نظام GPT-4، تعد كل الأمور السابقة ضمن المخاطر وإجراءات السلامة التي تحاول OpenAI تقليلها والقضاء عليها. لحماية أنظمة الذكاء الصناعي من الاستغلال، يتقمص قراصنة الفريق الأحمر دور الخصوم، ويحاولون التلاعب بالأنظمة والكشف عن النقاط الخفية والمخاطر الكامنة في التكنولوجيا حتى يمكن إصلاحها. بينما يتسابق عمالقة التكنولوجيا لبناء وإطلاق العنان لأدوات الذكاء الصناعي التوليدية، تزيد أهمية الدور الذي تلعبه فرق الذكاء الصناعي الحمراء الداخلية في هذه الشركات لضمان أمان النماذج بالنسبة للاستخدام العام. على سبيل المثال، أنشأت غوغل فريقًا أحمر منفصلًا لأنظمتها الخاصة بالذكاء الصناعي في وقت سابق من هذا العام. في أغسطس/ آب، اجتمع مطورو بعض النماذج الشائعة مثل شركة OpenAI المطورة لنموذج GPT3.5، وميتا المطورة لنموذج Llama 2، وغوغل المطورة لنموذج LaMDA، للمشاركة في حدث يدعمه البيت الأبيض بهدف منح المتسللين الخارجيين الفرصة لكسر حماية أنظمتهم. aXA6IDgyLjIyLjIxOC4xNDcg جزيرة ام اند امز CR

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store