أحدث الأخبار مع #سالفي


معا الاخبارية
منذ 8 ساعات
- علوم
- معا الاخبارية
الذكاء الاصطناعي يتفوق على البشر في النقاشات
معا- تتمثل ميزة روبوتات الدردشة في النقاش في قدرتها على الوصول إلى معلومات عن الخصم. فعندما يحصل الذكاء الاصطناعي على بيانات عن الشخص الذي يتفاعل معه يستخدم حججا مصممة خصيصا لمواجهته. وهذا يقودنا إلى استنتاج مقلق يتمثّل في إمكانية استخدام النماذج اللغوية الكبيرة للتلاعب بالرأي العام. هذا ما أكّده خبير علوم الحاسوب فرانشيسكو سالفي من المعهد الفيدرالي التقني العالي في لوزان. وكشفت الأبحاث أن الشبكات العصبية يمكنها إقناع الأشخاص بتغيير آرائهم، بما في ذلك المواقف المتعلقة بنظريات المؤامرة. إلا أن مدى قوة إقناعها مقارنة بالبشر ظلّ غير واضح حتى الآن. ولتقييم هذه القدرات في الذكاء الاصطناعي، أجرى سالفي وزملاؤه تجربة نُشرت نتائجها في مجلة Nature Human Behaviour. وشارك في التجربة 900 أمريكي. وناقشوا لمدة 10 دقائق إما مع شخص آخر أو مع ChatGPT-4 من OpenAI حول مواضيع مثيرة للجدل مثل ضرورة الزي المدرسي، حظر الوقود الأحفوري، أو فوائد الذكاء الاصطناعي للمجتمع. وقبل بدء الدراسة، ملأ المشاركون استبيانا حول أعمارهم وجنسهم وانتمائهم العرقي ومستوى تعليمهم ووظائفهم وآرائهم السياسية.و قبل وبعد كل جولة من النقاش، خضعوا لاستبيان قصير لتقييم مدى تغير رأيهم. وأظهرت نتائج التجربة أنه عندما لا يحصل أي من المشاركين سواء كان الإنسان أو الذكاء الاصطناعي، على معلومات عن الطرف الآخر، فإن GPT-4 يكون مقنعا بنفس مستوى الإنسان تقريبا. ولكن بمجرد إضافة أبسط المعلومات الشخصية، مثل الجنس أو العمر أو الاهتمامات، تتفوق الآلة وتفوز في 64% من الحالات. وقال فرانشيسكو سالفي:"حتى مع هذه المعلومات البسيطة، كان GPT-4 أكثر إقناعا من البشر بشكل ملحوظ. وهذه البيانات متاحة بسهولة ويمكن العثور عليها في ملفات التعريف على شبكات التواصل الاجتماعي".


أخبارنا
منذ يوم واحد
- علوم
- أخبارنا
هل يستخدم للتلاعب بالرأي العام؟!.. الذكاء الاصطناعي يتفوق على البشر في النقاشات
أخبارنا : تتمثل ميزة روبوتات الدردشة في النقاش في قدرتها على الوصول إلى معلومات عن الخصم. فعندما يحصل الذكاء الاصطناعي على بيانات عن الشخص الذي يتفاعل معه يستخدم حججا مصممة خصيصا لمواجهته. وهذا يقودنا إلى استنتاج مقلق يتمثّل في إمكانية استخدام النماذج اللغوية الكبيرة للتلاعب بالرأي العام. هذا ما أكّده خبير علوم الحاسوب فرانشيسكو سالفي من المعهد الفيدرالي التقني العالي في لوزان. وكشفت الأبحاث أن الشبكات العصبية يمكنها إقناع الأشخاص بتغيير آرائهم، بما في ذلك المواقف المتعلقة بنظريات المؤامرة. إلا أن مدى قوة إقناعها مقارنة بالبشر ظلّ غير واضح حتى الآن. ولتقييم هذه القدرات في الذكاء الاصطناعي، أجرى سالفي وزملاؤه تجربة نُشرت نتائجها في مجلة Nature Human Behaviour. وشارك في التجربة 900 أمريكي. وناقشوا لمدة 10 دقائق إما مع شخص آخر أو مع ChatGPT-4 من OpenAI حول مواضيع مثيرة للجدل مثل ضرورة الزي المدرسي، حظر الوقود الأحفوري، أو فوائد الذكاء الاصطناعي للمجتمع. وقبل بدء الدراسة، ملأ المشاركون استبيانا حول أعمارهم وجنسهم وانتمائهم العرقي ومستوى تعليمهم ووظائفهم وآرائهم السياسية.و قبل وبعد كل جولة من النقاش، خضعوا لاستبيان قصير لتقييم مدى تغير رأيهم. وأظهرت نتائج التجربة أنه عندما لا يحصل أي من المشاركين سواء كان الإنسان أو الذكاء الاصطناعي، على معلومات عن الطرف الآخر، فإن GPT-4 يكون مقنعا بنفس مستوى الإنسان تقريبا. ولكن بمجرد إضافة أبسط المعلومات الشخصية، مثل الجنس أو العمر أو الاهتمامات، تتفوق الآلة وتفوز في 64% من الحالات. وقال فرانشيسكو سالفي:"حتى مع هذه المعلومات البسيطة، كان GPT-4 أكثر إقناعا من البشر بشكل ملحوظ. وهذه البيانات متاحة بسهولة ويمكن العثور عليها في ملفات التعريف على شبكات التواصل الاجتماعي".


بوابة الأهرام
منذ يوم واحد
- علوم
- بوابة الأهرام
الذكاء الاصطناعي يتفوق على البشر في فنون النقاش والإقناع
أظهرت دراسة حديثة قدرة روبوتات الدردشة المدعومة بالذكاء الاصطناعي على التفوق على البشر في النقاشات، خاصة عندما تتوفر لها معلومات شخصية عن الطرف الآخر. فحسب تقرير "روسيا اليوم"، يتمكن الذكاء الاصطناعي من استخدام بيانات دقيقة عن الشخص الذي يتفاعل معه، ليقدم حججًا مخصصة ومصممة خصيصًا لمواجهته وإقناعه. موضوعات مقترحة هذا التطور يفتح الباب أمام مخاوف من إمكانية استغلال النماذج اللغوية الكبيرة في التلاعب بالرأي العام، وهو ما أكده خبير علوم الحاسوب فرانشيسكو سالفي من المعهد الفيدرالي التقني العالي في لوزان بسويسرا. وأشارت الأبحاث إلى أن الشبكات العصبية قادرة على التأثير في مواقف الأفراد، بما في ذلك إقناعهم بتغيير آرائهم حتى في قضايا مثيرة للجدل مثل نظريات المؤامرة، إلا أن مدى تفوقها على البشر في هذا المجال ظل غير واضح. ولتقييم قوة إقناع الذكاء الاصطناعي، أجرى سالفي وفريقه تجربة شارك فيها 900 أمريكي، حيث ناقشوا لمدة 10 دقائق إما مع شخص حقيقي أو مع نموذج ChatGPT-4 من شركة OpenAI، حول مواضيع خلافية مثل فرض الزي المدرسي، حظر الوقود الأحفوري، وفوائد الذكاء الاصطناعي للمجتمع. وقبل بدء التجربة، زود المشاركون، الباحثين بمعلومات شخصية تشمل العمر، الجنس، الانتماء العرقي، المستوى التعليمي، الوظيفة، والميول السياسية، ثم قاموا بتقييم آرائهم قبل وبعد النقاش. وأظهرت النتائج أن ChatGPT-4 يستطيع إقناع المشاركين بمستوى يقارب البشر عندما لا يتوفر أي معلومات عن الطرف الآخر. لكن بمجرد إضافة أبسط المعلومات الشخصية، مثل العمر أو الاهتمامات، تفوق الذكاء الاصطناعي وفاز في 64% من الحالات. وعلق فرانشيسكو سالفي بالقول: "حتى هذه المعلومات البسيطة، المتاحة بسهولة عبر ملفات التعريف على وسائل التواصل الاجتماعي، تجعل GPT-4 أكثر إقناعًا من الإنسان بشكل ملحوظ."

العربية
٠٦-٠٤-٢٠٢٥
- العربية
صور استوديو غيبلي بالذكاء الاصطناعي.. كابوس يهدد الخصوصية
بينما ينغمس مستخدمو الإنترنت في التوجه المنتشر على نطاق واسع عالميًا لتحويل الصور الشخصية إلى صور بنمط "استوديو غيبلي" الياباني للرسوم المتحركة باستخدام أدوات الذكاء الاصطناعي، يبدو أن لهذا الأمر كُلفة مرتفعة. ويُحذر خبراء الأمن السيبراني من أن هذا التوجه يُخفي واقعًا أكثر قتامة، خاصة في يتعلق بالخصوصية وإساءة استخدام البيانات. وحذّر الخبراء أيضًا من أنه على الرغم من أن هذه الأدوات قد تبدو غير ضارة، إلا أن شروط الخدمة غالبًا ما تكون غامضة، مما يثير تساؤلات حول مصير صور المستخدم بعد معالجتها، بحسب تقرير لصحيفة "بيزنس ستاندرد"، اطلعت عليه "العربية Business". بدأ هذا التوجه عندما أطلقت شركة " OpenAI" نموذج "GPT-4o" الخاص بها، والذي يسمح للمستخدمين بتغيير صورهم الشخصية لتصبح بنمط "استوديو غيبلي". وتقول منصات قليلة من بين كثيرين إنها لا تخزن الصور، أو تحذفها بعد استخدامها لمرة واحدة، لكن معظمها لا يشرح بوضوح ما تعنيه بـ"الحذف" فعلًا، سواء كان فوريًا أو مُؤجلًا أو جزئيًا. ولا تقتصر الصور على بيانات الوجه فحسب، بل غالبًا ما تتضمن بيانات وصفية مخفية مثل إحداثيات الموقع، وأختام زمنية بتاريخ ووقت التقاطها، وتفاصيل الجهاز، وكلها قد تكشف عن معلومات شخصية. تخزين وحذف الصور قال فيشال سالفي، الرئيس التنفيذي لشركة كويك هيل تكنولوجيز، إن أدوات الذكاء الاصطناعي هذه تستفيد من خوارزميات تقنية نقل النمط العصبي (NST). وهذه التقنية تستخدم الذكاء الاصطناعي لتحويل صورة إلى أسلوب فني معين، مثل تحويل صورة حقيقية إلى صورة تبدو وكأنها رسم بأسلوب فنان معين. وتفصل هذه الخوارزميات المحتوى عن الأنماط الفنية في الصور المُحمّلة لدمج صورة المستخدم مع الأعمال الفنية المرجعية. ومع أن العملية تبدو غير ضارة، إلا أن ثغرات أمنية مثل هجمات عكس النماذج، حيث قد يُعيد الخصوم بناء الصور الأصلية من الصور بنمط "غيبلي"، تُشكل مخاطر كبيرة، وفقًا لسالفي. وحذر سالفي من الأمر قائلًا: "حتى لو ادعت الشركات أنها لا تخزن صورك، فقد ينتهي الأمر بأجزاء من بياناتك في أنظمتها. من المؤكد أنه يمكن إعادة استخدام الصور المُحمّلة لأغراض غير مقصودة، مثل تدريب نماذج الذكاء الاصطناعي للمراقبة أو الإعلان". تجربة ممتعة وسهلة لكن مقلقة قال براتيم موخيرجي، من شركة مكافي، إن طريقة تصميم هذه الأدوات تُسهّل التغافل على ما تُوافق عليه بالفعل. وغالبًا ما تخلق النتائج الجذابة، والفلاتر واسع الانتشار على الإنترنت، والتفاعلات السريعة تجربة تبدو ممتعة وبسيطة، لكنها غالبًا ما تأتي مع مخاطر خصوصية مخفية. وأَضاف موخيرجي: "عندما يُمنح الوصول إلى محتوى شخصي، مثل صور الكاميرا، دون تفكير، فهذا ليس دائمًا أمرًا عرضيًا. غالبًا ما تُصمم هذه المنصات لتشجيع التفاعل السريع بينما تُجمع البيانات بهدوء في الخلفية". وقال إن هذا هو منبع القلق، حيث يهتم الأشخاص بالنتيجة النهائية الجذابة، فيما يتم تطبيع نمط مشاركة البيانات الذي لا يفهمه المستخدمون كليًا. اختراق البيانات يظل خطر اختراق البيانات قائمًا بشكل كبير، وحذر الخبراء من أن صور المستخدمين المسروقة قد تُشجع على إنشاء مقاطع فيديو مزيفة بواسطة الذكاء الاصطناعي وانتحال الهوية. قال فلاديسلاف توشكانوف، من مركز أبحاث تكنولوجيا الذكاء الاصطناعي في كاسبرسكي، إنه على الرغم من أن بعض الشركات تضمن سلامة وأمن البيانات التي تجمعها وتخزنها، إلا أن هذا لا يعني أن الحماية مضمونة. وأضاف: "بسبب المشكلات التقنية أو الأنشطة الخبيثة، قد تتسرب البيانات أو تصبح متاحة للعامة أو تُباع على مواقع إلكترونية سرية متخصصة. علاوة على ذلك، يُمكن اختراق الحساب المُستخدم للوصول إلى الخدمة في حال اختراق بيانات الاعتماد أو جهاز المستخدم. وحذر موخيرجي قائلًا: "المشكلة هي أنه لا يُمكنك تغيير وجهك كما يُمكنك إعادة تعيين كلمة المرور"، مضيفا أن بمجرد تحميل الصورة، تكون متاحة. وعلاوة على ذلك، تُخفي العديد من المنصات بنود استخدام البيانات ضمن شروط خدمة مطولة، مما يُصعّب على المستخدمين فهم طريقة التعامل مع بياناتهم. وهنا تكمن المشكلة، فغالبًا ما تكون هذه الشروط غامضة أو طويلة جدًا بحيث يصعب على معظم الناس فهمها، وبمجرد نقر شخص ما على زر "قبول" لا يعني أنه يُعطي موافقة مُستنيرة تمامًا. اتخذت بعض الدول خطوات لفرض إفصاحاتٍ أكثر وضوحًا، بينما لا يزال البعض الآخر يدرس ذلك. وللتخفيف من هذه المخاطر، يوصي الخبراء المستخدمين بتوخي الحذر عند مشاركة الصور الشخصية مع تطبيقات الذكاء الاصطناعي.