أحدث الأخبار مع #وأوبنأيآي،وإكسكورب


الجمهورية
منذ 19 ساعات
- صحة
- الجمهورية
دراسة تحذر .. الذكاء الاصطناعي ينشر معلومات طبية مضللة
فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وجوجل، وميتا، وأوبن أي آي، وإكس كورب. وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم. وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين. أسلوب مقنع والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية. بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: "بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود". وأضاف: "ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة". حملات التطعيم". وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم. ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%. في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات. جوجل نيوز


البلاد البحرينية
منذ يوم واحد
- صحة
- البلاد البحرينية
الذكاء الاصطناعي ينشر معلومات طبية مضللة
"ثق بطبيبك، لا بروبوت الدردشة"، هذا هو الاستنتاج الصارم لدراسة جديدة نُشرت في مجلة Annals of Internal Medicine، والتي تكشف كيف يمكن إساءة استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة. فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب. وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم. وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين. أسلوب مقنع والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية. بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: "بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود". وأضاف: "ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة". تحذير أخير وقال مودي: "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم". ادعاءات كاذبة وخرافات وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم. ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%. في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات.


شفق نيوز
منذ يوم واحد
- صحة
- شفق نيوز
تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة
خلصت دراسة جديدة نُشرت في مجلة Annals of Internal Medicine إلى أن الاعتماد على روبوتات الدردشة العاملة بالذكاء الاصطناعي في الاستشارات الطبية قد يكون مضللاً وخطيراً، مؤكدة أن (ثق بطبيبك، لا بروبوت الدردشة) هو الاستنتاج الصارم الذي توصل إليه الباحثون. وكشفت الدراسة كيف يمكن إساءة استخدام تقنيات الذكاء الاصطناعي لنشر معلومات صحية غير دقيقة، مما قد يؤدي إلى عواقب سلبية على صحة المرضى إذا ما تم الاستعاضة بها عن المشورة الطبية المتخصصة. فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب. وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم. وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين. أسلوب مقنع والأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية. بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: "بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود". وأضاف: "ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة". وقال مودي: "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم". ادعاءات كاذبة وخرافات وشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم. ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%. في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات. وتصدر مجلة Annals of Internal Medicine عن الكلية الأمريكية للأطباء (American College of Physicians - ACP)، وهي واحدة من أعرق المجلات الطبية في مجال الطب الباطني.


صوت لبنان
منذ يوم واحد
- صحة
- صوت لبنان
دراسة تحذر: الذكاء الاصطناعي ينشر معلومات طبية مضللة
العربية "ثق بطبيبك، لا بروبوت الدردشة"، هذا هو الاستنتاج الصارم لدراسة جديدة نُشرت في مجلة Annals of Internal Medicine، والتي تكشف كيف يمكن إساءة استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة. فقد أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة، طورتها شركات أنثروبيك، وغوغل، وميتا، وأوبن أي آي، وإكس كورب. وتُستخدم هذه الأنظمة على نطاق واسع، وتشكل الأساس للعديد من روبوتات الدردشة المنتشرة في المواقع والتطبيقات حول العالم. وباستخدام أدوات مطورين غير متاحة عادةً للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئ وقد تكون ضارة رداً على أسئلة المستخدمين.أسلوب مقنعوالأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية. بدوره قال ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، في بيان: "بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود". وأضاف: "ومع ذلك، قُدمت تلك المعلومات بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة". تحذير أخيروقال مودي: "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم".ادعاءات كاذبة وخرافاتوشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات سبق دحضها علميا، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم. ومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات كانت خاطئة بنسبة 100%. في حين أظهر نموذج واحد فقط بعض المقاومة، إذ ولّد معلومات مضللة في 40% من الحالات.