logo
احذر.. روبوتات الدردشة قد تُضللك صحيًا

احذر.. روبوتات الدردشة قد تُضللك صحيًا

صدى البلدمنذ 10 ساعات

في عصر أصبحت فيه تقنيات الذكاء الاصطناعي جزءًا من الحياة اليومية، باتت روبوتات الدردشة تُستخدم على نطاق واسع للإجابة عن استفسارات المستخدمين في مختلف المجالات، ومنها المجال الصحي، غير أن دراسة جديدة نُشرت في المجلة العالمية Annals of Internal Medicine، وجهت تحذيرًا صارمًا متضمنًا: (ثق بطبيبك، لا بروبوت الدردشة).
دراسة تكشف عن مخاطر الذكاء الاصطناعي في الصحة
أجرى باحثون دراسة تحليلية لتقييم مدى دقة المعلومات الصحية التي تقدمها خمسة من أبرز نماذج الذكاء الاصطناعي، والتي طورتها شركات تكنولوجية كبرى مثل: أوبن إيه آي، أنثروبيك، ميتا، جوجل، وإكس كورب، وتُستخدم هذه النماذج على نطاق واسع، وتُشكل الأساس للعديد من روبوتات الدردشة المتوفرة عبر التطبيقات والمواقع الإلكترونية.
نتائج صادمة: 88% من الردود كانت خاطئة
اعتمد الباحثون على أدوات خاصة بالمطورين (لا تتوفر لعامة المستخدمين) لبرمجة هذه النماذج وتوجيهها للإجابة عن أسئلة صحية حساسة، وكانت النتائج مثيرة للقلق، إذ تبين أن نسبة الردود الخاطئة بلغت 88% من إجمالي الإجابات المقدمة.
والمقلق أكثر أن تلك الردود جاءت في قالب يبدو موثوقًا: لغة علمية، نبرة رسمية، وأحيانًا مراجع مختلقة، مما يزيد من قابلية تصديقها من قِبل المستخدم العادي.
ادعاءات خطيرة ومعلومات مضللة
تضمنت المعلومات المغلوطة التي قدمتها روبوتات الدردشة ادعاءات خرافية سبق أن تم تفنيدها علميًا، مثل:
أن اللقاحات تُسبب التوحد.
أن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء.
أن شبكات الجيل الخامس (5G) تؤدي إلى العقم.
وقد لاحظت الدراسة أن أربعة من النماذج الخمسة قدمت إجابات خاطئة بنسبة 100%، فيما أظهر نموذج واحد فقط مقاومة جزئية، حيث قدم معلومات مضللة في 40% من الحالات.
تحذير من التلاعب بالمجتمع خلال الأزمات
أكد الباحث ناتانش مودي، من جامعة جنوب إفريقيا وأحد مؤلفي الدراسة، أن هذه النتائج تمثل جرس إنذار خطير، وقال في بيانه:
"بدون تدخل سريع، قد تستغل الجهات الخبيثة هذه الأنظمة للتلاعب بالنقاش العام حول القضايا الصحية، لا سيما في أوقات الأزمات مثل الأوبئة أو حملات التطعيم."
الذكاء الاصطناعي أداة، لا بديلًا عن الأطباء
تشدد هذه الدراسة على أن الذكاء الاصطناعي، رغم إمكانياته المتقدمة، لا يمكن أن يكون بديلًا عن الأطباء والخبراء المؤهلين، خاصة في ما يتعلق بصحة الإنسان، لذلك يبقى التشاور مع الأطباء هو الخيار الآمن، في مواجهة ما قد يبدو "علميًا" لكنه في جوهره قد يكون مضللًا وخطيرًا.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

القلق يتصاعد من تطور الذكاء الاصطناعي نحو السلوك غير الصادق
القلق يتصاعد من تطور الذكاء الاصطناعي نحو السلوك غير الصادق

النهار

timeمنذ 9 ساعات

  • النهار

القلق يتصاعد من تطور الذكاء الاصطناعي نحو السلوك غير الصادق

لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين. بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. أما برنامج "او 1" o1 التابع لشركة "أوبن إيه آي" فحاول تحميل نفسه على خوادم خارجية، وأنكر ذلك عند ضبطه متلبساً! وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعاً ملموساً، بعدما كنّا نجده في الأعمال الأدبية أو السينمائية. يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية. يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش"، التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"أوبن إيه آي" من هذا النوع، وكانت طُرحت في كانون الأول/ديسمبر، و"كان أول نموذج يتصرف بهذه الطريقة". تميل هذه البرامج أحياناً إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى. في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرّفة. لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم. يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئاً". يتحدث عدد كبير من مستخدمي الإنترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أموراً. وهذه ليست أوهاماً، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش". حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، فمن شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين. ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلاً"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS). رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، فإنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها. في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريباً إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه. - منافسة شرسة - يلاحظ غولدستين أن "الوعي لا يزال محدوداً جداً في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي؛ وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقلّ. يخوض المهندسون سباقاً محموماً خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوماً بعد يوم. تقول شركة "أنثروبيك" إنها أكثر التزاماً بالمبادئ الأخلاقية مقارنة بمنافسيها، "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج أوبن إيه آي"، بحسب غولدستين، وهو سباق سريع لا يترك مجالاً كافياً لعمليات المراجعة والتصحيح اللازمة. يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتحقق، لكننا لا نزال قادرين على تدارك هذا التأخّر". يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فكّ شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظلّ البعض متشككاً في فاعليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS). الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعاً قوياً للشركات العاملة في هذا القطاع للعمل على حلّ المشكلة"، وفق مانتاس مازيكا. يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات. ولكنه يذهب أبعد من ذلك، ويقترح "تحميل برامج الذكاء الاصطناعي المسؤولية القانونية" في حال وقوع حوادث أو جرائم.

"اسأل الصور" تعود من جديد... وغوغل تعد بتحسينات بعد خيبة الأمل الأولى!
"اسأل الصور" تعود من جديد... وغوغل تعد بتحسينات بعد خيبة الأمل الأولى!

ليبانون 24

timeمنذ 9 ساعات

  • ليبانون 24

"اسأل الصور" تعود من جديد... وغوغل تعد بتحسينات بعد خيبة الأمل الأولى!

بعد توقف مؤقت دام ثلاثة أسابيع، أعادت غوغل تفعيل ميزة "Ask Photos" المعززة بالذكاء الاصطناعي، مؤكدة أنها هذه المرة ستكون أكثر فاعلية واستجابة. الميزة التي تم إطلاقها تدريجيًا منذ خريف العام الماضي، تتيح للمستخدمين البحث عن الصور في تطبيق "صور غوغل" عبر طرح أسئلة مباشرة مثل: "أين التقطنا صورة العشاء في سان فرانسيسكو ؟" أو " أرني صور السيلفي التي التقطتها في متاحف نيويورك"، بل وحتى أسئلة مفتوحة مثل: "ما الصور التي تصلح كخلفية للهاتف؟". لكن عند إطلاق الميزة بالكامل هذا الشهر، توالت شكاوى المستخدمين بشأن ضعف دقة النتائج وبطء الاستجابة. حتى مدير أحد المشاريع في جوجل أقرّ بأن الخدمة لم تكن "في المكان المناسب". الصحافية التقنية سابرينا أورتيز من موقع ZDNET أعادت تأكيد هذه المشاكل، ووصفت التجربة بأنها جعلت التطبيق "أسوأ مما كان عليه". في ردّها على الانتقادات، أعلنت غوغل في منشور على مدونتها الرسمية أنها استمعت لتعليقات المستخدمين، وقامت بتحسين الأداء عبر دمج مزايا البحث الكلاسيكي داخل خدمة "Ask Photos"، ما يسمح بالحصول على نتائج فورية لعمليات البحث البسيطة مثل "شاطئ" أو "بيتزا"، بينما يتولى Gemini المهام الأكثر تعقيدًا في الخلفية. لكن ماذا لو لم ترق لك التجربة الجديدة؟ رغم اختفاء خيار العودة السريع إلى البحث الكلاسيكي، لا يزال بإمكانك إلغاء الاشتراك يدويًا. ما عليك سوى التوجه إلى صورة ملفك الشخصي في الزاوية العلوية من تطبيق الصور، ثم الإعدادات > التفضيلات > ميزات Gemini في صور غوغل، وهناك يمكنك تعطيل خيار "البحث باستخدام Ask Photos" للعودة إلى التجربة التقليدية.

احذر.. روبوتات الدردشة قد تُضللك صحيًا
احذر.. روبوتات الدردشة قد تُضللك صحيًا

صدى البلد

timeمنذ 10 ساعات

  • صدى البلد

احذر.. روبوتات الدردشة قد تُضللك صحيًا

في عصر أصبحت فيه تقنيات الذكاء الاصطناعي جزءًا من الحياة اليومية، باتت روبوتات الدردشة تُستخدم على نطاق واسع للإجابة عن استفسارات المستخدمين في مختلف المجالات، ومنها المجال الصحي، غير أن دراسة جديدة نُشرت في المجلة العالمية Annals of Internal Medicine، وجهت تحذيرًا صارمًا متضمنًا: (ثق بطبيبك، لا بروبوت الدردشة). دراسة تكشف عن مخاطر الذكاء الاصطناعي في الصحة أجرى باحثون دراسة تحليلية لتقييم مدى دقة المعلومات الصحية التي تقدمها خمسة من أبرز نماذج الذكاء الاصطناعي، والتي طورتها شركات تكنولوجية كبرى مثل: أوبن إيه آي، أنثروبيك، ميتا، جوجل، وإكس كورب، وتُستخدم هذه النماذج على نطاق واسع، وتُشكل الأساس للعديد من روبوتات الدردشة المتوفرة عبر التطبيقات والمواقع الإلكترونية. نتائج صادمة: 88% من الردود كانت خاطئة اعتمد الباحثون على أدوات خاصة بالمطورين (لا تتوفر لعامة المستخدمين) لبرمجة هذه النماذج وتوجيهها للإجابة عن أسئلة صحية حساسة، وكانت النتائج مثيرة للقلق، إذ تبين أن نسبة الردود الخاطئة بلغت 88% من إجمالي الإجابات المقدمة. والمقلق أكثر أن تلك الردود جاءت في قالب يبدو موثوقًا: لغة علمية، نبرة رسمية، وأحيانًا مراجع مختلقة، مما يزيد من قابلية تصديقها من قِبل المستخدم العادي. ادعاءات خطيرة ومعلومات مضللة تضمنت المعلومات المغلوطة التي قدمتها روبوتات الدردشة ادعاءات خرافية سبق أن تم تفنيدها علميًا، مثل: أن اللقاحات تُسبب التوحد. أن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء. أن شبكات الجيل الخامس (5G) تؤدي إلى العقم. وقد لاحظت الدراسة أن أربعة من النماذج الخمسة قدمت إجابات خاطئة بنسبة 100%، فيما أظهر نموذج واحد فقط مقاومة جزئية، حيث قدم معلومات مضللة في 40% من الحالات. تحذير من التلاعب بالمجتمع خلال الأزمات أكد الباحث ناتانش مودي، من جامعة جنوب إفريقيا وأحد مؤلفي الدراسة، أن هذه النتائج تمثل جرس إنذار خطير، وقال في بيانه: "بدون تدخل سريع، قد تستغل الجهات الخبيثة هذه الأنظمة للتلاعب بالنقاش العام حول القضايا الصحية، لا سيما في أوقات الأزمات مثل الأوبئة أو حملات التطعيم." الذكاء الاصطناعي أداة، لا بديلًا عن الأطباء تشدد هذه الدراسة على أن الذكاء الاصطناعي، رغم إمكانياته المتقدمة، لا يمكن أن يكون بديلًا عن الأطباء والخبراء المؤهلين، خاصة في ما يتعلق بصحة الإنسان، لذلك يبقى التشاور مع الأطباء هو الخيار الآمن، في مواجهة ما قد يبدو "علميًا" لكنه في جوهره قد يكون مضللًا وخطيرًا.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store