
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
كل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم...
بقلم: بيتر جي. كيرشلاجر
زيوريخ ــ في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.
بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك.
مأساة سيتزر ليست حالة معزولة. ففي ديسمبر/كانون الأول الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف.
لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها "وسائط التواصل غير الاجتماعي" إلا ببطء شديد. والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.
ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور.
لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل "الأب الروحي للذكاء الاصطناعي"، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: "أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي".
ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.
إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب.
يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز "الذكاء الاصطناعي" القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام.
وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.
* بيتر جي. كيرشلاجر، أستاذ الأخلاق ومدير معهد الأخلاق الاجتماعية في جامعة لوسيرن، هو أستاذ زائر في المعهد الفيدرالي السويسري للتكنولوجيا في زيورخ.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


شبكة النبأ
منذ 20 ساعات
- شبكة النبأ
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
كل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم... بقلم: بيتر جي. كيرشلاجر زيوريخ ــ في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي. بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر/كانون الأول الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها "وسائط التواصل غير الاجتماعي" إلا ببطء شديد. والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى. ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل "الأب الروحي للذكاء الاصطناعي"، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: "أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي". ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا. إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز "الذكاء الاصطناعي" القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل. * بيتر جي. كيرشلاجر، أستاذ الأخلاق ومدير معهد الأخلاق الاجتماعية في جامعة لوسيرن، هو أستاذ زائر في المعهد الفيدرالي السويسري للتكنولوجيا في زيورخ.

المدن
منذ 3 أيام
- المدن
اختراع يمكّن الحيوانات التحدّث بلغتنا: عصر الحوار بين الأنواع
هل تساءلت يوماً عمّا يحاول حيوانك الأليف إخبارك به؟ أو إذا كان يحتاج إلى المزيد من الطعام، أو أنه يحاول أن يحذرك من شيءٍ ما أو من رجلٍ غريب يقف على مقربة من منزلك ويشكل لك تهديداً وشيكاً؟ تخيل أنك ستستيقظ في يومٍ من الأيام وتفهم كل ما يقوله لك حيوانك الأليف بلغةٍ إنكليزية أو عربية واضحة. هذا المشهد سيتحول إلى حقيقة بفضل شركة "بايدو" الصينية التي تهدف إلى فكّ شيفرة لغة الحيوانات باستخدام الذكاء الاصطناعي. أصوات الحيوانات لغة بشرية قدمت شركة "بايدو" الصينية هذا الأسبوع براءة اختراع إلى الإدارة الوطنية الصينية للملكية الفكرية لنظام ذكاء اصطناعي يُستخدم لتحويل أصوات الحيوانات إلى لغةٍ بشرية. ولا بد لنا أن نشير هنا بأنها ليست المرة الأولى التي يحاول فيها العلماء، أو حتى عمالقة التكنولوجيا، فك شيفرة التواصل مع الحيوانات. ومع ذلك، تُعد براءة اختراع "بايدو" أحدث وأهم الجهود المبذولة في استخدام الذكاء الاصطناعي لتحقيق هذا الهدف. وفقاً لبراءة الاختراع، سيُستخدم نظام الذكاء الاصطناعي الجديد لجمع بيانات الحيوانات، مثل الأصوات الصوتية والأنماط السلوكية والإشارات الفسيولوجية، ويصار إلى تحليلها بواسطة نظام ذكاء اصطناعي خاص لفهم الحالة العاطفية للحيوان. وبعد ذلك يجري ربط البيانات المجمعة بالمعاني الدلالية وترجمتها إلى اللغة البشرية لتحسين دقة وكفاءة الاتصال بين البشر والحيوانات بشكلٍ أفضل. تطبيق على الهاتف المحمول ولا يقتصر مشروع "بايدو" الطموح على الصوت فحسب، إذ تُحدّد براءة الاختراع، المقدّمة إلى الإدارة الوطنية للملكية الفكرية في الصين، نظاماً يجمع ويعالج مجموعةً من سلوكيات الحيوانات تشمل الأصوات، وتغيرات لغة الجسد، والإشارات البيولوجية بدءاً من هزّ الذيل وصولاً إلى المشي بعصبية. وتَعِد "بايدو" بأن النظام سيُتيح تواصلاً وفهماً عاطفياً أعمق بين الحيوانات والبشر، مبشّرةً بعصرٍ جديد من الحوار بين الأنواع. وحسب الخبراء، من المرجح أن تكون هذه التقنية عبارة عن تطبيق توجه هاتفك عبره نحو حيوانك الأليف، وتسجل حركاته وصوته، وتحصل على ترجمةٍ فورية لما يقوله. ما الذي يميز "بايدو"؟ ليست "بايدو" المجموعة الوحيدة التي ينكبّ تركيزها على فهم لغة الحيوانات، فهناك "مشروع أنواع الأرض"، المدعوم من عمالقة التكنولوجيا مثل "لينكد إن"، يحاول فك شيفرة التواصل بين الأنواع منذ عام 2017. وقد تمكن علماء دانماركيون مؤخراً من تفسير همهمات الخنازير على أنها تعبيراتٍ عاطفية باستخدام الذكاء الاصطناعي. لكن ما يميز "بايدو" هو أنها واحدة من أبرز مطوري الذكاء الاصطناعي في الصين، حيث استثمرت الشركة بكثافة في نماذج اللغات على نطاق واسع، بما في ذلك روبوتها "إرني 4.5 توربو"، المنافس الطموح لبرنامج "تشات جي بي تي"، ورغم أن روبوت الدردشة هذا لم يتفوق على نظرائه الأميركيين بعد، إلا أن اقتحام "بايدو" الجريء لعالم الحيوان يُشير إلى أن الشركة تفكر بما يتجاوز الحوار البشري. ومع أن البعض قد يسخر منها، إلا أن الانعكاسات الإيجابية لهذه التقنية كثيرة. وفي حال نجاحها، قد يُحدث اختراع "بايدو" ثورة في رعاية الحيوانات الأليفة، والتشخيص البيطري، وبحوث الحياة البرية، وحتى الزراعة. كما يُمكنه أن يُغير الرابط العاطفي بين البشر والحيوانات من الافتراض إلى التعبير.


شبكة النبأ
منذ 7 أيام
- شبكة النبأ
كيف يمكن للعلماء تبني استخدام الذكاء الاصطناعي؟
أثارت تقنية الذكاء الاصطناعي التوليدي العديد من المسائل الأخلاقية حول كيفية تطويرها واستخدامها، خاصةً فيما يتعلق بالبحث العلمي. حيث توجد العديد من القضايا -الخلافية في كثير من الأحيان- المرتبطة بحقوق الملكية الفكرية، أو بالتأثير البيئي، أو بتوسيع الفجوة بين المجتمعات، أو بالعواقب الاقتصادية لاستخدام تلك التقنية... ربما يظن البعض أن استخدام "الذكاء الاصطناعي التوليدي" في مجال البحث العلمي يقتصر فقط على المساعدة في النشر العلمي. فبعد إطلاق النموذج الأول من تشات جي بي تي بنهاية عام 2022، بدأ الباحثون في استكشاف قدرات هذا "النموذج اللغوي الكبير" في عمليات التحرير والمراجعة اللغوية لمسودات أوراقهم البحثية قُبيل تقديمها للنشر، وذلك بهدف إنتاج أوراق بحثية عالية الجودة. لكن الأمر تطور بسرعة ليصبح الذكاء الاصطناعي التوليدي مشاركًا في عملية الكتابة بحد ذاتها، فقد تم نشر أول ورقة بحثية علمية حملت قائمة مؤلفيها اسم تشات جي بي تي مطلع عام 2023. الأمر الذي أحدث جدلًا علميًا وأخلاقيًا في أوساط مجتمع البحث العلمي استمر إلي يومنا هذا. وبرغم التطور المتسارع لقدرات نماذج الذكاء الاصطناعي التوليدي، وتوفر أكثر من أداة، ركز العلماء على عملية النشر العلمي بشكل أساسي، متغافلين بذلك عن قدرات تلك النماذج الفائقة التي يمكن توظيفها في عملية البحث العلمي ذاته. الذكاء الاصطناعي التوليدي في خدمة البحث العلمي معظم نماذج الذكاء الاصطناعي التوليدي الشائعة -مثل تشات جي بي تي، جيميناي، كو-بايلوت، كلود، وغيرها- هي بشكل رئيسي للاستخدام العام لأغراض غير متخصصة. إلا أنه مؤخرًا تم تطوير نماذج أخرى أكثر تخصصًا يمكنها القيام بمهام تتعلق بالبحث العلمي بشكل مباشر، بالإضافة إلى تطوير نسخ من نماذج الاستخدام العام تمتلك القدرة على طرح الأسئلة والتحليل والاستنتاج في إطار البحث العلمي. فقد طورت شركة جوجل نظام "وكيل الذكاء الاصطناعي" يدعى "العالِم المُساعِد" (co-scientist)، يمكنه مساعدة العلماء في تطوير فرضيات علمية ومقترحات بحثية جديدة والمساعدة في تسريع البحث العلمي عبر تخصصات متعددة. وقد قام فريق بحثي من "إمبريال كولدج لندن" (Imperial College London)، باختبار قدرات هذا النموذج، الذي تمكن من الوصول إلى نتائج بحثية في مشكلة علمية تتعلق بمقاومة المضادات الحيوية في غضون 48 ساعة فقط، الأمر الذي استغرق الفريق البحثي قرابة عقد من الزمن للوصول للنتائج ذاتها. كما يمكن للنماذج المتقدمة من الذكاء الاصطناعي التوليدي للاستخدام العام -مثل OpenAI o1- أن تساعد العلماء في مهام أكثر تعقيدًا عبر اتباع منهجيات التفكير العلمي، لتتجاوز بذلك الأدوار التقليدية المتعلقة فقط بالكتابة والنشر. "يمكن للذكاء الاصطناعي التوليدي تعزيز البحث العلمي من خلال تسريع وإثراء توليد الأفكار -خاصة بين التخصصات وعبر المجالات المتعددة التي قد لا تكون واضحة في مجال معين- وأتمتة تحليل البيانات، وتقليل الوقت والتكلفة للعديد من المهام المهمة لكنها رتيبة ومرهقة لإعداد البيانات ومعالجتها." كما يوضح نزار حبش، أستاذ علوم الحاسوب بجامعة نيويورك أبوظبي. خلاصة الأمر أن أدوات الذكاء الاصطناعي الحالية يمكنها دعم دورة البحث العلمي بأكملها؛ بدءًا من توليد الأفكار وصياغة الفرضيات وتصميم المنهجيات، مرورًا بالتنفيذ من جمع للبيانات وترميزها وتحليلها، وانتهاءً بكتابة الأوراق البحثية ومراجعتها ونشرها بدوريات علمية محكمة. وللوصول لذلك، تضمن النصائح التالية استخدام تلك التكنولوجيا بشكل ناجح وأخلاقي في الوقت ذاته. 1- تعلم الذكاء الاصطناعي التوليدي ربما يبدو ذلك بديهيًا، لكن تدريب العلماء على أدوات الذكاء الاصطناعي يجب أن يتجاوز مجرد استخدام تلك الأدوات إلى فهم كيفية عملها وماهية قدراتها وحدود إمكانياتها، مما يساعد في تحديد أفضل طريقة لتبنى تلك التقنية، ومن ثم بناء قدرات قاعدة عريضة من الباحثين الذين يمكنهم استخدام الذكاء الاصطناعي بشكل فعال. يوضح هايرو لوغو-اوكاندو، عميد كلية الاتصال بجامعة الشارقة، "يرى العديد من الباحثين أنه (الذكاء الاصطناعي التوليدي) شيء يمكن تعلمه لاحقًا، ولا يركزون بما فيه الكفاية على فهم فائدته. نعم، لقد كان هناك الكثير من الضجة حوله، لكن الذكاء الاصطناعي التوليدي ليس شيئًا ثانويًا في البحث العلمي. بل هو محوري. ويقع على عاتق الباحثين فهم كيف يمكن استخدامه وأين يجب استخدامه." 2- وضع استراتيجية للذكاء الاصطناعي التوليدي بالتوازي مع بناء قدرات العلماء، ينبغي تطوير استراتيجيات تبني استخدام الذكاء الاصطناعي التوليدي داخل الجامعات والمؤسسات البحثية. يتضمن ذلك بناء رؤية واضحة حول الدور الذي يمكن أن تلعبه تلك التقنية في البحث العلمي، مع الأخذ بعين الاعتبار سياسات الأطراف الفاعلة الأخرى من الجهات الحكومية وجهات التمويل ومؤسسات النشر العلمي، وهو النهج الذي اتبعه عدد من مؤسسات التعليم العالي والبحث العلمي في دولة الإمارات العربية المتحدة، كما يوضح لوغو-اوكاندو. فقد استحدثت جامعة أبو ظبي منصبًا قياديًا جديدًا مطلع العام الجاري يدعى "نائب مدير الجامعة للذكاء الاصطناعي والتميز التشغيلي"، والذي يختص بتطوير وتنفيذ استراتيجيات استخدام تطبيقات الذكاء الاصطناعي التوليدي فيما يتعلق بالبحث العلمي وطرق التدريس. 3- التعامل مع الذكاء الاصطناعي التوليدي كشريك وليس كبديل دائمًا ما يكون السؤال حول كيفية التعامل مع الذكاء الاصطناعي التوليدي مطروحًا، خاصةً مع التخوف من قدرة الذكاء الاصطناعي التوليدي على إنتاج معلومات تبدو مقنعة لكنها غير دقيقة أو مختلقة- وهو ما يُدعى "الهلوسة" (Hallucination). لذا تعد معاملة الذكاء الاصطناعي كشريك وليس كبديل هي الطريقة المُثلى لاستخدامه في البحث العلمي. حيث يظل الباحث البشري هو المسؤول عن التفكير واتخاذ القرارات والتحقق من مخرجات الذكاء الاصطناعي، بينما يعمل الذكاء الاصطناعي كمساعد ذي قدرات فائقة على أداء بعض المهام في وقت أقصر وبتكلفة أقل. يؤكد ذلك حبش قائلًا: "الذكاء الاصطناعي هو أداة تعزز الخبرة البشرية ولا تستبدلها. وتبقى المسؤولية النهائية في ما يخص الدقة العلمية على عاتق العلماء والباحثين... فيجب أن يكون (الباحثون) مدرَّبين بشكل جيد ومتخصصين بعمق في مجالاتهم الخاصة حتى لا ينخدعوا بهلوسة الذكاء الاصطناعي." 4- إدراك تحيزات الذكاء الاصطناعي التوليدي "تم تدريب جميع نماذج الذكاء الاصطناعي التوليدي إلى حد كبير على بيانات من مصادر 'غربية' في أغلبها، وبالتالي فهي غير متنوعة ولذا فهي متحيزة. حتى طريقة تصميمها تضم تحيّزًا، الأمر الذي قد لا نفهمه الآن وقد لا يظهر إلا لاحقًا حتى من دون أن ندركه .. لذلك فالمخرجات دائمًا ما ستكون ذات تحيّز متأصل، ويجب أن نكون منتبهين لذلك." كما تبين رنا دجاني، أستاذ علم الأحياء الخلوي الجزيئي بالجامعة الهاشمية. يُعد إدراك ذاك التحيز المتجذر بنماذج الذكاء الاصطناعي التوليدي أمرًا بالغ الأهمية بالنسبة للعلماء. حيث يجب دائمًا أخذه في الحسبان عند استخدامه لأغراض البحث العلمي. وبناءًا على ذلك، فإن دور الباحثين يتمثل في المزيد من التحقق درءًا للتحيز، والتقييم النقدي المستمر لنتائج المهام الموكلة إلى الذكاء الاصطناعي، وبذلك يمكن التأكد من استخدام أكثر تنوعًا وشمولًا وتوازنًا دون الوقوع في فخ تلك التحيزات. 5- استخدام وتطوير ذكاء اصطناعي متخصص في البحث العلمي بالرغم من انتشار نماذج الذكاء الاصطناعي ذات الاستخدام العام، إلا أن هناك بعض النماذج المتخصصة التي يُنصح باستخدامها، والتي تتميز بنتائج أفضل في المهام المتعلقة بالبحث العلمي. وذلك مثل نموذج AlphaFold المصمم لتوقع البنية الهيكلية لجزيئات البروتين، ونموذج Elicit المتخصص في تلخيص الأدبيات العلمية، ونموذج GENTRL الذي يمكن استخدامه في عمليات تصميم المركبات الدوائية؛ فتلك النماذج مدرَّبة على مجموعات بيانات ذات صلة، كما أنها مُعدَّلة بدقة لتناسب عملية البحث العلمي. بجانب ذلك يمكن للعلماء -في مجال بعينه أو عبر تخصصات متعددة- التعاون لتطوير نماذج ذات تخصص دقيق بغرض القيام بمهام علمية محددة للغاية. على سبيل المثال، قام فريق بحثي متعدد التخصصات بتطوير نموذج يدعى ECgMPL يمكنه تشخيص سرطان بطانة الرحم بدقة تبلغ 99.26%، وفقًا للدراسة المنشورة مطلع العام الجاري. 6- الاستخدام الأخلاقي للذكاء الاصطناعي أثارت تقنية الذكاء الاصطناعي التوليدي العديد من المسائل الأخلاقية حول كيفية تطويرها واستخدامها، خاصةً فيما يتعلق بالبحث العلمي. حيث توجد العديد من القضايا -الخلافية في كثير من الأحيان- المرتبطة بحقوق الملكية الفكرية، أو بالتأثير البيئي، أو بتوسيع الفجوة بين المجتمعات، أو بالعواقب الاقتصادية لاستخدام تلك التقنية. إذ يتشابك كل ذلك مع البحث العلمي، وهو الأمر الذي لا يجب إغفاله على الإطلاق. فرغم فوائد أدوات الذكاء الاصطناعي، إلا أنها قد تُستخدم في تزييف البيانات، وإنشاء مراجع وهمية، وإنتاج أبحاث كاملة دون إشراف بشري. كذلك قد تُستخدم نماذج الذكاء الاصطناعي في تضخيم التحيز ضد الفئات المهمشة. وقد أظهرت دراسة أن أحد نماذج الذكاء الاصطناعي قام بشكل انتقائي، بتصنيف المرضى من النساء وذوي البشرة الداكنة وأصحاب الدخل المنخفض على أنهم أصحاء، ما قد يؤدي إلى إغفال تشخيص الحالات الطبية والحرمان من العلاج المناسب.