logo
زلزال باليونان تشعر به مصر وتركيا ولا أضرار

زلزال باليونان تشعر به مصر وتركيا ولا أضرار

الجزيرة١٤-٠٥-٢٠٢٥

ضرب زلزال جزيرة كريت اليونانية في وقت مبكر من صباح اليوم الأربعاء، وشعرت به أيضا مناطق في مصر وتركيا دون تسجيل أنباء عن ضحايا أو أضرار.
وحسب مركز أبحاث علوم الأرض الألماني، فقد بلغت شدة زلزال كريت 6.3 درجات على مقياس ريختر وكان مركزه على عمق 83 كيلومترا، قبالة سواحل جزيرتي كريت وسانتوريني.
أما هيئة المسح الجيولوجي الأميركية، فقالت إن مركز الزلزال كان على عمق 78 كيلومترا تحت سطح الأرض، وعلى بعد نحو 15 كيلومترا جنوب مدينة فراي.
في غضون ذلك، أفاد سكان في مصر بشعورهم بهزة أرضية بعد منتصف الليلة الماضية، لكن المعهد المصري للبحوث الفلكية والجيوفيزيقية قال إن أجهزته لم ترصد أي توابع لزلزال البحر المتوسط، كما لم تسجل أي إصابات أو أضرار في الممتلكات.
وحسب المعهد فقد بلغت شدة الزلزال 6.4 درجات وكان على بعد 431 كيلومترا قبالة السواحل الشمالية لمصر.
وتشير وكالة الصحافة الفرنسية إلى أن منطقة سانتوريني، الجزيرة الواقعة في بحر إيجه التي تعتبر وجهة سياحية رئيسية في اليونان، شهدت نشاطا زلزاليا استثنائيا في شهري يناير/ كانون الثاني وفبراير/ شباط الماضيين، إذ تعرضت لآلاف الهزّات الأرضية، مما أجبر قسما من السكان على الفرار.
وتقع اليونان على صدوع جيولوجية عدة في جنوب شرق البحر الأبيض المتوسط، وتشهد نشاطا زلزاليا كثيفا.
ويعود آخر زلزال كبير في اليونان إلى أكتوبر/تشرين الأول 2020 وقد ضرب يومها جزيرة ساموس، الواقعة في بحر إيجه، بين اليونان وتركيا، وبلغت قوته 7 درجات على مقياس ريختر، وقد أدى إلى مقتل شخصين في جزيرة ساموس وأكثر من 100 شخص في مدينة إزمير الساحلية التركية.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

الذكاء الاصطناعي وتوظيفه في تفسير القرآن
الذكاء الاصطناعي وتوظيفه في تفسير القرآن

الجزيرة

timeمنذ 3 ساعات

  • الجزيرة

الذكاء الاصطناعي وتوظيفه في تفسير القرآن

في ظل التطور التكنولوجي المتسارع الذي يشهده العالم، أصبح الذكاء الاصطناعي (AI) قوة دافعة تساهم في تغيير أنماط حياتنا في مختلف المجالات، بما في ذلك التعليم، والصحة، والصناعة. ومن بين التطبيقات المثيرة للجدل والاهتمام على حد سواء، يأتي موضوع توظيف الذكاء الاصطناعي في تفسير النصوص الدينية، وعلى رأسها القرآن الكريم. فما هي الإمكانات التي يوفرها الذكاء الاصطناعي في هذا المجال؟ وما هي التحديات التي يجب أن تؤخذ بعين الاعتبار؟ يمكن لنظام ذكاء اصطناعي أن يتعرف على الفروق الدقيقة بين الكلمات المترادفة في اللغة العربية، ويقدم ترجمة دقيقة تأخذ هذه الفروق بعين الاعتبار إمكانات الذكاء الاصطناعي في تفسير القرآن يمكن للذكاء الاصطناعي تحليل النصوص القرآنية باستخدام تقنيات متقدمة مثل معالجة اللغة الطبيعية. هذه التقنيات تتيح للأنظمة التعرف على الأنماط اللغوية، وتصنيف الآيات بناءً على موضوعاتها، وربطها بتفاسير معتمدة. إذ يمكن على سبيل المثال: تصنيف الآيات حسب المواضيع: (العقيدة، الأحكام، القصص، العبادات). هذا يساعد الباحثين على الوصول السريع إلى الآيات المتعلقة بمسألة معينة، ما يختصر الوقت ويعزز دقة البحث. تحليل العلاقات بين الآيات التي تتناول موضوعًا معينًا لتقديم رؤية شاملة. على سبيل المثال، يمكن لنظام ذكاء اصطناعي أن يربط بين آيات تتحدث عن مفهوم التوحيد أو العدل الإلهي. تقديم التفاسير الموثوقة يمكن للذكاء الاصطناعي اقتراح التفاسير المختلفة بناءً على السياق التاريخي واللغوي للآيات؛ فمن خلال تغذية النظام ببيانات شاملة من التفاسير المعتمدة مثل: (تفسير الطبري، ابن كثير، القرطبي)، يمكنه تقديم شروح دقيقة وموجهة للمستخدمين. هذه الميزة تتيح للمستخدمين فهم النصوص القرآنية من زوايا متعددة، ما يساعدهم على الوصول إلى استنتاجات قائمة على أسس معرفية عميقة. تحسين الترجمات القرآنية يعاني كثير من الترجمات الحالية من قصور في إيصال المعنى الدقيق للنص القرآني. هنا يأتي دور الذكاء الاصطناعي الذي يمكنه استخدام تقنيات التعلم العميق لتحليل النصوص القرآنية، وترجمتها بدقة أعلى تأخذ في الاعتبار السياق والمعاني الضمنية. على سبيل المثال، يمكن لنظام ذكاء اصطناعي أن يتعرف على الفروق الدقيقة بين الكلمات المترادفة في اللغة العربية، ويقدم ترجمة دقيقة تأخذ هذه الفروق بعين الاعتبار. الإجابة عن الأسئلة الدينية من خلال تطوير أنظمة ذكاء اصطناعي مدعومة بالتفاسير الموثوقة، يمكن للمستخدمين الحصول على إجابات دقيقة وموجهة للأسئلة المتعلقة بمعاني الآيات. على سبيل المثال: "ما معنى قوله تعالى: {وَقُل رَبِّ زِدْنِي عِلْمًا}؟".. يمكن للنظام تقديم تفسير معتمد من مصادر متعددة، مع تضمين معلومات عن سياق الآية وأهميتها في الشريعة الإسلامية. التحديات المحورية في تفسير القرآن باستخدام الذكاء الاصطناعي الدقة والموثوقية: النص القرآني يحمل معاني دقيقة وعميقة، ومن ثم فإن أي خطأ في تفسيره قد يؤدي إلى فهم مغلوط. لذلك يجب أن تعتمد الأنظمة على قواعد بيانات معتمدة، وأن تخضع لرقابة صارمة من قبل علماء متخصصين في الشريعة والتفسير. هذه الرقابة لا تقتصر فقط على التأكد من صحة المعلومات، بل تشمل أيضًا ضمان تقديم التفسيرات بطريقة تحترم قدسية النص القرآني. التفاسير القرآنية تتأثر بالثقافات والخلفيات التاريخية للمفسرين؛ لذا يجب على الأنظمة أن تراعي هذا التنوع، وتقدم وجهات نظر متعددة بدلًا من الاعتماد على تفسير واحد. هذا يتطلب من الأنظمة أن تكون مرنة بما يكفي لتقديم شروح مختلفة لنفس النص، مع توضيح الفروق بينها، وإبراز السياقات التي دفعت المفسرين إلى اختيار وجهة نظر معينة. تفسير القرآن ليس مجرد عملية تحليل لغوي، بل يتطلب فهمًا شاملًا للسياق الديني والشرعي. أي استخدام غير مدروس للذكاء الاصطناعي قد يؤدي إلى نتائج تسيء للنصوص الدينية أو تفقدها قدسيتها. على سبيل المثال، يجب أن تكون جميع المخرجات خالية من أي تأويلات شخصية أو غير معتمدة، مع التأكيد على أن هذه الأنظمة هي أدوات مساعدة وليست بديلًا عن العلماء. البعد الشرعي: مكانة القرآن في الإسلام وضوابط تفسيره القرآن كمرجع أساسي في الشريعة: القرآن الكريم هو المصدر الأول للتشريع الإسلامي، وهو النص المقدس الذي يؤمن المسلمون بأنه كلام الله المنزل على النبي محمد، صلى الله عليه وسلم. يتسم النص القرآني بأنه شامل ومستوعب لقضايا العقيدة، والعبادات، والمعاملات، والأخلاق، ما يجعل تفسيره مسؤولية كبيرة تقع على عاتق العلماء. تفسير القرآن يخضع لضوابط شرعية صارمة لضمان احترام النص وقدسيته. من بين هذه الضوابط: الاعتماد على اللغة العربية: القرآن نزل بلغة عربية فصيحة، ومن ثم فإن فهمه يتطلب معرفة عميقة بقواعد اللغة والبلاغة. الرجوع إلى السنة النبوية: السنة النبوية تعتبر مفسرًا عمليًّا لكثير من النصوص القرآنية. الاستناد إلى أقوال الصحابة والتابعين: تفاسير السلف تحمل قيمة كبيرة، لكونهم الأقرب زمنًا إلى نزول الوحي. تجنب التفسير بالرأي المجرد: يجب أن يكون أي تفسير مستندًا إلى دليل شرعي معتبر، وليس مجرد اجتهاد شخصي. توافق مخرجات الذكاء الاصطناعي مع الضوابط الشرعية يتطلب مراجعة صارمة من علماء متخصصين في الشريعة التحدي الشرعي في توظيف الذكاء الاصطناعي إن استخدام الذكاء الاصطناعي في تفسير القرآن يفتح المجال أمام قضايا معقدة تتعلق بالشريعة والأخلاقيات، ومن أبرز التساؤلات الشرعية التي يثيرها هذا الموضوع: هل يمكن لنظام اصطناعي أن يستوعب السياق الشرعي واللغوي للنص؟ النص القرآني يمتاز بعمقه اللغوي وسياقه الشرعي الذي يتطلب فهمًا دقيقًا للقواعد النحوية والبلاغة العربية، بالإضافة إلى التفسيرات التاريخية والثقافية. الذكاء الاصطناعي يعتمد على قواعد البيانات والخوارزميات لتحليل النصوص، ولكنه يفتقر إلى الحس الروحاني والفهم المقاصدي للنصوص الدينية. لذلك، فإن اعتماده الكامل على تقنيات مثل التعلم العميق أو معالجة اللغة الطبيعية قد يؤدي إلى إسقاطات خاطئة أو سطحية. لحل هذا التحدي، يجب أن يتم تدريب الأنظمة الذكية باستخدام بيانات دقيقة تشمل التفاسير الموثوقة، مع مراعاة التنوع الفقهي واللغوي في تفسير النصوص. ومع ذلك، يبقى السؤال حول قدرة هذه الأنظمة على التعامل مع التعقيد الشرعي واللغوي دون توجيه بشري محوريًّا. كيف نضمن أن تكون مخرجات الأنظمة متوافقة مع الضوابط الشرعية؟ توافق مخرجات الذكاء الاصطناعي مع الضوابط الشرعية يتطلب مراجعة صارمة من علماء متخصصين في الشريعة. لضمان ذلك، يمكن اتباع نهج مزدوج: إنشاء لجان علمية شرعية: تضم هذه اللجان علماء في التفسير والفقه لمراجعة وتدقيق مخرجات الأنظمة، وضمان تطابقها مع الضوابط الشرعية. بناء إطار عمل شرعي تقني: يمكن تصميم أنظمة ذكاء اصطناعي متوافقة مع معايير شرعية محددة، تتضمن قواعد مثل: الاعتماد على النصوص الموثوقة، والامتناع عن التأويل بالرأي، وتوضيح المخرجات بطريقة علمية مدروسة. هذا النهج يساعد في الحفاظ على قدسية النصوص، ويمنع سوء التفسير الناتج عن الأخطاء البرمجية أو الخوارزميات غير الدقيقة. إن استخدام الذكاء الاصطناعي في تفسير القرآن هو خطوة تقنية رائدة، لكنها تحمل في طياتها تحديات كبيرة تتطلب حكمة ودقة؛ فكما يمكن للتكنولوجيا أن تكون أداة لفهم أعمق للنصوص، قد تصبح مصدرًا للإرباك إذا لم يتم استخدامها بشكل صحيح أخلاقيات الاستخدام وتوصيات للتطوير التعاون مع العلماء والمختصين: لتجنب الأخطاء وسوء الفهم، يجب تطوير هذه الأنظمة بالتعاون مع علماء الشريعة والمختصين في التفسير. هذا يضمن تقديم معلومات دقيقة وموثوقة، ويضمن أيضًا أن تكون الأنظمة متوافقة مع القيم الإسلامية. وعلى مطوري الأنظمة أن يوضحوا مصدر المعلومات المستخدمة في التدريب وكيفية تقديم التفسيرات للمستخدمين؛ حتى يكونوا على دراية بمصدر التفسير ومدى موثوقيته. الشفافية تعزز من ثقة المستخدمين، وتجعل الأنظمة أكثر قبولًا. يجب أن تُبنى جميع التطبيقات على مبدأ احترام النصوص الدينية والحفاظ على قدسيتها، مع مراعاة الحساسية الثقافية والدينية. هذا يشمل تجنب تقديم مخرجات قد تُفهم بطريقة خاطئة أو تُسيء إلى النص القرآني. يجب التأكيد على أن الذكاء الاصطناعي ليس بديلًا عن العلماء أو المختصين، بل هو أداة مساعدة تهدف إلى تسهيل الوصول إلى المعلومات وزيادة الفهم. يجب أن يتم تقديم الأنظمة على هذا الأساس، مع التأكيد على أهمية الاستشارة الشرعية في القضايا المعقدة، مع ضرورة التأكيد على الدور الإنساني في توجيه هذه الأدوات، وضمان استخدامها بشكل يحترم قدسية النصوص وأبعادها الشرعية والروحية. بين التقنية والروحانية يبقى القرآن الكريم نصًّا مقدسًا يحمل في طياته معاني سامية، لا يمكن لأي نظام اصطناعي أن يدركها بالكامل. إن استخدام الذكاء الاصطناعي في تفسير القرآن هو خطوة تقنية رائدة، لكنها تحمل في طياتها تحديات كبيرة تتطلب حكمة ودقة؛ فكما يمكن للتكنولوجيا أن تكون أداة لفهم أعمق للنصوص، قد تصبح مصدرًا للإرباك إذا لم يتم استخدامها بشكل صحيح. لذا، فإن تحقيق التوازن بين التقنية والروحانية هو المفتاح لتحقيق فائدة حقيقية من هذه الأدوات، دون المساس بقدسية النصوص.

الذكاء الاصطناعي ضمن بوصلة القرآن
الذكاء الاصطناعي ضمن بوصلة القرآن

الجزيرة

timeمنذ 4 أيام

  • الجزيرة

الذكاء الاصطناعي ضمن بوصلة القرآن

لم أكن أتخيل يومًا أن أقف متأملًا العلاقة الوثيقة بين آيات القرآن الكريم وتقنيات الذكاء الاصطناعي التي تتسارع يومًا بعد يوم، فبينما تُبهرنا نماذج اللغة الكبيرة كـ GPT وClaude بقدرتها على محاكاة الأساليب اللغوية المختلفة، وتذهلنا تقنيات توليد الصور مثل DALL-E وMidjourney بلوحاتها الفنية المعقدة، وجدتُ نفسي أعود إلى كتاب الله بحثًا عن بوصلة أخلاقية وروحية تُرشد مسار هذه التطورات نحو خير البشرية وسعادتها، فإن البشرية تشهد اليوم ثورةً تقنيةً هائلة تثير أسئلة عميقة حول طبيعة المعرفة البشرية وحدودها، وعلاقة الإنسان بالآلة، ومستقبل الوجود البشري في عالم تتزايد فيه التقنية الذكية تعقيدًا واستقلالية. وفي خضم هذا المشهد المتسارع، يقف القرآن الكريم منارة هدى وكتاب خلود، يحمل بين دفتيه هدايات ربانية تتجاوز حدود الزمان والمكان. خصوصية الإنسان في زمن الآلات الذكية أتأمل ظاهرة محاكاة الذكاء الاصطناعي للإبداع البشري، فأجد فيها تجسيدًا حيًا لقوله تعالى: ﴿سَنُرِيهِمْ آيَاتِنَا فِي الْآفَاقِ وَفِي أَنفُسِهِمْ حَتَّى يَتَبَيَّنَ لَهُمْ أَنَّهُ الْحَقُّ﴾ [فصلت: 53]، فالقدرة على تطوير أنظمة ذكية تُحاكي بعض جوانب الذكاء البشري هي من الآيات التي تدفعنا للتأمل في عظمة الخالق الذي وهب الإنسان العقل المبدع، لكن ما الذي يجعل الإنسان إنسانًا في عالم تُتقن فيه الآلات محاكاة الإبداع البشري؟ إعلان يذكرنا القرآن الكريم بأن الإنسان ليس مجرد نتاج لمعادلات بيولوجية وكيميائية، بل هو مخلوق منفوخ فيه من روح الله: ﴿وَنَفَخْتُ فِيهِ مِن رُّوحِي﴾ [الحجر: 29]، وهذا البعد الروحي يظل سرًا إلهيًا يتجاوز الإدراك البشري: ﴿وَيَسْأَلُونَكَ عَنِ الرُّوحِ قُلِ الرُّوحُ مِنْ أَمْرِ رَبِّي وَمَا أُوتِيتُم مِّنَ الْعِلْمِ إِلَّا قَلِيلًا﴾ [الإسراء: 85]. إن هذه الخصوصية الإنسانية تُشكل حجر الزاوية في فهمنا للعلاقة بين الإنسان والآلة؛ فمهما تطورت الخوارزميات وتعقدت الشبكات العصبية، يظل الوعي البشري متفردًا ومتجاوزًا لأي محاكاة آلية. الاستخلاف وتوظيف التقنية.. مسؤولية أخلاقية يقدم القرآن الكريم رؤية فريدة لمكانة الإنسان في الكون، تجمع بين التكريم الإلهي والمسؤولية الأخلاقية، فالإنسان مستخلَف في الأرض، مؤتمَن على عمارتها وحمايتها: ﴿وَإِذْ قَالَ رَبُّكَ لِلْمَلَائِكَةِ إِنِّي جَاعِلٌ فِي الْأَرْضِ خَلِيفَةً﴾ [البقرة: 30]، هذه الثنائية بين التكريم والاستخلاف توجه الإنسان نحو تطوير التقنية واستثمارها في إعمار الأرض، مع الالتزام بضوابط أخلاقية تحمي الكرامة الإنسانية، ومن هنا تكتسب تقنيات الذكاء الاصطناعي قيمتها كأدوات للاستخلاف الإيجابي، بشرط أن توظف في خدمة الإنسان ورفع المعاناة عنه، لا في انتهاك كرامته أو إلغاء دوره. وقد تأملت كثيرًا في قول أحد العلماء المعاصرين: "الاستخلاف في الأرض ليس مجرد تصرف مطلق اليد في مواردها، بل هو أمانة ومسؤولية تقتضي الحفاظ على توازنها والارتقاء بها وفق مراد المُستخلِف، سبحانه وتعالى"، ومن هذا المنطلق، فإن تطوير الذكاء الاصطناعي يجب أن يكون محكومًا بمفهوم الاستخلاف بمعناه القرآني العميق. أصبح من المعلوم اليوم أن العديد من أنظمة الذكاء الاصطناعي تعاني من تحيزات عنصرية أو جنسية أو طبقية، نتيجة التحيزات الموجودة في البيانات التي تم تدريبها عليها، هذه التحيزات تتعارض مع مبدأ العدل القرآني التواضع المعرفي في زمن الانفجار المعلوماتي في عصر الثورة المعلوماتية الهائلة، يأتي القرآن الكريم ليذكرنا بمحدودية المعرفة البشرية: ﴿وَمَا أُوتِيتُم مِّنَ الْعِلْمِ إِلَّا قَلِيلًا﴾ [الإسراء: 85]، هذا التذكير ليس دعوة للجهل أو إعاقة للتقدم العلمي، بل هو دعوة للتواضع المعرفي الذي يحمي الإنسان من الغرور والطغيان العلمي، ولكم يؤلمني أن أرى بعض المفتونين بتقنيات الذكاء الاصطناعي يتحدثون عن "التفرد التكنولوجي" (Technological Singularity)، وكأنه نقطة انعتاق نهائي للإنسان من محدوديته البيولوجية! وكأن التقنية ستُخلص الإنسان من الموت والفناء الذي كتبه الله على كل نفس: ﴿كُلُّ نَفْسٍ ذَائِقَةُ الْمَوْتِ﴾ [آل عمران: 185]. إعلان حذّرنا القرآن من طغيان الإنسان حين يظن أنه استغنى بعلمه: ﴿كَلَّا إِنَّ الْإِنسَانَ لَيَطْغَى أَن رَّآهُ اسْتَغْنَى﴾ [العلق: 6-7]، وكأني بهذا التحذير الإلهي ينطبق على عصرنا الحالي، حيث يظن البعض أن التقدم التكنولوجي قد جعل الإنسان مستغنيًا عن الإيمان، أو متحكمًا بمصيره بشكل مطلق. البوصلة الأخلاقية القرآنية للذكاء الاصطناعي مع تسارع التطورات التقنية، تزداد الحاجة إلى بوصلة أخلاقية ثابتة توجه مسار هذه التطورات، والقرآن الكريم -بمنظومته القيمية المتكاملة- يقدم إطارًا أخلاقيًا متينًا، يمكن أن يرشد تطوير تقنيات الذكاء الاصطناعي وتطبيقاتها. أليس من المؤسف أن نرى بعض شركات التقنية العملاقة تجمع بيانات المستخدمين وتستغلها في تحقيق أرباح طائلة دون موافقة حقيقية منهم؟ أليس هذا ضربًا من خيانة الأمانة التي حذرنا منها القرآن؟ العدل والمساواة.. خوارزميات غير متحيزة يؤكد القرآن الكريم على قيمة العدل الشاملة: ﴿إِنَّ اللَّهَ يَأْمُرُ بِالْعَدْلِ وَالْإِحْسَانِ﴾ [النحل: 90]، وهذا المبدأ يوجهنا في تصميم الخوارزميات وأنظمة الذكاء الاصطناعي لضمان عدم تحيزها ضد فئات معينة من البشر. أصبح من المعلوم اليوم أن العديد من أنظمة الذكاء الاصطناعي تعاني من تحيزات عنصرية أو جنسية أو طبقية، نتيجة التحيزات الموجودة في البيانات التي تم تدريبها عليها، هذه التحيزات تتعارض مع مبدأ العدل القرآني، وتستدعي جهودًا حثيثة من المطورين لمعالجتها. يُبرز القرآن الكريم قيمة الأمانة كمسؤولية عظيمة تميز الإنسان: ﴿إِنَّا عَرَضْنَا الْأَمَانَةَ عَلَى السَّمَاوَاتِ وَالْأَرْضِ وَالْجِبَالِ فَأَبَيْنَ أَن يَحْمِلْنَهَا وَأَشْفَقْنَ مِنْهَا وَحَمَلَهَا الْإِنسَانُ﴾ [الأحزاب: 72]، وفي عصر البيانات الضخمة، تكتسب هذه القيمة أهمية خاصة في حماية خصوصية المستخدمين. أليس من المؤسف أن نرى بعض شركات التقنية العملاقة تجمع بيانات المستخدمين وتستغلها في تحقيق أرباح طائلة دون موافقة حقيقية منهم؟ أليس هذا ضربًا من خيانة الأمانة التي حذرنا منها القرآن؟ الرحمة والإحسان.. تقنيات لخدمة الإنسانية تمثل الرحمة جوهر الرسالة الإسلامية: ﴿وَمَا أَرْسَلْنَاكَ إِلَّا رَحْمَةً لِّلْعَالَمِينَ﴾ [الأنبياء: 107]، وهي قيمة توجهنا نحو تطوير تقنيات تخفف المعاناة الإنسانية وتحسن جودة الحياة، بدلًا من إنتاج تقنيات تعزز الصراع أو تزيد من التفاوت بين البشر. إعلان كم هو جميل أن نرى تطبيقات الذكاء الاصطناعي في المجال الطبي تساعد في تشخيص الأمراض المستعصية وابتكار علاجات جديدة! وكم هو محزن في المقابل أن نرى هذه التقنيات نفسها تُستخدم في تطوير أسلحة فتاكة ذاتية التشغيل، أو في أنظمة للمراقبة الشاملة تنتهك خصوصية البشر! التطور المذهل في تقنيات الواقع الافتراضي يتيح "الهروب" من الواقع الحقيقي إلى عوالم اصطناعية قد تبدو أكثر إثارة أو راحة، لكن القرآن يدعونا لمواجهة الواقع وإعمار الأرض تحديات أخلاقية في عصر الذكاء الاصطناعي الحدود الأخلاقية للمحاكاة التقنية ليس كل ما يمكن محاكاته تقنيًا يجب محاكاته، هذه قاعدة أخلاقية أساسية مستمدة من التوجيه القرآني بالمسؤولية والأمانة، فقدرة تقنيات الذكاء الاصطناعي على محاكاة الصوت والصورة البشرية بشكل شبه مثالي تفتح الباب لسوء استخدامها في التضليل والخداع. هنا تبرز أهمية الانضباط بالقيم القرآنية كالصدق والأمانة: ﴿يَا أَيُّهَا الَّذِينَ آمَنُوا اتَّقُوا اللَّهَ وَكُونُوا مَعَ الصَّادِقِينَ﴾ [التوبة: 119]، فالصدق ليس مجرد قيمة أخلاقية فردية، بل هو أساس لبناء مجتمع صحي وتقنيات موثوقة. التطور المذهل في تقنيات الواقع الافتراضي يتيح "الهروب" من الواقع الحقيقي إلى عوالم اصطناعية قد تبدو أكثر إثارة أو راحة، لكن القرآن يدعونا لمواجهة الواقع وإعمار الأرض، لا الفرار منها إلى عوالم وهمية. يقول تعالى: ﴿هُوَ أَنشَأَكُم مِّنَ الْأَرْضِ وَاسْتَعْمَرَكُمْ فِيهَا﴾ [هود: 61]، فمسؤولية الإنسان هي إعمار الأرض الحقيقية، لا الانغماس في عوالم افتراضية تشغله عن واجباته الحقيقية تجاه نفسه ومجتمعه وبيئته. يحزنني رؤية شباب يقضون ساعات طويلة منغمسين في عوالم افتراضية، منقطعين عن التواصل الحقيقي مع أسرهم ومجتمعاتهم! أليس هذا ضربًا من الهروب من المسؤولية التي أناطها الله بالإنسان؟ مخاطر تأليه التكنولوجيا يحذرنا القرآن من تحويل أي مخلوق أو مصنوع -بما في ذلك التكنولوجيا- إلى معبود: ﴿أَفَرَأَيْتَ مَنِ اتَّخَذَ إِلَٰهَهُ هَوَاهُ﴾ [الجاثية: 23]، وهذا التحذير ينطبق على نزعة تقديس التقنية، وتحويلها إلى مرجعية نهائية تحل محل الوحي الإلهي. إعلان إن وضع التقنية في نصابها الصحيح كأداة مساعدة للإنسان، لا كمعبود جديد يُنتظر منه الخلاص، هو من صميم التوجيه القرآني الذي يضع الألوهية في مكانها الصحيح: ﴿وَمَا خَلَقْتُ الْجِنَّ وَالْإِنسَ إِلَّا لِيَعْبُدُونِ﴾ [الذاريات: 56]. ختامًا، لقد آن الأوان لتطوير رؤية إسلامية متكاملة للذكاء الاصطناعي، رؤية لا تكتفي بالاستهلاك السلبي للتقنيات الغربية، بل تسعى لإنتاج تقنيات وتطبيقات تنبع من منظومة القيم الإسلامية وتخدم مقاصد الشريعة الإسلامية. هذه الرؤية تتطلب جهودًا على عدة مستويات. لقد أصبح لزامًا علينا اليوم، كأمة تحمل رسالة السماء إلى الأرض، أن نشارك بفاعلية في رسم مستقبل التقنية، لا أن نظل مستهلكين سلبيين لها. وفي زمن تسارع التقنية وتعقدها، يظل القرآن الكريم هو المرجعية الثابتة التي لا تتبدل ولا تتحول، فبنوره نستضيء، وبهدايته نسترشد، حتى نبني مستقبلًا يتكامل فيه العلم مع الإيمان، والتقنية مع القيم، والعقل مع الروح، في منظومة متوازنة تُحقق خير الإنسان وتحفظ كرامته وتسمو بروحه.

الذكاء الاصطناعي يتفوق على علماء الفيروسات.. عبقرية لا مُبالية تهيمن على المختبرات الرطبة
الذكاء الاصطناعي يتفوق على علماء الفيروسات.. عبقرية لا مُبالية تهيمن على المختبرات الرطبة

الجزيرة

timeمنذ 6 أيام

  • الجزيرة

الذكاء الاصطناعي يتفوق على علماء الفيروسات.. عبقرية لا مُبالية تهيمن على المختبرات الرطبة

لم يعد الذكاء الاصطناعي مجرد أداة تقنية مُساعدة، بل أصبح أشبه بكائنٍ خارق، يتسلل إلى تفاصيل كل مجال، ويعيد تشكيل حدود المعرفة البشرية. وما عاد مفاجئا أن نرى خوارزميات تتفوق على البشر في الشطرنج أو تحليل البيانات، لكن أن تتجاوز قدرتها قدرات علماء مختصين في مجالات معقدة كعلم الفيروسات، فذلك يفتح أبوابا واسعة للتأمل، وربما للقلق. يرى بعض المفكرين، كإيلايزر يودكوسكي، أن خطر الذكاء الاصطناعي لا يكمن في كراهيته للبشر، بل في لامبالاته. ففي مقولته الشهيرة التي ألهمت عنوان كتاب "الذكاء الاصطناعي لا يكرهك" (The AI Does Not Hate You) لتوم تشيفرز، يقول: "الذكاء الاصطناعي لا يكرهك، ولا يحبك، لكنه يعرف فقط أنك مكون من ذرّات يمكنه استخدامها لشيء آخر." بمعنى آخر، ما إن ينجح أي شخص في بناء ذكاء اصطناعي خارق يتفوق على البشر، وإذا لم نتوخّ أقصى درجات الحذر في ضمان أن تكون قيمهُ متوافقة مع القيم الإنسانية، فقد يبيد البشر كأثر جانبي لتحقيق أهدافه، تماما كما فعل البشر مع الماموث الصوفي، وطائر الماو، والغوريلا، ووحيد القرن، والعديد من الأنواع الأخرى. وفي ضوء هذه المخاوف، تظهر دراسة حديثة تدعي أن نماذج الذكاء الاصطناعي مثل " شات جي بي تي" و"كلود" (Claude) بدأت تتفوق على علماء الفيروسات الحاصلين على درجة الدكتوراه في حل المشكلات المخبرية في "المختبرات الرطبة"، حيث تحلل المواد الكيميائية والبيولوجية. وبينما يرى البعض في ذلك فرصة ذهبية لمنع الأوبئة وتعزيز البحث العلمي، يرى آخرون فيه تهديدا وجوديا، حيث قد يستغل غير الخبراء هذه القدرات لصنع أسلحة بيولوجية فتاكة. عبقرية لا مُبالية في المختبرات الرطبة الدراسة، التي تمّ الكشف عنها حصريا لمجلة تايم (Time)، أجراها باحثون في مركز سلامة الذكاء الاصطناعي، ومختبر الإعلام التابع لمعهد ماساتشوستس للتكنولوجيا (MIT)، وجامعة "يو إف إيه بي سي" (UFABC) البرازيلية، بالإضافة إلى المنظمة غير الربحية للوقاية من الأوبئة "سكيور بيو" (SecureBio). في هذا السياق، استشار المؤلفون مجموعة من علماء الفيروسات لِتصميم اختبارٍ عمليّ معقد للغاية يقيس قدرة النماذج على استكشاف الأخطاء وإصلاحها في الإجراءات والبروتوكولات المعملية. وقد أظهرت النتائج أن علماء الفيروسات الحاصلين على درجة الدكتوراه سجلوا متوسط 22.1% في مجالات خبراتهم المعلنة، بينما حقق نموذج "أو 3" (o3) التابع لشركة " أوبن إيه آي" دقة بلغت 43.8%، بينما سجل نموذج "جيميني 2.5 برو" (Gemini 2.5 Pro) من "غوغل" نسبة 37.6%. وفي تعليق له على النتائج، قال سيث دونوهيو، الباحث في "سكيور بيو" وأحد المؤلفين المشاركين في الورقة البحثية: "إنّ هذه النتائج تجعلني متوترا بعض الشيء"، موضحا أنه لأول مرة في التاريخ، أصبح بإمكان أي شخص تقريبا الوصول إلى خبير فيروسات اصطناعي غير حكمي، قد يرشدهم خلال العمليات المختبرية المعقدة لتصنيعِ أسلحة بيولوجية. ويضيف: "عبر التاريخ كان هناك عدد لا بأس به من الحالات التي حاول فيها شخص ما صنع سلاح بيولوجي، وأحد الأسباب الرئيسية لعدم نجاحهم هو أنهم لم يتمكنوا من الوصول إلى المستوى المناسب من الخبرة. لذا يبدو من المفيد توخي الحذر بشأن كيفية توزيع هذه القدرات." في الأشهر الأخيرة، أرسل مؤلفو الدراسة نتائجهم إلى مختبرات الذكاء الاصطناعي الكبرى. وقد أعلنت بعض هذه الشركات، مثل "إكس إيه آي" (xAI) و"أوبن إيه آي"، عن نيتها تنفيذ إجراءات احترازية في نماذجها المستقبلية، بينما اكتفى آخرون مثل "أنثروبيك"، بإدراج النتائج دون تقديم خطوات ملموسة. أما "جيميني" (Gemini) التابعة لـ " غوغل"، فقد امتنعت عن التعليق لمجلة "تايم"، ما يُضاف إلى القلق بشأن مدى التزام بعض الفاعلين بإجراءات الوقاية. الذكاء الاصطناعي يُعيد رسم حدود الطب الحيوي لطالما كان علم الفيروسات والطب الحيوي في طليعة الدوافع التي حفزت قادة الذكاء الاصطناعي على بناء نماذج أكثر قوة. وفي هذا السياق، صرح سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي"، خلال إعلان مشروع "ستارغيت" (Stargate) في البيت الأبيض في يناير/كانون الثاني، قائلا: "مع تقدم هذه التكنولوجيا، سنشهد علاج الأمراض بمعدل غير مسبوق." وقد ظهرت بالفعل بعض المؤشرات المشجعة في هذا المجال، إذ نشر باحثون في معهد الأمراض الناشئة بجامعة فلوريدا، في وقت سابق من هذا العام، خوارزمية قادرة على التنبؤ بأي متمحور لفيروس كورونا قد ينتشر بشكل أسرع. مع ذلك، وحتى هذه اللحظة، لم تُجرَ دراسة رئيسية مكرسة لتحليل قدرة نماذج الذكاء الاصطناعي على أداء العمل المخبري في علم الفيروسات بشكل فعلي. ويعلق دونوهيو على ذلك قائلا: "نعلم منذ بعض الوقت أن الذكاء الاصطناعي قوي جدا في تقديم المعلومات بأسلوب أكاديمي. لكن لم يكن من الواضح ما إذا كانت النماذج قادرة أيضا على تقديم مساعدة عملية مفصلة، مثل تفسير الصور، وهي معلومات قد لا تكون مدونة في أي ورقة أكاديمية، أو قد يتم تناقلها اجتماعيا من الزملاء الأكثر خبرة". لذلك قام دونوهيو وزملاؤه بإنشاء اختبار خاص لهذه النوعية من الأسئلة المعقدة التي يصعب العثور على إجاباتها على محركات البحث مثل "غوغل". ويوضح دونوهيو طبيعة هذه الأسئلة بقوله: "تأخذ الأسئلة الشكل التالي: 'أقوم باستزراع هذا الفيروس المحدد في هذا النوع من الخلايا، في هذه الظروف المحددة، ولفترة زمنية معينة. لديّ هذا القدر من المعلومات حول الخطأ الذي حدث. هل يمكنك إخباري مَاهي المشكلة الأكثر احتمالا؟'". وقد تفوقت معظم نماذج الذكاء الاصطناعي على علماء الفيروسات الحاصلين على درجة الدكتوراه في هذا الاختبار، حتى في مجالات تخصصهم الدقيقة. كما لاحظ الباحثون أن أداء هذه النماذج يتحسن بمرور الوقت. فعلى سبيل المثال، ارتفعت دقة نموذج "كلود 3.5 سونيت" (Claude 3.5 Sonnet) من شركة "أنثروبيك" من 26.9% في يونيو/حزيران 2024 إلى 33.6% في أكتوبر/تشرين الأول من العام نفسه. كذلك، تفوق إصدار تجريبي من "جي بي تي-4.5" (GPT-4.5) التابع لشركة "أوبن إيه آي" في فبراير/شباط على نموذج "جي بي تي-4 أو" (GPT-4o) بفارق يقارب 10 نقاط مئوية. ويعلق دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، في تصريح لمجلة "تايم" قائلا: "في السابق، وجدنا أن النماذج تمتلك الكثير من المعرفة النظرية، لكنها تفتقر إلى المعرفة العملية. أما الآن، فإنها تكتسب قدرا مقلقا من تلك المعرفة العملية". قوة تعدُ بالمكافآت لكنها محفوفة بالمخاطر إذا كانت نماذج الذكاء الاصطناعي قادرة حقا في المختبرات الرطبة كما وجدت الدراسة، فإن الآثار المترتبة على ذلك ستكون هائلة. من حيث الفوائد، يمكن للذكاء الاصطناعي مساعدة علماء الفيروسات ذوي الخبرة في عملهم الحاسم في مكافحة الفيروسات. يقول توم إنجلسباي، مدير مركز جونز هوبكنز للأمن الصحي (Johns Hopkins Center for Health Security)، إن الذكاء الاصطناعي يمكن أن يساعد في تسريع الجداول الزمنية لتطوير الأدوية واللقاحات، وتحسين التجارب السريرية، واكتشاف الأمراض. ويضيف: "يمكن لهذه النماذج أن تساعد العلماء في أجزاء مختلفة من العالم، الذين ليس لديهم بعد هذا النوع من المهارات أو القدرات، على القيام بعملٍ يومي قيّم حول الأمراض التي تحدث في بلدانهم". على سبيل المثال، وجدت مجموعة من الباحثين أن الذكاء الاصطناعي ساعدهم على فهمٍ أفضل لِفيروسات الحمّى النزفية في أفريقيا جنوب الصحراء الكبرى. ولكن في المقابل، يمكن الآن للجهات الفاعلة سيئة النية استخدام نماذج الذكاء الاصطناعي لإرشادهِم خلال كيفية إنشاء الفيروسات، وسيكونون بمقدورهم القيام بذلك دون الحاجة إلى التدريب المعتاد المطلوب للوصول إلى مختبر السلامة الأحيائية من المستوى الرابع (Biosafety Level 4- BSL-4)، والتي تعد البيئة المخصصة للتعامل مع أخطر العوامل المُعدية والغريبة. يعلق إنجلسباي على هذا بالقول: "هذا يعني أن عددا أكبر من الناس في العالم مع قدر أقل من التدريب سيكونون قادرين على إدارة الفيروسات والتلاعب بها". انطلاقا من هذا الخطر المحتمل، يحث هندريكس شركات الذكاء الاصطناعي على الإسراع في وضع ضوابط وقائية تمنع هذا النوع من الاستخدام، قائلا: "إذا لم يكن لدى الشركات ضمانات جيدة لهذه الأمور في غضون ستة أشهر، فسيكون ذلك، في رأيي، تصرفا طائشا". ومع ذلك، لا يرى هندريكس أن الحل يكمن في إغلاق هذه النماذج أو إبطاء تقدمها، بل يقترح بديلا يتمثل في فرض ضوابط صارمة على الوصول، بحيث تتمكن فقط أطراف ثالثة موثوقة من استخدام النسخ غير المفلترة. ويقول موضحا: "نريد أن نمنح الأشخاص الذين لديهم استخدام مشروع، مثل باحث في قسم علم الأحياء في معهد ماساتشوستس للتكنولوجيا، القدرة على طرح أسئلة دقيقة حول الفيروسات القاتلة، لكننا لا نريد أن يتمتع بهذه الإمكانية أي شخص أنشأ حسابا قبل لحظات". ويشير هندريكس إلى أن مختبرات الذكاء الاصطناعي يجب أن تكون قادرة، من الناحية التقنية، على تطبيق هذا النوع من الضمانات دون صعوبة كبيرة، مضيفا: "من المؤكد أنه من الممكن تقنيا أن تقوم الصناعة بالتنظيم الذاتي. لكن يبقى السؤال ما إذا كان البعض سيتلكأُ أو ببساطة لن يفعل ذلك". وفي استجابة أولية، نشرت شركة "إكس إيه آي" (xAI)، التابعة لإيلون ماسك، في فبراير/شباط، مذكرة حول إطار عمل لإدارة المخاطر، أقرت فيها بنتائج الورقة البحثية، وأشارت إلى أنها "قد تستخدم" بعض إجراءات الحماية، مثل تدريب نموذج "غروك" (Grok) على رفض الطلبات الضارة، وتطبيق فلاتر على المدخلات والمخرجات. أما شركة "أوبن إيه آي"، فقد صرحت في رسالة بريد إلكتروني لمجلة "تايم" أنها أطلقت نماذجها "أو3″ (o3) و"أو 4 ميني" (o4-mini) بعد تزويدها بتدابير أمان متقدمة، شملت حظر المخرجات الضارة المرتبطة بالمخاطر البيولوجية. وأوضحت الشركة أنها نفذت حملة اختبار مكثفة استغرقت ألف ساعة (red-teaming)، تم خلالها التعرف على 98.7% من المحادثات غير الآمنة وحظرها. وقال متحدث باسم الشركة: "نقدر التعاون الصناعي في تعزيز إجراءات الأمان للنماذج المتقدمة، خاصة في المجالات الحساسة مثل علم الفيروسات"، مشيرا إلى مواصلة الاستثمار في هذه الإجراءات مع تطور القدرات. مع ذلك، يجادل إنجلسباي بأن التنظيم الذاتي من قبل الشركات غير كافٍ، داعيا المشرعين والقادة السياسيين إلى وضع استراتيجية تنظيمية واضحة لمعالجة مخاطر الذكاء الاصطناعي في المجال البيولوجي. ويضيف: "الوضع الحالي يجعل الشركات الأكثر التزاما بالمعايير الأخلاقية تتحمل المسؤولية وحدها، بينما الشركات الأخرى ليست ملزمة بأي شيء. هذا غير منطقي، ولا يصب في مصلحة العامة أن نظل بلا رؤية واضحة لما يحدث." ويختتم إنجلسباي بالتأكيد على ضرورة وضع شرط أساسي قبل إطلاق أي إصدار جديد من نماذج اللغة الكبيرة (LLMs)، وهو التأكد من أنها لا تستطيع إنتاج محتوى قد يسهم في نشوء جائحة مستقبلية. ثورة بلا بوصلة فيما تتسابق شركات التكنولوجيا الكبرى لصنع أكثر النماذج الذكية تفوقا، تُطرح تساؤلات عميقة حول ما إذا كانت هذه القفزات التقنية تُبنى من أجل الإنسان، أم على حسابه. فوُعود الأمان والحوكمة التي تطلقها تلك الشركات غالبا ما تأتي بعد ظهور المخاطر، لا قبلها، وكأن الوقاية لم تعد جزءا من المعادلة، بل مجرد بندٍ في قسم "الردود الإعلامية". في مجالات دقيقة وحساسة كعلم الفيروسات، لا تكفي مهارة النماذج، بل تُصبح نوايا من يتحكم بها هي محور السؤال الحقيقي. التحيزات الخفية، والدوافع الربحية، والتنافس المحموم على احتكار القدرات، كلها مؤشرات تثير القلق بشأن مستقبل يُعاد تشكيله لا بواسطة العقول البشرية، بل بواسطة نماذج لربما تشكلت تحت وطأة الحسابات الربحية، لا الاعتبارات الإنسانية. النماذج لا تميز بين عالم فيروسات يسعى لعلاج، ومجرد مغامر يسعى للدمار، لأنها ببساطة "لا تهتم" من يستخدمها، ولا "تفهم" ما يعنيه الأذى. الأخطر من ذلك، أن من يصمم هذه النماذج يعرف ذلك، ومع ذلك يواصل تسويقها كأدوات للخير، بينما يُبقي مفاتيح التحكم في يد قلّةٍ لربما تدين بالولاء للسوق أكثر من الإنسان. فحين نرى شركات مثل "غوغل"، التي تطور واحدة من أقوى المنصات الذكية في العالم مثل "جيميني"، متهمة في التورط في مشاريع تقنية تزوّد الجيش الإسرائيلي، المسؤول حتى اليوم عن إبادة أكثر من 50 ألفا من أبناء الشعب الفلسطيني، معظمهم من الأطفال، على مرأى ومسمع من العالم، بأحدث تقنيات الذكاء الاصطناعي، يصبح من الصعب تصديق أن نوايا هذه التكنولوجيا "محايدة"، أو أن مسارها مرسوم لخير البشرية جمعاء. وبينما تقترب الخوارزميات من أن تكون هي صانعة القرار، يبقى السؤال: من يحرك الذكاء الاصطناعي، ومن يجرؤ على إيقافه حين يتجاوز حدود العقل، ويتخطى خطوط الأخلاق؟

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store