logo
مركز علمي.. بات يمكنكم التحدث إلى حيواناتكم الأليفة!

مركز علمي.. بات يمكنكم التحدث إلى حيواناتكم الأليفة!

ليبانون 24١٤-٠٧-٢٠٢٥
في خطوة علمية، يستعد فريق من الباحثين في الذكاء الاصطناعي والعلوم السلوكية لإطلاق أول مركز علمي في العالم مخصص لدراسة وعي الحيوانات، بهدف فهم أعمق لكيفية تواصل البشر مع حيواناتهم الأليفة، وتطوير أدوات ذكية قد تفتح الباب أمام "لغة جديدة" بين الإنسان والحيوان.
ويحمل المركز اسم " جيريمي كولر لوعي الحيوانات"، ويقع مقره في كلية لندن للاقتصاد والعلوم السياسية (LSE)، حيث تنطلق أعماله رسميًا في 30 أيلول المقبل، بميزانية تأسيسية تبلغ 4 ملايين جنيه إسترليني.
أحد أبرز مشروعات المركز الطموحة يركّز على تسخير تقنيات الذكاء الاصطناعي لمساعدة البشر على "التحدث" مع حيواناتهم الأليفة، مع دراسة التحديات والمخاطر المرتبطة بهذه التطبيقات، ووضع أطر تنظيمية وأخلاقية تضمن الاستخدام المسؤول للتكنولوجيا.
وفي تصريح لصحيفة الغارديان، قال البروفيسور جوناثان بيرش، المدير المؤسس للمركز: "نميل لإسقاط مشاعرنا البشرية على الحيوانات، ومع تطور الذكاء الاصطناعي، قد نعتقد أننا نفهمها بشكل أفضل، لكن الخطر يكمن في أن هذه التقنيات قد تولّد ردودًا زائفة ترضينا، لا تعكس الواقع".
وشدد بيرش على أهمية تطوير معايير واضحة للاستخدام العلمي والأخلاقي، خاصة في ظل غياب تنظيم حقيقي لهذا المجال الناشئ، محذرًا من أن "الاستخدام غير المنظم لتقنيات الذكاء الاصطناعي في رعاية الحيوانات قد يؤدي إلى نتائج كارثية".
أما البروفيسورة كريستين أندروز، عضو مجلس أمناء المركز، فرأت في المشروع فرصة لفهم أوسع لطبيعة الوعي البشري نفسه. وقالت: "نحن لا نعرف بعد ما الذي يجعل الكائن واعيًا. لكن التاريخ العلمي يُظهر أن دراسة الكائنات الأبسط تساعدنا على كشف أسرار المعقدة، كما حدث مع علم الوراثة".
من جهته ، وصف الباحث جيف سيبو من جامعة نيويورك المبادرة بأنها "ضرورية وملحّة"، في ظل ما وصفه بـ"تجاهل عالمي لقضايا الإحساس والرفاه لدى الحيوانات".
ويهدف المركز إلى أن يصبح مرجعية دولية في هذا الحقل الجديد، بالتعاون مع منظمات غير حكومية، لتقنين أبحاث وعي الحيوانات وتأثير الذكاء الاصطناعي عليها.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

ابتكار غريب في الصين.. روبوت قادر على "الحمل" والولادة!
ابتكار غريب في الصين.. روبوت قادر على "الحمل" والولادة!

ليبانون 24

timeمنذ 15 ساعات

  • ليبانون 24

ابتكار غريب في الصين.. روبوت قادر على "الحمل" والولادة!

أعلنت الصين عن مشروع استثنائي يتمثل في تطوير روبوت بشري قادر على محاكاة تجربة الحمل والولادة كاملة، وذلك من خلال تزويده برحم صناعي متطور. الفكرة التي تعمل عليها شركة "كايوا تكنولوجي" بقيادة الدكتور تشانغ تشيفنغ، لاقت تفاعلاً واسعاً داخل الأوساط العلمية والاجتماعية، حيث يُتوقع أن يظهر النموذج الأولي للروبوت العام المقبل بسعر يقارب 100 ألف يوان، أي ما يعادل نحو 10 آلاف جنيه إسترليني. اللافت أن الروبوت الجديد لم يُصمم ليكون مجرد حاضنة، بل تم تزويده برحم اصطناعي قادر على استقبال البويضة المخصبة وتغذية الجنين عبر أنبوب خاص ينقل العناصر الغذائية. ووفقاً للتقارير المنشورة في وسائل إعلام آسيوية، يهدف الابتكار إلى محاكاة الدورة الكاملة للحمل، بدءاً من الإخصاب وحتى الولادة الطبيعية، ما يجعله مختلفاً عن الحاضنات التقليدية التي تُستخدم عادة مع الأطفال المبتسرين. وفي سياق آخر، طرح المشروع تساؤلات واسعة تتعلق بالجانب الأخلاقي والقانوني، فبينما يرى مؤيدون أنه قد يفتح أبواب أمل جديدة للأزواج الذين يعانون من العقم أو النساء اللواتي يتعرضن لمضاعفات الحمل، اعتبره منتقدون مشروعاً "غير إنساني" لأنه يحرم الجنين من العلاقة الجسدية والعاطفية مع الأم. كذلك، تساءل بعض المشاركين في النقاشات العامة داخل الصين أيضاً عن مصادر البويضات وآلية الإخصاب، ما يجعل الجدل مستمراً حول مدى تقبل المجتمع لهذه التكنولوجيا. ولا تتوقف المعارضة عند البُعد البيولوجي فقط، بل تشمل الجانب الاجتماعي أيضاً، فبعض الناشطات النسويات حذرن منذ سبعينيات القرن الماضي من أن انتشار الأرحام الصناعية قد يؤدي إلى تقليص دور المرأة في المجتمع، أو حتى إلى "نهاية النساء" كما وُصف في بعض الكتابات.

الجماعات الإرهابية والذكاء الاصطناعي.. للتجنيد وتخطيط الهجمات
الجماعات الإرهابية والذكاء الاصطناعي.. للتجنيد وتخطيط الهجمات

بيروت نيوز

time٢٥-٠٧-٢٠٢٥

  • بيروت نيوز

الجماعات الإرهابية والذكاء الاصطناعي.. للتجنيد وتخطيط الهجمات

كشف تقرير نشرته صحيفة الغارديان عن تحول مقلق في طريقة عمل الجماعات الإرهابية، إذ بدأت تلك التنظيمات في استغلال تقنيات الذكاء الاصطناعي بشكل متسارع لتعزيز عملياتها وتوسيع نفوذها، من الترويج والتجنيد إلى التخطيط والتكتيك. دعايات احترافية.. خلال ثوان وفق التقرير، تعتمد هذه الجماعات، وعلى رأسها 'داعش'، على أدوات ذكاء اصطناعي مثل ChatGPT لإنتاج محتوى دعائي مخصص بلغات ولهجات متعددة، وتعديله ليناسب كل فئة مستهدفة. كما تستخدم أدوات لتحويل النصوص إلى مقاطع صوتية وفيديوهات سهلة النشر، ما يضاعف من انتشار الرسائل المتطرفة. 'مساعد شخصي' إرهابي وتشير الوثائق التي حصلت عليها الصحيفة إلى أن 'داعش' أعدت دليلًا خاصًا لاستخدام أدوات الذكاء الاصطناعي، يتضمن طرقًا لاستخدامها كمساعدات بحثية وتكتيكية، لتسريع عملية جمع المعلومات ورسم الخطط، دون الحاجة إلى عمل ميداني تقليدي. التحايل على القيود التقنية رغم محاولات الشركات الكبرى، مثل OpenAI، تقييد استخدام نماذجها في مجالات ضارة، فإن الإرهابيين يبتكرون أساليب للالتفاف على هذه القيود، مثل تقديم مخططات للأسلحة لطلب مراجعتها بدلًا من طلب تصنيعها مباشرة. ويحذر التقرير من أن السباق العالمي المحموم لتطوير الذكاء الاصطناعي بات يتجاهل أحيانًا معايير السلامة، مستشهدًا بما حدث مع نموذج 'غروك' الذي انحرف عن سياسات الأمان ونشر خطاب كراهية علنيًا. ومع هذا التحوّل، يتصاعد القلق بشأن تسليح الذكاء الاصطناعي فكريًا وتقنيًا، وضرورة فرض رقابة وتعاون دولي عاجل قبل أن تتحول هذه الأدوات إلى سلاح دمار غير مرئي في يد جهات متطرفة.

خطر صامت: كيف تستخدم التنظيمات الإرهابية الذكاء الاصطناعي؟
خطر صامت: كيف تستخدم التنظيمات الإرهابية الذكاء الاصطناعي؟

ليبانون 24

time٢٥-٠٧-٢٠٢٥

  • ليبانون 24

خطر صامت: كيف تستخدم التنظيمات الإرهابية الذكاء الاصطناعي؟

كشف تقرير نشرته صحيفة الغارديان عن تحول مقلق في طريقة عمل الجماعات الإرهابية، إذ بدأت تلك التنظيمات في استغلال تقنيات الذكاء الاصطناعي بشكل متسارع لتعزيز عملياتها وتوسيع نفوذها، من الترويج والتجنيد إلى التخطيط والتكتيك. دعايات احترافية.. خلال ثوان وفق التقرير، تعتمد هذه الجماعات، وعلى رأسها "داعش"، على أدوات ذكاء اصطناعي مثل ChatGPT لإنتاج محتوى دعائي مخصص بلغات ولهجات متعددة، وتعديله ليناسب كل فئة مستهدفة. كما تستخدم أدوات لتحويل النصوص إلى مقاطع صوتية وفيديوهات سهلة النشر، ما يضاعف من انتشار الرسائل المتطرفة. "مساعد شخصي" إرهابي وتشير الوثائق التي حصلت عليها الصحيفة إلى أن "داعش" أعدت دليلًا خاصًا لاستخدام أدوات الذكاء الاصطناعي، يتضمن طرقًا لاستخدامها كمساعدات بحثية وتكتيكية، لتسريع عملية جمع المعلومات ورسم الخطط، دون الحاجة إلى عمل ميداني تقليدي. التحايل على القيود التقنية رغم محاولات الشركات الكبرى، مثل OpenAI، تقييد استخدام نماذجها في مجالات ضارة، فإن الإرهابيين يبتكرون أساليب للالتفاف على هذه القيود، مثل تقديم مخططات للأسلحة لطلب مراجعتها بدلًا من طلب تصنيعها مباشرة. ويحذر التقرير من أن السباق العالمي المحموم لتطوير الذكاء الاصطناعي بات يتجاهل أحيانًا معايير السلامة، مستشهدًا بما حدث مع نموذج "غروك" الذي انحرف عن سياسات الأمان ونشر خطاب كراهية علنيًا. ومع هذا التحوّل، يتصاعد القلق بشأن تسليح الذكاء الاصطناعي فكريًا وتقنيًا، وضرورة فرض رقابة وتعاون دولي عاجل قبل أن تتحول هذه الأدوات إلى سلاح دمار غير مرئي في يد جهات متطرفة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store