logo
783 فتوى طلاق في الأسبوع الأول من رمضان

783 فتوى طلاق في الأسبوع الأول من رمضان

السوسنة١٣-٠٣-٢٠٢٥

عمان ــ السوسنةبلغ عدد الفتاوى التي أصدرتها دائرة الإفتاء العام خلال الأسبوع الأول من شهر رمضان 12370 فتوى، وفق ما صرح به الناطق الرسمي باسم الدائرة الدكتور احمد الحراسيس.وأوضح الحراسيس أن الفتاوى توزعت بواقع 208 طلاق واقع، و575 طلاق غير واقع، و 896 مقابلات شخصية، و9097 هواتف، 15 اسئلة مكتوبة، و 80 رسالة نصية، و1102 موقع الدائرة، و307 فيس بوك، و90 برامج إذاعية.ولفت إلى أن أبرز أسباب الطلاق والخلافات الزوجية في الأسبوع الأول من الشهر الفضيل والتي تمثلت بالغضب والتسرع وعدم الصبر، والتدخل السلبي من الأقارب والخلافات حول المناسبات الاجتماعية، وغياب الوعي بالحقوق والواجبات لكل من الزوجين، فضلا عن أسباب تتعلق بمواقع التواصل الاجتماعي، والإساءات المتبادلة من قبل الأزواج، والظروف المادية.وأكد الحراسيس أن الإحصائية التي تم رصدها خلال الأسبوع الأول من شهر رمضان تعكس من خلال الأرقام حرص المجتمع الأردني على أمور دينه، وأن الدين هو المكون الأساس لثقافته وعاداته وتوجهاته، كما تعكس ثقة الناس بدائرة الإفتاء العام وما يصدر عنها من فتاوى، وأهمية الأداة الإعلامية التي تعد شريكا أساسيا، وظهر ذلك جليا من خلال الحضور الإعلامي لأصحاب الفضيلة المفتين عبر القنوات الإعلامية المتاحة والتفاعل المباشر مع المجتمع من خلال عقد مجالس الفتوى والتدريس ضمن مشروع كرسي الفقه الشافعي في مختلف مساجد الأردن وكذلك المحاضرات في عدة جامعات.وأشار إلى أن دائرة الإفتاء العام كإحدى المؤسسات الدينية في المملكة، تنفذ العديد من المهام والواجبات ومن ذلك؛ التوعية الدينية بالمسائل والقضايا الفقهية التي تكون محط اهتمام الأفراد والمؤسسات، وبث معاني الأخلاق الإسلامية في المجتمع وروح التآخي والتسامح والتعاون والتيسير ورفع الحرج، وكل هذه الأهداف وغيرها تتمثل بالعديد من الأدوات حيث تمتد مكاتب الإفتاء في جميع محافظات المملكة، وتستخدم جميع وسائل الاتصال المعاصر للوصول لجميع متلقي الخدمة من طالبي خدمة الفتوى.الى ذلك، أشار الحراسيس الى أن عدد المشاهدات والإعجاب والمشاركة لبرامج الدائرة على صفحات مواقع التواصل الاجتماعي وعبر وسائل الإعلام خلال الأسبوع الأول من رمضان كان لافتا جدا هذا العام، إذ بلغ أكثر من 22 مليون مشاهدة و إعجاب ومشاركة ما يعكس اهتمام المشاهدين بما تقدمه دائرة الإفتاء العام من برامج متنوعه وجاذبه للمشاهدين .

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

بدء الإجراءات القانونية لتحصيل حقوق التجار الأردنيين المتضررين من حريق الباخرة الصينية في دبي خلال أيام
بدء الإجراءات القانونية لتحصيل حقوق التجار الأردنيين المتضررين من حريق الباخرة الصينية في دبي خلال أيام

سرايا الإخبارية

timeمنذ 4 ساعات

  • سرايا الإخبارية

بدء الإجراءات القانونية لتحصيل حقوق التجار الأردنيين المتضررين من حريق الباخرة الصينية في دبي خلال أيام

سرايا - أعلن رئيس غرفتي تجارة الأردن وعمّان، العين خليل الحاج توفيق، عن توقيع التجار المتضررين من حريق الباخرة الصينية "ASL BAUHINIA" وكالات لمكتب المحاماة الدولي BLK ليبدأ الإجراءات القانونية في دبي خلال أيام. وكتب الحاج توفيق منشورا على حسابه عبر منصة فيسبوك ، قبل قليل انتهى اجتماعنا مع التجار المتضررين من حريق الباخرة الصينية بحضور المحامين والخبراء وممثلي الشركة التي تم توكيلها لتحصيل حقوق تجارنا بإذن الله. تم توقيع الوكالات والحمد لله وستبدأ الإجراءات القانونية في دبي خلال أيام باذن الله . وكانت السفينة، في كانون الثاني الماضي، في طريقها من الإمارات العربية المتحدة إلى العقبة، عندما شب الحريق على سطحها، وكانت محملة بحاويات تعود لعدة خطوط شحن عالمية. وأكدت غرفة تجارة عمان، في بيان نشرته سابقا، أنها أولت اهتماما بالغا بحادثة حريق الباخرة "ASL BAUHINIA" منذ لحظة وقوعها، وحرصت على متابعة آثارها على التجار الأردنيين وصون حقوقهم. وبحسب بيان للغرفة، قال نائب رئيس الغرفة نبيل الخطيب، إن الغرفة باشرت بمتابعة دقيقة ومباشرة لتفاصيل القضية، وحرصت على تتبع مسار الباخرة وتحديد الميناء الذي رست فيه، سعيا للوصول إلى معلومات دقيقة وشاملة حول الحادثة. وأضاف أن الغرفة عقدت سلسلة من الاجتماعات مع التجار المتضررين، واستجابت بشكل سريع لتداعيات الحادثة، مشيرا إلى تشكيل الغرفة لجنة مشتركة مع المتضررين لمتابعة هذا الملف من جميع جوانبه، وضمان السير في المسار القانوني الصحيح الذي يكفل استرداد حقوق التجار المتأثرين. وبين أن الغرفة اختارت مكتب المحاماة الدولي BLK من بين عدد من الخيارات، ليتولى متابعة الجوانب القانونية للقضية، بالتعاون مع مكاتب قانونية دولية متخصصة في الشؤون البحرية، لافتا إلى أن الغرفة نسقت اجتماعا بين التجار المتضررين وممثلي BLK، لمناقشة خارطة طريق واضحة لإجراءات التقاضي، وآليات التوكيل، والخطوات القانونية الواجب اتباعها. وأشار الخطيب، إلى أن التجار المتضررين قاموا كذلك بتوكيل مكتب المحاماة الدولي رسميا، بعد الاطلاع على شرح مفصل من ممثلي المكتب حول طبيعة الدعوى، وإجراءاتها، والنتائج القانونية المتوقعة، مؤكدا أن الغرفة تضع قضايا التجار العادلة في صميم أولوياتها، وتحرص على متابعتها بكل مسؤولية وجدية، انطلاقا من دورها الوطني والمؤسسي في دعم القطاع التجاري وحماية مصالح أعضائه. من جهتهم، أوضح ممثلو "BLK" خلال الاجتماع أن المكتب سيتولى إدارة ملف التقاضي أمام الجهات القضائية الدولية المتخصصة، وفق استراتيجية قانونية متكاملة تراعي طبيعة القضايا البحرية وتعقيداتها، مؤكدين أن المكتب يتمتع بخبرة طويلة في مثل هذه القضايا، وشبكة واسعة من الشراكات مع مكاتب محاماة بحرية حول العالم. وأشاروا إلى أنهم سيباشرون العمل فور الانتهاء من إجراءات التوكيل الرسمية، مؤكدين التزامهم بتقديم تقارير دورية حول سير القضية، وضمان أقصى درجات الشفافية في الإجراءات القانونية.

تغييرات ميتا ترفع نسب العنف والتنمر على فيسبوك
تغييرات ميتا ترفع نسب العنف والتنمر على فيسبوك

الغد

timeمنذ 2 أيام

  • الغد

تغييرات ميتا ترفع نسب العنف والتنمر على فيسبوك

نشرت ميتا أول تقرير فصلي للنزاهة منذ أن أعلن مارك زوكربيرغ تراجع الشركة عن سياسات خطاب الكراهية وإعادة تشكيل نهجها في الإشراف على المحتوى مطلع هذا العام. ووفقًا للتقرير، شهد فيسبوك ارتفاعًا في المحتوى العنيف والمضايقات، رغم انخفاض إجمالي عدد المنشورات التي أزالتها الشركة. اضافة اعلان ويعد التقرير أول مرة تنشر فيها ميتا بيانات مفصلة توضح تأثير التغييرات في السياسة على منصة يستخدمها مليارات الأشخاص. ورغم الانتقادات، تصف الشركة هذه التغييرات بأنها "نجاح"، مشيرة إلى أنها قللت من أخطاء الإشراف بنسبة 50٪، مع بقاء نسبة المحتوى المخالف للقواعد "ثابتة إلى حد كبير" في معظم المجالات. ارتفاع المحتوى العنيف والمضايقات وفقًا للتقرير، ارتفعت نسبة المحتوى العنيف والصادم على فيسبوك من 0.06–0.07٪ في نهاية 2024 إلى 0.09٪ في الربع الأول من 2025. وفسرت ميتا ذلك بزيادة في مشاركة المحتوى المخالف من جهة، ورغبتها في تقليل الأخطاء في تنفيذ السياسات من جهة أخرى. كما ارتفعت معدلات التنمر والمضايقات من 0.06–0.07٪ إلى 0.07–0.08٪ خلال نفس الفترة، نتيجة "ارتفاع مفاجئ في الانتهاكات" في شهر مارس. يُذكر أن هذه الفئة منفصلة عن سياسات خطاب الكراهية التي تم تعديلها لتسمح بمحتوى يستهدف فئات مثل المهاجرين والمثليين، ما دام لا يحتوي على تهجم مباشر أو لغة لاإنسانية. ورغم أن هذه النسب تبدو صغيرة، إلا أنها تُترجم إلى ملايين المنشورات نظرًا لحجم قاعدة مستخدمي فيسبوك. انخفاض في عمليات الإزالة كشف التقرير انخفاضًا ملحوظًا في عدد المنشورات التي تم اتخاذ إجراء ضدها. ففي الربع الأول من 2025، تم التعامل مع 3.4 مليون منشور فقط تحت سياسة خطاب الكراهية، وهو أدنى رقم منذ عام 2018. كذلك، انخفضت إزالة المحتوى غير المرغوب فيه (Spam) من 730 مليونًا إلى 366 مليونًا، بينما تراجعت إزالة الحسابات الوهمية من 1.4 مليار إلى مليار. (لم تُقدم الشركة إحصاءات بخصوص إنستغرام). هذا التراجع يأتي نتيجة تركيز ميتا على الانتهاكات الأكثر خطورة فقط، مثل استغلال الأطفال والإرهاب، فيما أصبحت مواضيع مثل الهجرة والعرق والهوية الجندرية تُعتبر تعبيرًا سياسيًا محميًا. وأحد التغييرات الجوهرية الأخرى هو إنهاء شراكات ميتا مع الجهات المستقلة للتحقق من المعلومات داخل الولايات المتحدة. واستعاضت عنها بنظام "ملاحظات المجتمع" (Community Notes) المعتمد على المستخدمين، والذي طُبّق لاحقًا على فيسبوك، إنستغرام، Threads وReels. لكن ميتا لم توضح بعد مدى فعالية هذا النظام أو مدى انتشاره، واكتفت بوعد بتقديم تقارير مستقبلية حول ذلك. ميتـا: تراجع في الأخطاء رغم تصاعد المخاوف، قالت ميتا إن أخطاء الإشراف على المحتوى في الولايات المتحدة تراجعت بنسبة 50٪ من الربع الرابع 2024 إلى الربع الأول 2025. ولم توضح الشركة طريقة حساب هذا الرقم، لكنها وعدت بالكشف عن مقاييس الخطأ في التقارير القادمة. وقالت الشركة: "نحن نعمل على تحقيق التوازن الصحيح بين الإفراط في الإشراف والتقصير فيه." استثناء خاص بالمراهقين الجانب الوحيد الذي لم تخفف فيه ميتا رقابتها هو المحتوى الموجه للمراهقين. فقد واصلت فرض حماية صارمة على هذه الفئة، وأطلقت "حسابات المراهقين" لضمان تصفية المحتوى بما يتناسب مع أعمارهم.وأشارت ميتا إلى أن نماذج اللغة الضخمة (LLMs) بدأت تتفوق على الأداء البشري في بعض السياسات، وتُستخدم لإزالة المنشورات من قوائم المراجعة عندما تكون الشركة "واثقة بشدة" من عدم مخالفتها للقواعد.

ميتا تستبدل البشر بالذكاء الاصطناعي لتقييم مخاطر الخصوصية والمجتمع
ميتا تستبدل البشر بالذكاء الاصطناعي لتقييم مخاطر الخصوصية والمجتمع

الغد

timeمنذ 2 أيام

  • الغد

ميتا تستبدل البشر بالذكاء الاصطناعي لتقييم مخاطر الخصوصية والمجتمع

في تحوّل جذري يعكس فلسفة جديدة في إدارة المخاطر التقنية، تستعد شركة "ميتا" (المالكة لفيسبوك، إنستغرام، واتساب) لاستبدال البشر بأنظمة الذكاء الاصطناعي في تقييم تأثيرات الخصوصية والمخاطر المجتمعية المصاحبة للميزات والتحديثات الجديدة. اضافة اعلان هذا التغيير، الذي كشفته وثائق داخلية حصلت عليها NPR، يثير جدلاً واسعًا داخل الشركة وخارجها، حيث يخشى بعض الموظفين الحاليين والسابقين أن يؤدي تسريع وتيرة الإطلاقات على حساب المراجعة البشرية إلى نتائج كارثية غير متوقعة، خاصة في مجالات حساسة مثل حماية الأطفال، محاربة المعلومات المضللة، ومراقبة المحتوى العنيف. القرار لا يشير فقط إلى أتمتة 90% من عمليات التقييم فحسب، بل يمنح فرق التطوير القدرة على الحكم الذاتي في المخاطر، ما يمثل تقليصًا حادًا لدور المختصين في الخصوصية والنزاهة الرقمية. وعلى الرغم من تطمينات الشركة بأنها لا تزال تستخدم "الخبرات البشرية" في الحالات المعقدة، إلا أن الوثائق تشير إلى أن التقييمات قد تمتد إلى مجالات دقيقة تشمل أمان الذكاء الاصطناعي والمحتوى الضار، وهو ما يراه بعض النقاد "تنازلاً عن البوصلة الأخلاقية" للشركة لصالح السرعة والمنافسة. المشهد يعكس ديناميكية جديدة في وادي السيليكون، حيث يتحول الذكاء الاصطناعي من أداة دعم إلى مركز ثقل في اتخاذ قرارات تؤثر على المليارات من المستخدمين — دون مرورها بالضرورة على أعين بشرية خبيرة. في ظل هذه التحولات، يبقى السؤال الكبير: هل يمكن فعلاً الوثوق بخوارزميات لتقرير ما هو آمن وعادل في مجتمع رقمي عالمي متشابك؟ ولسنوات، عندما كانت ميتا تطلق ميزات جديدة على إنستغرام وواتساب وفيسبوك، كانت فرق من المراجعين تُقيّم المخاطر المحتملة: هل تنتهك الخصوصية؟ هل قد تسبب ضررًا للقاصرين؟ هل تسهم في انتشار محتوى مضلل أو سام؟ حتى وقت قريب، كانت ما تُعرف داخل ميتا بمراجعات الخصوصية والنزاهة تُجرى بالكامل تقريبًا من قبل مقيمين بشريين. لكن وفقًا لوثائق داخلية حصلت عليها NPR، فإن ما يصل إلى 90٪ من جميع تقييمات المخاطر سيتم أتمتته قريبًا. يعني ذلك عمليًا أن تحديثات خوارزميات ميتا المهمة، وميزات الأمان الجديدة، والتغييرات في كيفية مشاركة المحتوى عبر المنصات، ستُعتمد غالبًا عبر نظام ذكاء اصطناعي — دون إشراف بشري مباشر. داخل ميتا، يُنظر إلى التغيير كفوز لمطوري المنتجات، الذين سيتمكنون الآن من إطلاق التحديثات بسرعة أكبر. لكن موظفين حاليين وسابقين في ميتا يخشون أن تؤدي هذه الدفعة نحو الأتمتة إلى إسناد قرارات معقدة للذكاء الاصطناعي، دون الفهم البشري الكافي لتبعاتها الواقعية. قال أحد المسؤولين التنفيذيين السابقين في ميتا، طالبًا عدم الكشف عن اسمه: "ما دامت العملية تعني فعليًا إطلاق المزيد من الأشياء بسرعة أكبر، مع رقابة أقل، فإنك بذلك تخلق مخاطر أكبر"، بحسب موقع صرّحت ميتا أنها استثمرت مليارات الدولارات لدعم خصوصية المستخدم، وأن "الخبرة البشرية" ستظل حاضرة في "القضايا المعقدة"، بينما تُؤتمت فقط "القرارات منخفضة المخاطر". لكن الوثائق التي راجعتها NPR تُظهر أن ميتا تفكر في أتمتة المراجعات حتى في مجالات حساسة تشمل أمان الذكاء الاصطناعي، مخاطر على اليافعين، وفئة تُعرف باسم "النزاهة"، وتشمل المحتوى العنيف والمعلومات الكاذبة. وتشير العروض التقديمية الداخلية إلى أن الفرق ستتلقى "قرارًا فوريًا" عبر نظام ذكاء اصطناعي بعد إكمال استبيان حول المشروع، على أن يتحمل الفريق مسؤولية التأكد من تنفيذ المتطلبات قبل الإطلاق. في ظل النظام السابق، لم يكن يُسمح بإطلاق الميزات قبل موافقة المقيّمين البشريين. الآن، سيقرر مهندسو المنتجات بأنفسهم مدى خطورة المشروع، ولن تكون المراجعة البشرية إلزامية. زفيكا كريغر، المدير السابق للابتكار المسؤول في ميتا، قال: "معظم مديري المنتجات والمهندسين ليسوا خبراء في الخصوصية، ولا يُقيّم أداؤهم على هذا الأساس". وأضاف أن الاعتماد الزائد على الأتمتة قد يُضعف من جودة التقييمات. تشير الوثائق أيضًا إلى أن مستخدمي ميتا في الاتحاد الأوروبي قد يكونون أكثر حماية من هذه التغييرات، إذ سيبقى اتخاذ القرار وإشراف المنتجات تحت مسؤولية فرع الشركة في إيرلندا، التابع للقوانين الأوروبية الأكثر صرامة مثل "قانون الخدمات الرقمية". مجتمعة، تعكس هذه التغييرات تحولًا في فلسفة ميتا نحو تقليل الحواجز وتسريع التحديثات، ضمن نهج أكثر تساهلًا في إدارة الخطاب والمخاطر — بالتوازي مع محاولات مارك زوكربيرغ للتقرب من إدارة ترمب، التي اعتبر انتخابها "نقطة تحول ثقافية". تشير ميتا في تقاريرها الأخيرة إلى أنها بدأت تستخدم نماذج لغوية ضخمة (LLMs) في تطبيق السياسات، وتحديد المحتوى الذي لا يخالف القواعد بدقة عالية. هذا "يوفر وقتًا للمراجعين للتركيز على المحتوى الأكثر احتمالًا لانتهاك السياسات"، حسب بيانها. لكن منتقدين يرون أن الاستعانة بالذكاء الاصطناعي لتقييم المخاطر دون إشراف بشري كافٍ يمثل قفزة مقلقة في اتجاه تقني قد يُعرض المستخدمين والمجتمعات لعواقب غير محسوبة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store