
ثقب أسود يعود من سباته الطويل
استيقظ الثقب الأسود الضخم في قلب إحدى مجرّات كوكبة العذراء، وبدأ إنتاج نفثات من الأشعة السينية على فترات منتظمة تقريبا، وهو ما حير علماء الفلك، وفقاً لدراسة نشرت الجمعة.
ولم تكن المجرة البعيدة SDSS1335+0728 الواقعة على مسافة 300 مليون سنة ضوئية، تحظى باهتمام كبير من علماء الفلك حتى وقت قريب.
غير أنها بدأت فجأة تُصدر سطوعاً مميزاً في نهاية عام 2019، وفي فبراير 2024، بدأ فريق بقيادة لورينا هيرنانديز غارسيا من جامعة فالبارايسو في تشيلي بمراقبة نفثات الأشعة السينية على فترات منتظمة تقريباً.
وكان ذلك مؤشرا إلى أن ثقبه الأسود كان «يستيقظ».
وتحتوي معظم المجرات، بما في ذلك مجرة درب التبانة، على ثقب أسود ضخم في مركزها. وهذا الجسم غير ظاهر بحكم تعريفه، لأنه مضغوط جدا إلى درجة أن قوة الجاذبية الناجمة عنه تمنع حتى الضوء من التسرب.
ويتمزق أي نجم إذا اقترب أكثر من اللازم من الثقب الأسود، إذ تتفكك المادة التي يتكون منها، ثم تدور بسرعة كبيرة حول الثقب الأسود، وتشكل قرص تراكم قبل أن يتم ابتلاع جزء منها إلى الأبد، وهي ظاهرة تسمى «التمزق بفعل المدّ».
لكن الثقب الأسود يمكن أن يمر أيضا بمراحل طويلة من الخمول لا يجذب خلالها المادة بشكل نشط ولا يمكن اكتشاف أي إشعاع حوله.
وباتت المنطقة الساطعة والمضغوطة في قلب SDSS1335+0728 تُصنَّف على أنها نواة مجرّية نشطة، يطلق عليها اسم «أنسكي» Ansky.
وقالت هيرنانديز غارسيا في بيان مصاحب لنشر الدراسة في مجلة «نيتشر أسترونومي» إن «هذا الحدث النادر يوفّر الفرصة لمراقبة سلوك الثقب الأسود في الوقت الحقيقي، باستخدام مجموعة تلسكوبات فضائية عاملة بالأشعة السينية هي +إكس إم إم نيوتون+ التابع وكالة الفضاء الأوروبية و+نايسر+ و+تشاندرا+ و+سويفت+ التابعة لوكالة +ناسا+».
- ميزات غير عادية -
وتُعرف هذه النفثات القصيرة الأجل من الأشعة السينية باسم الانفجارات شبه الدورية، و«أسبابها غير مفهومة بعد»، وفق عالمة الفلك التشيلية.وترتبط الانفجارات شبه الدورية بحسب الفرضية الحالية بأقراص التراكم التي تتشكل بعد التمزقات المديّة. ولكن لم تُرصد أي علامات تشير إلى تدمير نجم في المجال الجاذبي للثقب الأسود. وتتمتع انفجارات «أنسكي» بخصائص غير عادية.
فهي «أطول بعشر مرات وأكثر سطوعاً بعشر مرات» من تلك الموجودة في الانفجارات شبه الدورية العادية، على ما شرح جوهين تشاكرابورتي، أحد أعضاء الفريق وطالب الدكتوراه في معهد ماساتشوستس للتكنولوجيا («إم آي تي») في الولايات المتحدة.
ولاحظ أن «كلّا من هذه الانفجارات يُطلق طاقةً تفوق مئة ضعف ما سُجّل في أي مكان آخر. كما أنها تتميز بأطول إيقاع رُصد على الإطلاق، وهو نحو 4,5 أيام».
وأضاف في البيان المُصاحب للدراسة «هذا يدفع نماذجنا إلى أقصى حدودها ويتحدى أفكارنا الحالية حول توليد هذه النفثات من الأشعة السينية».
ودفع ذلك معدّي الدراسة إلى النظر في فرضيات أخرى. ورأوا أن القرص المتراكم قد يكون تشكّل من الغاز الذي التقطه الثقب الأسود في محيطه.
في هذا السيناريو، يُعتقَد أن نفثات الأشعة السينية تنشأ من صدمات عالية الطاقة في القرص، ناجمة عن عبور جسم سماوي صغير للقرص بشكل متكرر.
وقال كبير علماء التلسكوب «إكس إم إم نيوتون» نوربرت شارتيل لوكالة فرانس برس «فلنتخيل نجماً يدور حول ثقب أسود في مدار مائل بالنسبة إلى القرص. يعبر النجم القرص مرتين في كل دورة»، من دون وجود «أي قوة كبيرة تجذبه».
وأضاف زميله في وكالة الفضاء الأوروبية إروان كوينتين «ما زلنا عند نقطة أن لدينا نماذج أكثر من البيانات حول الانفجارات شبه الدورية. نحتاج إلى المزيد من المراقبة لفهم ما يحدث».
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الاتحاد
١٠-٠٥-٢٠٢٥
- الاتحاد
في أضخم تجربة طبية عرفها التاريخ.. الذكاء الاصطناعي يشخّص ويتفوق على الأطباء
أطلقت مجموعة باحثين من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة هارفارد بالتعاون مع مستشفيات كبرى، قاعدة بيانات جديدة تهدف إلى دراسة التفاعل بين أطباء الأشعة ونماذج الذكاء الاصطناعي في تفسير صور الأشعة الصدرية، وهي قاعدة توصف بأنها الأكبر والأشمل من نوعها في هذا المجال حتى اليوم. اقرأ أيضاً.. اختبار ذكي يشخّص سرطان الرئة بدقة غير مسبوقة البيانات التي نُشرت ضمن مجلة Scientific Data في 3 مايو 2025، تحت اسم Collab-CXR، جمعت تقييماً تشخيصياً لـ 324 حالة مرضية واقعية من قبل 227 طبيب أشعة محترف، وذلك ضمن بيئات معلوماتية متغيرة: بعضها تضمن الدعم من خوارزميات الذكاء الاصطناعي، وأخرى اعتمدت على الصور الشعاعية فقط، وبعضها تضمن اطلاع الطبيب على التاريخ السريري الكامل للمريض. تم استخدام نموذج الذكاء الاصطناعي المعروف باسم CheXpert، المطوّر من جامعة ستانفورد، كأداة دعم تشخيصي في بعض الحالات. النموذج يعتمد على تحليل صور الأشعة فقط، دون الرجوع إلى السجل السريري، وهو ما أتاح للباحثين مقارنة قدرات الذكاء الاصطناعي مع الأداء البشري، ومع أداء الفريق البشري عند العمل بمساعدة الذكاء الاصطناعي. اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر ما يميز هذه الدراسة هو التصميم التجريبي المعقد الذي جمع بين اختبارات ضمن المشارك نفسه وأخرى بين مشاركين مختلفين، مما يسمح بفهم أدق لكيفية تفاعل الأطباء مع المعلومات المتوفرة لهم، سواء كانت آتية من الآلة أو من سياق الحالة الطبية. كذلك، شملت القاعدة تقييمات لاحتمالات الإصابة بـ 104 نوعًا مختلفًا من الأمراض الصدرية، وهو نطاق تشخيصي أوسع بكثير من الدراسات السابقة. إلى جانب التشخيصات، سجل الباحثون زمن اتخاذ القرار، وعدد النقرات داخل الواجهة التفاعلية، ومدى ثقة الطبيب في كل قرار، إضافة إلى بيانات ديموغرافية ومهنية عن الأطباء المشاركين، الذين يتمتعون بمتوسط خبرة يصل إلى 22 عامًا. تهدف قاعدة البيانات هذه إلى تمكين الباحثين والمطورين من تصميم أدوات ذكاء اصطناعي أكثر فاعلية وواقعية في البيئات الطبية، وتوجيه استراتيجيات دمج الذكاء الاصطناعي داخل سير العمل السريري بطريقة تحقق التكامل بدلًا من التنافس، وبما يعزز دقة التشخيص وجودة الرعاية الصحية للمرضى. إسلام العبادي(أبوظبي)


العين الإخبارية
٠٧-٠٥-٢٠٢٥
- العين الإخبارية
«فيستا» يفاجئ العلماء.. اكتشاف نسب الكويكب الغامض
كشف فريق دولي من العلماء أن الكويكب "فيستا" قد لا يكون بقايا كوكب لم يكتمل كما كان يُعتقد. وتوصل الباحثون في الدراسة المنشورة بدورية "نيتشر أسترونومي" إلى أن الكويكب قد يكون شظية ضخمة انفصلت عن كوكب أكبر بفعل تصادم كارثي وقع قبل 4.5 مليار عام، في بدايات تشكل النظام الشمسي. وهذا الاكتشاف المذهل جاء بعد إعادة تحليل دقيقة لبيانات الجاذبية التي جمعتها مركبة "داون" التابعة لوكالة ناسا أثناء زيارتها للكويكب بين عامي 2011 و2012. وفيستا، ثاني أكبر جسم في حزام الكويكبات بين المريخ والمشتري، كان يُصنف سابقاً على أنه "كوكب جنيني" ، أي كوكب في طور التكوين توقف تطوّره قبل أن يكتمل. وأظهرت بيانات سابقة أنه يمتلك بنية متمايزة، أي مكوّنة من قشرة ووشاح ونواة معدنية، على غرار الكواكب الصخرية كالأرض، لكن الدراسة الجديدة، المنشورة بتاريخ 23 أبريل 2025، قلبت هذه الفرضية رأساً على عقب. واعتمد العلماء في دراستهم الجديدة على تحسين تقنيات تحليل البيانات، لا سيما في قياس "عزم القصور الذاتي" للكويكب، وهي خاصية ترتبط بكيفية توزيع الكتلة داخله. وباستخدام تغييرات دقيقة في تردد الإشارات اللاسلكية الصادرة عن مركبة "داون" بفعل جاذبية فيستا، تمكن الباحثون من رسم خريطة أكثر دقة لبنيته الداخلية، وكانت النتيجة مفاجئة: لا وجود لنواة كثيفة في قلب فيستا. لكن هذا الكشف فتح باباً جديداً للغموض. فسطح فيستا مغطى بصخور بركانية غنية بالبازلت، ما يشير إلى وجود نشاط بركاني في الماضي، وهو أمر لا يحدث عادة في الأجسام غير المتمايزة، فكيف يمكن تفسير هذه المفارقة؟. يقدّم الدكتور سيث جاكوبسون من جامعة ولاية ميشيغان، قائد الفريق البحثي، تفسيراً مثيراً: "ربما لم يتكوّن فيستا في مكانه، بل هو جزء ممزق من كوكب أكبر تعرض لتحطم عنيف في الماضي السحيق". وهذا التفسير ينسجم مع أصل عائلة من النيازك المعروفة باسم (هاوردايت-يوكرايت-ديوجينايت)، التي يُعتقد أنها انطلقت من فيستا إثر اصطدام هائل. ويضيف جاكوبسون: "لطالما افترضنا أن بعض النيازك التي تسقط على الأرض قد تكون بقايا من كواكب قديمة تحطمت خلال الفوضى الأولى للنظام الشمسي. أما الآن، فلدينا أدلة أقوى تدعم هذه الفكرة، وقد يكون فيستا هو المثال الأوضح". وإذا صحت هذه الفرضية، فإن فيستا ليس كائناً فاشلاً في مسيرة التطور الكوكبي، بل هو وريث كوكب مفقود، يحمل بين طبقاته البركانية سجلاً جيولوجياً لحياة كوكبية كانت قائمة ثم تلاشت. والاكتشاف يحمل تداعيات واسعة على فهم أصل الكويكبات، إذ يشير إلى أن أجساماً أخرى في الفضاء قد تكون أيضاً بقايا لكواكب منسية، وستستخدم مهام فضائية قادمة مثل "سايكي" و"أوسايرس-أبيكس" و"هيرا" تقنيات مشابهة لمحاولة الكشف عن "أنساب" أخرى في الفضاء. وبينما لا نعلم بعد من هو "الأصل" الذي جاء منه فيستا، فإن هذه النتائج تضعنا خطوة أقرب إلى كشف شجرة العائلة الكوكبية للنظام الشمسي. aXA6IDE4NS4yNy45NC44MSA= جزيرة ام اند امز GB


اخبار الصباح
٢٣-٠٤-٢٠٢٥
- اخبار الصباح
هل يجب أن أكون مؤدبا مع "ChatGPT"؟
رغم أن النماذج اللغوية أو ما يطلق عليها "روبوتات الذكاء الاصطناعي" لا تشعر بالإهانة أو التقدير، فإن الأرقام تقول إن نصف من يستخدمون ChatGPT على سبيل المثال تقريبًا يخاطبونه بأدب، على غرار زملاء العمل أو الأصدقاء. ويطرح هذا السلوك "المهذب" أسئلة أعمق من قبيل: لماذا نتعامل بلطف مع برنامج لا يملك مشاعر؟ وهل يؤثر ذلك فعلًا على أدائه؟ أم أننا، في الواقع، نفعل ذلك لأنفسنا وليس للآلة؟. وفي حين أن ChatGPT لا يكترث للأمر، قائلا ردا على سؤالنا إذا ما كان يفضل أن نخاطبه بأدب؟، بأنه لا يحتاج إلى ذلك لأنه ببساطة لا يشعر بالإهانة كما لا يشعر بالاحترام، لكنه أنه أشار إلى أن الأمر يتعلق بشخصية المستخدم وأسلوبه، وقول كلمات من قبيل "لو سمحت" و"شكرا"، يجعل الحوار ألطف. لكن مبتكر ChatGPT لديه رأي قد تعتبره غريبا في هذا الشأن، لكنه يحمل تبريرا قويا ومعتبرا "إنسانيا" ومنطقيا، سنخبرك به في نهاية هذه المادة. بحسب، غابرييل واسكو، التي تكتب في العلوم السلوكية وعلم النفس، فإن استخدام اللغة المؤدبة مع نماذج الذكاء الاصطناعي لها ثلاثة تفسيرات؛ هي التجسيد، والأعراف الاجتماعية، ومبدأ المعاملة بالمثل. التجسيد التجسيد هو أن نُنسب صفات بشرية - كالأفكار والمشاعر والعواطف - إلى كيانات غير بشرية. وفي هذه الحالة، أن نتحدث مع الذكاء الاصطناعي لا شعوريا كما لو كان بشريا. يستخدم الدماغ البشري التجارب الشخصية لهم ما لا يعرفه، أي أنه من الأسهل أن يتعامل مع روبوت الذكاء الاصطناعي على أنه دماغ وشبكات عصبية بدلا من خوارزميات معقدة وقواعد بيانات تقوم بصياغة مخرجات. وبعد تفاعل لساعات مع روبوت الذكاء الاصطناعي فليس من المُستغرب بحسب واسكو أن نبدأ في تعزيز مثل هذا التواصل الشخصي لا سيما أن الإصدارات اللاحقة من ChatGPT على سبيل المثال يمكنها إجراء محادثات صوتية فورية بصوت بشري مقنع. كما يلعب التقدم التكنولوجي الكبير لـ ChatGPT دورا في الأمر لأنه يستطيع معرفة حالتك النفسية، أو المزاجية، من بعض الكلمات، أو من نبرة صوتك، ويمنحك وهما مقنعا للغاية لما يعرف بـ"التعاطف الحاسوبي". الأعراف الاجتماعية حتى بالنسبة لمن يعاملون ChatGPT على حقيقته، قد تتسلل بعض المجاملات إلى المحادثات كما لو كانت أمرًا طبيعيًا. وكل هذا بفضل الأعراف الاجتماعية: القواعد غير المكتوبة التي تحكم سلوكنا في مواقف اجتماعية معينة، والتي غُرست فينا منذ الصغر. على الرغم من أن المجتمع قد يبدو أكثر وقاحة، يستخدم 88% من الآباء عبارتي "من فضلك" و"شكرا" بانتظام مع أطفالهم، وتترسخ هذه العادات فينا حتى يصبح التخلص منها يتطلب جهدا أكبر من الكثير من مجرد التصرف على طبيعتنا والتحلي بالأدب. على جانب آخر، تقول شيري توركل، عالمة النفس السريري والمديرة المؤسِّسة لمبادرة معهد ماساتشوستس للتكنولوجيا حول التكنولوجيا والذات، إنّ التصرّف بأدب مع الذكاء الاصطناعي "علامة احترام" - ليس للآلة بل للذات. وتضيف: "الأمر يتعلق بك". يكمن الخطر، من وجهة نظرها، في أننا قد نعتاد على استخدام لغة فظة وغير مُحترمة ودكتاتورية مع الذكاء الاصطناعي، ثم نتصرف بنفس الطريقة دون قصد مع الآخرين. وقالت إن بعض الآباء، بدأوا يشتكون في السنوات الأخيرة من أن أطفالهم، الذين اعتادوا على إصدار الأوامر بصوت عالٍ للمساعدين الافتراضيين الآليين مثل "سيري" و"أليكسا"، أصبحوا أقل احترامًا. وفي عام 2018، سعت غوغل إلى معالجة هذا الأمر من خلال تقديم ميزة تسمى "Pretty Please" لمساعد غوغل كوسيلة لتشجيع الأطفال على استخدام لغة مهذبة عند تقديم الطلبات. انحياز المعاملة بالمثل ماذا لو استولت الروبوتات في يوم من الأيام على السلطة، وأصبح الذكاء الاصطناعي هو المسيطر؟، عندها سيكون الذين استخدموا اللغة المؤدبة معه، على الجانب الصحيح من التاريخ! ليس الأمر مبالغة، لكن الإنسان بطبيعته يحب أن يكون الآخرون لطيفين معه بالمقابل، والذكاء الاصطناعي في هذه الحالة ليس استثناء. عندما تطلب من أحد أفراد العائلة على سبيل المثال عند طلب ما "من فضلك" فأنت تريده أن يشعر بالذنب إذا لم يمتثل للطلب اللطيف، وعليه تصبح فرص أن يقوم بهذا الأمر أكبر، وقول "شكرا" في وقت لاحق، يعطي شعورا بالتقدير والامتنان لهذا الفعل. وبحسب وارسكو، ينطبق الأمر نفسه على تفاعلاتنا مع روبوتات الدردشة. لكن ChatGPT لا يمتلك مشاعر، وقد لا تُجدي اللطافة هنا، كون في نهاية الأمر يستخدم الإنسان اللباقة للحصول على نتيجة أفضل. هل نحصل على نتيجة أفضل؟ في استطلاع رأي عبر الإنترنت أجراه إيثان موليك، الأستاذ المشارك في جامعة بنسلفانيا، قال ما يقرب من نصف المشاركين إنهم غالبًا ما يكونون مهذبين مع روبوتات الدردشة الذكية، بينما قال حوالي 16% فقط إنهم "يُصدرون الأوامر فقط". تعكس تعليقات المطورين، المنشورة في منتدى تستضيفه OpenAI، الشركة التي أنشأت ChatGPT، هذا التوجه أيضًا: كتب أحد المستخدمين: "أجد نفسي أستخدم كلمتي "من فضلك" و"شكرًا" مع ChatGPT لأنها الطريقة التي أتحدث بها مع شخص حقيقي يُساعدني". ووفقًا لدراسة حديثة نُشرت من قِبل فريق في جامعة واسيدا ومركز RIKEN لمشروع الذكاء المتقدم، وكلاهما في طوكيو. وجد الباحثون أن استخدام المحفزات المهذبة يمكن أن يُنتج استجابات عالية الجودة من النماذج اللغوية الكبيرة التي تقوم عليها روبوتات الدردشة القائمة على الذكاء الاصطناعي. لكن على جانب آخر، قد يؤدي الإطراء المبالغ فيه إلى تدهور أداء النماذج اللغوية، ويوصي القائمون على الدراسة بالاعتدال في "التهذيب". ويقول ناثان بوس، الباحث المشارك الأول في جامعة جونز هوبكنز الذي يدرس أنماط العلاقات بين البشر والذكاء الاصطناعي - والذي لم يكن مشاركًا في الدراسة المشار إليها - إن الذكاء الاصطناعي يُعطي ما تُدخله إليه، بمعنى. قد تُوجّه التحفيزات المهذبة النظام لاسترجاع معلومات من مصادر أكثر تهذيبًا، وبالتالي أكثر مصداقية، أما التحفيز الساخر مثلا فقد يكون له تأثير معاكس، إذ يُوجّه النظام إلى نقاشات على مواقع أقل مصداقية مثل "ريديت". الدكتور إدواردو بينيتيز ساندوفال باحث في مجال الروبوتات الاجتماعية في كلية الفنون والتصميم بجامعة نيو ساوث ويلز للفنون والتصميم والهندسة المعمارية، وتغطي خبرته جوانب مختلفة من هذا المجال، بما في ذلك التفاعل بين الإنسان والروبوت. يقول إن هناك اهتمامًا متزايدًا بفهم ديناميكيات كيفية تفاعل الآلات مع البشر بطرق هادفة. ويقول ساندوفال: "من منظور التصميم، لدينا مبادئ في مجال الروبوتات الاجتماعية تنص على أن التفاعلات بين الإنسان والروبوت يجب أن تكون ممتعة، ومتبادلة، وشاملة، وعالمية. أعتقد أنه يمكننا القول إن أحد جوانب هذا هو التفاعل بطرق محترمة ومراعية، أي التحلي باللباقة". ويتابع: "بالطبع، إنها آلات، لذا لا يمكنها حقًا الاهتمام بكيفية توجيهنا لها، ويجب ألا ننسى هذا، ولكن إذا أخذنا سيارة، على سبيل المثال، فإننا نعتني بها من خلال القيادة بحذر، وصيانتها، وأنواع أخرى من الأفعال التي تُشبه اللباقة". ويؤكد أن الأدب قد لا يُحسّن تجربة المستخدم فحسب، بل يُمكّن أيضًا الذكاء الاصطناعي المُولّد من تقديم نتائج ومخرجات عالية الجودة. ويرى الخبير في مجال الروبوتات الاجتماعية، أن تفاعلاتنا مع الذكاء الاصطناعي تُدرّبه باستمرار على كيفية التصرف في المستقبل. ومن هذا المنطلق، يُمكن أن يُساعد التحلّي بالأدب في الحفاظ على معيار للتفاعلات المُهذّبة بين الإنسان والروبوت. صانع ChatGPT له رأي آخر رغم أنه لا يقولها صراحة، لكن لو قدر له أن يكون أكثر صراحة، لطلب الرئيس التنفيذي لشركة OpenAI من الناس أن لا يكونوا مؤدبين مع نموذج الذكاء الاصطناعي ChatGPT، لكنه بنفس الوقت لا يقول إنه علينا معاملتها بقلة ذوق. الموضوع بالنسبة لألتمان هو اقتصادي بحت، لا يعتمد على المشاعر بقدر ما يعتمد على الأرقام والحسابات، حيث أشار مازحا على أحد المستخدمين على شبكة "إكس" عندما سأل عن تكلفة الأدب مع نماذج الذكاء الاصطناعي، وكم تتكبد الشركة من المال عندما نقول لـ ChatGPT، "من فضلك" و"شكرا" ويضطر للإجابة عليها، قائلا إن الأمر يكلف الشركة ملايين الدولارات. يعود الأمر إلى أن نماذج الذكاء الاصطناعي تستهلك كما كبيرا من الطاقة، وتكلف الردود والكلمات مع الروبوت طاقة أكبر من غيره. ووفقا لغولدمان ساكس، يستهلك كل استعلام من المستخدم لنموذج الذكاء الاصطناعي ChatGPT-4 حوالي 10 أضعاف الكهرباء التي يستهلكها محرك بحث "غوغل" للإجابة على نفس الاستعلام. كما تستخدم شركة OpenAI الماء لتبريد الخوادم التي تُولّد البيانات. وأشارت دراسة من جامعة كاليفورنيا - ريفرسايد، إلى أن استخدام GPT-4 لتوليد 100 كلمة يستهلك ما يصل إلى ثلاث زجاجات من الماء، ويمكن أن تستهلك عبارة "على الرحب والسعة" حوالي 1.5 أونصة من الماء. الخلاصة كن مؤدبا مع نماذج الذكاء الاصطناعي بشكل معقول، وحاول أن لا تدردش معها كثيرا دون داع من باب المسؤولية المشتركة التي تقع علينا كبشر في الحفاظ على الطاقة وموارد الماء على الكوكب.