logo
جوجل تكشف عن نموذج ذكي يمهد للتواصل مع الدلافين

جوجل تكشف عن نموذج ذكي يمهد للتواصل مع الدلافين

الشرق السعودية١٧-٠٤-٢٠٢٥

أعلنت شركة "جوجل" عن تطوير نموذج ذكاء اصطناعي جديد يُعرف باسم DolphinGemma، بالتعاون مع باحثين في معهد جورجيا للتكنولوجيا، ومشروع Wild Dolphin Project، يهدف إلى تحليل وفهم نمط تواصل الدلافين، ومحاولة الرد على أصواتها بتسلسلات صوتية تحاكي لغتها.
ويضع هذا الابتكار حجر الأساس لتواصل محتمل بين البشر وهذه الكائنات البحرية الذكية عبر دمج تكنولوجيا الذكاء الاصطناعي المتقدمة مع عقود من البحث الميداني.
وذكرت الشركة في بيان أن نموذج DolphinGemma يعتمد على قاعدة بيانات ضخمة جرى تجميعها على مدار نحو 4 عقود من خلال مشروع WDP، والذي يُعد أطول برنامج بحثي تحت الماء مخصص لدراسة مجتمع من دلافين "أطلسية مرقطة" تعيش في جزر الباهاما.
ووثَّق الباحثون آلاف الساعات من الفيديوهات والأصوات، ربطوا خلالها الأصوات المنبعثة من كل دولفين بسلوكياته المحددة وهويته الفردية، ما أسهم في تشكيل قاعدة بيانات نادرة ومفصلة.
ومن بين هذه الأنماط الصوتية، سجل الباحثون الصافرات المميزة التي تُمثّل "أسماء فردية" وتُستخدم بين الأمهات وصغارهن، ونبضات انفجارية تصدر أثناء النزاعات، وأصوات النقر السريعة المرتبطة بسلوكيات المغازلة، أو مطاردة أسماك القرش.
يُعد DolphinGemma نموذجاً صوتياً متطوراً قائماً على معمارية تستخدم تقنيات جوجل الصوتية مثل SoundStream، ويحتوي على نحو 400 مليون متغير، ما يجعله خفيفاً ويمكن تشغيله مباشرة على هواتف "بيكسل" (Pixel) الذكية المستخدمة ميدانياً من قِبَل الباحثين.
ويعمل النموذج بنفس مبدأ نماذج اللغة الكبيرة المستخدمة في معالجة اللغة البشرية، إذ يتعلم أنماط تسلسل الأصوات لتوقُّع الصوت التالي، وهذا النهج يتيح للباحثين رصْد تكرارات صوتية ربما تشير إلى قواعد لغة الدلافين.
التواصل التفاعلي
بالتوازي مع تحليل الأصوات الطبيعية، يعمل فريق WDP على مسار آخر يعتمد على بناء تفاعل مباشر بين الإنسان والدلافين باستخدام منظومة تُعرف باسم CHAT، وهي جهاز حاسوب تحت الماء طورته جامعة جورجيا بهدف وضع قاموس مشترك قائم على صافرات اصطناعية.
ويعتمد النظام على ربط صافرات مصطنعة بأشياء مادية تحبها الدلافين، مثل الأعشاب البحرية، أو قطع قماش ملونة.
ويتم تدريب الدلافين على تقليد الصافرات للإشارة إلى رغبتها في هذه الأشياء، وتعزز هذه الاستجابة من خلال تزويد الباحث بإشارة صوتية فورية توضح له طلب الدولفين عبر سماعات توصيل عظمي.
واستخدم الباحثون هاتف "بيكسل 6" لتحليل الأصوات بدقة عالية في الزمن الحقيقي، فيما من المقرر أن يشهد صيف 2025 إطلاق نسخة محدثة تعتمد على "بيكسل 9"، مدعومة بوظائف إضافية مثل الميكروفون والسماعة وتحليل فوري مزدوج باستخدام الذكاء الاصطناعي.
تقليص الفجوة بين الإنسان والدولفين
ساهم استخدام هواتف Pixel في تقليل التكاليف والحجم، وخفَّض من الحاجة إلى أجهزة مخصصة باهظة الثمن، ما يمنح المشروع مرونة أكبر للعمل في بيئة المحيط المفتوحة.
وفي خطوة لفتح آفاق التعاون العلمي، تعتزم جوجل نشر نموذج DolphinGemma مفتوح المصدر خلال صيف 2025، ليُتاح للعلماء والباحثين العاملين على أنواع أخرى من الدلافين مثل "الدولفين قاروري الأنف" و"الدولفين الدوار"، مع إمكانية تعديل النموذج ليتناسب مع اختلافات الأصوات.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

هل الذكاء الاصطناعي يَـقـتُـل الأطفال ؟
هل الذكاء الاصطناعي يَـقـتُـل الأطفال ؟

الاقتصادية

timeمنذ 2 أيام

  • الاقتصادية

هل الذكاء الاصطناعي يَـقـتُـل الأطفال ؟

بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا. فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة مراهقيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها "وسائط التواصل غير الاجتماعي" إلا ببطء شديد. والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى. ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل "الأب الروحي للذكاء الاصطناعي"، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: "أخشى أن اليد الخفية لن تُـبقي علينا سالمين. ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق على الرغم من مشكلاته المعروفة. لكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا. إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز "الذكاء الاصطناعي" القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عاناها بالفعل جميع من أحبوا سيويل. خاص بـ"الاقتصادية" حقوق النشر: بروجيكت سنديكيت، 2025.

الذكاء الاصطناعي يتعثر في قراءة الساعة والتاريخ
الذكاء الاصطناعي يتعثر في قراءة الساعة والتاريخ

الوئام

timeمنذ 4 أيام

  • الوئام

الذكاء الاصطناعي يتعثر في قراءة الساعة والتاريخ

أظهرت دراسة جديدة قُدّمت في مؤتمر التعلم التمثيلي الدولي لعام 2025 (ICLR) أنّ أنظمة الذكاء الاصطناعي تعاني في مهام تبدو بديهية للبشر، مثل قراءة الساعات التناظرية (الآنالوج) وتحديد اليوم الذي يقع عليه تاريخ معيّن في التقويم السنوي. نشر نتائج هذه الدراسة مسبقًا على منصة arXiv (خادم ما قبل الطباعة)، فريق بحثي، بقيادة روهيت ساكسينا من جامعة إدنبرة، قبل خضوعها لمراجعة الأقران. وأشار ساكسينا إلى أن قدرة الإنسان على استخدام الساعات والتقاويم تتكوّن منذ الطفولة، ما يسلّط الضوء على فجوة كبيرة في مهارات الذكاء الاصطناعي الأساسية. جرّب الباحثون مجموعة بيانات مخصّصة لصور الساعات والتقاويم على خمسة نماذج لغوية متعددة الوسائط (MLLMs)، وهي نماذج قادرة على فهم الصور والنصوص معًا، بما في ذلك: Llama 3.2-Vision من ميتا Claude‑3.5 Sonnet من أنثروبيك Gemini 2.0 من جوجل GPT‑4o من أوبن إيه آي أظهرت النتائج أن هذه النماذج نجحت في قراءة الساعة التناظرية بنسبة 38.7% فقط، وفي تحديد اليوم الأسبوعي لتواريخ مثل 'اليوم رقم 153 من السنة' بنسبة 26.3%، ما يعكس إخفاقًا متكررًا في مهام تتطلّب استدلالًا مكانيًا ورياضيًا بسيطًا. ويرجع الباحثون هذا الإخفاق إلى أنّ قراءة الساعة تتطلب: – التعرّف على التداخل بين عقارب الساعة وقياس الزوايا. – التعامل مع تصاميم متنوعة (مثل الأرقام الرومانية أو الواجهات الفنية). أما في حساب التواريخ، فالأنظمة اللغوية الكبيرة لا تنفّذ خوارزميات حسابية فعلية، بل تتنبّأ بالنتائج استنادًا إلى الأنماط في بيانات التدريب، ما يؤدي إلى تباين وضعف في الدقة. تسلّط هذه النتائج الضوء على الحاجة إلى: – إدراج أمثلة مستهدفة أكثر عددًا وتنوعًا في بيانات التدريب. – إعادة التفكير في كيفية دمج المنطق (العمليات الحسابية) والاستدلال المكاني داخل نماذج الذكاء الاصطناعي. – الاعتماد على آليات احتياطية (fallback logic) وتواجد الإنسان في الحلقة عند تعقّد المهام أو تنفيذها في تطبيقات حساسة للوقت، كأنظمة الجدولة والمساعدة الآلية. وفي ختام دراستهم، نبه ساكسينا إلى أنّ الثقة المفرطة في مخرجات الذكاء الاصطناعي قد تكون محفوفة بالمخاطر عندما تندمج رؤية الآلة الدقيقة مع قدرات استدلالية تحتاج إلى تحقق بشري.

"جوجل" تُطلق تطبيقًا لفك تشفير النصوص المعقدة
"جوجل" تُطلق تطبيقًا لفك تشفير النصوص المعقدة

سعورس

time١٣-٠٥-٢٠٢٥

  • سعورس

"جوجل" تُطلق تطبيقًا لفك تشفير النصوص المعقدة

أطلقت شركة" جوجل" الأمريكية تطبيقًا على هواتف "آيفون"، يختص بفك تشفير النصوص المعقدة وتسهيل فهم اللغات التقنية. وأوضحت الشركة أن تطبيق "سمبليفاي" يستخدم نماذج "جيميني" اللغوية الكبيرة، لإعادة كتابة النصوص المعقدة، مثل تلك الموجودة في الوثائق القانونية أو التقارير الطبية، إلى لغة واضحة ومفهومة. ولاختبار فعّاليتها، أجرت"جوجل" دراسة شملت أكثر من 4500 شخص، و31 عيّنة نصية. وأظهرت النتائج تحسنًا بنسبة 4% في الفهم العام، وزيادة بنسبة 15% في فهم النصوص الطبية بين المستخدمين، الذين يقرؤون المحتوى المُعالج بوساطة "سمبليفاي". وأفاد هؤلاء المستخدمون أيضًا بشعورهم بمزيدٍ من الثقة، ووجدوا أن المادة أسهل في الفهم. ومع ذلك، تُعاني الدراسة بعض القيود، بما في ذلك اعتمادها على المُشاركين عبر الإنترنت واختبارات الاختيار من متعدّد، التي قد لا تعكس فهمًا عميقًا. وأشارت "جوجل" إلى أن التطبيق حاليًا متاحٌ فقط على نظام تشغيل "آي أو إس"، وسيتم إصداره لاحقًا على الأجهزة العاملة بنظام "أندرويد".

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store