
غوغل توسّع استخدام الذكاء الاصطناعي في الحياة اليومية
تواصل شركة غوغل تسريع خطواتها في مجال الذكاء الاصطناعي، معلنة عن مجموعة من الميزات والتحديثات التي تهدف إلى إدماج الذكاء الاصطناعي بشكل أعمق في حياة المستخدمين اليومية، من الأطفال وحتى المحترفين.
اضافة اعلان
ويأتي هذا التوسع مع اقتراب مؤتمر Google I/O المرتقب، حيث من المتوقع أن تُخصص الشركة حصة واسعة لعرض قدرات Gemini وNotebookLM وتجارب أندرويد المستقبلية.
"جيميناي للأطفال"
في خطوة لافتة تستهدف الجيل الناشئ، تعمل غوغل على إصدار نسخة مخصصة من روبوت المحادثة "جيميناي" للأطفال دون سن 13 عامًا، بشرط أن يكون حساب الطفل مُدارًا من قبل ولي الأمر عبر خدمة Family Link.
بحسب تقرير لصحيفة نيويورك تايمز، بدأت الشركة بإرسال رسائل إلى أولياء الأمور لإعلامهم بأن أطفالهم سيكون بمقدورهم قريبًا استخدام جيميناي للمساعدة في أداء الواجبات، وطرح الأسئلة، وحتى تأليف القصص.
لكن، رغم تأكيد الشركة على تفعيل أدوات رقابة وأمان صارمة، عبّرت جهات كـ"اليونيسف" عن مخاوف من أن هذه التجربة قد تُربك الأطفال أو تُضعف مهارات التفكير النقدي لديهم، لا سيما في ظل طمس الفروقات بين الإنسان والآلة.
هواتف أندرويد تتحول إلى حواسيب
إلى جانب جهودها في الذكاء الاصطناعي، تعمل غوغل على تطوير وضع سطح المكتب (Desktop Mode) داخل أندرويد، والذي يتيح تحويل الهاتف إلى بيئة تشبه الحواسيب المكتبية عند ربطه بشاشات خارجية.
تُظهر النسخ التجريبية واجهة تُشبه نظام ويندوز مع شريط مهام دائم، ودعم لتعدد النوافذ، وتنسيق بينها بالسحب والإفلات.
ورغم أن شركات مثل سامسونج (Samsung DeX) وهواوي سبقتها في هذا المجال، فإن دخول غوغل المباشر على خط التجربة قد يُحدث نقلة حقيقية، خاصة على أجهزة Pixel التي باتت أكثر تكاملاً من حيث الأداء مع الملحقات الطرفية.
الذكاء الاصطناعي في خدمة الدراسة والتحليل
ضمن توجهها نحو الأدوات المعرفية، تستعد غوغل لإطلاق تطبيق مستقل لخدمة NotebookLM على الهواتف بتاريخ 20 مايو 2025، بالتزامن مع مؤتمر Google I/O.
هذه الأداة، التي بدأت كمشروع "Tailwind"، تطورت إلى منتج ذكي قادر على تحليل مستندات PDF، ومقالات الإنترنت، ومقاطع YouTube، وتحويلها إلى ملخصات قابلة للتحقق، وأحيانًا إلى عروض صوتية بأسلوب بودكاست.
يدعم التطبيق حاليًا أكثر من 50 لغة بينها العربية، ويُعد خطوة هامة نحو تقديم تجربة تعليمية غنية ومستندة إلى مصادر موثوقة مقارنة بالتطبيقات الأخرى التي تفتقر للشفافية في معالجة البيانات.
وكل هذه المبادرات تؤكد أن غوغل تسير نحو دمج الذكاء الاصطناعي في جميع تفاصيل حياة المستخدم، من خلال تقديم أدوات مرنة وآمنة، يمكن تخصيصها حسب الفئة العمرية أو الغرض التعليمي أو المهني. ويبدو أن مؤتمر Google I/O هذا العام سيكون نقطة تحول تكشف عن مستقبل متكامل بين الهواتف، الحوسبة، والتعليم.- وكالات

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الغد
منذ 2 ساعات
- الغد
مشاريع روبوت وطائرات مسيرة.. سميرات يرعى فعاليات اليوم العلمي لكلية الهندسة في الجامعة الهاشمية
اضافة اعلان وتأتي هذه الفعالية تزامنًا مع احتفالات المملكة بعيد الاستقلال الـ79، حيث سلطت الضوء على أبرز الابتكارات والمشاريع في مجالات الروبوتات، والطائرات المسيّرة، والهندسة الصناعية، والريادة، والإبداع، إضافة إلى عرض 35 مشروع تخرج لطلبة الكلية، تناولت حلولًا تقنية متقدمة في الذكاء الاصطناعي والروبوتات.وتولي رعاية وزارة الاقتصاد الرقمي والريادة اهتمامًا كبيرًا بتمكين الشباب الأردني وتوفير البيئة المناسبة لنمو الشركات الناشئة والمبادرات التقنية، خاصة في مجالات الثورة الصناعية الرابعة، بما يسهم في بناء اقتصاد رقمي تنافسي قائم على المعرفة والابتكار.وتأتي هذه الفعالية كمثال حي على الشراكة بين مؤسسات التعليم العالي والقطاع الحكومي في دعم الابتكار وتعزيز دور الجامعات في تهيئة الكفاءات لسوق العمل الرقمي والتحول التكنولوجي.


الغد
منذ 2 ساعات
- الغد
هاكر يخترق تطبيق TM SGNL في 20 دقيقة ويكشف بيانات حساسة
في مشهد يكشف هشاشة البنى الأمنية الرقمية، تمكن أحد القراصنة من اختراق النسخة المعدّلة من تطبيق المراسلة المشفّرة Signal، المعروف باسم TM SGNL، خلال أقل من عشرين دقيقة، مستغلاً ثغرات بدائية في التشفير والإعدادات البرمجية. تفاصيل الهجوم التي كشفها موقع Wired تسلط الضوء على سلسلة من الإخفاقات التقنية في إدارة النطاقات الآمنة وخوادم الأرشفة، ما أدى إلى تسريب بيانات حساسة شملت محادثات مؤسسية غير مشفرة وكلمات مرور لموظفين في جهات حكومية أميركية. اضافة اعلان وتمكّن أحد القراصنة من الوصول إلى خوادم تطبيق "TM SGNL"، النسخة المعدّلة من تطبيق "سيجنال" (Signal)، خلال أقل من 20 دقيقة، وذلك في عملية استندت إلى استغلال بسيط لثغرة صغيرة، لكنها بالغة التأثير، إذ كشف عن تركيبات برمجية قديمة وإعدادات غير مؤمنة على الإطلاق. بدأ المخترق رحلته بالوصول إلى لوحة التحكم الخاصة بالنطاق الآمن للتطبيق عبر العنوان: وفقاً لتصريحاته لموقع Wired. تشفير عتيق بمجرد الدخول، لاحظ المخترق أن النظام يعتمد على تشفير كلمات المرور باستخدام خوارزمية MD5 على واجهة المستخدم، وهي خوارزمية قديمة وضعيفة لم تعد تُستخدم في نظم التشفير الحديثة نظراً لقابليتها للاختراق. الأخطر من ذلك أن التشفير كان يتم على واجهة المستخدم فقط، ما يجعل قيمة "الهاش" الناتجة تُستخدم عملياً ككلمة مرور، وبالتالي يسهل نسخها واستخدامها للدخول مباشرة. وبعد أن تبين للمخترق ضعف أساليب الحماية، شكّ في أن بنية النظام تعتمد على تقنيات قديمة، وبالفعل وجد أن TeleMessage تستخدم JSP، وهي تقنية لإنشاء تطبيقات الويب ترجع إلى أوائل العقد الأول من الألفية الحالية، ما زاد من احتمالية وجود ملفات حساسة مكشوفة للعامة على الإنترنت. للبحث عن الثغرة، استخدم أداة feroxbuster، وهي أداة تستهدف اكتشاف الموارد العامة المتاحة على مواقع الويب، ووجه عمليات المسح إلى نطاقين تابعين لـ TeleMessage هما: و إذ بدأ الاختراق الحقيقي عندما اكتشف رابطاً على النطاق الثاني ينتهي بـ/heapdump. عند فتح هذا الرابط، قدّم الخادم ملفاً كبيراً يُعرف باسم heap dump، وهو ملف يحتوي على لقطة من الذاكرة المؤقتة للخادم (RAM) وقت تحميل الصفحة، بحجم وصل إلى نحو 150 ميجابايت. هذه الملفات غالباً ما تحتوي على أجسام الطلبات HTTP، التي قد تتضمن بيانات اعتماد المستخدمين، وباستخدام كلمة مفتاحية بسيطة مثل password، وجد المخترق أسماء مستخدمين وكلمات مرور بشكل نصي ضريح غير مشفر. بيانات حساسة وعند استخدام واحدة من هذه البيانات لتسجيل الدخول إلى لوحة الإدارة، تبيّن أنه اخترق حساباً لموظف تابع لوكالة الجمارك وحماية الحدود الأميركية، التي أكدت لاحقاً استخدامها لخدمة TeleMessage. ولم تقتصر البيانات المكشوفة على بيانات الدخول، بل شملت أيضاً سجلات محادثات داخلية غير مشفرة بصيغة نصية، من بينها محادثات خاصة بمنصة Coinbase الشهيرة لتداول العملات الرقمية. ورغم تأكيد Coinbase عدم وجود دليل على تعرض بيانات العملاء للخطر، فإن مجرد كشف هذه المحادثات يطرح تساؤلات كبرى بشأن البنية الأمنية للتطبيق. تحليل الشيفرة المصدرية لتطبيق TM SGNL كشف لاحقاً أن التطبيق يرسل الرسائل بصيغة غير مشفرة إلى خادم أرشفة خاص رغم الترويج له بأنه يوفر تشفيراً "من طرف إلى طرف" يشمل حتى عملية الأرشفة المؤسسية. الخادم كان مبنياً باستخدام إطار Spring Boot بلغة Java، ويضم ميزة تُعرف بـ Actuator، تُستخدم لمراقبة التطبيقات، وتتضمن نقطة الوصول /heapdump. هذه النقطة كانت مكشوفة للجميع، ما سمح بتنزيل بيانات حساسة من الخادم دون الحاجة إلى مصادقة للتوثيق. وفقًا لشركة Wiz المتخصصة في الأمن السحابي، فإن نقطة /heapdump المصنفة ضمن أكثر نقاط الضعف شيوعاً، كانت حتى عام 2017 مفعّلة بشكل افتراضي، قبل أن يتم حصر الوصول إلى نقاط آمنة فقط مثل /health و/info. غير أن مطوري TeleMessage على ما يبدو إما استخدموا إصداراً قديماً من Spring Boot، أو قاموا يدوياًَ بفتح نقطة الوصول هذه، ما تسبب في هذا الاختراق واسع النطاق. وكانت هذه التفاصيل قد ظهرت بعد أيام من تداول صورة لمايك والتز، مستشار الأمن القومي السابق للرئيس ترمب، وهو يستخدم TM SGNL خلال اجتماع رسمي. وبعد الحادثة، أبلغ مصدر مجهول الصحفي ميكا لي أنه تمكن من اختراق التطبيق بسهولة، ما دفع TeleMessage لاحقاً إلى تعليق خدماتها مؤقتاً وسط صمت رسمي من الشركة الأم "Smarsh"، نقلا عن بلومبرغ.


الغد
منذ 2 ساعات
- الغد
هل نحتاج طبيبًا نفسيًا... أم مجرد محادثة مع ذكاء اصطناعي؟
في زمن تتشابك فيه الضغوط اليومية مع العزلة الرقمية، أصبح الإنسان أكثر حاجة إلى من يصغي له، حتى لو كان ذلك "المستمع" مجرّد تطبيق. منذ إطلاقه في نهاية 2022، فرض تشات جي بي تي وغيره من روبوتات المحادثة المدعومة بالذكاء الاصطناعي وجوده كـرفيق رقمي يتسلّل إلى تفاصيل الحياة اليومية لملايين المستخدمين حول العالم. اضافة اعلان من اختيار الكلمات في رسالة اعتذار، إلى المواساة عند الوحدة، أصبحت هذه الأدوات الذكية بمثابة ملاذٍ نفسي لدى البعض، ووسيلة فضفضة لدى آخرين. فهل نحن أمام ثورة في أدوات الدعم العاطفي؟ أم مجرد بديل مؤقت في غياب الأذن البشرية؟ وقد شهدت السنوات الأخيرة انتشاراً لافتاً لاستخدام روبوتات المحادثة ذات الأغراض العامة والتطبيقات الرقمية المتخصصة بالعلاج النفسي كأدوات دعم عاطفي. وبينما توفّر هذه الحلول الذكية متنفساً فورياً وطريقة سهلة للحصول على الأجوبة، يطرح استخدامها أسئلة جوهرية حول فعاليتها الحقيقية، وقدرتها على التعامل مع الحالات المعقدة، وحدودها الأخلاقية والعملية، فضلاً عن مخاطر الخصوصية. ما أسباب استخدام روبوتات المحادثة للحصول على الدعم النفسي؟ أصبح استخدام روبوتات المحادثة ذات الأغراض العامة مثل "تشات جي بي تي" و"ديب سيك" و"جميناي" وغيرها شائعاً بشكل متزايد كوسائل للحصول على الدعم العاطفي، رغم أنها لم تُصمَّم لهذا الغرض أساساً. وغالباً ما يلجأ المستخدمون إلى هذه المنصات لطلب النصيحة أو للتخفيف من التوتر أو لمجرد الفضفضة عند الشعور بالقلق أو الوحدة، بالأخص في حال صعوبة الوصول إلى خدمات الصحة النفسية التقليدية، أو في المجتمعات حيث لا تزال الصحة النفسية محاطة بوصمة اجتماعية. قدرة روبوتات الدردشة على تقديم المساعدة على مدار الساعة يتيح للأشخاص التواصل في أي وقت ومن أي مكان. وهو ما يُعتبر تحوّلاً جذرياً للأشخاص الذين يعيشون في مناطق نائية أو يواجهون صعوبة في الوصول إلى مراكز العلاج النفسي التقليدية. ما مخاطر استخدام روبوتات المحادثة العامة للدعم النفسي؟ رغم أن هذه الأدوات قد تمنح راحة مؤقتة، فهي ليست مؤهلة دائماً لتشخيص الحالات النفسية أو التعامل معها. فقد تخطئ في فهم السياق، أو تقدّم نصائح غير ملائمة، أو تعجز عن اكتشاف الحالات الحرجة مثل التفكير الانتحاري. كما لا تمتلك التطبيقات الحس الإنساني، فتفتقر إلى التعاطف الفعلي والقدرة على قراءة السياقات النفسية الدقيقة. ونظراً لاعتمادها على بيانات تدريبية واسعة، قد تكون متحيزة في بعض الأحيان، بالأخص ضد المجموعات المهمشة. إلى ذلك، تفتقر هذه المنصات إلى الإشراف المهني ولا تخضع لأي تنظيم طبي أو نفسي. وقد يؤدي الاعتماد المفرط على هذه الأدوات إلى عزوف المستخدمين عن طلب الدعم النفسي الفعلي، لأن الشعور الزائف بالاطمئنان قد يدفع الشخص الذي يعاني من اضطرابات إلى صرف النظر عن زيارة معالج نفسي مختص. ماذا عن التطبيقات المخصصة للصحة النفسية؟ تتفوق هذه التطبيقات المتخصصة مثل مثل "ويسا" (Wysa) و"ثيرابوت" (Therabot)، وغيرهما على روبوتات الدردشة العامة عند استخدامها للدعم النفسي، إذ صُمّمت بمراعاة المبادئ العلاجية ويشرف على تطويرها فرق من المتخصصين، ما يجعلها أكثر أماناً وفعالية في التعامل مع القضايا النفسية الحساسة. تسهم هذه التطبيقات في سد الفجوات في خدمات الصحة النفسية، من خلال توفير دعم يسير الكلفة ومتاح على مدار الساعة، لاسيما في المناطق التي تفتقر لخدمات الرعاية النفسية. وتشير بعض الدراسات إلى أنها قد تخفف أحياناً الأعراض النفسية بمستوى مماثل للعلاج التقليدي، كما توفّر مساحة آمنة للمستخدمين لمشاركة مشاعرهم الحساسة. وتؤدي أيضاً دوراً داعماً بين الجلسات العلاجية. ومع ذلك، يرى بعض الخبراء أن هذه الروبوتات تفتقر إلى التعاطف البشري، وقد تقدّم نصائح غير مناسبة، كما تثير مخاوف تتعلق بالخصوصية. لذا، ينصحون باستخدامها كأداة مساندة لا بديلاً عن الرعاية النفسية المتخصصة. كيف تتعامل هذه التطبيقات مع قضايا الخصوصية والأمان؟ يثير استخدام روبوتات المحادثة العامة للحصول على الدعم النفسي مخاوف تتعلق بالخصوصية والأمان. إذ يحذّر خبراء من أن البيانات الحساسة التي يشاركها المستخدمون قد تُخزَّن أو يُعاد استخدامها أو تتعرض للتسريب. ورغم أن شركات مثل "أوبن إيه أي" و"جوجل" طرحت أدوات للتحكم بالخصوصية، مثل خيار إلغاء حفظ البيانات، يرى منتقدون أن هذه الإجراءات غير كافية. وقد فتحت هيئات تنظيمية في أوروبا والولايات المتحدة تحقيقات وأرجأت إطلاق بعض هذه الخدمات بسبب المخاوف المتعلقة بالبيانات. هل يمكن للذكاء الاصطناعي أن يحلّ مكان المعالجين النفسيين؟ على الرغم من قدرة روبوتات المحادثة على تقديم دعم فوري ومنخفض التكلفة وخال من الوصمة الاجتماعية لمن يعانون من القلق أو الاكتئاب أو التوتر، فإنها تفتقر إلى العمق العاطفي، والحسّ الأخلاقي، والفهم الدقيق الذي يتمتع به الأطباء النفسيون البشر. وتعتمد هذه البرمجيات على ردود معدّة مسبقاً أو مستخلصة عبر نماذج تعلم آلي، ما يجعلها عاجزة عن إظهار التعاطف الحقيقي أو بناء علاقة علاجية أو التعامل مع الحالات النفسية المعقدة بمرونة. يقول الخبراء هذه الأدوات قد تُستخدم كحلول داعمة لسد الثغرات في خدمات الرعاية النفسية، خصوصاً في المناطق التي تفتقر لخدمات الصحة النفسية، لكنها ليست بديلاً عن المتخصصين المؤهلين لتشخيص الاضطرابات النفسية وعلاجها. ما السبيل الآمن لاستخدام الذكاء الاصطناعي في الصحة النفسية؟ مع ازدياد دمج الذكاء الاصطناعي في الرعاية النفسية، فإن النماذج الهجينة التي تجمع بين الدعم البشري والتقني قد تكون الحلّ الأمثل.يمكن لهذه التطبيقات أن تشكل نقطة دخول أو تشخيص أولي، على أن يتابع المستخدمون العلاج مع مختصين مرخصين. لكن نجاح هذه المبادرات يتوقف على رفع الوعي العام، وتنظيم القطاع، وتعزيز الثقافة الرقمية، بحسب موقع بلومبرغ. ما رأي الذكاء الاصطناعي في هذا الموضوع؟ طرحنا سؤالاً: "هل من الآمن استخدام الذكاء الاصطناعي للحصول على الدعم النفسي؟" على روبوت دردشة وأجاب بأن ذلك يمكن أن يكون أداة مساعدة لجوانب معينة من الدعم النفسي، لكن لا ينبغي أن يحل محل الاتصال البشري والمتخصصين في مجال الصحة النفسية. تضمنت الإجابة عدة جوانب إيجابية وأخرى سلبية، أبرزها: - الوصول السريع والمريح: يمكن للذكاء الاصطناعي أن يوفر مساعدة فورية في أي وقت، مما يجعله مفيداً للحصول على الدعم في اللحظات الحرجة أو عندما يصعب الوصول إلى الدعم البشري. - سرية المعلومات: قد يشعر بعض الأشخاص براحة أكبر في مشاركة مشاعرهم وأفكارهم مع نظام ذكاء اصطناعي مقارنة بمشاركة هذه المعلومات مع شخص حقيقي. - الدقة والتخصيص: يعتمد الأمان والفعالية على جودة النظام المستخدم. بعض البرمجيات المتطورة يمكن أن تقدم نصائح مبنية على البيانات والأبحاث الحديثة، في حين أن الأنظمة الأقل جودة قد تقدم نصائح غير دقيقة أو غير مناسبة. - القدرة على الفهم والتعاطف: يفتقر الذكاء الاصطناعي إلى القدرة على التعاطف والفهم العميق للحالة الإنسانية. قد يكون محدوداً في تقديم الدعم العاطفي المطلوب في الحالات المعقدة. - الأزمات النفسية الخطيرة: لا ينبغي الاعتماد على الذكاء الاصطناعي في حالات الأزمات النفسية الخطيرة أو التفكير الانتحاري. في مثل هذه الحالات، يجب التوجه إلى محترفين مؤهلين مثل الأطباء النفسيين أو المرشدين. - المخاوف الأمنية: يجب التأكد من أن أي منصة ذكاء اصطناعي تُستخدم للحفاظ على سلامة البيانات الشخصية وتطبيق سياسات الخصوصية. اقرأ أيضا: هل يمكن للذكاء الاصطناعي أن يكون معالجا نفسيا؟.. خبراء يجيبون