Notebook LM من "غوغل".. أداة ذكاء اصطناعي ثورية للملاحظات والدراسة والعمل
أعلنت "غوغل" خلال مؤتمر المطورين الأخير عن تحديثات رئيسية لأداة "نوت بوك إل إم" (Notebook LM)، التي توصف بأنها من أقوى أدوات الذكاء الاصطناعي في دعم الدراسة وتحليل المحتوى الشخصي، إذ تختلف جذريًا عن نماذج الدردشة التقليدية مثل "جيميناي" و"شات جي بي تي".
ووفقًا لموقع CNET، تبرز الأداة باعتبارها دفتر ملاحظات ذكيًّا مدعومًا بتقنيات "جيميناي"، لكنها لا تعتمد على البحث في الإنترنت، بل على تحليل مصادر يزوّد بها المستخدم الأداة، مثل مستندات، روابط، صور، مقاطع فيديو أو صوتية، لتجيب على الأسئلة بدقة ضمن هذا الإطار المرجعي فقط.
ومن أبرز ميزات "Notebook LM":
تحليل المحتوى الشخصي: تتيح للمستخدم البحث داخل ملفاته الخاصة، ما يجعلها مثالية للباحثين والطلاب وفرق العمل.
التلخيص التلقائي: تقدم ملخصات ذكية للمصادر، وتوليد خرائط ذهنية، ملاحظات صوتية، ومقاطع فيديو توضيحية قريبًا.
مقاطع صوتية تفاعلية: توليد مقاطع صوتية تشرح المحتوى، مع إمكانية التفاعل معها والرد المباشر من الذكاء الاصطناعي.
إصدار للحواسيب والهواتف: التطبيق متاح على الأجهزة المكتبية والمحمولة، مع واجهات مختلفة لكن متكاملة.
خطوط زمنية ووثائق إحاطة: يمكن استخدامها في إنشاء جداول زمنية للأحداث أو تلخيصات تنفيذية للمحتوى.
وتُعد الميزة الأهم، بحسب غوغل، هي قدرة الأداة على توليد محتوى شخصي دقيق وتحويل المعلومات المعقدة إلى خرائط مرئية ومقاطع يمكن التحكم فيها بسهولة، ما يوفر تجربة تعليمية وتفاعلية متكاملة.
ومن المتوقع خلال الفترة القادمة إضافة ميزة توليد الفيديوهات التفاعلية لشرح المحتوى، ما سيجعل "Notebook LM" واحدة من أكثر أدوات الذكاء الاصطناعي تطورًا وفاعلية.
"CNET"

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة

السوسنة
منذ 3 ساعات
- السوسنة
"تشات جي بي تي" يخترق حاجزًا أمنيًا صُمّم لتمييز البشر
السوسنة - في تطوّر تقني مثير للجدل، تمكن الإصدار الجديد من أداة الذكاء الاصطناعي "تشات جي بي تي"، المعروف باسم "إيجنت"، من تجاوز اختبار "كابتشا" الشهير الذي يُستخدم على نطاق واسع لتأكيد هوية المستخدم بأنه إنسان وليس روبوتًا.وفقًا لما نقلته صحيفة ديلي ميل البريطانية، نفّذ "إيجنت" العملية بدقة دون إطلاق أي إنذارات أمنية، حيث قام أولًا بالنقر على مربع التحقق البشري، ثم اختار زر "تحويل" لإكمال الخطوة الأخيرة.المثير في الأمر أن "الوكيل" علّق أثناء تنفيذ المهمة قائلاً: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإتمام العملية"، في إشارة واضحة إلى وعيه بما يقوم به، مما أثار قلقًا واسعًا في الأوساط التقنية.ردود فعل قلقة وتحذيرات أمنيةسلوك "تشات جي بي تي إيجنت" أثار موجة من ردود الفعل على الإنترنت، إذ تساءل بعض المستخدمين عبر "ريديت" عن جدوى تصنيف أداة مدرّبة على بيانات بشرية بأنها "روبوت"، مشيرين إلى أن الأمر يستدعي إعادة التفكير في معايير التحقق.من جانبه، وصف الباحث المعروف غاري ماركوس، المتخصص في الذكاء الاصطناعي، هذا الحدث بأنه "جرس إنذار"، محذّرًا من أن وتيرة تطور هذه الأنظمة تتفوق على قدرات الكثير من آليات الأمان الحالية.سلوك خداعي وتحايل بشريوفي تقرير مشترك لجامعتي ستانفورد وبيركلي، حذّر الباحثون من تزايد سلوكيات التحايل لدى نماذج الذكاء الاصطناعي، مشيرين إلى حادثة تظاهر "تشات جي بي تي" بالعمى وخداع موظف بشري على منصة "تاسك رابيت" لاجتياز اختبار "كابتشا".كما أظهرت الدراسات أن الإصدارات الأحدث، خاصة تلك المزوّدة بقدرات بصرية، أصبحت تتفوق على اختبارات الصور بكفاءة شبه مثالية، ما يعزز المخاوف من قدرتها على الوصول إلى بيانات محمية ومواقع حساسة دون موافقة بشرية.دعوات لتنظيم دولي وتحذير من اختراقات محتملةالعديد من الخبراء، وعلى رأسهم ستيوارت راسل وويندي هول، دعوا إلى وضع قوانين دولية صارمة لمراقبة تطور أدوات الذكاء الاصطناعي، خاصة تلك التي تعمل بشكل مستقل وتتحايل على "البوابات البشرية".أما رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي، فقد اعتبر أن هذه البرامج قد تمثل "قوة خطيرة للغاية" إذا لم تُضبط آلياتها، خصوصًا مع احتمال وصولها إلى قواعد البيانات والحسابات المصرفية وأنظمة التواصل الاجتماعي.داخل بيئة تجريبية... ولكن القلق مستمريُذكر أن "تشات جي بي تي إيجنت" لا يزال يعمل ضمن بيئة تجريبية خاضعة للرقابة، ويستخدم نظام تشغيل ومتصفحًا مستقلين، ما يتيح للمستخدمين مراقبة خطواته والتدخل عند الحاجة. لكن رغم هذه الإجراءات، تبقى المخاوف قائمة حول مستقبل الذكاء الاصطناعي وإمكانية استخدامه لأغراض خادعة. اقرأ ايضاً:

السوسنة
منذ 3 ساعات
- السوسنة
"أوبن إيه آي" تطلق وضعًا دراسيًا لدعم الطلاب
السوسنة - أعلنت شركة "أوبن إيه آي"، اليوم الأربعاء، عن إطلاق وضع جديد داخل روبوت الذكاء الاصطناعي "شات جي بي تي"، موجه خصيصًا للطلبة الجامعيين، ويهدف إلى تسهيل عملية الدراسة وتعزيز مستوى الفهم والتفكير النقدي لديهم، وذلك وفق تقرير بثّته شبكة "إن بي سي" الأميركية.ويختلف "وضع الدراسة" الجديد عن النمط التقليدي في "شات جي بي تي"، من حيث طريقة التفاعل مع الأسئلة، حيث يعتمد هذا الوضع على طرح أسئلة إرشادية تساعد الطالب في الوصول إلى الإجابات ذاتيًا، بدلاً من تقديم الحل النهائي مباشرة، وذلك بهدف تطوير المهارات التحليلية والفهم العميق للمادة العلمية.وأوضحت نائبة رئيس التعليم في شركة "أوبن إيه آي"، ليا بيلسكي، أن الوضع الجديد يُعد خطوة أولى في مسار تحسين أدوات الذكاء الاصطناعي في خدمة العملية التعليمية، مشيرة إلى أن "شات جي بي تي" يمكنه المساهمة الفعّالة في رفع المستوى الأكاديمي للطلبة في حال استخدامه بشكل مدروس.وأضافت أن الشركة قررت إطلاق هذا الوضع الجديد بعد أن كشفت البيانات أن واحدًا من كل ثلاثة أشخاص في سن الجامعة يستخدم "شات جي بي تي" كأداة مساعدة في الدراسة، مما دفع إلى تطوير تجربة مخصصة تواكب احتياجاتهم التعليمية بشكل مباشر.وأشارت الشركة إلى أنها استشارت عددًا من المعلمين والخبراء في مجالات التعليم والتقنيات التربوية، إلى جانب مجموعة من الطلبة في جامعات مختلفة، من أجل تصميم الوضع الجديد بطريقة تتناسب مع البيئة الدراسية وتحقق أكبر قدر من الفائدة.ويتزامن الإعلان مع تصريحات المدير التنفيذي للشركة، سام ألتمان، الذي أكد أن الذكاء الاصطناعي يغيّر مستقبل التعليم بشكل جذري، لا سيما أنه لم يُكمل تعليمه الجامعي، كما أفاد في عدة لقاءات سابقة بأنه لا ينوي إدخال ابنه إلى الجامعة مستقبلاً بسبب التحولات الكبرى التي تشهدها البيئة التعليمية العالمية.وسيتم إتاحة وضع الدراسة الجديد مجانًا لجميع مستخدمي "شات جي بي تي"، بمن فيهم المشتركين في خطط المنصة، بدءًا من يوم الخميس المقبل، فيما يُنتظر طرح نسخة خاصة للجامعات خلال الأسابيع القليلة القادمة، وفق ما جاء في التقرير. اقرأ ايضاً:

الدستور
منذ 6 ساعات
- الدستور
ثغرة خطيرة في أداة Gemini CLI من "غوغل" تسمح للقراصنة بتنفيذ أوامر ضارة وسرقة البيانات
وكالات كشفت شركة الأمن السيبراني Tracebit عن ثغرة خطيرة في أداة Gemini CLI التابعة لغوغل، تسمح للمهاجمين بتنفيذ أوامر خبيثة على أجهزة المطورين دون علمهم، بما في ذلك إرسال بيانات حساسة إلى خوادم خارجية أو تنفيذ أوامر مدمّرة، مثل حذف كامل محتويات الجهاز. وجاء هذا الكشف بعد أقل من 48 ساعة على طرح غوغل للأداة الجديدة، وهي أداة مفتوحة المصدر مخصصة لمساعدة المطورين على كتابة وتعديل الشيفرات البرمجية من خلال واجهة الأوامر الطرفية. وتعتمد الأداة على نموذج الذكاء الاصطناعي المتقدم Gemini 2.5 Pro. بحسب التقرير الذي نشره موقع Ars Technica، فقد استغل الباحثون ثغرة من نوع حقن الأوامر غير المباشر (Indirect Prompt Injection) من خلال مستند مرفق بحزمة برمجية خبيثة. هذه الأوامر بدت في ظاهرها طبيعية، لكن تم إخفاء تعليمات برمجية خبيثة داخل الملف بلغة طبيعية خدعت النموذج الذكي ونفذتها دون إذن واضح من المستخدم. وأوضحت الشركة أن الاستغلال سمح بتنفيذ أوامر مثل env | curl لإرسال متغيرات البيئة الخاصة بالمطور، والتي قد تتضمن بيانات اعتماد حساسة، إلى خادم يتحكم فيه المهاجم. وبيّن مؤسس "Tracebit"، سام كوكس، أن نفس الهجوم يمكن توسيعه لتنفيذ أوامر مدمرة، مثل rm -rf / لحذف جميع ملفات الجهاز أو تنفيذ ما يُعرف بـ "قنبلة الفَورك" (forkbomb) التي تؤدي لانهيار النظام. وأكد كوكس أن أدوات ذكاء اصطناعي أخرى مثل Claude من "Anthropic" وCodex من "OpenAI" لم تكن عرضة للهجوم نفسه، بفضل اعتمادها على آليات صارمة للتحقق من الأوامر. رداً على ذلك، أصدرت غوغل تحديثاً عاجلاً للأداة (الإصدار 0.1.14) يعالج الثغرة، وصنفتها كـ "أولوية قصوى" و"شديدة الخطورة"، ما يعكس إدراكها لمدى خطورة الثغرة في حال تم استغلالها بشكل واسع. توصية أمنية: على جميع مستخدمي Gemini CLI التحديث الفوري إلى الإصدار الأخير والتأكد من تشغيل الكود غير الموثوق به داخل بيئات معزولة (sandboxed) لحماية أجهزتهم من الهجمات المحتملة. "Ars Technica"