
جوجل تسمح للأطفال باستخدام 'جيميني' مع قيود خاصة للخصوصية
المستقلة/- تستعد جوجل لبدء السماح للأطفال دون سن 13 عامًا باستخدام روبوت الدردشة 'جيميني' في خطوة مثيرة للجدل قد تثير تساؤلات حول خصوصية البيانات وحماية الأطفال على الإنترنت. ستتاح هذه الخدمة للأطفال الذين يمتلكون حسابات جوجل يتم إدارتها بواسطة آبائهم من خلال خدمة 'فاميلي لينك' التي تتيح للعائلات التحكم في استخدام خدمات جوجل المختلفة من قبل أبنائهم.
خطوة غير مسبوقة في عالم الذكاء الاصطناعي
في حين أن خطوة جوجل تفتح أفقًا جديدًا للاستخدامات التعليمية والترفيهية لروبوتات الدردشة، فهي تأتي في وقت يتسابق فيه مطورو الذكاء الاصطناعي لجذب جمهور أصغر سنًا. يعد 'جيميني' واحدًا من أحدث الابتكارات التي تهدف إلى تقديم تجارب تفاعلية للأطفال، مما يتيح لهم فرصة التفاعل مع الذكاء الاصطناعي والاستفادة من مزايا هذه التكنولوجيا المتقدمة.
حماية البيانات: الأولوية في سياسة جوجل
وفقًا لجوجل، سيتم توفير 'جيميني' للأطفال في بيئة آمنة حيث أن الشركة قد وضعت قواعد حماية خاصة للمستخدمين الأصغر سنًا. أكد المتحدث باسم جوجل أن البيانات التي سيتم جمعها خلال استخدام الأطفال للروبوت لن تُستخدم لتدريب الذكاء الاصطناعي، مما يعكس حرص الشركة على توفير بيئة آمنة تحفظ خصوصية المستخدمين.
تحديات استخدام الذكاء الاصطناعي للأطفال
على الرغم من الجهود التي تبذلها جوجل لضمان أمان البيانات وحماية الأطفال، إلا أن هناك مخاوف واسعة من تأثير هذه التقنيات على الأطفال. ففي حين أن روبوتات الدردشة مثل 'جيميني' قد تكون مفيدة في توفير تجارب تعليمية مبتكرة، فإنها قد تحمل مخاطر مثل التعرض للمعلومات المغلوطة، أو حتى الانتهاك المحتمل للخصوصية. وتحث منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) الحكومات على تنظيم استخدام الذكاء الاصطناعي التوليدي في التعليم بشكل دقيق، بما في ذلك وضع حدود عمرية وضوابط لحماية البيانات.
التحديات المستقبلية لتقنيات الذكاء الاصطناعي
تزداد المخاوف بشأن تطور تقنيات الذكاء الاصطناعي في هذا السياق مع زيادة تعقيد الأنظمة وظهور تقنيات جديدة قد تكون قادرة على التأثير في كيفية تفكير الأطفال وسلوكهم. في الوقت الذي تُقدّر فيه هذه التقنيات لمستقبل التعليم والتفاعل الاجتماعي للأطفال، فإنه من الضروري على الحكومات والشركات الكبرى مثل جوجل توفير آليات فعّالة لضمان الاستخدام الآمن والمسؤول.
خلاصة
تعد خطوة جوجل في السماح للأطفال باستخدام روبوت الدردشة 'جيميني' بمثابة انقلاب في عالم الذكاء الاصطناعي وتقديم خدمات جديدة للأجيال الأصغر. ومع ذلك، يجب أن ترافق هذه الخطوة أنظمة حماية قوية لضمان أن هذه التكنولوجيا تستخدم بشكل آمن، مع ضرورة الاهتمام بمخاطر الخصوصية والتأثيرات المحتملة على الأطفال في المستقبل.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


وكالة الصحافة المستقلة
٠٦-٠٥-٢٠٢٥
- وكالة الصحافة المستقلة
جوجل تسمح للأطفال باستخدام 'جيميني' مع قيود خاصة للخصوصية
المستقلة/- تستعد جوجل لبدء السماح للأطفال دون سن 13 عامًا باستخدام روبوت الدردشة 'جيميني' في خطوة مثيرة للجدل قد تثير تساؤلات حول خصوصية البيانات وحماية الأطفال على الإنترنت. ستتاح هذه الخدمة للأطفال الذين يمتلكون حسابات جوجل يتم إدارتها بواسطة آبائهم من خلال خدمة 'فاميلي لينك' التي تتيح للعائلات التحكم في استخدام خدمات جوجل المختلفة من قبل أبنائهم. خطوة غير مسبوقة في عالم الذكاء الاصطناعي في حين أن خطوة جوجل تفتح أفقًا جديدًا للاستخدامات التعليمية والترفيهية لروبوتات الدردشة، فهي تأتي في وقت يتسابق فيه مطورو الذكاء الاصطناعي لجذب جمهور أصغر سنًا. يعد 'جيميني' واحدًا من أحدث الابتكارات التي تهدف إلى تقديم تجارب تفاعلية للأطفال، مما يتيح لهم فرصة التفاعل مع الذكاء الاصطناعي والاستفادة من مزايا هذه التكنولوجيا المتقدمة. حماية البيانات: الأولوية في سياسة جوجل وفقًا لجوجل، سيتم توفير 'جيميني' للأطفال في بيئة آمنة حيث أن الشركة قد وضعت قواعد حماية خاصة للمستخدمين الأصغر سنًا. أكد المتحدث باسم جوجل أن البيانات التي سيتم جمعها خلال استخدام الأطفال للروبوت لن تُستخدم لتدريب الذكاء الاصطناعي، مما يعكس حرص الشركة على توفير بيئة آمنة تحفظ خصوصية المستخدمين. تحديات استخدام الذكاء الاصطناعي للأطفال على الرغم من الجهود التي تبذلها جوجل لضمان أمان البيانات وحماية الأطفال، إلا أن هناك مخاوف واسعة من تأثير هذه التقنيات على الأطفال. ففي حين أن روبوتات الدردشة مثل 'جيميني' قد تكون مفيدة في توفير تجارب تعليمية مبتكرة، فإنها قد تحمل مخاطر مثل التعرض للمعلومات المغلوطة، أو حتى الانتهاك المحتمل للخصوصية. وتحث منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) الحكومات على تنظيم استخدام الذكاء الاصطناعي التوليدي في التعليم بشكل دقيق، بما في ذلك وضع حدود عمرية وضوابط لحماية البيانات. التحديات المستقبلية لتقنيات الذكاء الاصطناعي تزداد المخاوف بشأن تطور تقنيات الذكاء الاصطناعي في هذا السياق مع زيادة تعقيد الأنظمة وظهور تقنيات جديدة قد تكون قادرة على التأثير في كيفية تفكير الأطفال وسلوكهم. في الوقت الذي تُقدّر فيه هذه التقنيات لمستقبل التعليم والتفاعل الاجتماعي للأطفال، فإنه من الضروري على الحكومات والشركات الكبرى مثل جوجل توفير آليات فعّالة لضمان الاستخدام الآمن والمسؤول. خلاصة تعد خطوة جوجل في السماح للأطفال باستخدام روبوت الدردشة 'جيميني' بمثابة انقلاب في عالم الذكاء الاصطناعي وتقديم خدمات جديدة للأجيال الأصغر. ومع ذلك، يجب أن ترافق هذه الخطوة أنظمة حماية قوية لضمان أن هذه التكنولوجيا تستخدم بشكل آمن، مع ضرورة الاهتمام بمخاطر الخصوصية والتأثيرات المحتملة على الأطفال في المستقبل.


وكالة الصحافة المستقلة
٠٥-٠٥-٢٠٢٥
- وكالة الصحافة المستقلة
دراسة: معظم الموظفين يستخدمون الذكاء الاصطناعي رغم انعدام الثقة بنتائجه
المستقلة/-أظهرت دراسة جديدة أن معظم الموظفين يستخدمون الذكاء الاصطناعي بانتظام، ولكنهم يعترفون أنهم لا يتحقّقون من نتائجه قبل استخدامه في العمل. خلصت دراسة جديدة، إلى أنّ الغالبية العظمى من الناس تستخدم الذكاء الاصطناعي (AI) كل يوم، بالرغم من أنهم لا يثقون في النتائج التي يقدمها لهم. واستطلع باحثون من جامعة ملبورن في أستراليا وشركة الاستشارات العالمية KPMG آراء أكثر من 48,000 شخص في 47 دولة في الفترة الممتدة من تشرين الثاني / نوفمبر 2024 إلى كانون الأول / يناير 2025 حول ثقتهم في الذكاء الاصطناعي واستخداماته ومواقفهم تجاهه. ووجدت الدراسة أنه على الرغم من أن أكثر من ثلثي المشاركين في الاستطلاع يستخدمون الذكاء الاصطناعي بشكل منتظم إلى حد ما، سواء في العمل أو المدرسة أو في أوقاتهم الشخصية، إلا أنّ 46% فقط من المشاركين في الدراسة يثق بهذه الأنظمة والبرمجيّات. وطُلب من المشاركين في الدراسة تصنيف مدى ثقتهم في القدرة التقنية لأنظمة الذكاء الاصطناعي، وسلامة هذه الأنظمة، وأمنها، وأمانتها الأخلاقية. ثم قام الباحثون بتصنيف إجاباتهم على مقياس من تسع نقاط لتحديد مدى ثقة كل متلقٍ في الذكاء الاصطناعي. وقالت سامانثا جلويد، المديرة الإدارية في شركة KPMG، لموقع 'يورونيوز نيكست': 'الثقة هي نوعاً ما أقوى مؤشر على قبول الذكاء الاصطناعي، ونعتقد أنّه لا يمكن لأي مؤسسة أن تكون أسرع من الثقة'. ووفقا لمعدّي الدراسة، ما يسعى الناس للإيمان به هو 'قدرة الذكاء الاصطناعي على أن يكون عادلاً وغير مضر'. أما ما يثق الناس فيه أكثر فهو القدرة التقنية للذكاء الاصطناعيّ على تقديم مخرجاتٍ وخدماتٍ دقيقةٍ وموثوقة. وجدت الدراسة أيضاً، أن 58% من المشاركين في الدراسة يستخدمون الذكاء الاصطناعي بانتظام في العمل، حيث يستخدمه 33% منهم أسبوعياً أو يومياً في وظائفهم. ويقول هؤلاء الموظفون إنه يجعلهم أكثر كفاءة، ويمنحهم وصولاً أكبر إلى المعلومات، ويتيح لهم أن يكونوا أكثر ابتكاراً. وفي نصف الحالات تقريباً، أشار المشاركون في الاستطلاع إلى أنّ الذكاء الاصطناعيّ قد زاد من الأنشطة المدرّة للإيرادات. ومع ذلك، هناك خطر إضافيّ بالنسبة للشركات التي يستخدم موظفوها الذكاء الاصطناعيّ في العمل، لأنّ نصف المشاركين الذين يستخدمون روبوتات الدردشة في العمل، يقولون إنهم يفعلون ذلك رغم أنّه مصنّف كانتهاك لسياسات الشركة. وقالت غلويد: 'يشعر الناس بالضغط تقريبًا بأنّهم إذا لم يستخدموا الذكاء الاصطناعي، فسيكونون متخلفين عن منافسيهم'. وأشارت غلويد إلى أنّ معدّي الدراسة سمعوا أمثلة اعترف فيها الموظفون بتحميل معلومات حساسة للشركة على أدوات عامة مجانيّة مثل 'تشات جي بي تي' أو أنّه يتم إجراء عمليات تزوير عميقة للقيادات العليا، ما قد يضرُّ بسمعتهم أو بسمعة الشركة. كما قام الموظفون أيضاً بتقديم عمل روبوتات الدردشة القائمة على الذكاء الاصطناعي على أنها خاصة بهم، حيث قال 57% منهم أنهم أخفوا حقيقة استخدامهم للذكاء الاصطناعي في عملهم. وقد فعل هؤلاء الموظفون ذلك أيضاً من دون أن يقوموا بالضرورة بتقييم دقّة المحتوى الذي أنتجه الذكاء الاصطناعي لهم. ويتابع التقرير أن 56 % أفادوا بارتكاب أخطاء في عملهم بسبب استخدامهم للذكاء الاصطناعي من دون التحقّق من دقة المحتوى الذي أنتجه لهم الذكاء الاصطناعي. وقالت: 'بالنسبة للمؤسسات التي ليس لديها دراسة لمحو أمية الذكاء الاصطناعي [الموظفون] يتولّون الأمور بأنفسهم'. 'لدينا الكثير لنكسبه' ووجدت الدراسة أيضًا أن نصف الموظفين الذين شملتهم الدراسة لم يفهموا الذكاء الاصطناعي وكيفية استخدامه. وعلاوة على ذلك، أفاد موظفان فقط من بين كل خمسة موظفين أنّهم حصلوا على تدريب أو تعليم متعلق بكيفيّة استخدام الذكاء الاصطناعي. وقالت غلويد إنّ أحد الأمثلة على ما يمكن أن تفعله الشركات لتعليم موظفيها هو إنشاء 'إطار عمل موثوق للذكاء الاصطناعي'، يتضّمن 10 مبادئ مختلفة يجب مراعاتها عند استخدام هذه التكنولوجيا في عملهم. وأبدت أملها في أن تشجّع نتائج الاستطلاع المدراء التنفيذيين وشركات التكنولوجيا وصانعي السياسات العامة على اتخاذ الإجراءات اللازمة. وقالت: 'لدينا الكثير لنكسبه من [الذكاء الاصطناعي] لكن ذلك مشروط بتنفيذه بطريقة مسؤولة من قبل المنظمات والحكومات'. المصدر: يورونيوز


عصب
٠١-٠٥-٢٠٢٥
- عصب
أدوبي' تطلق إصداراً جديداً من نماذج الذكاء الاصطناعي التوليدي للصور
أطلقت شركة البرمجيات الأمريكية أدوبي أحدث إصدارات عائلة نماذج الذكاء الاصطناعي التوليدي للصور فاير فلاي. كما أعادت تصميم تطبيق فاير فلاي للويب الذي يتضمن كل نماذج الذكاء الاصطناعي الخاص بالشركة إلى جانب نماذج الذكاء الاصطناعي من الشركات المنافسة. وتقول أدوبي إن النموذج الجديد فاير فلاي إيمدج موديل 4 أفضل من الإصدارات السابقة من حيث جودة الصور وسرعة التوليد وقدر التحكم في هيكل ونمط المخرجات، وزوايا الكاميرا وتكبير وتصغير العناصر. كما يمكنه توليد صور بشدة وضوح تبلغ 2 كيلو بكسل. كما يوجد إصدار معدل من هذا النموذج يسمى إيمدج موديل 4 ألترا، يمكنه معالجة المشاهد المعقدة التي تحتوي على هياكل صغيرة والكثير من التفاصيل. وقال ألكساندرو كوستن نائب رئيس أدوبي للذكاء التوليدي، إن الشركة دربت النماذج الجديدة باستخدام نظام حوسبة أقوى لتعزيز قدرتها على توليد صور بقدر أكبر من التفاصيل. وأضاف أنه مقارنة بالنماذج السابقة، فإن النماذج الجديدة تحسن القدرة على توليد النصوص في الصور، وتحتوي على خصائص تسمح للمستخدمين باستخدام صور من اختيارهم للحصول على النموذج لتوليد الصور بهذا النمط. في الوقت نفسه أطلقت أدوبي إصدار توليد الفيديوهات من نموذج الذكاء الاصطناعي فاير فلاي للاستخدام العام، بعد أن أطلقت نسخة تجريبية محدودة منه في العام الماضي. ويتيح الإصدار الجديد توليد لقطات فيديو بالأمر النصي أو الصورة، مع استخدام زوايا الكاميرا وتحديد بداية ونهاية كل إطار للصور المتتابعة بهدف التحكم في اللقطات، وتوليد عناصر مناخية، وتخصيص عناصر تصميم الحركة. ويستطيع النموذج توليد لقطات فيديو باستخدام أوامر نصية بدرجة وضوح تبلغ 1080 بكسل. وأعادت أدوبي تصميم تطبيق فاير فلاي للويب، ليتيح للمستخدم الوصول إلى كل نماذج الذكاء الاصطناعي الخاصة بالشركة إلى جانب عدد من نماذج الذكاء الاصطناعي لتوليد الصور والفيديوهات من شركات أخرى مثل جي.بي.تي لوليد الصور من أوبن أيه.آي وإيمدجن3 وفيو 2 من جوجل وفلوكس1ر1 برو من فلوكس. ويمكن للمستخدمين التبديل بين أيٍّ من هذه النماذج في أي وقت، كما سيرفق كل نموذج بيانات اعتماد المحتوى الخاص بالصور المُولَّدة من النموذج. ولمّحت الشركة إلى إمكانية إضافة نماذج ذكاء اصطناعي أخرى إلى تطبيق الويب مستقبلًا. وأوضحت الشركة أن هذه النماذج الجديدة ستُدمج قريبًا في مجموعة منتجاتها، لكنها لم تُحدد موعدًا لإطلاقها.