logo
"عسكرة" الذكاء الاصطناعي .. كيف تتحول التكنولوجيا إلى أداة قتل عمياء؟

"عسكرة" الذكاء الاصطناعي .. كيف تتحول التكنولوجيا إلى أداة قتل عمياء؟

سرايا - كشف ديميس هاسابيس، الرئيس التنفيذي لشركة DeepMind في غوغل، أن الذكاء الاصطناعي العام، والذي يمتلك قدرات معرفية مماثلة للبشر، قد يتم تطويره خلال خمس إلى عشر سنوات فقط. وأكد كذلك أن الذكاء الاصطناعي سيصبح قويًا بما يكفي لمحاربة الأمراض الكبرى وحلها خلال السنوات القادمة.
ومع ذلك، رفض هاسابيس، وهو باحث حائز على جائزة نوبل، فكرة أن أنظمة الذكاء الاصطناعي الحديثة تمتلك وعيًا. كما أقر بأن هذه التقنيات لا تزال تفتقر إلى الإبداع الحقيقي. حيث قال: "لا تزال هذه النماذج تشبه متوسط المعرفة البشرية المتاحة. هذا ما تعلمته. لكنها لا تزال غير قادرة على طرح أسئلة جديدة كليًا أو وضع فرضيات لم تخطر من قبل على أحد."
في وقت تتسارع فيه التحولات التقنية بوتيرة غير مسبوقة، سلط ديميس هاسابيس الحائز على جائزة نوبل للكيمياء عام 2024، الضوء على مستقبل الذكاء الاصطناعي خلال مقابلة حديثة مع مجلة TIME ، الذي نشرته اليوم.
خلال هذا اللقاء، لم يكتفِ هاسابيس باستعراض التقدم الهائل الذي تحقق منذ مقابلته السابقة مع المجلة في نوفمبر 2022، قبل أسابيع قليلة فقط من إطلاق ChatGPT وإشعال جنون الذكاء الاصطناعي العالمي ، بل أطلق تحذيرًا واضحًا من المخاطر التي تلوح في الأفق مع اقترابنا من تطوير الذكاء الاصطناعي العام (AGI).
فقبل عامين ونصف، حذر هاسابيس من "التسرع وكسر الحواجز"، منتقدًا ما وصفه حينها بالنهج المتهور لبعض التجريبيين في مجاله، الذين "لا يدركون أنهم يتعاملون مع مواد خطرة"، وفق تعبيره.
واليوم، ومع تسارع تطور الذكاء الاصطناعي بوتيرة فاقت كل التوقعات، باتت فكرة الوصول إلى ذكاء اصطناعي يمتلك قدرات معرفية بشرية، فكرة كانت تعد هامشية في 2022 ،محل اتفاق واسع بين كبار الباحثين، وعلى رأسهم هاسابيس، الذي جعل من تحقيق AGI هدف حياته الأكبر.
غير أن تطوير AGI لا يأتي دون أثمان سياسية وأخلاقية معقدة. فبينما يتطلب تحقيقه كميات هائلة من القدرة الحاسوبية لا تمتلكها سوى حفنة من عمالقة التكنولوجيا مثل Google، فإن ذلك يمنح هذه الشركات، وعلى رأسها Google، نفوذًا هائلًا على مصير التكنولوجيا ذاتها.
وعلى الرغم من أن هاسابيس، عند انضمامه إلى Google عام 2014، نجح في انتزاع تعهد بعدم استخدام تقنيات DeepMind للأغراض العسكرية، إلا أن مرور عقد من الزمن، وسط تصاعد المخاطر الجيوسياسية، أدى إلى تآكل هذا الالتزام. فاليوم، باتت Google تبيع خدمات DeepMind، بما فيها تقنيات الذكاء الاصطناعي، إلى جيوش متعددة، من بينها الجيش الأميركي، وجيش الاحتلال الإسرائيلي كما كشفت TIMEالعام الماضي.
في هذا السياق، يطرح اللقاء مع هاسابيس سؤالًا محوريًا: هل اضطر إلى تقديم تنازلات أخلاقية لتحقيق حلمه القديم ببلوغ الذكاء الاصطناعي العام؟
وهو سؤال تتداخل فيه المصالح التكنولوجية مع حسابات الأمن القومي، وتعيد صياغة العلاقة بين البحث العلمي والقوة العسكرية في عالم يتغير بسرعة مذهلة.
من هو ديميس هاسابيس؟
يحمل ديميس هاسابيس درجة الدكتوراه في علم الأعصاب، وهو أيضًا عالم حاسوب. تلقى تعليمه في جامعات هارفارد ومعهد ماساتشوستس للتكنولوجيا (MIT) وكامبريدج.
وكان هاسابيس أحد مؤسسي مركز DeepMind للبحوث في الذكاء الاصطناعي، والذي اشترته غوغلعام 2014.
وابتكر هاسابيس نموذج الذكاء الاصطناعي AlphaFold بالتعاون مع الباحث جون جامبر، وهو نموذج قادر على التنبؤ بهياكل البروتينات. وقد حصل الاثنان معًا على جائزة نوبل في الكيمياء لعام 2024 تقديرًا لهذا الإنجاز الرائد. وفي نفس العام، منح الملك تشارلز الثالث ملك المملكة المتحدة لقب فارس لهاسابيس.
فبعد عامين ونصف، تغيّر الكثير في عالم الذكاء الاصطناعي. لقد كان تسارع وتيرة التقدم في الذكاء الاصطناعي سريعًا إلى درجة أن العديد من الباحثين — بمن فيهم هاسابيس — باتوا يعتقدون الآن أن الذكاء الاصطناعي بمستوى قدرات البشر (والمعروف في القطاع باسم الذكاء الاصطناعي العام أو AGI) قد يظهر خلال هذا العقد.
وفي عام 2022، كان مجرد الإقرار بإمكانية وجود AGI يُعد فكرة هامشية. لكن هاسابيس لطالما كان مؤمنًا بهذه الفكرة.
في الواقع، فإن تحقيق AGI يمثل هدف حياته الأساسي.
ومن خلال حواره الأخير مع تايم، يعرض هاسابيس رؤيته المزدوجة لهذا التحول التكنولوجي القادم: من جهة، إمكانيات غير مسبوقة لحل أعتى مشكلات العالم، ومن جهة أخرى، احتمالات كارثية إذا ساءت الأمور. حديثه يكشف عن مفترق طرق قد تحدد خياراته مصير الحضارة البشرية لعقود مقبلة.
ولفت هاسابيس إلى أن إنشاء AGI سيتطلب كميات هائلة من القدرة الحاسوبية — بنية تحتية لا تمتلكها سوى قلة من عمالقة التكنولوجيا، من ضمنهم شركة غوغل، وهو ما يمنحها نفوذًا أكبر على هاسابيس مما قد يرغب بالاعتراف به.
ويشير مصطلح الذكاء الاصطناعي العام، المعروف اختصارًا بـ AGI، إلى نوع متقدم من أنظمة الذكاء الاصطناعي يتمتع بقدرة شاملة على أداء أي مهمة فكرية يستطيع الإنسان القيام بها. بخلاف أنظمة الذكاء الاصطناعي التقليدية المحدودة بتخصصات ضيقة مثل الترجمة الآلية أو التعرف على الصور فإن AGI سيكون قادرًا على التعلم والتكيف والإبداع والاستنتاج عبر مختلف المجالات، تمامًا كالعقل البشري. الهدف من تطوير AGI هو بناء أنظمة قادرة على فهم المفاهيم المعقدة، توليد أفكار جديدة، حل المشكلات، والتفاعل مع العالم بمرونة واستقلالية.
وإذا تحقق، فإن AGI يحمل وعودًا عظيمة للبشرية، من بينها تسريع الابتكارات العلمية، القضاء على الأمراض المستعصية، وتحقيق وفرة اقتصادية شاملة. ومع ذلك، يحمل هذا الإنجاز مخاطر جسيمة، إذ قد يؤدي سوء استخدام هذه الأنظمة أو فقدان السيطرة عليها إلى تهديد الحضارة الإنسانية نفسها. ولذلك يعتبر العديد من العلماء، مثل ديميس هاسابيس، أن التعامل مع تطوير AGI يتطلب أعلى درجات الحكمة، والمعايير الأخلاقية الصارمة، والتعاون الدولي لضمان أن يكون تأثيره إيجابيًا على البشرية جمعاء.
وعندما انضم هاسابيس إلى غوغل، استخرج منها تعهدًا: ألا تُستخدم تقنيات DeepMind في الأغراض العسكرية أو تصنيع الأسلحة.
لكن بعد مرور عشر سنوات، لم يعد ذلك التعهد قائمًا.
فالآن، تبيع غوغل خدماتها بما في ذلك ذكاء DeepMind الاصطناعي، إلى جيوش عالمية، من ضمنها جيش الولايات المتحدة، وكما كشفت مجلة TIME العام الماضي وأيضا انضم للقائمة جيش الاحتلال الإسرائيلي.
من "عدم الاستخدام العسكري" إلى بيع تقنيات AGI للجيوش
عندما اشترت غوغل شركة DeepMind عام 2014، اشترط هاسابيس تعهدًا صريحًا: ألا تُستخدم تقنيات الذكاء الاصطناعي التي يطورونها في الأغراض العسكرية أو تصنيع الأسلحة.
كان هذا التعهد بمثابة الحصن الأخلاقي الذي حمى مشروعه العلمي من الاستغلال السياسي والعسكري.
غير أن عالم اليوم لم يعد كما كان. مع تزايد التوترات الجيوسياسية، تصاعدت المخاطر التي تهدد القيم الديمقراطية، ومعها تبدلت أولويات غوغل وديب مايند.
اليوم، لم تعد تلك التعهدات قائمة. فقد كشفت التقارير أن تقنيات DeepMind تباع الآن لجيوش الولايات المتحدة وإسرائيل، لتساهم في مجالات مثل الدفاع السيبراني والاستخبارات المتقدمة.
هاسابيس، الذي كان يومًا يؤمن بضرورة فصل العلم عن الحرب، بات اليوم يبرر هذا الانخراط بالقول: "لا يمكننا أن نفترض بعد الآن أن القيم الديمقراطية ستنتصر من تلقاء نفسها. علينا أن نساعد في حمايتها."
وبالنسبة له، الدخول في تعاون مدروس مع الحكومات الغربية أصبح ضرورة أخلاقية لمواجهة التهديدات المتزايدة.
الذكاء الاصطناعي كأداة مزدوجة: دواء أم سلاح؟
رغم تفاؤله بالفرص التي يتيحها AGI ، من علاج الأمراض المستعصية إلى حل أزمة المناخ عبر ابتكار مصادر طاقة جديدة، يحذر هاسابيس من أن الذكاء الاصطناعي يظل سلاحًا ذا حدين.
فالأنظمة القادرة على تطوير أدوية منقذة للحياة، يمكنها أيضًا تطوير أسلحة بيولوجية مميتة، والخوارزميات المصممة لتعزيز الأمن السيبراني يمكن تحويلها إلى أدوات هجوم مدمرة.
وفي عالم أصبح فيه الوصول إلى التكنولوجيا متاحًا عبر المصادر المفتوحة، يصبح ضبط استخدام الذكاء الاصطناعي تحديًا فائق التعقيد.
لهذا، يرى هاسابيس أن التحدي الحقيقي لا يكمن في تطوير التكنولوجيا بحد ذاتها، بل في بناء معايير عالمية صارمة تضمن استخدامها لأهداف تخدم الإنسانية، لا تدميرها.
ومن أخطر ما يقلق هاسابيس هو طبيعة AGI المستقبلية، إذ يتوقع أن تصبح هذه الأنظمة ذاتية التعلم والتحسين الذاتي.
وهذا يثير سؤالًا وجوديًا: كيف يمكن للإنسان أن يضمن السيطرة على كيانات ذكية قد تتجاوز قدرته على الفهم أو التوجيه؟
هاسابيس لا يقدم إجابات قاطعة، لكنه يحذر من أن الفشل في وضع "قوانين وضوابط لا يمكن تجاوزها" سيجعل البشرية تواجه أنظمة تفكر وتتطور بمعزل عن الإرادة البشرية.
ويقر هاسابيس يقر بأن الذكاء الاصطناعي، رغم فوائده المحتملة، هو تكنولوجيا مزدوجة الاستخدام بطبيعتها؛ أي أنها قد تُوظف في خدمة الخير كما قد تُستغل لتحقيق أهداف مدمرة. فهو يصف AGI بأنه سيكون تقنية "لا يمكن تصور مدى قوتها"، مما يفتح المجال أمام إمكانية إعادة توجيهها من قبل جهات خبيثة — سواء كانوا أفرادًا أو حكومات مارقة — نحو أغراض تدميرية.
وتكمن الصعوبة الكبرى، كما يراها هاسابيس، في إيجاد التوازن بين السماح للفاعلين الإيجابيين بالوصول إلى هذه التقنيات لتطوير علاجات وإنجازات علمية، وبين منع الفاعلين السلبيين من استخدامها لأغراض ضارة. هذه المعضلة الأخلاقية والعملية، بحسب وصفه، ليست بسيطة، بل تمثل تحديًا وجوديًا للبشرية بأسرها.
ويضيف هاسابيس أن الخطر لا يكمن فقط في الاستخدام السيئ للتكنولوجيا، بل أيضًا في الطبيعة الذاتية المتطورة للأنظمة الذكية . مع مرور الوقت، ستصبح أنظمة الذكاء الاصطناعي أكثر استقلالية ووكالة، مما يجعل مسألة السيطرة عليها وفهم سلوكها أكثر صعوبة.
إن ضمان وضع حواجز أمان تحافظ على تحكم الإنسان بهذه الأنظمة، حتى مع ازدياد قدراتها على التعلم والتحسين الذاتي، هو مهمة معقدة للغاية، وتتطلب foresight علمي وأخلاقي من الطراز الرفيع. فإذا لم تتم إدارة هذه المرحلة بحذر شديد، فقد نجد أنفسنا أمام أنظمة تتخذ قرارات بمعزل عن التوجيه البشري، وهو سيناريو يفتح أبوابًا مخيفة لتداعيات لا يمكن احتواؤها.
الحاجة لتعاون دولي عاجل
إدراكًا لطبيعة الخطر العابرة للحدود، يرى هاسابيس أن التعاون الدولي لم يعد خيارًا، بل ضرورة حتمية. فالأنظمة الذكية، سواء طُوّرت في الغرب أو في أماكن أخرى، يمكن أن تُوزع عالميًا، لتؤثر على كل ركن من أركان الكوكب.
لهذا يدعو إلى وضع معايير دولية موحدة لكيفية تطوير واستخدام ونشر تقنيات AGI، بحيث يتم تصميم هذه الأنظمة بأهداف ومسارات واضحة ومُراقبة دوليًا منذ البداية.
ويدرك هاسابيس أن جزءًا من المخاوف المتعلقة بالذكاء الاصطناعي يتجاوز الاستخدامات العسكرية إلى طبيعة الأنظمة نفسها.
في نقاشات مجتمع أبحاث سلامة الذكاء الاصطناعي، تدور تساؤلات حادة حول احتمالية أن تسعى الأنظمة إلى السلطة، أو أن تصبح مراوغة، أو أن تحاول تقويض السيطرة البشرية.
رغم وجود علماء بارزين على جانبي النقاش — بين من يقللون من هذه المخاطر ومن يضخمونها — إلا أن هاسابيس يتبنى مقاربة حذرة.
فهو يرى أن المعرفة الحالية غير كافية لتحديد حجم المخاطر بدقة ، ويصر على أن أفضل طريق هو مواصلة البحث بحذر ورؤية استراتيجية قبل أن يصبح الأوان قد فات.
الخصوصية ومشروع "أسترا"
في سياق تطوير مساعدين رقميين دائمين عبر مشروع "Astra"، يعترف هاسابيس بوجود تحديات خصوصية عميقة. فحتى تكون المساعدات الرقمية مفيدة حقًا، يجب أن تحصل على حق الوصول إلى بيانات شخصية واسعة النطاق، مما يثير مخاوف من أن تتحول هذه الأنظمة إلى أدوات مراقبة.
يؤكد هاسابيس أن فلسفة DeepMind تركز على أن تكون هذه الأنظمة خاضعة تمامًا لإرادة المستخدم ، مع ضمان أعلى معايير التشفير والخصوصية، واستخدام الحوسبة الطرفية لتقليل الاعتماد على مراكز البيانات المركزية.
نحو عصر الوفرة الراديكالية
في رؤيته الأبعد مدى، يتحدث هاسابيس عن مفهوم "الوفرة الراديكالية"، وهو عالم تزول فيه الندرة بفضل اختراقات تكنولوجية كبرى في مجالات الطاقة والمياه والموارد الطبيعية.
فإذا تمكنت البشرية من تسخير الذكاء الاصطناعي لحل معضلات مثل الاندماج النووي، والبطاريات المثالية، وتحلية المياه بكفاءة، فإن قواعد الاقتصاد العالمي القائمة على الندرة ستنهار، مما يفتح المجال لعصر جديد من الازدهار.
لكن هاسابيس لا يغفل أن إزالة شح الموارد لن تقضي تلقائيًا على عدم المساواة؛ فالرغبة البشرية في السلطة ستظل قائمة، مما يستدعي تطوير فلسفة سياسية جديدة تناسب هذا العصر.
الديمقراطية بعد AGI: هل نحتاج إلى نظام جديد؟
ينهي هاسابيس تأملاته بتساؤل عميق: إذا أفضى العصر الصناعي إلى الديمقراطية عبر تمكين العمال من التفاوض على حقوقهم، فماذا سيحدث في عصر يفقد فيه البشر قدرتهم التفاوضية أمام ذكاء اصطناعي خارق؟
ربما، كما يقترح، نحتاج إلى تطور سياسي جديد يتجاوز الديمقراطية التقليدية نحو نظام سياسي أكثر ملاءمة لواقع الوفرة وعدم الندرة.
الأمن القومي والذكاء الاصطناعي: حدود غير واضحة
مع تزايد الاعتماد العسكري على تقنيات الذكاء الاصطناعي، تصبح الحدود بين الابتكار المدني والتوظيف العسكري أكثر غموضًا.
DeepMind التي كانت رمزًا للبحث العلمي الخالص، أصبحت اليوم جزءًا من بنية الأمن القومي في الغرب.
هذا التحول يطرح أسئلة عميقة:هل يمكن فصل العلم عن الجيوش في عصر الذكاء الاصطناعي؟ وهل يستطيع الباحثون الحفاظ على استقلاليتهم وسط تصاعد الضغوط السياسية والأمنية؟
هاسابيس نفسه لا يخفي قلقه، لكنه يعتبر أن التعاون مع الحكومات "شر لا بد منه" لضمان ألا تقع أقوى أدوات العصر الحديث في الأيدي الخطأ.
فبين الأحلام الكبرى والمخاطر الوجودية، يقف الذكاء الاصطناعي اليوم عند مفترق طرق خطير. ومع دخول تقنياته إلى المعادلة العسكرية العالمية، تتضاعف الحاجة إلى حكمة ورؤية تتجاوز المصالح القومية الضيقة.
ويؤكد هاسابيس أن التحدي الحقيقي لا يكمن فقط في بناء أنظمة ذكية، بل في بناء عالم أكثر ذكاءً في كيفية استخدام هذه الأنظمة.
الغد

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

مؤسسات إخبارية تصف "وضع الذكاء الاصطناعي" من "غوغل" بـ"السرقة"
مؤسسات إخبارية تصف "وضع الذكاء الاصطناعي" من "غوغل" بـ"السرقة"

سرايا الإخبارية

timeمنذ يوم واحد

  • سرايا الإخبارية

مؤسسات إخبارية تصف "وضع الذكاء الاصطناعي" من "غوغل" بـ"السرقة"

سرايا - انتقدت رابطة تمثل بعضًا من أكبر المؤسسات الإخبارية في الولايات المتحدة ميزة "وضع الذكاء الاصطناعي" (AI Mode) التي توسعت فيها شركة غوغل مؤخرًا، والتي تستبدل نتائج البحث التقليدية بواجهة شبيهة بروبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقالت منظمة "News/Media Alliance" غير الربحية، التي تمثل أكثر من 2,000 مؤسسة إعلامية وإخبارية في الولايات المتحدة في بيان، إن الميزة الجديدة "تحرم" الناشرين من كلٍّ من الزيارات والإيرادات. وقالت دانييل كوفي، الرئيسة التنفيذية ورئيسة المنظمة، في البيان: "كانت الروابط آخر ميزة مُنقذة في البحث تمنح الناشرين زيارات وإيرادات"، بحسب تقرير لموقع "The Vege" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". وأضافت: "الآن، تستولي غوغل على المحتوى بالقوة وتستخدمه دون أي مقابل، وهو ما يُعرّف بالسرقة". وخلال مؤتمر "غوغل" للمطورين (Google I/O) يوم الثلاثاء الماضي، أعلنت الشركة عن توسيع نطاق ميزة "وضع الذكاء الاصطناعي" لتشمل جميع المستخدمين في الولايات المتحدة، حيث ستظهر في علامة تبويب جديدة مباشرةً داخل محرك البحث. وعندما يُدخل المستخدمون استفسارًا في محرك البحث، يُقدّم "وضع الذكاء الاصطناعي" ردًا بواسطة الذكاء الاصطناعي إلى جانب قائمة من الروابط ذات الصلة. وقالت كوفي، في بيان "News/Media Alliance"، إنه يجب أن تُعالج إجراءات وزارة العدل الأميركية هذا الأمر لمنع استمرار هيمنة شركة واحدة على الإنترنت. وقبل أيام، أظهرت وثيقة داخلية كُشف عنها في إطار محاكمة لمكافحة الاحتكار لـ"غوغل" بشأن هيمنتها على سوق البحث، أن الشركة قررت عدم طلب إذن من الناشرين لإدراج أعمالهم في ميزات بحث مدعومة بالذكاء الاصطناعي، بحسب وكالة بلومبرغ. وبدلاً من ذلك، يتعين على الناشرين إلغاء الاشتراك في نتائج البحث تمامًا إذا لم يرغبوا في تضمين أعمالهم ضمن ميزات الذكاء الاصطناعي. وقالت ليز ريد، رئيسة قسم البحث في "غوغل"، خلال شهادتها بالمحاكمة، إن السماح للناشرين باختيار الانسحاب من ميزات فردية سيضيف "تعقيدًا هائلًا"، مضيفة: "لأننا حينها سنضطر إلى القول بأن كل ميزة على الصفحة تحتاج إلى نموذج مختلف".

مؤسسات إخبارية تصف "غوغل" بـ"السرقة"
مؤسسات إخبارية تصف "غوغل" بـ"السرقة"

جفرا نيوز

timeمنذ يوم واحد

  • جفرا نيوز

مؤسسات إخبارية تصف "غوغل" بـ"السرقة"

جفرا نيوز - انتقدت رابطة تمثل بعضًا من أكبر المؤسسات الإخبارية في الولايات المتحدة ميزة "وضع الذكاء الاصطناعي" (AI Mode) التي توسعت فيها شركة غوغل مؤخرًا، والتي تستبدل نتائج البحث التقليدية بواجهة شبيهة بروبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقالت منظمة "News/Media Alliance" غير الربحية، التي تمثل أكثر من 2,000 مؤسسة إعلامية وإخبارية في الولايات المتحدة في بيان، إن الميزة الجديدة "تحرم" الناشرين من كلٍّ من الزيارات والإيرادات. فرنسا تغرم غوغل 272 مليون دولار وسط نزاع مع ناشرين شركات غوغلفرنسا تغرم غوغل 272 مليون دولار وسط نزاع مع ناشرين وقالت دانييل كوفي، الرئيسة التنفيذية ورئيسة المنظمة، في البيان: "كانت الروابط آخر ميزة مُنقذة في البحث تمنح الناشرين زيارات وإيرادات"، بحسب تقرير لموقع "The Vege" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business". وأضافت: "الآن، تستولي غوغل على المحتوى بالقوة وتستخدمه دون أي مقابل، وهو ما يُعرّف بالسرقة". وخلال مؤتمر "غوغل" للمطورين (Google I/O) يوم الثلاثاء الماضي، أعلنت الشركة عن توسيع نطاق ميزة "وضع الذكاء الاصطناعي" لتشمل جميع المستخدمين في الولايات المتحدة، حيث ستظهر في علامة تبويب جديدة مباشرةً داخل محرك البحث. وعندما يُدخل المستخدمون استفسارًا في محرك البحث، يُقدّم "وضع الذكاء الاصطناعي" ردًا بواسطة الذكاء الاصطناعي إلى جانب قائمة من الروابط ذات الصلة. وقالت كوفي، في بيان "News/Media Alliance"، إنه يجب أن تُعالج إجراءات وزارة العدل الأميركية هذا الأمر لمنع استمرار هيمنة شركة واحدة على الإنترنت. وقبل أيام، أظهرت وثيقة داخلية كُشف عنها في إطار محاكمة لمكافحة الاحتكار لـ"غوغل" بشأن هيمنتها على سوق البحث، أن الشركة قررت عدم طلب إذن من الناشرين لإدراج أعمالهم في ميزات بحث مدعومة بالذكاء الاصطناعي، بحسب وكالة بلومبرغ. وبدلاً من ذلك، يتعين على الناشرين إلغاء الاشتراك في نتائج البحث تمامًا إذا لم يرغبوا في تضمين أعمالهم ضمن ميزات الذكاء الاصطناعي. وقالت ليز ريد، رئيسة قسم البحث في "غوغل"، خلال شهادتها بالمحاكمة، إن السماح للناشرين باختيار الانسحاب من ميزات فردية سيضيف "تعقيدًا هائلًا"، مضيفة: "لأننا حينها سنضطر إلى القول بأن كل ميزة على الصفحة تحتاج إلى نموذج مختلف".

قضية شائكة ضد "غوغل".. والمدعي أم فقدت طفلها نتيجة الذكاء الاصطناعي
قضية شائكة ضد "غوغل".. والمدعي أم فقدت طفلها نتيجة الذكاء الاصطناعي

جو 24

timeمنذ 2 أيام

  • جو 24

قضية شائكة ضد "غوغل".. والمدعي أم فقدت طفلها نتيجة الذكاء الاصطناعي

جو 24 : تواجه شركة "كاراكتر. إيه آي" ( المملوكة لشركة "ألفابيت" العالمية المالكة لـ"غوغل" قضية شائكة في محاكم فلوريدا، إذ ادعت سيدة أن التطبيق كان سببًا في انتحار ابنها الذي يبلغ من العمر 14 ربيعًا، حسب وكالة "رويترز". تعد هذه القضية الأولى من نوعها في الولايات المتحدة ضد شركات الذكاء الاصطناعي، إذ بُنيت القضية بأكملها على ادعاء أن الشركة فشلت في حماية الحالة النفسية للطفل وتسببت في انتحاره بعدما أصبح مهووسًا بالحديث مع روبوت الدردشة الذكية. من جانبها أكدت "كاراكتر. إيه آي" أنها تنوي الاستئناف في القضية كونها تستخدم مجموعة من ميزات الأمان المتنوعة لحماية الأطفال والقصر الذين يستخدمون المنصة خوفًا من التبعات الخطيرة، وهو ما عززه بيان خوسيه كاستانيدا المتحدث الرسمي باسم "غوغل" الذي قال إنهم يختلفون مع القضية بشكل كامل مؤكدا أن "غوغل" مختلفة تمامًا عن "كاراكتر. إيه آي" رغم كونهم مملوكين لنفس المجموعة، ولكنها لم تسهم بأي شكل من الأشكال في بناء خدمات الشركة أو حتى الشخصيات الوهمية الموجودة بها. تخطت هذه القضية مرحلة الادعاء الأولي، إذ ألزمت محكمة فلوريدا الشركتين بالمثول أمامها والدفاع عن أنفسهم في هذه القضية، وذلك بعد أن فشلت الشركة في إثبات أن القضية تندرج تحت بنود حماية حرية التعبير التي ينص عليها الدستور الأميركي. وتجدر الإشارة إلى أن الظهور الأول للقضية كان في أكتوبر/تشرين الأول الماضي، وذلك بعد أن انتحر سويل سيتزر في فبراير/شباط من العام ذاته، ورغم محاولات الشركات المستمرة في إثبات عدم صحة القضية، فإن قاضية المحكمة الجزئية الأميركية آن كونواي وجدت أن الاتهام صحيح ويجب أن تستمر القضية. (رويترز + وكالات) تابعو الأردن 24 على

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store