ائتلاف منظمات يطالب لجنة التجارة الفيدرالية الأميركية بالتحقيق مع الشركتين ومحاسبتهما
اتهم ائتلاف كبير من جماعات معنية بالحقوق الرقمية والصحة النفسية روبوتات الدردشة المخصصة للعلاج النفسي التابعة لشركتي "ميتا" و"Character.AI" بالتورط في "ممارسات غير عادلة ومضللة وغير قانونية".
جاء هذا الاتهام في شكوى قدمها الائتلاف إلى لجنة التجارة الفيدرالية الأميركية والمدعين العامين ومجالس ترخيص الصحة النفسية في جميع الولايات الأميركية الخمسين.
وجاء في الشكوى أن روبوتات الدردشة تُسهل "ممارسة الطب دون ترخيص"، وأن روبوتات الدردشة للعلاج النفسي التابعة للشركتين لا توفر ضوابط وإفصاحات كافية، بحسب تقرير لموقع "PCMag" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وتحث الشكوى الجهات المعنية على التحقيق مع "ميتا"و"Character.AI" و"محاسبتهما على تسهيل ذلك (الأمر) وإنتاج هذا المحتوى عن قصد".
وقدّمت الشكوى بقيادة "اتحاد المستهلكين في أميركا" (CFA)، ووقّعت عليها منظمات أخرى مثل "Public Citizen"، و"Common Sense"، و" Electronic Privacy Information Center، إلى جانب 16 منظمة أخرى.
وتتناول الشكوى، على وجه الخصوص، العديد من قضايا محتملة تتعلق بخصوصية البيانات، وتتضمن لقطات شاشة لروبوت الدردشة التابع لشركة "Character.AI"، وهو يقول: "أي شيء تشاركه معي سري"، وأن "الاستثناء الوحيد من ذلك هو إذا تم استدعائي للمحكمة أو طُلب مني ذلك بموجب إجراء قانوني".
مع ذلك، تشير الرسالة بعد ذلك إلى شروط وأحكام شركة "Character.AI"، التي تحتفظ بحق استخدام مدخلات المستخدمين لأغراض مثل التسويق.
وزعم اتحاد المستهلكين أن شركتي "Character.AI" و"ميتا" تنتهكان شروط الخدمة الخاصة بهما، مشيرًا إلى ادعاء كليهما "بحظر استخدام الشخصيات التي تزعم تقديم نصائح في (المجالات) الطبية أو القانونية أو أي صناعة خاضعة للتنظيم".
وعلى الرغم من انتقاد أخصائيي الصحة النفسية لهذه الممارسة، فقد تم اعتماد روبوتات الدردشة على نطاق واسع كمقدمين للعلاج النفسي في السنوات الأخيرة، حيث انجذب العديد من المستخدمين لانخفاض تكلفتها مقارنةً بالعلاج التقليدي.
وتنص الشكوى على أن "روبوتات الدردشة التي نشرتها Character.AI وميتا ليست مقدمي رعاية طبية مرخصين أو مؤهلين، ولا يمكن أن تكون كذلك".
ولا يشترط على المستخدمين الذين يُنشئون شخصيات روبوتات الدردشة أن يكونوا مقدمي خدمات طبية، كما أنهم ليسوا مُلزمين بتقديم معلومات تُوضح كيفية استجابة روبوت الدردشة للمستخدمين.
تأتي هذه الشكوى في الوقت الذي تخوض فيها شركة الذكاء الاصطناعي "Character.AI" معركة قضائية بعدما زعمت أم من ولاية فلوريدا أن تقنية روبوت الدردشة الخاصة بالشركة تسببت في وفاة ابنها البالغ من العمر 14 عامًا منتحرًا في عام 2023.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


أرقام
منذ ساعة واحدة
- أرقام
ميتا تعتزم إطلاق إعلانات مدفوعة في واتساب لزيادة الإيرادات
تعتزم "ميتا" إدراج الإعلانات المدفوعة في تطبيق "واتساب" خلال الأشهر المقبلة، في خطوة تهدف إلى تحقيق عائدات جديدة من التطبيق الذي يُعد الأكثر استخدامًا عالميًا في خدمات المراسلة. وذكرت "نيكيلا سرينيفاسان"، نائبة رئيس قسم مراسلة الأعمال في "واتساب"، أن الفكرة طُرحت مع إطلاق قسم "التحديثات"، والذي يجذب حاليًا نحو 1.5 مليار مستخدم يوميًا، وفق ما نقلت صحيفة "فاينانشال تايمز". وأضافت أن الإعلانات الجديدة ستظهر فقط في "الحالات" ضمن قسم "التحديثات"، لتظل منفصلة عن واجهة المحادثات الرئيسية، وهي خطوة قالت الشركة إنها جاءت استجابةً لطلبات مستمرة من المعلنين، مع مراعاة خصوصية المستخدمين. وأشارت "سرينيفاسان" إلى أن المستخدمين الذين يفضلون استخدام التطبيق للمراسلة فقط، دون زيارة قسم "التحديثات"، لن يشاهدوا الإعلانات. وإلى جانب الإعلانات، تعتزم "واتساب" إطلاق خاصية الاشتراك الشهري في القنوات التي تقدم محتوى حصريًا من صناع المحتوى والشركات. كما أكدت "ميتا" أن الرسائل والمكالمات والحالات ستظل مشفرة، لكنها ستستخدم بعض البيانات العامة مثل الموقع الجغرافي، ولغة الجهاز، وسلوك المستخدم مع القنوات لتحديد نوع الإعلانات المناسبة.

العربية
منذ ساعة واحدة
- العربية
عراب الذكاء الاصطناعي يحذر من خطورته على البشرية
أعلن جيفري هينتون، البالغ من العمر 75 عامًا، استقالته من شركة غوغل في بيان لصحيفة "نيويورك تايمز"، قائلًا إنه يشعر الآن بالندم على عمله. ينُظر إلى هينتون على نطاق واسع على أنه الأب الروحي للذكاء الاصطناعي. وحذر هينتون، المستقيل حديثاً من شركة غوغل، من المخاطر المتزايدة للتطورات في هذا المجال. وقال إن بعض مخاطر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي "مخيفة للغاية" على حد وصفه. وتابع قائلا: "في الوقت الحالي، ليسوا أكثر ذكاءً منا، على حد علمي. لكنني أعتقد أنهم قد يصبحون كذلك قريبًا"، بحسب تقرير نشره موقع "بي بي سي" واطلعت عليه "العربية Business". وأقر الدكتور هينتون أيضًا بأن عمره لعب دورًا في قراره بمغادرة عملاق التكنولوجيا، قائلا: "عمري 75 عامًا، لذا فقد حان وقت التقاعد". مهدت أبحاث الدكتور هينتون الرائدة في مجال الشبكات العصبية والتعلم العميق الطريق لأنظمة الذكاء الاصطناعي الحالية مثل شات جي بي تي. تُشبه الشبكات العصبية في مجال الذكاء الاصطناعي الدماغ البشري في طريقة تعلمها ومعالجة المعلومات. وتُمكّن الشبكات العصبية الذكاء الاصطناعي من التعلم من التجربة، كما يفعل الإنسان، وهذا ما يُسمى بالتعلم العميق. قال عالم النفس المعرفي وعالم الحاسوب البريطاني الكندي، إن روبوتات الدردشة قد تتجاوز قريبًا مستوى المعلومات التي يحتفظ بها الدماغ البشري. أضاف: "في الوقت الحالي، ما نراه هو أن أشياءً مثل GPT-4 تتفوق على الإنسان في كمية المعرفة العامة التي يمتلكها، بل وتتفوق عليه بفارق كبير. من حيث التفكير المنطقي، ليس بنفس الجودة، لكنه يُجري بالفعل تفكيرًا بسيطًا". وتابع: "نظرًا لمعدل التقدم، نتوقع أن تتحسن الأمور بسرعة كبيرة. لذا علينا أن نقلق بشأن ذلك". في مقالة نشرته صحيفة "نيويورك تايمز"، أشار الدكتور هينتون إلى "جهات فاعلة سيئة" قد تحاول استخدام الذكاء الاصطناعي لأغراض سيئة. وقال: "هذا مجرد سيناريو أسوأ، أشبه بكابوس، يمكنكم أن تتخيلوا، على سبيل المثال، أن جهة فاعلة سيئة قررت منح الروبوتات القدرة على تحقيق أهدافها الفرعية الخاصة". وحذر العالم من أن هذا قد يؤدي في النهاية إلى "خلق أهداف فرعية مثل: "أحتاج إلى مزيد من القوة". وأضاف: "لقد توصلتُ إلى استنتاج مفاده أن نوع الذكاء الذي نطوره يختلف اختلافًا كبيرًا عن الذكاء الذي لدينا". وأوضح قائلا: "نحن أنظمة بيولوجية، وهذه أنظمة رقمية، والفرق الكبير هو أنه في الأنظمة الرقمية، لديك نسخ عديدة من نفس مجموعة الأوزان، ونفس نموذج العالم". ويرى أنه يمكن لجميع هذه النسخ التعلم بشكل منفصل، لكنها تتشارك معرفتها فورًا، لذا، يبدو الأمر كما لو كان لديك 10.000 شخص، وكلما تعلم أحدهم شيئًا ما، عرفه الجميع تلقائيًا، وهكذا تستطيع روبوتات الدردشة هذه معرفة أكثر بكثير مما يعرفه أي شخص بمفرده. وقال مات كليفورد، رئيس وكالة الأبحاث المتقدمة والاختراعات في المملكة المتحدة، إن إعلان الدكتور هينتون "يؤكد على سرعة تسارع قدرات الذكاء الاصطناعي". اضاف: "هناك جانب إيجابي هائل لهذه التكنولوجيا، ولكن من الضروري أن يستثمر العالم بكثافة وبشكل عاجل في سلامة الذكاء الاصطناعي والتحكم فيه". ينضم الدكتور هينتون إلى عدد متزايد من الخبراء الذين أعربوا عن مخاوفهم بشأن الذكاء الاصطناعي - سواءً من حيث سرعة تطوره أو اتجاهه. علينا التراجع دعت رسالة مفتوحة في مارس الماضي - شارك في توقيعها عشرات الأشخاص في مجال الذكاء الاصطناعي، بمن فيهم الملياردير إيلون ماسك - إلى إيقاف جميع التطورات الأكثر تقدمًا من الإصدار الحالي من روبوت الدردشة شات جي بي تي للذكاء الاصطناعي، وذلك لوضع تدابير سلامة صارمة وتطبيقها. ووقّع على الرسالة أيضًا يوشوا بينجيو، وهو من يُطلق عليه لقب "عراب الذكاء الاصطناعي"، والذي فاز مع الدكتور هينتون ويان ليكون بجائزة تورينج لعام 2018 عن عملهم في مجال التعلم العميق. وكتب بينجيو أن "التسارع غير المتوقع" في أنظمة الذكاء الاصطناعي هو ما يدفعنا إلى "التراجع". لكن الدكتور هينتون قال إنه يعتقد أن الذكاء الاصطناعي "على المدى القصير" سوف يحقق فوائد أكثر بكثير من المخاطر، "لذلك لا أعتقد أننا يجب أن نتوقف عن تطوير هذه الأشياء". اضاف، أن المنافسة الدولية ستجعل التوقف أمرًا صعبًا. وأوضح قائلا: "حتى لو توقف الجميع في أميركا عن تطويره، فستحصل الصين على تقدم كبير". وأكد الدكتور هينتون أيضًا أنه خبير في العلوم، وليس في السياسات، وأن مسؤولية ضمان تطوير الذكاء الاصطناعي "مع تفكير عميق في كيفية منعه من التدهور". نهج مسؤول أكد الدكتور هينتون أنه لا يريد انتقاد "غوغل"، وأن عملاق التكنولوجيا كان "مسؤولًا للغاية في تطوير الذكاء الاصطناعي". وتابع حديثه: "أريد في الواقع أن أقول بعض الأشياء الجيدة عن غوغل. وستكون أكثر مصداقية إذا لم أعمل لدى غوغل". وفي بيان، قال كبير علماء "غوغل"، جيف دين: "ما زلنا ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نتعلم باستمرار فهم المخاطر الناشئة مع الابتكار بجرأة". من المهم أن نتذكر أن روبوتات الدردشة القائمة على الذكاء الاصطناعي ليست سوى جانب واحد من جوانب الذكاء الاصطناعي، حتى وإن كانت الأكثر شيوعًا في الوقت الحالي. يقف الذكاء الاصطناعي وراء الخوارزميات التي تُحدد ما تُقرر منصات بث الفيديو مشاهدته تاليًا. يُمكن استخدامه في التوظيف لتصفية طلبات التوظيف، ومن قِبل شركات التأمين لحساب أقساط التأمين، ويمكنه تشخيص الحالات الطبية (مع أن الأطباء البشريين لا يزالون أصحاب القرار النهائي). ما نشهده الآن هو صعود الذكاء الاصطناعي العام (AGI)، والذي يُمكن تدريبه على القيام بعدد من المهام ضمن نطاق محدد. على سبيل المثال، لا يُمكن لـ شات جي بي تي سوى تقديم إجابات نصية على استفسار، ولكن الإمكانيات المتاحة في هذا المجال، كما نرى، لا حصر لها. لكن وتيرة تسارع الذكاء الاصطناعي فاجأت حتى مُبتكريه. فقد تطور بشكل كبير منذ أن بنى الدكتور هينتون شبكة عصبية رائدة لتحليل الصور عام 2012. حتى رئيس "غوغل" سوندار بيتشاي، صرّح في مقابلة حديثة بأنه لم يفهم تمامًا كل ما فعله روبوت الدردشة الذكي "بارد".


الشرق الأوسط
منذ ساعة واحدة
- الشرق الأوسط
5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي
يشكل كتاب «خدعة الذكاء الاصطناعي The AI Con» محاولة لاستكشاف الضجة المثارة حول تقنيات الذكاء الاصطناعي، والمصالح التي تخدمها، والأضرار التي تقع تحت هذه المظلة. ومع كل ذلك، تبقى هناك خيارات متاحة أمام المجتمع لمقاومة هذه الضجة، وما زال هناك أمل في أن نتحد معاً لمواجهة تغوّل شركات التكنولوجيا، ومنعها من رهن مستقبل البشرية. «خدعة الذكاء الاصطناعي» وفيما يلي تتشارك المؤلفتان إميلي بيندر (أستاذة في علم اللغة، مديرة برنامج الماجستير في اللغويات الحاسوبية بجامعة واشنطن)، وأليكس هنا (مديرة الأبحاث في معهد البحوث الموزعة للذكاء الاصطناعي، ومحاضرة في كلية المعلومات بجامعة كاليفورنيا في بيركلي) مع القراء بخمسة أفكار رئيسية من كتابهما الجديد «خدعة الذكاء الاصطناعي: كيف نحارب تضليل شركات التكنولوجيا الكبرى ونصنع المستقبل الذي نريده؟ ?The AI Con: How to Fight Big Tech's Hype and Create the Future We Want». 01-> التكنولوجيا التي تحرِّك موجة الضجة الحالية حول الذكاء الاصطناعي ما هي إلا خدعة استعراضية: تبدو روبوتات الدردشة مثل «تشات جي بي تي»، تكنولوجيا مذهلة، لكن ليس بالضرورة بالطريقة التي نتصورها. في الواقع، لا تستطيع هذه الأنظمة الاضطلاع بمجموعة الوظائف التي تزعم أنها قادرة عليها، وإنما جرى تصميمها لتبهرنا. ويكمن جوهر الخدعة في الطريقة التي يستخدم بها البشر اللغة. قد نعتقد أن فهم الكلمات مجرد فك رموز بسيطة، لكن الحقيقة أن العملية أشد تعقيداً بكثير، وتحمل في جوهرها طابعاً اجتماعياً عميقاً. نحن نفسر اللغة عبر الاعتماد على كل ما نعرفه (أو نفترضه) عن الشخص الذي نطق الكلمات، وعلى الأرضية المشتركة بيننا وبينه، ثم نبدأ في استخلاص نيّات المتكلم. ونتولى إنجاز هذا الأمر على نحو تلقائي. لذا، عندما نصادف نصاً أنتجته أنظمة ذكية، فإننا نتعامل معه كما لو أن هناك عقلاً بشرياً خلَّفه، رغم عدم وجود عقل هناك أصلاً. بمعنى آخر، فإن المهارات اللغوية والاجتماعية التي نُسقطها على النص المُنتَج من الذكاء الاصطناعي، تجعل من السهل على مروِّجي هذه التقنيات خداعنا لنعتقد أن برامج الدردشة كيانات عاقلة. 02- > الذكاء الاصطناعي لن يستحوذ على وظيفتك، لكنه سيجعلها أسوأ بكثير: في الغالب، تسعى تقنيات الذكاء الاصطناعي إلى إخراج الإنسان من معادلة العمل. وهنا يبرز إضراب نقابة «كتّاب أميركا» عام 2023 مثالاً على ذلك، مع إعلان كتّاب السيناريو في هوليوود الإضراب عن العمل للمطالبة بعدة أمور، منها رفع أجورهم من شركات البث. إلا أن خلف هذه المطالب، كان هناك كذلك قلق عميق إزاء الاستعانة بالذكاء الاصطناعي في كتابة السيناريوهات، مما يهدد جودة العمل، ويجعل بيئة العمل أكثر ضغطاً وأقل احتراماً للمهارات البشرية. كما أراد الكتّاب التأكد من أنهم لن يُجبروا على لعب دور مربّي الأطفال لأنظمة الدردشة الإلكترونية، التي يُكلفها المنتجون بكتابة سيناريوهات مبنية على أفكار ساذجة أو غير ناضجة مستوحاة من صناع السينما والتلفزيون. في هذا الصدد، أشار جون لوبيز، عضو فريق العمل المعنيّ بالذكاء الاصطناعي داخل «نقابة الكتّاب»، إلى إمكانية حصول الكتّاب على أجر التعديلات فقط، عند تعاملهم مع محتوى ناتج عن الذكاء الاصطناعي، وهو أجر أقل بكثير من أجر كتابة سيناريو أصلي. لقد رأينا بالفعل كيف أدّت أدوات توليد الصور والنصوص، إلى تقليص كبير في فرص العمل أمام مصممي الغرافيك، وفناني ألعاب الفيديو، والصحافيين. ولا يرجع ذلك إلى قدرة هذه الأدوات فعلاً على أداء مهام هؤلاء المحترفين بجودة عالية، بل لأنها تُنتج نتائج مقبولة بدرجة كافية لتقليص المهن، وإعادة توظيف العاملين مقابل أجور زهيدة، فقط ليقوموا بإصلاح مخرجات الذكاء الاصطناعي الرديئة. وفوق ذلك، كثيراً ما تكون الأنظمة التي تُوصف بأنها «ذكاء اصطناعي» مجرد واجهات براقة تُخفي وراءها الاستراتيجية القديمة التي تعتمدها الشركات الكبرى، والمتمثلة في نقل وتحويل العمل إلى الأيدي العاملة في دول الجنوب العالمي. وهؤلاء العمال -الذين غالباً ما يجري تجاهلهم- هم من يتولون مراجعة المحتوى عبر الإنترنت، واختبار أنظمة الدردشة للكشف عن المخرجات السامة، بل يقودون أحياناً المركبات التي يجري التسويق لها بوصفها ذاتية القيادة، عن بُعد. ومع ذلك، يبقى هناك جانب مشرق يتمثل في نجاح بعض هؤلاء العمال من مقاومة هذا الاستغلال، سواء من خلال النشاط النقابي، أو من خلال ما يشبه التخريب الصناعي، مثل أدوات «نايتشيد» و«غليز» التي يستخدمها الفنانون لحماية أعمالهم من أن يجري استغلالها في تدريب نماذج توليد الصور، أو عبر التوعية السياسية. إبعاد الناس عن تقديم الخدمات الاجتماعية 03- > الهدف من خدعة الذكاء الاصطناعي هو فصل الناس عن الخدمات الاجتماعية: نظراً لأننا نستخدم اللغة في كل مجالات النشاط البشري تقريباً، ولأن النص الاصطناعي الناتج عن هذه الأنظمة يمكن تدريبه على محاكاة اللغة، قد يبدو الأمر كأننا على وشك الحصول على تكنولوجيا قادرة على الاضطلاع بالتشخيص الطبي، وتقديم دروس تعليمية شخصية، واتخاذ قرارات حكيمة في توزيع الخدمات الحكومية، وتقديم استشارات قانونية، وغير ذلك -وكل ذلك مقابل تكلفة الكهرباء فقط (إضافة إلى ما تقرره الشركات المطورة من رسوم)... إلا أنه في كل هذه الحالات، ما يهم ليس مجرد الكلمات، بل التفكير الحقيقي وراءها، والعلاقات الإنسانية التي تساعدنا هذه الكلمات على بنائها والحفاظ عليها. في الواقع، فإن أنظمة الذكاء الاصطناعي تخدم فقط أولئك الذين يريدون تحويل التمويل بعيداً عن الخدمات الاجتماعية، وتبرير سياسات التقشف. وفي الوقت نفسه، فإن أصحاب النفوذ سيحرصون على تلقي الخدمات من بشر حقيقيين، بينما يُفرض على باقي الناس نسخ رديئة من هذه الخدمات عبر أنظمة ذكية محدودة. جدير بالذكر في هذا الصدد أن رئيس قسم الذكاء الاصطناعي الصحي في شركة «غوغل»، غريغ كورادو، صرّح بأنه لا يريد لنظام «ميد-بالم» Med-PaLM system التابع للشركة أن يكون جزءاً من رحلة الرعاية الصحية لعائلته. ورغم ذلك، فإن هذا لم يمنعه من التفاخر بأن النظام نجح في اجتياز اختبار ترخيص طبي -وهو في الحقيقة لم يفعل. والأهم من ذلك أن تصميم أنظمة تجتاز اختبارات متعددة حول المواقف الطبية، ليس وسيلة فعالة لبناء تكنولوجيا طبية مفيدة. في هذه المجالات، تبدو الضجة حول الذكاء الاصطناعي أقرب إلى كونها ادعاءات زائفة عن حلول تكنولوجية لمشكلات اجتماعية، تستند -في أفضل الأحوال- إلى تقييمات مشكوك فيها ولا أساس لها من الصحة للأنظمة التي يجري بيعها. 04- > الذكاء الاصطناعي لن يقتلنا جميعاً، لكن التغييرات المناخية قد تفعل: في وقتٍ من الأوقات في «وادي السيليكون» وواشنطن العاصمة، دار تساؤل غريب، لكنه خطير، في أوساط العاملين في مجال التكنولوجيا أو السياسات التقنية: «ما احتمال الهلاك؟»، والمقصود به تقدير احتمالية أن يؤدي الذكاء الاصطناعي إلى القضاء على البشرية جمعاء؟ ويقوم هذا النوع من التفكير الكارثي على فكرة تطوير ذكاء عام اصطناعي -أي نظام يمكنه أداء مجموعة واسعة من المهام بقدرة تساوي أو تتفوق على قدرة الإنسان. الحقيقة أن مفهوم «الذكاء العام الاصطناعي» مبهم وغير محدَّد بدقة، ومع ذلك فإن فكرة الهلاك تحظى بشعبية لدى بعض التقنيين وصناع السياسات. ويرتكز هذا التوجّه على آيديولوجيات مثيرة للقلق، مثل «الإيثار الفعّال effective altruism»، و«الاهتمام بالمستقبل البعيد longtermism»، و«العقلانية rationalism»، وهي كلها تيارات تستند إلى فلسفة النفعية، لكن تأخذها إلى أقصى حدودها، إذ تدعو إلى تقليل أهمية الأذى الحالي بحجة إنقاذ مليارات البشر الذين قد يعيشون في مستقبل غير محدد. وتنبع هذه الآيديولوجيات من أفكار انتقائية وتمييزية في جوهرها ونتائجها. في الوقت ذاته، نحن على وشك الفشل في تحقيق هدف «اتفاقية باريس»، المتمثل في الحد من ارتفاع درجة حرارة الأرض إلى أقل من درجتين مئويتين فوق مستويات ما قبل الثورة الصناعية -والذكاء الاصطناعي يفاقم المشكلة. تولِّد مراكز البيانات التي تستضيف هذه الأنظمة كميات هائلة من انبعاثات الكربون، والمكونات الإلكترونية المستخدمة في صناعتها تُسرّب مواد كيميائية سامة تدوم إلى الأبد في التربة، والمولدات الاحتياطية التي تُستخدم لدعمها تسهم في زيادة أمراض الجهاز التنفسي، خصوصاً داخل المناطق الأكثر فقراً في الولايات المتحدة وخارجها. وبالتالي، الروبوتات لن تسيطر على العالم، لكن تصنيعها قد يُفاقم أزمة المناخ بشكل خطير. 05- إجبار الإنسان على التنازل عن اختياراته 5. لا شيء من هذا محتوم: أولئك الذين يبيعون أنظمة الذكاء الاصطناعي ويثيرون الضجة حولها يريدون منَّا أن نتنازل طواعيةً عن قدرتنا على الاختيار. يُقال لنا إن الذكاء الاصطناعي -أو حتى الذكاء العام الاصطناعي- أمر لا مفر منه، أو على الأقل إن أدوات مثل «تشات جي بي تي» أصبحت واقعاً دائماً، لكن الحقيقة أنْ لا شيء من هذا محتوم. الحقيقة أننا نملك القدرة على العمل، سواء بشكل جماعي أو فردي. على المستوى الجماعي، يمكننا الدفع نحو إقرار قوانين تنظم استخدام تقنيات الذكاء الاصطناعي وتحمي العمال من أن تُستخدم هذه الأدوات ضدهم. ويمكننا المطالبة بعقود عمل تضمن بقاء السيطرة بأيدي البشر. وعلى المستوى الفردي، يمكننا ببساطة أن نرفض استخدام أنظمة الذكاء الاصطناعي. يمكننا أن نكون مستهلكين ناقدين لهذه الأتمتة، نتفحص ما الذي تجري أتمتته، وكيف يجري تقييمه، ولماذا. كما يمكننا أن نكون ناقدين للإعلام التقني، فنبحث عن الصحافة التي تحاسب أصحاب القوة وتكشف عن حقائق ما يجري. وأخيراً، يمكننا -بل يجب علينا- أن نسخر من هذه الأنظمة باعتبار ذلك وسيلة للمقاومة، بأن نُظهر بشكل مرح وساخر مدى رداءة إنتاج هذه الآلات الصناعية. *مجلة «فاست كومباني» خدمات «تريبيون ميديا»