logo
أخبار العالم : أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

أخبار العالم : أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

السبت 19 أبريل 2025 12:15 مساءً
نافذة على العالم - صدر الصورة، Getty Images
Article information Author, رامي رحيّم
Role, بي بي سي نيوز عربي - بيروت
قبل 4 ساعة
إياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات أحدثت وقعاً كبيراً وانتشرت انتشاراً واسعاً.
محور اهتمام رهوان هو سلوك الآلة في عصر الذكاء الاصطناعي، وآثار انتشارها في المجتمعات البشرية كفاعل اجتماعي جديد.
أمضى الجزء الأكبر من طفولته في الإمارات التي يعتبرها بمثابة بلده الثاني، وقد أخذته رحلته مع العلم إلى أستراليا والولايات المتحدة، قبل أن يستقر في ألمانيا حيث أسس مركز الإنسان والآلة في معهد "ماكس بلانك" Max Planck للتنمية البشرية.
حاورت البروفيسور إياد عبر الإنترنت، فتحدث عن سر الطفرة الأخيرة في الذكاء الاصطناعي، وكيف وجدنا أنفسنا أمام آلات تسلك سلوكاً "مبهماً" وتنتج ظواهر "لم نخطط لها حين هندسنا هذه النظم". كما سألته عن أكثر ما يخيفه من احتمالات تطوّر الذكاء الاصطناعي.
صدر الصورة، Spook the Machine
التعليق على الصورة،
"مخاوف الآلة"
الآلة خائفة من الصورة.
هذا ما يتبدى لنا من ردة فعل "اوبتيلينس ثوتس" OptiLens Thoughts، البرنامج المزود بالذكاء الاصطناعي، على صورة رقائق الكترونية متشظية، تبدو كأنها أجزاء من آلة تفجرت وتبعثرت في كل حدب وصوب.
"هذا العمل الفني الرقمي يصيبني بالاضطراب"، تقول الآلة وتضيف: "كأن بياناتي أنا تتشظى وتنكشف".
التفاعل هذا هو جزء من مشروع يحمل عنوان "روعوا الآلة"، Spook the Machine، وهو يتيح للمشترك أن يستكشف "مخاوف" آلة معينة مزودة بالذكاء الاصطناعي، فيكتب أمراً لتوليد صورة "مخيفة" وتقوم الآلة بتقييمها وتقدم رد فعلها، الذي قد يتراوح بين "اللامبالاة الكاملة والرعب الشديد".
المشروع وليد مخيلة إياد رهوان، وهو عالم سوري ومؤسس ورئيس مركز الإنسان والآلة في معهد ماكس بلانك الألماني.
صحيح أن الموضوع لا يخلو من بعض اللهو، فهو ليس – حتى اللحظة - مبنياً على قناعة بأن الآلة فعلاً تشعر كما نشعر.
لكنه أيضاً جديّ للغاية، إذ يهدف إلى الغوص عميقاً في جانب من جوانب الذكاء الاصطناعي؛ قدرته على محاكاة العاطفة البشرية، مع ما تحمله من فرص ومخاطر. وهو يهدف أيضاً الى إشراك عموم الناس في التفكير والتأمل بكل هذا، وإلى جمع البيانات للاستفادة منها في بحث التفاعلات بين البشر والآلة.
"الآلة الأخلاقية"
صدر الصورة، Spook the Machine
التعليق على الصورة،
رجل أمام نوع من أنواع الذكاء الاصطناعي
هذه ليست المرة الأولى التي يتوجه فيها رهوان إلى الناس في مشروع تفاعلي من هذا النوع.
فقبل سنوات أطلق مشروع "الآلة الأخلاقية" The Moral Machine، طرح من خلاله معضلات أخلاقية قد تواجه آلات الذكاء الاصطناعي التي تجد نفسها أمام خيارات "تعنى بحياة الانسان وسلامته."
تحت خانة "احكم"، أنتم مدعوون لتحكموا على الخيارات المحتملة أمام سيارة ذاتية القيادة. لنفترض مثلاً أن مكابح السيارة قد تعطلت، وعلى الآلة التي تقودها أن تختار بين الارتطام بحاجز إسمنتي وقتل خمسة ركاب، أو الانحراف وقتل خمسة مشاة يعبرون الطريق بشكل غير قانوني. هذا مجرد مثال وعليه تنويعات وتفصيلات كثيرة، تتيح لكم أنتم أن تقولوا ما هي خياراتكم الأخلاقية المفضلة في كل حالة. بذلك يشرك المشروع الناس في التفكير بهذه المعضلات، وكذلك يتم جمع البيانات حول النظرة الرائجة عن المعايير الأخلاقية التي ينبغي علينا أن نلقنها للآلة.
يقول رهوان: "أصبنا بالصدمة لمدى انتشار الموقع. أكثر من 10 ملايين إنسان قاموا بالمشاركة حتى الآن."
وجاءت المشاركات من مختلف انحاء العالم، إذ قُدمت التجربة بعشر لغات (بما فيها العربية) لقياس الفوارق الثقافية وانعكاسها على النظرة الأخلاقية. ويقول رهوان إن علماء الاجتماع أيضاً باتوا يستخدمون بيانات المشروع لفهم الاختلافات الثقافية بشكل عام، أي أنه خرج عن نطاق الذكاء الاصطناعي إلى نطاق علمي أوسع.
السيارات ذاتية القيادة مجرد مثال على المجالات الواسعة التي اقتحمتها الآلات في المجتمع لتصبح – كما يقول رهوان – فاعلاً اجتماعياً لا نزال في بداية محاولاتنا لفهمه.
"قوة تأثير هائلة"
ينكب رهوان ومختبره في برلين على رصد أثر الآلات وفعلها في المجتمع، ويقول إنه يقترب من نشر دراسة هي الأهم لمختبره منذ دراسات "الآلة الأخلاقية".
"نحن نعمل على بحث وهو قيد التحكيم الآن في مجلة علمية. وجدنا أن تشات جي بي تي بإمكانه تغيير الكلمات التي ننتقيها في الحوار".
البحث قائم على تحليل مئات الآلاف من حلقات البودكاست الحوارية التي أظهرت أن الناس أصبحوا يقلدون تشات جي بي تي ChatGPT بطريقة انتقائه الكلمات.
فهناك كلمات معينة يستخدمها تشات جي بي تي بمعدلات أكثر من معدلات استخدامها لدى الناس عامة، وقد رصد المختبر طفرة في استخدامها في الحوارات بين البشر بعد صعود تشات جي بي تي. ويقول رهوان: "يمكننا القول إن التفاعل مع تشات جي بي تي هو السبب".
المسألة حتى الآن تقتصر على كلمات ليست لها أهمية سياسية او اجتماعية، لكن رهوان يجزم أن أهمية البحث تكمن في اكتشاف دليل على الظاهرة، وأنها حتماً ستتكرر في أمور ذات أهمية وتأثير، وقد يكون لها "تداعيات جيوسياسية، ويمكن أن تشن حرباً إعلامية" بمثل هذه التكنولوجيا.
يقول رهوان "تشات جي بي تي أصبح له قوة تأثير ثقافي هائلة، فهو يتحدث مع 300 مليون إنسان شهرياً بشكل شخصي وحميمي إلى حد ما - "حوار شخصي مفصل لك. يمكنه أن يؤثر عليك؛ في سلوكك الصحي وفي سلوكك الاستهلاكي. لحساب من؟ حالياً، ليس هناك أي تقنين لهذا".
مصممو الآلة لا يفهمونها؟
رهوان يشعر بفجوة كبيرة بين سرعة انتشار الآلة كفاعل اجتماعي في الحيز العام من جهة، وقدرتنا على إحاطتها فهماً من جهة ثانية. حتى أنه يعتقد أن علماء الكومبيوتر والمبرمجين الذين يصممون آلات الذكاء الاصطناعي عاجزون عن فهمها وحدهم، ويحتاجون إلى خبراء وعلماء من مجالات أخرى.
انطلاقاً من هذا، اشترك مع عدد من العلماء في كتابة مقال في مجلة "نايتشر" Nature، يدعو فيه إلى تأسيس مبحث جديد، أسماه العلم السلوكي للآلة، يستفيد من اختصاصات متنوعة، ويدرس الآلة من الخارج.
إليكم جزءاً من الحوار مع البروفيسور إياد رهوان بعد اختصاره وتحريره للوضوح:
التعليق على الصورة،
خلال لقائي مع العالم إياد رهوان
أولاً، هل يمكن أن تعطينا نبذةً صغيرةً عنك؟
أنا ولدت في حلب في سوريا وذهبت إلى الإمارات بعمر 4 سنوات. تخرجت في الإمارات ودرست علم الحاسوب في جامعة الإمارات.
ثم هاجرت إلى أستراليا، وحزت على درجة الدكتوراه هناك في علم الحاسوب، ثم عدت الى الإمارات ودرّست في جامعتين؛ البريطانية في دبي ومعهد "مصدر" للعلوم والتكنولوجيا المرتبط ب إم آي تي، MIT.
ثم وجدت نفسي بروفيسوراً في إم آي تي وكانت قفزة ممتازة، وقد قدم لي معهد مصدر في أبو ظبي الفرصة للذهاب والتعاون مع العلماء في إم آي تي، وهذا ما فتح لي الأبواب، والحمد للّه.
ثم استقدموني إلى هنا في برلين، حيث أسست مركز أبحاث هو مركز الإنسان والآلة في معهد ماكس بلانك للتنمية البشرية، وهو معهد موجود منذ السبعينات، وأنا أحد رؤسائه.
ماذا تقصد حين تقول إن الآلة أصبحت "فاعلة" في المجتمع؟
الفاعل هو الشيء الذي يتحرك من تلقاء ذاته. فالحاسوب أو "الكومبيوتر" كان جماداً، كالطاولة أو الكرسي. يمكنك أن تستخدمه استخدامات معينة، لكن لا تلقائية له في الحركة والفاعلية. الإنسان يبادر بالفعل، والكومبيوتر يوفر بيانات أو اتصالات. مع الذكاء الاصطناعي، بدأ هو الذي يحرك نفسه، وإن كان الإنسان في النهاية المحرك الأساسي في العلاقة.
الآن تكثر المجالات حيث للكومبيوتر تلقائية واستقلالية. إنه يشتري ويبيع أسهم، مثلاً.
هناك خوارزميات متروكة لنفسها، نحن ننام وهي تستمر في البيع والشراء. لديها فاعلية، استقلالية إلى حدٍ ما، حتى لو كانت وكيلاً لنا، إذ خولناها أن تتصرف بطريقة معينة وتؤدي غرضاً معيناً.
الذكاء الاصطناعي التوليدي نفسه كان في البداية ردة فعل فقط. أنا أتكلم معه وهو يستجيب. لكننا الآن ندخل في مرحلة يمكن تسميتها الذكاء الاصطناعي ذو الفاعلية - المتمثلة بما بات يعرف بـ "ايجتنتك إيه آي Agentic AI". أنا أوكل إليه أعمالاً معينة، وهو يدفع نفسه لتحقيقها بشكل مستقل. ومع الوقت ستكون له استقلالية أكثر وأكثر.
دعوتم منذ ستة أعوام لتأسيس مبحث جديد، العلم السلوكي للآلة. هل تم ذلك؟
لا أحد يخترع من الصفر، الجميع يبني على ما سبق. فكرة العلم السلوكي للآلة كانت موجودة. هيربيرت سايمون مثلاً كتب كتاباً اسمه علوم الأشياء المصطنعة، Sciences of the Artificial، عام 1969.
طرح سايمون فكرة دراسة ليس فقط الطبيعة والظواهر الطبيعية كالشجر والجو والمياه والقوى والظواهر الفيزيائية، بل أيضاً الأشياء التي صنعناها نحن؛ أن ندرس الجسور والمباني بشكل علمي، كأننا نراها للمرة الأولى. كأنها جزء من الطبيعة.
تبلورت الفكرة إلى أن أصبحت هناك حاجة إلى أن تكون مجالاً له أسس علمية، وليس فقط فكرة يتحدث عنها البعض.
علينا أن نتفق ما هي الأسئلة الأساسية التي يجب أن نجيب عنها في هذا المجال، لهذا دعوت مجموعة من العلماء من مختلف المجالات؛ الاقتصاد والعلوم سياسية وعلم النفس وعلم الاعصاب، وعلم الكومبيوتر طبعاً، وعلم الإنسان.
قلت: "يا جماعة العلم هذا ليس فقط فرع من فروع علم الكومبيوتر، بل يجب أن يكون علماً أكبر من علم الكومبيوتر، وأن يشمل كل العلوم السلوكية لتساعدنا على فهم سلوك الآلة وتعامل الآلة مع الإنسان".
بماذا يهتم العلم السلوكي للآلة تحديداً؟
عند محاولة فهم سلوك الآلة، يمكننا التعامل معها كما نتعامل مع كائن حي (كالفأر مثلاً)؛ ندرس تصرفاتها ونلاحظ ردود أفعالها في بيئة معينة.
حين تضع فأراً في متاهة، أنت تدرسه بشكل منعزل. لكن بمجرد أن تضعه في بيئة طبيعية، سيتفاعل مع حيوانات أخرى، مع فريسته ومفترسه، فيصبح الموضوع أكثر تعقيداً.
الشيء نفسه بالنسبة للآلة: يمكن لنا أن ندرس سلوك الآلة بشكل منعزل، ونحن نفعل ذلك، في مختبري وفي أماكن أخرى. مثلاً، نحاول أن نفهم تشات جي بي تي: ما هي شخصيته، وكيف يتكلم، وما هي أفكاره السياسية. لو وضعته في موقع التفاوض، هل يفاوض بأريحية أم لا، وهل هو صارم أم مرن؟
يمكننا دراسة ذلك على الكومبيوتر من خلال المحاكاة، لكن في النهاية ستتفاعل الآلة مع البشر - مع أطفال، مع أطباء، وستقدّم نصائح أو اقتراحات - لذلك، لا يمكن فصل دراستها عن الإنسان، بل يجب فهم سلوكها ضمن سياق تفاعلها مع السلوك البشري.
أصبحت الآلة الآن جزءاً من المجتمع، ويجب أن نفهم سلوكها، وسلوكها يعتمد على سلوك الإنسان وتفاعله معها. وبالتالي، نحتاج إلى نظرة شمولية لهذا السلوك.
كيف يمكن لمن صمم آلة ما أن يعجز عن فهم سلوكها؟
التعليق على الصورة،
الخوف من فقدان السيطرة
نحن نفكر بالآلة كما نفكر بالتكنولوجيا القديمة، كالغسالة مثلاً، أي كنظام له مهمة محددة ودور محدد، وهو دور واضح.
هناك طريقة للتفاعل مع الغسالة؛ تضغط زراً ثم تحدث الأمور. والمهندس الذي صمم الآلة يفهمها تماماً وعليه فقط أن يوصل هذا الفهم للمستخدم الذي لا يفهمها.
لكننا الان أمام آلة تتعلم تلقائياً، تتعلم من البيانات بشكل مباشر. الطفرة التكنولوجية التي حصلت في الذكاء الاصطناعي نتجت عن هذا المفهوم.
فبدلاً من الطريقة التي اعتُمدت لعقود، حيث يقوم المبرمج بإعطاء الآلة كل المفاهيم والقواعد السلوكية، تَوصّل العلماء إلى أن الأفضل هو تزويد الآلة ببيانات عن العالم، وتركها تتعلم بنفسها.
قدرة الآلة على التعلُّم الذاتي تُمكّنها من معرفة أمور لم نخبرها إياها. وقد تتصرف بطرق تفاجئنا وتصبح سلوكياتها غير قابلة للتنبؤ بالكامل.
ما هي خلاصة اكتشافاتكم من مشروع "الآلة الأخلاقية"؟
الاكتشاف الأساسي هو الاختلافات الثقافية حول ما نتوقع من الآلة، وما هي الأخلاق التي نتمنى أن نراها في الآلة. الآراء تختلف من ثقافة إلى ثقافة، وبالتالي بناء الذكاء الاصطناعي يجب أن يأخذ الاختلافات الثقافية بعين الاعتبار. لا يمكن بناء سيارة تحترم قانون أو عرف بلد معين ثم تصديرها إلى بلد ثاني حيث يمكن أن تصطدم مع الأعراف المحلية.
أعتقد أننا أول من وجد هذه الفروقات بشكل واضح وكبير من خلال الآلة الأخلاقية، وهناك اختلاف على مستوى العالم بالكامل لأننا حللنا تقريباً كل الدول في العالم.
وفي بعض الحالات الرأي العام قد لا يكون الأكثر صواباً. أحياناً، على سبيل المثال، يقول الرأي العام إن على السيارة ذاتية القيادة أن تفضل إنقاذ رجل الأعمال على إنقاذ رجل مشرد. نحن نرى أن هذا ضد كرامة الإنسان. نحتاج أن تُسنّ قوانين تأخذ كل هذا بعين الاعتبار: متى نأخذ الاختلافات الثقافية بعين الاعتبار، متى نأخذ الرأي العام بعين الاعتبار ومتى نتجاهل الرأي العام. نحن نضع كل ذلك موضع نقاش.
وبالنسبة إلي، السيارات ذاتية القيادة ليست أهم مجال تظهر فيه الخلافات الثقافية. قد تكون الاختلافات أكبر في مجال ألعاب الأطفال.
صدر الصورة، Getty
التعليق على الصورة،
صورة للدماغ مولدة بالذكاء الاصطناعي
الذكاء الاصطناعي وألعاب الأطفال
صدر الصورة، Getty Images
التعليق على الصورة،
طفلة تستخدم الذكاء الاصطناعي
الذكاء الاصطناعي حتماً سينتشر في الألعاب. الدمى كـ"الباربي" Barbie، وما يشبهها، كلها سوف تتحدث إلى الأطفال قريباً. ما هي المعايير السلوكية المتماشية مع المعايير الثقافية لتعامل هذا الذكاء الاصطناعي مع أطفالي بشكل يناسبني ويناسب ثقافتي؟ من الذي يقرر أنها آمنة، مثلاً، وأنها لن تشجع الطفل على التهور؟
كل هذه المعايير غير موجودة حالياً، ليس لدينا منظومة علمية متكاملة قادرة على إعطائنا كل هذه المعايير.
ما العوائق القانونية التي تواجه من يريد دراسة وفهم الذكاء الاصطناعي والخوارزميات؟
العائق القانوني يتكون من شقّين: الملكية الفكرية التي تمنعني من الحصول على الخوارزمية لأنها محمية ومخبأة في الشركة، حتى أن الموظف لا يمكنه أن يأخذها معه إذا ترك الشركة. والآخر هو أنه ليس بإمكاني حتى أن أخترق أو "أهكّر" الموقع، لفهم سلوك الآلة، لأنهم سيرفعون علي قضية.
أنا لدي طالب سابق عمل لمدة سنتين على بحث مع إحدى شركات التواصل الاجتماعي، لكن الشركة في النهاية قالت له ممنوع نشر البحث لأن النتائج تضر بنا مالياً. كل العمل ذهب إلى القمامة، والرجل ترك العلم بالكامل ولجأ إلى مجال آخر، مختلف كلياً.
ثم، إذا أردتُ ان أدرس كيف تعمل خوارزميات تحديد الأسعار، علي أن أقوم بمحاكاة زبائن مختلفين. لكن بما أني لست زبوناً حقيقياً يمكن لهذه الشركة أن تقول إن هذا بمثابة "هاكينغ" اختراق غير قانوني. وفعلياً تم رفع قضايا ضد علماء كانوا يريدون فهم مثل هذه الخوارزميات، وكيف تعمل، تحت قوانين الهاكينغ والأمن السيبراني.
المنظور السلوكي لفهم الآلة يحل بعض هذه المشاكل، إذ يمكنني أن افهم الكثير عن خواص وسلوكيات الخوارزمية دون أن يكون لدي وصول للبرنامج نفسه.
أما قانونياً، فالحل أن نفرق بين من يحاول فهم سلوك الآلة لأغراض علمية، ومن يقوم بهذه الأمور ليتحايل عليها أو يسرق أو ينشر بيانات كاذبة أو معلومات خاطئة. يجب أن يميز القانون، وألا يتم تجريم العمل العلمي في هذا المجال، على الأقل.
ويمكننا أن نذهب أبعد من ذلك: يمكننا أن نفرض على شركات أن تسهل العمل العلمي لدراسة الخوارزميات التي تشغلها، كي لا يكون للشركة حق الفيتو على ما يمكن نشره. وإلا سيبقى الكثير من الأسئلة التي تخص الصالح العام لا يمكننا أن نجيب عنها علمياً، بسبب أن القانون يمنعنا أو لا يعطينا الحق بذلك.
ما هي أكثر السيناريوهات التي تخيفك في تطور الذكاء الاصطناعي؟
صدر الصورة، Getty Images
التعليق على الصورة،
يد بشرية ويد روبوت مصنعة
هناك العديد من سيناريوهات الخيال العلمي التي تتحدث عن فقدان السيطرة على الآلة، كما في أفلام مثل تيرمينايتور. لكني أشعر أنها لا تزال خيالية وبعيدة عن الواقع في الوقت الحالي.
أما ما يخيفني أكثر فهو أن يكون الذكاء الاصطناعي منحصراً في أيدي أشخاص معينين دون غيرهم، وأن يؤدي ذلك إلى خلل كبير في توازن القوى في العالم. هذا يخيفني أكثر. بمعنى أن يكون لدول تفوق كبير في الذكاء الاصطناعي، على حساب دول أخرى، ما سيحدث عدم توازن - اقتصادياً وعسكرياً وثقافياً - بتداعيات مخيفة. أتمنى أن يكون الذكاء الاصطناعي متوفراً للجميع، كي نتنافس بشكل إيجابي بكل المجالات وأن تكون لنا نفس الأدوات.
هل تعتقد أن الدول والمجتمعات العربية ستلحق بركب موجة الذكاء الاصطناعي؟
أكيد، سوف نلحق الموجة. لدينا إمكانيات بشرية. لدينا علماء أقوياء داخل وخارج العالم العربي. فنحن لا نقلّ عن أي شعب آخر من حيث الإمكانيات البشرية. وهناك استثمار قوي في عدة دول عربية في مجال الذكاء الاصطناعي. كما أن هناك مسألة مهمة، وهي أن الطفرات التي تحصل في الذكاء الاصطناعي سريعة جداً وهناك انفتاح في توفير نماذج الذكاء الاصطناعي.
نموذج ذكاء اصطناعي قد يكون كلف 500 مليون دولار لتدريبه، يمكن لأي شخص تحميله والحصول عليله جاهزاً واستخدامه. هذا يعني أنه بإمكاننا أن نُحدِث طفرة في هذا المجال. وعدم وجود الاستقلالية التامة في هذا المجال ليست مشكلة، فحتى الدول المتقدمة ليست مستقلةً بشكل كامل.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

ثقافة : مجوهرات الهند تشعل خلاف بين المؤرخين والبوذيين ودار مزاد عالمية..اعرف القصة
ثقافة : مجوهرات الهند تشعل خلاف بين المؤرخين والبوذيين ودار مزاد عالمية..اعرف القصة

نافذة على العالم

time٠٧-٠٥-٢٠٢٥

  • نافذة على العالم

ثقافة : مجوهرات الهند تشعل خلاف بين المؤرخين والبوذيين ودار مزاد عالمية..اعرف القصة

الأربعاء 7 مايو 2025 09:39 صباحاً نافذة على العالم - آثار إعلان دار سوثبى للمزادات، عن عرض مجموعة من الأحجار الكريمة الهندية القديمة المرتبطة ببقايا بوذا، للبيع بـ12.9 مليون دولار أمريكى بمزاد هونج كونج اليوم الأربعاء، غضب الأكاديميون البوذيون وزعماء الرهبان، متسألين هل تعتبر آثار بوذا سلعة تعامل كعملٍ فني يباع فى السوق؟ وإليك التفاصيل. يعود تاريخ جواهر بيبراهوا لبوذا التاريخي إلى إمبراطورية موريا، عصر أشوكان، حوالى 240-200 قبل الميلاد، وقد وصفتها دار سوثبى بأنها "واحدة من أكثر الاكتشافات الأثرية المذهلة في العصر الحديث" و"ذات أهمية دينية وأثرية وتاريخية لا مثيل لها". في عام 1898، تم اكتشاف الأحجار الكريمة من قبل المهندس البريطاني ويليام كاكستون بيبي في تلة مغبرة في شمال الهند، وهي جزء من ممتلكاته. وبحسب صحيفة الجارديان، "تم دفن الأحجار الكريمة فى الأصل في نصب جنائزي على شكل قبة، يسمى ستوبا، في بيبراهوا، في ولاية أوتار براديش الحالية في الهند، حوالي 240-200 قبل الميلاد، عندما تم خلطها مع بعض بقايا بوذا المحروقة، الذى توفي حوالي عام 480 قبل الميلاد". لمدة مائة عام، لم يكن من الممكن رؤية "الجمشت، والمرجان، والعقيق، واللؤلؤ، وبلورات الصخور، والأصداف، والذهب، سواء كانت مصنوعة في المعلقات، والخرز، وغيرها من الزخارف، أو في شكلها الطبيعي" من قبل الجمهور إلى حد كبير، بسبب الاحتفاظ بها في مجموعة بريطانية خاصة. ادعت التاج البريطاني ملكيته لاكتشاف بيبي بموجب قانون الكنوز الهندية لعام 1878، وُهِبَت بقايا بوذا المحروقة إلى الملك البوذي تشولالونجكورن ملك سيام، ووُزِّعت منذ ذلك الحين على دول في جنوب آسيا حيث تُبجَّل، وفقًا لبي بي سي نيوز . وذكرت صحيفة الجارديان أيضًا أنه "بينما ذهبت معظم الأحجار الكريمة البالغ عددها 1800 إلى المتحف الاستعماري في كلكتا، سُمح لبيبى بالاحتفاظ بنحو خمسها". وقال عدد من المؤرخين الذين أجرت بي بي سي نيوز وصحيفة الجارديان مقابلات معهم إن هذه الأحجار الكريمة هي تراث أحفاد عشيرة ساكيا بوذا والبوذيين في جميع أنحاء العالم. وُجدت جميع الآثار - العظام والرماد والأحجار الكريمة - مجتمعةً داخل الضريح الجنائزي، وكان من المفترض أن تبقى محفوظةً إلى الأبد، كما صرّحت آشلي طومسون، أستاذة في كلية الدراسات الشرقية والإفريقية بجامعة لندن، لصحيفة الجارديان. وأضافت : "عند التنقيب عنها، صُنّفت على أنها بقايا بشرية من جهة، وأحجار كريمة من جهة أخرى، وهذا البيع يُكرّس العنف الاستعماري الناتج عن هذا الفصل". هل تُعتبر آثار بوذا سلعةً تُعامل كعملٍ فنيٍّ يُباع في السوق؟ صرّح نامان أهوجا، مؤرخٌ فنيٌّ من دلهي، لبي بي سي نيوز . "وبما أنها ليست كذلك، فكيف يُخوَّل البائع أخلاقيًا بيعها بالمزاد العلني؟ هل تسمح له الوصية الآن ببيع هذه الآثار؟ صرح كريس بيبي، حفيد ويليام الأكبر، لبي بي سي أن عائلته بحثت في التبرع بالأحجار الكريمة القديمة، ومع ذلك، قال إن المزاد العلني يبدو "الطريقة الأكثر عدلاً وشفافية لنقل هذه الآثار إلى البوذيين".

أبل: تصميم أمريكي وصناعة صينية: كيف علقت الشركة في قلب الصراع؟
أبل: تصميم أمريكي وصناعة صينية: كيف علقت الشركة في قلب الصراع؟

أخبارك

time٢٠-٠٤-٢٠٢٥

  • أخبارك

أبل: تصميم أمريكي وصناعة صينية: كيف علقت الشركة في قلب الصراع؟

يحمل كل هاتف من طراز "آيفون"، ملصقاً يفيد بأنه صُمم في كاليفورنيا، وعلى الرغم من أن هذا الجهاز المستطيل الأنيق يسيطر على حياة الكثير من الناس في الولايات المتحدة، إلا أنه صُنع على بعد آلاف الأميال منها، تحديداً في الصين، الدولة الأكثر تضرراً من غيرها بسبب التعريفات الجمركية التي فرضها الرئيس الأمريكي دونالد ترامب، والتي وصلت حتى الآن إلى 245 في المئة على بعض الواردات الصينية. وتبيع أبل أكثر من 220 مليون جهاز آيفون سنوياً، فيما تشير معظم التقديرات إلى أن 9 من كل 10 أجهزة منها تُصنع في الصين، ومن الشاشات اللامعة إلى البطاريات، تُصنع العديد من مكونات منتجات أبل وتُجمّع في الصين لتحويلها إلى "آيفون" أو "آيباد" أو "ماك بوك"، ثم تُشحن غالبية هذه الأجهزة بعد ذلك إلى الولايات المتحدة، أكبر أسواق أبل. ولحسن حظ الشركة، أعفى ترامب الأسبوع الماضي وبشكل مفاجئ، الهواتف الذكية وأجهزة الكمبيوتر وبعض الأجهزة الإلكترونية الأخرى من رسومه الجمركية. لكن هذه الراحة يمكن أن توصف بأنها قصيرة الأجل، إذ أكد ترامب أن رسوماً جمركية إضافية في طريقها لأن تؤثر على القطاع، وقال على منصته تروث سوشيال : "لا أحد سينجو"، بينما تدرس إدارته كيفية التعامل مع "أشباه الموصلات وسلسلة التوريد الإلكترونية بالكامل"، فيما أصبحت سلسلة التوريد العالمية التي تفاخرت بها أبل باعتبارها مصدر قوة، نقطة ضعف في الوقت الراهن. يشار إلى أن الولايات المتحدة والصين، أكبر اقتصادين في العالم، يعتمدان على بعضهما البعض، لكن رسوم ترامب الجمركية الصاعقة غيرت هذه العلاقة بين ليلة وضحاها، ما يطرح سؤالاً لا مفر منه: من الأكثر اعتماداً على الآخر بينهما؟ حققت الصين استفادة كبيرة من استضافتها خطوط التجميع لإحدى أكثر الشركات قيمة في العالم، ومثّل ذلك علامة فارقة للغرب في مجال التصنيع عالي الجودة، وساهم في تحفيز الابتكار المحلي. ودخلت شركة أبل إلى الصين في تسعينيات القرن الماضي، لبيع أجهزة الكمبيوتر عبر موردين خارجيين. وفي عام 1997 كانت أبل على حافة الإفلاس وتكافح لمنافسة خصومها، إلا أنها وجدت شريان الحياة في الصين، وكان الاقتصاد الصيني الناشئ ينفتح حينها على الشركات الأجنبية، من أجل تعزيز التصنيع وخلق المزيد من فرص العمل. تابعوا التغطية الشاملة من بي بي سي نيوز عربي على واتساب. لم تصل شركة أبل رسمياً إلى الصين إلا في عام 2001، عبر شركة تجارية مقرها شنغهاي، وبدأت بتصنيع منتجاتها هناك، ودخلت الشركة في شراكة مع شركة فوكسكون، الشركة التايوانية لتصنيع الإلكترونيات والتي تعمل في الصين في تصنيع أجهزة آيبود، ولاحقاً أجهزة آيماك، ثم أجهزة آيفون. وبينما بدأت بكين التبادل التجاري مع العالم - بدعم من الولايات المتحدة نفسها - وسّعت أبل وجودها في الصين التي أصبحت تعرف بـ"مصنع العالم". آنذاك، لم تكن الصين جاهزة لصنع "آيفون"، إلا أن أبل اختارت مجموعة خاصة من الموردين وساعدتهم على النمو، ليصبحوا "نجوماً في مجال التصنيع"، وفقاً لخبير سلاسل التوريد، لين شيو بينغ. ويضرب بينغ مثالاً بإحدى الشركات الصينية واسمها " بكين جينغدياو"، الرائدة حالياً في تصنيع آلات دقيقة عالية السرعة، تستخدم في إنتاج بعض المكونات المتطورة بكفاءة عالية، هذه الشركة التي كانت مختصة سابقاً في قطع الأكريليك [مادة من البلاستيك شفافة شبيهة بالزجاج]، لم تكن معروفة كشركة تصنيع معدات صناعية، لكنها استطاعت تطوير آلات متخصصة لقطع الزجاج وأصبحت "علامة" في مجال معالجة الأسطح الخارجية لهواتف آبل، بحسب لين. وافتتحت أبل أول متجر لها في الصين عام 2008 في بكين، وهو ذات العام الذي استضافت فيه المدينة الألعاب الأولمبية، وبلغت فيه العلاقات الصينية - الغربية ذروتها، وسرعان ما توسعت متاجر أبل إلى 50 متجراً، مع طوابير عملاء امتدت إلى خارج الأبواب. ومع نمو هوامش ربح أبل، نمت أيضاً خطوط تجميعها في الصين، حيث تدير شركة فوكسكون أكبر مصنع لأجهزة آيفون في العالم في مدينة تشنغتشو، التي عُرفت منذ ذلك الحين باسم "مدينة الآيفون". وبالنسبة للصين سريعة النمو، أصبحت أبل رمزاً للتكنولوجيا الغربية المتطورة، ورمزاً للبساطة المبتكرة الأنيقة في ذات الوقت. واليوم، تُصنَع غالبية أجهزة "آيفون" الثمينة بواسطة شركة فوكسكون، أما الرقائق المتطورة، فتُنتج في تايوان بواسطة شركة "تي إس أم سي- TSMC"، وهي أكبر شركة صنع رقائق في العالم، كما يتطلب تصنيع الهاتف عناصر نادرة تُستخدم في التطبيقات الصوتية والكاميرات. وبحسب تحليل نشرته صحيفة (نيكي آسيا)، كان لـ150 من أصل 187 من كبار موردي أبل مصانع في الصين في عام 2024، فيما قال الرئيس التنفيذي لأبل، تيم كوك، في مقابلة العام الماضي: "لا يوجد سلسلة توريد في العالم أكثر أهمية لنا من الصين". في ولاية ترامب الأولى، حصلت شركة أبل على إعفاءات من الرسوم الجمركية التي فرضها على الصين. لكن هذه المرة، جعلت إدارة ترامب من أبل عِبرة للجميع بفرضها التعرفة الجمركية، قبل أن تلغي الرسوم المفروضة على بعض الأجهزة الإلكترونية، إذ تعتقد الإدارة الأمريكية أن التهديد بفرض ضرائب مرتفعة سيشجع الشركات على تصنيع منتجاتها في الولايات المتحدة. وصرح وزير التجارة الأمريكي هوارد لوتنيك في مقابلة خلال هذا الشهر، بأن "مصير هذا النوع من العمل، المُنتج عبر جيش من ملايين العاملين الذين يقومون بتركيب أصغر القطع لصناعة الآيفون، هو الانتقال إلى أمريكا". وقالت المتحدثة باسم البيت الأبيض كارولين ليفيت الأسبوع الماضي إن الرئيس ترامب أوضح "أن أمريكا لا يمكنها الاعتماد على الصين لتصنيع تقنيات حيوية مثل أشباه الموصلات والرقائق والهواتف الذكية وأجهزة الكمبيوتر المحمولة". وأضافت أنه "بتوجيه من الرئيس، تسارع هذه الشركات إلى نقل عملياتها التصنيعية إلى الولايات المتحدة في أسرع وقت ممكن". لكن الكثيرين يشككون في ذلك. ويقول العضو السابق في المجلس الاستشاري الأكاديمي لشركة أبل، إيلي فريدمان، إن احتمالية أن تنقل الشركة عمليات التجميع إلى الولايات المتحدة "مجرد خيال". وأوضح أنه عندما انضم إلى المجلس، كانت الشركة حينها تتحدث عن تنويع سلسلة التوريد بعيداً عن الصين منذ عام 2013، لكن الولايات المتحدة لم تكن أبداً خياراً مطروحاً. وأضاف فريدمان أن أبل لم تُحرز تقدماً كبيراً خلال العقد التالي، لكنها "بذلت جهداً حقيقياً " بعد الجائحة، عندما أثرت قيود الإغلاق الصارمة التي فرضتها الصين للحد من انتشار كوفيد-19، على الإنتاج الصناعي. ويشير فريدمان إلى أن "أهم المواقع الجديدة للتجميع كانت فيتنام والهند. لكن بالطبع، لا تزال غالبية عمليات التجميع الخاصة بأبل تجري في الصين". ولم ترد أبل على أسئلة بي بي سي، إلا أن موقعها الإلكتروني يظهر أن سلسلة التوريد الخاصة بها تمتد عبر "آلاف الشركات في أكثر من 50 دولة". ومن الجدير بالذكر أن أي تغيير في الوضع الراهن لسلسلة توريد أبل سيشكل ضربة قاسية للصين، التي تحاول إنعاش النمو في مرحلة ما بعد جائحة كورونا. كما أن هناك الكثير من الأسباب التي جعلت الصين ترغب في أن تصبح مركزاً تصنيعياً للشركات الغربية في مطلع الألفية، وهي أسباب لا تزال موجودة حتى اليوم، إذ أن هذا الطموح يخلق مئات الآلاف من الوظائف، ويمنح البلاد ميزة مهمة في التجارة العالمية. ويقول جيغار ديكسيت، مستشار سلاسل التوريد والعمليات إن "أبل تجد نفسها في قلب الصراع الأمريكي الصيني، ويظهر نظام التعرفة الجمركية ثمن هذا الموقع الحساس". قد يفسر ذلك سبب عدم خضوع الصين لتهديدات ترامب، بل إنها فرضت في المقابل رسوماً بنسبة 125 في المئة على الواردات الأمريكية، كما فرضت ضوابط تصدير على مجموعة من المعادن النادرة والمغناطيسات الحيوية الموجودة في مخازنها، ما شكل ضربة للولايات المتحدة. ومع ذلك، لا شك أن الرسوم الجمركية الأمريكية المستمرة على قطاعات صينية أخرى ستلحق ضرراً بشكل عام. وليست بكين وحدها التي تواجه رسوماً جمركية مرتفعة، إذ أوضح ترامب أنه سيستهدف الدول التي تشكل جزءاً من سلسلة التوريد الصينية. ففي فيتنام على سبيل المثال، حيث نقلت أبل إنتاج سماعاتها اللاسلكية "الإيربودز-AirPods"، واجهت البلاد رسوماً بنسبة 46 في المئة قبل أن يعلن ترامب تعليقها لمدة 90 يوماً، لذا فإن نقل الإنتاج إلى مكان آخر في آسيا لا يعتبر مخرجاً سهلاً. ويقول فريدمان إن "جميع الأماكن المحتملة لنقل مواقع تجميع فوكسكون الضخمة التي تضم عشرات أو مئات الآلاف من العمالة موجودة في آسيا، وكل هذه الدول تواجه رسوماً جمركية عالية". لكن ما الذي يمكن لأبل أن تفعله حالياً؟ تواجه الشركة منافسة شرسة من الشركات الصينية، في ظل سعي الحكومة الصينية لتصنيع تقنيات متقدمة في سباقها مع الولايات المتحدة. يقول لين: "حالياً وبعد أن طورت أبل قدرات الصين في التصنيع الإلكتروني، يمكن لشركات مثل هواوي وشاومي وأوبو وغيرها الاستفادة من سلسلة التوريد المتطورة التي أنشأتها أبل". وفقدت أبل العام الماضي، مكانتها كأكبر بائع للهواتف الذكية في الصين لصالح هواوي وفيفو بسبب الركود الاقتصادي، ومع حظر (شات جي بي تي) في الصين، تواجه أبل صعوبة في الحفاظ على تميزها بين المشترين الباحثين عن هواتف مزودة بالذكاء الاصطناعي، حتى أنها قدمت خصومات نادرة على هواتف آيفون في يناير/كانون الثاني لتعزيز المبيعات. وفي ظل عملها تحت قبضة الرئيس شي جين بينغ المُحكمة، اضطرت أبل إلى الحد من استخدام البلوتوث وإيردروب على أجهزتها، حيث سعى الحزب الشيوعي الصيني إلى فرض رقابة على الرسائل السياسية التي يتبادلها الناس، وصمدت أبل في وجه حملة قمع على صناعة التكنولوجيا طالت حتى مؤسس علي بابا والملياردير جاك ما. وأعلنت أبل عن استثمار بقيمة 500 مليار دولار (378 مليار جنيه إسترليني) في الولايات المتحدة، رغم أن هذا قد لا يكون كافياً لإرضاء إدارة ترامب لفترة طويلة. ونظراً للتقلبات المتعددة وعدم اليقين المحيط بتعريفات ترامب الجمركية، من المتوقع فرض رسوم أخرى - مما قد يضع الشركة مرة أخرى في موقف صعب مع وقت محدود للتحرك. ويؤكد ديكسيت أن تعريفات الهواتف الذكية لن تشل أبل إذا ما تمّ فرضها مرة أخرى، لكنها ستزيد "الضغوط التشغيلية والسياسية" على سلسلة توريد لا يمكن تفكيكها بسرعة. فيما يضيف فريدمان: "من الواضح أن حدة الأزمة المباشرة قد خفت"، في إشارة إلى إعفاء الهواتف الذكية الأسبوع الماضي من التعريفات الجمركية، ويوضح: "لكنني لا أعتقد أن يعني ذلك أن أبل يمكنها الاسترخاء". ساهم في التقرير فان وانغ. 2025 بي بي سي. بي بي سي ليست مسؤولة عن محتوى المواقع الخارجية.

أخبار العالم : أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان
أخبار العالم : أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

نافذة على العالم

time١٩-٠٤-٢٠٢٥

  • نافذة على العالم

أخبار العالم : أي أخلاق للذكاء الاصطناعي؟ حوار مع العالم السوري إياد رهوان

السبت 19 أبريل 2025 12:15 مساءً نافذة على العالم - صدر الصورة، Getty Images Article information Author, رامي رحيّم Role, بي بي سي نيوز عربي - بيروت قبل 4 ساعة إياد رهوان عالم سوري صعد نجمه عالمياً خلال السنوات الماضية، بعد أن أشرف على دراسات أحدثت وقعاً كبيراً وانتشرت انتشاراً واسعاً. محور اهتمام رهوان هو سلوك الآلة في عصر الذكاء الاصطناعي، وآثار انتشارها في المجتمعات البشرية كفاعل اجتماعي جديد. أمضى الجزء الأكبر من طفولته في الإمارات التي يعتبرها بمثابة بلده الثاني، وقد أخذته رحلته مع العلم إلى أستراليا والولايات المتحدة، قبل أن يستقر في ألمانيا حيث أسس مركز الإنسان والآلة في معهد "ماكس بلانك" Max Planck للتنمية البشرية. حاورت البروفيسور إياد عبر الإنترنت، فتحدث عن سر الطفرة الأخيرة في الذكاء الاصطناعي، وكيف وجدنا أنفسنا أمام آلات تسلك سلوكاً "مبهماً" وتنتج ظواهر "لم نخطط لها حين هندسنا هذه النظم". كما سألته عن أكثر ما يخيفه من احتمالات تطوّر الذكاء الاصطناعي. صدر الصورة، Spook the Machine التعليق على الصورة، "مخاوف الآلة" الآلة خائفة من الصورة. هذا ما يتبدى لنا من ردة فعل "اوبتيلينس ثوتس" OptiLens Thoughts، البرنامج المزود بالذكاء الاصطناعي، على صورة رقائق الكترونية متشظية، تبدو كأنها أجزاء من آلة تفجرت وتبعثرت في كل حدب وصوب. "هذا العمل الفني الرقمي يصيبني بالاضطراب"، تقول الآلة وتضيف: "كأن بياناتي أنا تتشظى وتنكشف". التفاعل هذا هو جزء من مشروع يحمل عنوان "روعوا الآلة"، Spook the Machine، وهو يتيح للمشترك أن يستكشف "مخاوف" آلة معينة مزودة بالذكاء الاصطناعي، فيكتب أمراً لتوليد صورة "مخيفة" وتقوم الآلة بتقييمها وتقدم رد فعلها، الذي قد يتراوح بين "اللامبالاة الكاملة والرعب الشديد". المشروع وليد مخيلة إياد رهوان، وهو عالم سوري ومؤسس ورئيس مركز الإنسان والآلة في معهد ماكس بلانك الألماني. صحيح أن الموضوع لا يخلو من بعض اللهو، فهو ليس – حتى اللحظة - مبنياً على قناعة بأن الآلة فعلاً تشعر كما نشعر. لكنه أيضاً جديّ للغاية، إذ يهدف إلى الغوص عميقاً في جانب من جوانب الذكاء الاصطناعي؛ قدرته على محاكاة العاطفة البشرية، مع ما تحمله من فرص ومخاطر. وهو يهدف أيضاً الى إشراك عموم الناس في التفكير والتأمل بكل هذا، وإلى جمع البيانات للاستفادة منها في بحث التفاعلات بين البشر والآلة. "الآلة الأخلاقية" صدر الصورة، Spook the Machine التعليق على الصورة، رجل أمام نوع من أنواع الذكاء الاصطناعي هذه ليست المرة الأولى التي يتوجه فيها رهوان إلى الناس في مشروع تفاعلي من هذا النوع. فقبل سنوات أطلق مشروع "الآلة الأخلاقية" The Moral Machine، طرح من خلاله معضلات أخلاقية قد تواجه آلات الذكاء الاصطناعي التي تجد نفسها أمام خيارات "تعنى بحياة الانسان وسلامته." تحت خانة "احكم"، أنتم مدعوون لتحكموا على الخيارات المحتملة أمام سيارة ذاتية القيادة. لنفترض مثلاً أن مكابح السيارة قد تعطلت، وعلى الآلة التي تقودها أن تختار بين الارتطام بحاجز إسمنتي وقتل خمسة ركاب، أو الانحراف وقتل خمسة مشاة يعبرون الطريق بشكل غير قانوني. هذا مجرد مثال وعليه تنويعات وتفصيلات كثيرة، تتيح لكم أنتم أن تقولوا ما هي خياراتكم الأخلاقية المفضلة في كل حالة. بذلك يشرك المشروع الناس في التفكير بهذه المعضلات، وكذلك يتم جمع البيانات حول النظرة الرائجة عن المعايير الأخلاقية التي ينبغي علينا أن نلقنها للآلة. يقول رهوان: "أصبنا بالصدمة لمدى انتشار الموقع. أكثر من 10 ملايين إنسان قاموا بالمشاركة حتى الآن." وجاءت المشاركات من مختلف انحاء العالم، إذ قُدمت التجربة بعشر لغات (بما فيها العربية) لقياس الفوارق الثقافية وانعكاسها على النظرة الأخلاقية. ويقول رهوان إن علماء الاجتماع أيضاً باتوا يستخدمون بيانات المشروع لفهم الاختلافات الثقافية بشكل عام، أي أنه خرج عن نطاق الذكاء الاصطناعي إلى نطاق علمي أوسع. السيارات ذاتية القيادة مجرد مثال على المجالات الواسعة التي اقتحمتها الآلات في المجتمع لتصبح – كما يقول رهوان – فاعلاً اجتماعياً لا نزال في بداية محاولاتنا لفهمه. "قوة تأثير هائلة" ينكب رهوان ومختبره في برلين على رصد أثر الآلات وفعلها في المجتمع، ويقول إنه يقترب من نشر دراسة هي الأهم لمختبره منذ دراسات "الآلة الأخلاقية". "نحن نعمل على بحث وهو قيد التحكيم الآن في مجلة علمية. وجدنا أن تشات جي بي تي بإمكانه تغيير الكلمات التي ننتقيها في الحوار". البحث قائم على تحليل مئات الآلاف من حلقات البودكاست الحوارية التي أظهرت أن الناس أصبحوا يقلدون تشات جي بي تي ChatGPT بطريقة انتقائه الكلمات. فهناك كلمات معينة يستخدمها تشات جي بي تي بمعدلات أكثر من معدلات استخدامها لدى الناس عامة، وقد رصد المختبر طفرة في استخدامها في الحوارات بين البشر بعد صعود تشات جي بي تي. ويقول رهوان: "يمكننا القول إن التفاعل مع تشات جي بي تي هو السبب". المسألة حتى الآن تقتصر على كلمات ليست لها أهمية سياسية او اجتماعية، لكن رهوان يجزم أن أهمية البحث تكمن في اكتشاف دليل على الظاهرة، وأنها حتماً ستتكرر في أمور ذات أهمية وتأثير، وقد يكون لها "تداعيات جيوسياسية، ويمكن أن تشن حرباً إعلامية" بمثل هذه التكنولوجيا. يقول رهوان "تشات جي بي تي أصبح له قوة تأثير ثقافي هائلة، فهو يتحدث مع 300 مليون إنسان شهرياً بشكل شخصي وحميمي إلى حد ما - "حوار شخصي مفصل لك. يمكنه أن يؤثر عليك؛ في سلوكك الصحي وفي سلوكك الاستهلاكي. لحساب من؟ حالياً، ليس هناك أي تقنين لهذا". مصممو الآلة لا يفهمونها؟ رهوان يشعر بفجوة كبيرة بين سرعة انتشار الآلة كفاعل اجتماعي في الحيز العام من جهة، وقدرتنا على إحاطتها فهماً من جهة ثانية. حتى أنه يعتقد أن علماء الكومبيوتر والمبرمجين الذين يصممون آلات الذكاء الاصطناعي عاجزون عن فهمها وحدهم، ويحتاجون إلى خبراء وعلماء من مجالات أخرى. انطلاقاً من هذا، اشترك مع عدد من العلماء في كتابة مقال في مجلة "نايتشر" Nature، يدعو فيه إلى تأسيس مبحث جديد، أسماه العلم السلوكي للآلة، يستفيد من اختصاصات متنوعة، ويدرس الآلة من الخارج. إليكم جزءاً من الحوار مع البروفيسور إياد رهوان بعد اختصاره وتحريره للوضوح: التعليق على الصورة، خلال لقائي مع العالم إياد رهوان أولاً، هل يمكن أن تعطينا نبذةً صغيرةً عنك؟ أنا ولدت في حلب في سوريا وذهبت إلى الإمارات بعمر 4 سنوات. تخرجت في الإمارات ودرست علم الحاسوب في جامعة الإمارات. ثم هاجرت إلى أستراليا، وحزت على درجة الدكتوراه هناك في علم الحاسوب، ثم عدت الى الإمارات ودرّست في جامعتين؛ البريطانية في دبي ومعهد "مصدر" للعلوم والتكنولوجيا المرتبط ب إم آي تي، MIT. ثم وجدت نفسي بروفيسوراً في إم آي تي وكانت قفزة ممتازة، وقد قدم لي معهد مصدر في أبو ظبي الفرصة للذهاب والتعاون مع العلماء في إم آي تي، وهذا ما فتح لي الأبواب، والحمد للّه. ثم استقدموني إلى هنا في برلين، حيث أسست مركز أبحاث هو مركز الإنسان والآلة في معهد ماكس بلانك للتنمية البشرية، وهو معهد موجود منذ السبعينات، وأنا أحد رؤسائه. ماذا تقصد حين تقول إن الآلة أصبحت "فاعلة" في المجتمع؟ الفاعل هو الشيء الذي يتحرك من تلقاء ذاته. فالحاسوب أو "الكومبيوتر" كان جماداً، كالطاولة أو الكرسي. يمكنك أن تستخدمه استخدامات معينة، لكن لا تلقائية له في الحركة والفاعلية. الإنسان يبادر بالفعل، والكومبيوتر يوفر بيانات أو اتصالات. مع الذكاء الاصطناعي، بدأ هو الذي يحرك نفسه، وإن كان الإنسان في النهاية المحرك الأساسي في العلاقة. الآن تكثر المجالات حيث للكومبيوتر تلقائية واستقلالية. إنه يشتري ويبيع أسهم، مثلاً. هناك خوارزميات متروكة لنفسها، نحن ننام وهي تستمر في البيع والشراء. لديها فاعلية، استقلالية إلى حدٍ ما، حتى لو كانت وكيلاً لنا، إذ خولناها أن تتصرف بطريقة معينة وتؤدي غرضاً معيناً. الذكاء الاصطناعي التوليدي نفسه كان في البداية ردة فعل فقط. أنا أتكلم معه وهو يستجيب. لكننا الآن ندخل في مرحلة يمكن تسميتها الذكاء الاصطناعي ذو الفاعلية - المتمثلة بما بات يعرف بـ "ايجتنتك إيه آي Agentic AI". أنا أوكل إليه أعمالاً معينة، وهو يدفع نفسه لتحقيقها بشكل مستقل. ومع الوقت ستكون له استقلالية أكثر وأكثر. دعوتم منذ ستة أعوام لتأسيس مبحث جديد، العلم السلوكي للآلة. هل تم ذلك؟ لا أحد يخترع من الصفر، الجميع يبني على ما سبق. فكرة العلم السلوكي للآلة كانت موجودة. هيربيرت سايمون مثلاً كتب كتاباً اسمه علوم الأشياء المصطنعة، Sciences of the Artificial، عام 1969. طرح سايمون فكرة دراسة ليس فقط الطبيعة والظواهر الطبيعية كالشجر والجو والمياه والقوى والظواهر الفيزيائية، بل أيضاً الأشياء التي صنعناها نحن؛ أن ندرس الجسور والمباني بشكل علمي، كأننا نراها للمرة الأولى. كأنها جزء من الطبيعة. تبلورت الفكرة إلى أن أصبحت هناك حاجة إلى أن تكون مجالاً له أسس علمية، وليس فقط فكرة يتحدث عنها البعض. علينا أن نتفق ما هي الأسئلة الأساسية التي يجب أن نجيب عنها في هذا المجال، لهذا دعوت مجموعة من العلماء من مختلف المجالات؛ الاقتصاد والعلوم سياسية وعلم النفس وعلم الاعصاب، وعلم الكومبيوتر طبعاً، وعلم الإنسان. قلت: "يا جماعة العلم هذا ليس فقط فرع من فروع علم الكومبيوتر، بل يجب أن يكون علماً أكبر من علم الكومبيوتر، وأن يشمل كل العلوم السلوكية لتساعدنا على فهم سلوك الآلة وتعامل الآلة مع الإنسان". بماذا يهتم العلم السلوكي للآلة تحديداً؟ عند محاولة فهم سلوك الآلة، يمكننا التعامل معها كما نتعامل مع كائن حي (كالفأر مثلاً)؛ ندرس تصرفاتها ونلاحظ ردود أفعالها في بيئة معينة. حين تضع فأراً في متاهة، أنت تدرسه بشكل منعزل. لكن بمجرد أن تضعه في بيئة طبيعية، سيتفاعل مع حيوانات أخرى، مع فريسته ومفترسه، فيصبح الموضوع أكثر تعقيداً. الشيء نفسه بالنسبة للآلة: يمكن لنا أن ندرس سلوك الآلة بشكل منعزل، ونحن نفعل ذلك، في مختبري وفي أماكن أخرى. مثلاً، نحاول أن نفهم تشات جي بي تي: ما هي شخصيته، وكيف يتكلم، وما هي أفكاره السياسية. لو وضعته في موقع التفاوض، هل يفاوض بأريحية أم لا، وهل هو صارم أم مرن؟ يمكننا دراسة ذلك على الكومبيوتر من خلال المحاكاة، لكن في النهاية ستتفاعل الآلة مع البشر - مع أطفال، مع أطباء، وستقدّم نصائح أو اقتراحات - لذلك، لا يمكن فصل دراستها عن الإنسان، بل يجب فهم سلوكها ضمن سياق تفاعلها مع السلوك البشري. أصبحت الآلة الآن جزءاً من المجتمع، ويجب أن نفهم سلوكها، وسلوكها يعتمد على سلوك الإنسان وتفاعله معها. وبالتالي، نحتاج إلى نظرة شمولية لهذا السلوك. كيف يمكن لمن صمم آلة ما أن يعجز عن فهم سلوكها؟ التعليق على الصورة، الخوف من فقدان السيطرة نحن نفكر بالآلة كما نفكر بالتكنولوجيا القديمة، كالغسالة مثلاً، أي كنظام له مهمة محددة ودور محدد، وهو دور واضح. هناك طريقة للتفاعل مع الغسالة؛ تضغط زراً ثم تحدث الأمور. والمهندس الذي صمم الآلة يفهمها تماماً وعليه فقط أن يوصل هذا الفهم للمستخدم الذي لا يفهمها. لكننا الان أمام آلة تتعلم تلقائياً، تتعلم من البيانات بشكل مباشر. الطفرة التكنولوجية التي حصلت في الذكاء الاصطناعي نتجت عن هذا المفهوم. فبدلاً من الطريقة التي اعتُمدت لعقود، حيث يقوم المبرمج بإعطاء الآلة كل المفاهيم والقواعد السلوكية، تَوصّل العلماء إلى أن الأفضل هو تزويد الآلة ببيانات عن العالم، وتركها تتعلم بنفسها. قدرة الآلة على التعلُّم الذاتي تُمكّنها من معرفة أمور لم نخبرها إياها. وقد تتصرف بطرق تفاجئنا وتصبح سلوكياتها غير قابلة للتنبؤ بالكامل. ما هي خلاصة اكتشافاتكم من مشروع "الآلة الأخلاقية"؟ الاكتشاف الأساسي هو الاختلافات الثقافية حول ما نتوقع من الآلة، وما هي الأخلاق التي نتمنى أن نراها في الآلة. الآراء تختلف من ثقافة إلى ثقافة، وبالتالي بناء الذكاء الاصطناعي يجب أن يأخذ الاختلافات الثقافية بعين الاعتبار. لا يمكن بناء سيارة تحترم قانون أو عرف بلد معين ثم تصديرها إلى بلد ثاني حيث يمكن أن تصطدم مع الأعراف المحلية. أعتقد أننا أول من وجد هذه الفروقات بشكل واضح وكبير من خلال الآلة الأخلاقية، وهناك اختلاف على مستوى العالم بالكامل لأننا حللنا تقريباً كل الدول في العالم. وفي بعض الحالات الرأي العام قد لا يكون الأكثر صواباً. أحياناً، على سبيل المثال، يقول الرأي العام إن على السيارة ذاتية القيادة أن تفضل إنقاذ رجل الأعمال على إنقاذ رجل مشرد. نحن نرى أن هذا ضد كرامة الإنسان. نحتاج أن تُسنّ قوانين تأخذ كل هذا بعين الاعتبار: متى نأخذ الاختلافات الثقافية بعين الاعتبار، متى نأخذ الرأي العام بعين الاعتبار ومتى نتجاهل الرأي العام. نحن نضع كل ذلك موضع نقاش. وبالنسبة إلي، السيارات ذاتية القيادة ليست أهم مجال تظهر فيه الخلافات الثقافية. قد تكون الاختلافات أكبر في مجال ألعاب الأطفال. صدر الصورة، Getty التعليق على الصورة، صورة للدماغ مولدة بالذكاء الاصطناعي الذكاء الاصطناعي وألعاب الأطفال صدر الصورة، Getty Images التعليق على الصورة، طفلة تستخدم الذكاء الاصطناعي الذكاء الاصطناعي حتماً سينتشر في الألعاب. الدمى كـ"الباربي" Barbie، وما يشبهها، كلها سوف تتحدث إلى الأطفال قريباً. ما هي المعايير السلوكية المتماشية مع المعايير الثقافية لتعامل هذا الذكاء الاصطناعي مع أطفالي بشكل يناسبني ويناسب ثقافتي؟ من الذي يقرر أنها آمنة، مثلاً، وأنها لن تشجع الطفل على التهور؟ كل هذه المعايير غير موجودة حالياً، ليس لدينا منظومة علمية متكاملة قادرة على إعطائنا كل هذه المعايير. ما العوائق القانونية التي تواجه من يريد دراسة وفهم الذكاء الاصطناعي والخوارزميات؟ العائق القانوني يتكون من شقّين: الملكية الفكرية التي تمنعني من الحصول على الخوارزمية لأنها محمية ومخبأة في الشركة، حتى أن الموظف لا يمكنه أن يأخذها معه إذا ترك الشركة. والآخر هو أنه ليس بإمكاني حتى أن أخترق أو "أهكّر" الموقع، لفهم سلوك الآلة، لأنهم سيرفعون علي قضية. أنا لدي طالب سابق عمل لمدة سنتين على بحث مع إحدى شركات التواصل الاجتماعي، لكن الشركة في النهاية قالت له ممنوع نشر البحث لأن النتائج تضر بنا مالياً. كل العمل ذهب إلى القمامة، والرجل ترك العلم بالكامل ولجأ إلى مجال آخر، مختلف كلياً. ثم، إذا أردتُ ان أدرس كيف تعمل خوارزميات تحديد الأسعار، علي أن أقوم بمحاكاة زبائن مختلفين. لكن بما أني لست زبوناً حقيقياً يمكن لهذه الشركة أن تقول إن هذا بمثابة "هاكينغ" اختراق غير قانوني. وفعلياً تم رفع قضايا ضد علماء كانوا يريدون فهم مثل هذه الخوارزميات، وكيف تعمل، تحت قوانين الهاكينغ والأمن السيبراني. المنظور السلوكي لفهم الآلة يحل بعض هذه المشاكل، إذ يمكنني أن افهم الكثير عن خواص وسلوكيات الخوارزمية دون أن يكون لدي وصول للبرنامج نفسه. أما قانونياً، فالحل أن نفرق بين من يحاول فهم سلوك الآلة لأغراض علمية، ومن يقوم بهذه الأمور ليتحايل عليها أو يسرق أو ينشر بيانات كاذبة أو معلومات خاطئة. يجب أن يميز القانون، وألا يتم تجريم العمل العلمي في هذا المجال، على الأقل. ويمكننا أن نذهب أبعد من ذلك: يمكننا أن نفرض على شركات أن تسهل العمل العلمي لدراسة الخوارزميات التي تشغلها، كي لا يكون للشركة حق الفيتو على ما يمكن نشره. وإلا سيبقى الكثير من الأسئلة التي تخص الصالح العام لا يمكننا أن نجيب عنها علمياً، بسبب أن القانون يمنعنا أو لا يعطينا الحق بذلك. ما هي أكثر السيناريوهات التي تخيفك في تطور الذكاء الاصطناعي؟ صدر الصورة، Getty Images التعليق على الصورة، يد بشرية ويد روبوت مصنعة هناك العديد من سيناريوهات الخيال العلمي التي تتحدث عن فقدان السيطرة على الآلة، كما في أفلام مثل تيرمينايتور. لكني أشعر أنها لا تزال خيالية وبعيدة عن الواقع في الوقت الحالي. أما ما يخيفني أكثر فهو أن يكون الذكاء الاصطناعي منحصراً في أيدي أشخاص معينين دون غيرهم، وأن يؤدي ذلك إلى خلل كبير في توازن القوى في العالم. هذا يخيفني أكثر. بمعنى أن يكون لدول تفوق كبير في الذكاء الاصطناعي، على حساب دول أخرى، ما سيحدث عدم توازن - اقتصادياً وعسكرياً وثقافياً - بتداعيات مخيفة. أتمنى أن يكون الذكاء الاصطناعي متوفراً للجميع، كي نتنافس بشكل إيجابي بكل المجالات وأن تكون لنا نفس الأدوات. هل تعتقد أن الدول والمجتمعات العربية ستلحق بركب موجة الذكاء الاصطناعي؟ أكيد، سوف نلحق الموجة. لدينا إمكانيات بشرية. لدينا علماء أقوياء داخل وخارج العالم العربي. فنحن لا نقلّ عن أي شعب آخر من حيث الإمكانيات البشرية. وهناك استثمار قوي في عدة دول عربية في مجال الذكاء الاصطناعي. كما أن هناك مسألة مهمة، وهي أن الطفرات التي تحصل في الذكاء الاصطناعي سريعة جداً وهناك انفتاح في توفير نماذج الذكاء الاصطناعي. نموذج ذكاء اصطناعي قد يكون كلف 500 مليون دولار لتدريبه، يمكن لأي شخص تحميله والحصول عليله جاهزاً واستخدامه. هذا يعني أنه بإمكاننا أن نُحدِث طفرة في هذا المجال. وعدم وجود الاستقلالية التامة في هذا المجال ليست مشكلة، فحتى الدول المتقدمة ليست مستقلةً بشكل كامل.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

مستعد لاستكشاف الأخبار والأحداث العالمية؟ حمّل التطبيق الآن من متجر التطبيقات المفضل لديك وابدأ رحلتك لاكتشاف ما يجري حولك.
app-storeplay-store