
قواعد شفافية الذكاء الاصطناعي تدحل حيز التنفيذ بأوروبا بدءاً من أغسطس
بدأت قواعد الشفافية الجديدة لنماذج الذكاء الاصطناعي للأغراض العامة، الدخول في حيز التنفيذ في جميع أنحاء الاتحاد الأوروبي يوم السبت، كجزء من قانون الذكاء الاصطناعي التاريخي للتكتل الذي تم اعتماده العام الماضي.
وتهدف القواعد إلى تعزيز تطوير مسؤول للذكاء الاصطناعي، وتوفير معلومات أوضح حول كيفية تدريب النماذج، وتحسين حماية حقوق الطبع والنشر، بالإضافة إلى تحديد المطورين للخطوات المتخذة لحماية الملكية الفكرية.
وبموجب القواعد الجديدة، يتعين على المطورين الكشف عن كيفية عمل نماذجهم وماهية البيانات التي تم استخدامها لتدريبهم، علاوة على توثيق تدابير السلامة، بالنسبة للنماذج المتقدمة بشكل خاص، والتي يُنظر على أنها تشكل مخاطر محتملة على الجمهور.
ويشير الذكاء الاصطناعي للأغراض العامة إلى الأنظمة التي يمكن استخدامها لمجموعة واسعة من الأغراض، مثل إنشاء نص أو تحليل لغة أو كتابة شفرة.
وتُعرّف النماذج العامة بأنها تلك التي تتجاوز قدرة تدريبها 10^23 عملية حسابية عائمة FLOP وقادرة على توليد اللغة، أما النماذج المتقدمة جداً والتي تتجاوز قدرتها 10^25 FLOP، وتشكل مخاطر نظامية، فعليها التزامات إضافية تشمل إخطار المفوضية وضمان السلامة والأمن.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


خليج تايمز
منذ 16 ساعات
- خليج تايمز
الإمارات تقود الابتكار في تنظيم الذكاء الاصطناعي
الساعة تقترب لجهات العمل التي تبني أو تطبق أو تعتمد على أنظمة الذكاء الاصطناعي. مع اقتراب المرحلة الثانية من قانون الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي، الذي يعد أول تنظيم ملزم للذكاء الاصطناعي في العالم، يبدأ عهد جديد من الحوكمة القابلة للتنفيذ في هذا المجال. يُدخل القانون متطلبات صارمة لضمان الشفافية والسلامة والإشراف البشري، مع تصنيف أنظمة الذكاء الاصطناعي إلى أربعة مستويات من المخاطر تحدد طريقة إدارتها. بدأت المرحلة الأولى التي دخلت حيز التنفيذ في 2 فبراير 2025 بحظر أنظمة الذكاء الاصطناعي التي تُعد ذات مخاطر غير مقبولة، وطلبت من المؤسسات العاملة في الاتحاد الأوروبي تحسين مستوى معرفة موظفيها بالذكاء الاصطناعي. أما المرحلة التالية فتضع التزامات جديدة على الذكاء الاصطناعي العام، مثل النماذج التي تشمل ChatGPT، وClaude، وDALL·E، وMidjourney، وAnthropic، وMeta، وGoogle BERT. تشمل هذه المتطلبات الشفافية الأكبر، وإنشاء توثيق تقني مفصل، والكشف عن المواد المحمية بحقوق الطبع والنشر المستخدمة أثناء التدريب. طالبت الشركات الأوروبية بوقف هذه الإجراءات، لكن الاتحاد الأوروبي رفض ذلك، مما يعكس واقعين: الأول هو أن عصر تنظيم الذكاء الاصطناعي القابل للتنفيذ قد بدأ وسيستمر في التوسع. والثاني أن العديد من الشركات لا تزال تعمل على التحضير لهذا الواقع رغم النقاشات المطولة حول أطر الذكاء الاصطناعي المسؤول. الرؤية القانونية المسبقة كميزة استراتيجية لم يعد التعامل مع التوافق مع قوانين الذكاء الاصطناعي كاستجابة لاحقة أمرًا مستدامًا. واليوم، مع سرعة تطور اللوائح بشأن الذكاء الاصطناعي والمسؤول والأخلاقي، تصبح الرؤية القانونية المسبقة أكثر أهمية من أي وقت مضى. لا بد من دمج الامتثال ضمن كيفية بناء الأنظمة وتطبيقها وتطويرها منذ البداية، لا سيما للنماذج العامة المعقدة سريعة التطور والتي تؤثر في مجالات واسعة. يساعد دمج الامتثال ضمن عملية التطوير بدلاً من إجباره بعد ذلك على تقليل المخاطر التشغيلية وتعزيز الثقة مع العملاء والشركاء والجهات التنظيمية. هذه النهج الاستباقي يتم تبنيه بالفعل في ولايات تدرك أهمية التنظيم كحافز للابتكار، مثل الإمارات. في السنوات الأخيرة، أرسى الإمارات نظامها الحوكمي للذكاء الاصطناعي عبر مبادرات مثل مجلس الذكاء الاصطناعي والتقنيات المتقدمة وميثاق الإمارات للذكاء الاصطناعي، اللذين يؤكدان على الأخلاقيات والشفافية والمصلحة العامة. وتبرز هذه الجهود أهمية التعاون بين الحكومة والصناعة لضمان أن التقنيات الناشئة ليست فقط متقدمة، بل تُستخدم بمسؤولية.


الشارقة 24
منذ 3 أيام
- الشارقة 24
قواعد شفافية الذكاء الاصطناعي تدحل حيز التنفيذ بأوروبا بدءاً من أغسطس
الشارقة 24 - بنا: بدأت قواعد الشفافية الجديدة لنماذج الذكاء الاصطناعي للأغراض العامة، الدخول في حيز التنفيذ في جميع أنحاء الاتحاد الأوروبي يوم السبت، كجزء من قانون الذكاء الاصطناعي التاريخي للتكتل الذي تم اعتماده العام الماضي. وتهدف القواعد إلى تعزيز تطوير مسؤول للذكاء الاصطناعي، وتوفير معلومات أوضح حول كيفية تدريب النماذج، وتحسين حماية حقوق الطبع والنشر، بالإضافة إلى تحديد المطورين للخطوات المتخذة لحماية الملكية الفكرية. وبموجب القواعد الجديدة، يتعين على المطورين الكشف عن كيفية عمل نماذجهم وماهية البيانات التي تم استخدامها لتدريبهم، علاوة على توثيق تدابير السلامة، بالنسبة للنماذج المتقدمة بشكل خاص، والتي يُنظر على أنها تشكل مخاطر محتملة على الجمهور. ويشير الذكاء الاصطناعي للأغراض العامة إلى الأنظمة التي يمكن استخدامها لمجموعة واسعة من الأغراض، مثل إنشاء نص أو تحليل لغة أو كتابة شفرة. وتُعرّف النماذج العامة بأنها تلك التي تتجاوز قدرة تدريبها 10^23 عملية حسابية عائمة FLOP وقادرة على توليد اللغة، أما النماذج المتقدمة جداً والتي تتجاوز قدرتها 10^25 FLOP، وتشكل مخاطر نظامية، فعليها التزامات إضافية تشمل إخطار المفوضية وضمان السلامة والأمن.


العين الإخبارية
منذ 3 أيام
- العين الإخبارية
بروكسل تعتمد قانون الذكاء الاصطناعي.. أداة السيادة الرقمية
دخلت أجزاء رئيسية من قانون الذكاء الاصطناعي الأوروبي (AI Act) حيز التنفيذ اليوم السبت. وتدشّن الخطوة مرحلة جديدة من تنظيم تقنيات الذكاء الاصطناعي داخل الاتحاد الأوروبي، وسط توترات متجددة مع الولايات المتحدة. ويمثل هذا القانون، الذي وُصف بأنه من أكثر القوانين طموحًا في العالم في هذا المجال، خطوة استراتيجية تسعى من خلالها بروكسل إلى ضبط استخدام الذكاء الاصطناعي بما ينسجم مع القيم الأوروبية، من شفافية ومساءلة وحقوق الإنسان. وألقى تقرير نشرته صحيفة "لو موند" الفرنسية الضوء على القانون وقال أنه استغرق التفاوض حوله سنوات، وجرى اعتماده نهائيًا في عام 2024. ويُعتبر القانون محاولة جريئة من الاتحاد الأوروبي لوضع أُطر قانونية شاملة لاستخدامات الذكاء الاصطناعي، في وقت تتسابق فيه الدول والشركات لتطوير هذه التقنية دون ضوابط كافية. خطوات إجراءات ودخلت أحكام الحوكمة المركزية حيز التنفيذ، حيث يُطلب من الدول الأعضاء البالغ عددها 27 دولة إخطار المفوضية الأوروبية بالهيئات الوطنية التي ستتولى مراقبة تطبيق القانون على أراضيها. وفي فرنسا، على سبيل المثال، من المتوقع أن تضطلع كل من "المديرية العامة للسياسات التنافسية وشؤون المستهلك ومكافحة الاحتيال" و"الهيئة الوطنية لحماية البيانات" (CNIL) بهذه المهمة. ومع ذلك، لم تحدد بعض الدول الأعضاء بعد الهيئات المعنية، ما يثير تساؤلات حول فاعلية التطبيق في المدى القريب. غضب أمريكي متجدد ووفقا لتقرير "لو موند"، فإن إطلاق القانون لم يمر مرور الكرام في واشنطن. فقد واجه انتقادات شديدة من إدارة الرئيس الأمريكي دونالد ترامب، بالإضافة إلى شركات التكنولوجيا العملاقة مثل غوغل، ميتا، وأمازون، التي ترى في القانون تهديدًا لمصالحها التجارية ونموذجها القائم على الابتكار السريع. وتتهم هذه الأطراف الاتحاد الأوروبي بفرض قيود بيروقراطية معرقلة للتطور التكنولوجي، خاصة فيما يتعلق بالقيود المفروضة على ما يُعرف بـ"أنظمة الذكاء الاصطناعي عالية المخاطر". ويرى محللون أن المواجهة بين بروكسل وواشنطن في هذا السياق تعكس اختلافًا أيديولوجيًا أعمق. ففي حين تسعى أوروبا لفرض نموذج قائم على "الذكاء الاصطناعي الموثوق"، تفضل الولايات المتحدة نهجًا أكثر مرونة يحفّز السوق ويقلّل من التدخل الحكومي المباشر. نموذج سيادي رقمي ويمثل القانون جزءًا من استراتيجية أوروبية أوسع لتعزيز "السيادة الرقمية"، إلى جانب قوانين أخرى مثل "قانون الخدمات الرقمية" (DSA) و"قانون الأسواق الرقمية" (DMA)، التي تهدف جميعها إلى كبح نفوذ شركات التكنولوجيا الكبرى، وضمان حماية البيانات والحقوق الرقمية للمواطنين الأوروبيين. وبحسب محللين، فإن هذه الحزمة التشريعية لا تسعى فقط إلى حماية المستهلكين، بل تهدف أيضًا إلى ترسيخ مكانة أوروبا كصانع قواعد عالمي في مجال التكنولوجيا، تمامًا كما فعلت سابقًا مع اللائحة العامة لحماية البيانات (GDPR). لكن رغم الطموح الأوروبي، تواجه عملية تطبيق القانون تحديات كبيرة، خاصة في ظل النقص في الموارد البشرية والتقنية في بعض الدول الأعضاء، وصعوبة مواكبة التطورات السريعة في مجال الذكاء الاصطناعي. كما يُطرح تساؤل حول كيفية التعامل مع الشركات غير الأوروبية التي تقدم خدماتها داخل الاتحاد، ومدى فاعلية الرقابة العابرة للحدود. في المقابل، يرى مؤيدو القانون أنه يضع أساسًا قانونيًا صلبًا لضمان الاستخدام الآمن والمسؤول للذكاء الاصطناعي، ويمنح المستخدمين ثقة أكبر بالتكنولوجيا. ومع دخول قانون الذكاء الاصطناعي الأوروبي حيز التنفيذ، يتجه الاتحاد الأوروبي نحو تكريس نموذج مختلف لتنظيم التكنولوجيا، يقوم على الموازنة بين الابتكار وحماية الحقوق. ورغم التوترات مع الولايات المتحدة، فإن بروكسل تبدو عازمة على المضي قدمًا في هذا النهج، حتى لو عنى ذلك الدخول في صدام جديد مع وادي السيليكون. aXA6IDE1NC4zLjIzNC4yNSA= جزيرة ام اند امز US