
الشركة تقول إنها تستخدم سياسة الاستخدام العادل
انضمت مجموعة من أساتذة القانون إلى قائمة الداعمين للمؤلفين الذين يخوضون معركة قضائية ضد شركة ميتا ، وذلك بعد اتهام عملاق التكنولوجيا باستخدام كتبهم الإلكترونية في تدريب نماذج الذكاء الاصطناعي التابعة لها دون إذن.
وفي مذكرة قُدمت للمحكمة الجزئية الأميركية في سان فرانسيسكو، وصف الأساتذة دفاع "ميتا" عن استخدام المحتوى بموجب ما يُعرف بـ"الاستخدام العادل" بأنه محاولة غير مسبوقة للحصول على امتيازات قانونية تتجاوز حتى تلك الممنوحة للبشر.
المذكرة شددت على أن تدريب النماذج التوليدية على أعمال محمية بحقوق النشر ليس استخداماً تحويلياً، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
أوضحت المذكرة أن الغرض من هذا التدريب لا يختلف جوهرياً عن استخدام الأعمال لتثقيف المؤلفين البشر.
وأضافت: "بل إنه استخدام تجاري محض، خاصة عندما تسعى شركة ربحية مثل ميتا لتحقيق مكاسب من خلاله".
وانضمت إلى هذا الموقف كل من الرابطة الدولية للناشرين العلميين والتقنيين والطبيين، وتحالف حقوق الطبع والنشر، إلى جانب رابطة الناشرين الأميركيين، حيث قدّمت هذه الجهات مذكرات قانونية لدعم المؤلفين.
قضية :"كادري" ضد "ميتا"، التي تضم مؤلفين بارزين مثل ريتشارد كادري، وسارة سيلفرمان، وتا-نهيسي كوتس، تتهم الشركة باستخدام كتبهم الإلكترونية دون تصريح لتدريب نماذجها "لاما"، مع حذف معلومات حقوق النشر لإخفاء الانتهاكات، حسب زعمهم.
بالمقابل، دافعت "ميتا" عن موقفها قائلة إن التدريب يدخل في إطار الاستخدام العادل، كما طالبت المحكمة برفض القضية بدعوى عدم أحقية المؤلفين في تقديمها أصلاً.
لكن، وفي تطور مهم، رفض القاضي الفيدرالي فينس تشابريا محاولة "ميتا" إسقاط القضية بالكامل، مؤكدًا أن ادعاءات انتهاك حقوق النشر تُعدّ أضرارًا ملموسة تمنح المؤلفين الحق في متابعة الدعوى.
يُذكر أن هذه القضية ليست الوحيدة من نوعها، إذ تنظر المحاكم الأميركية حالياً في عدد من الدعاوى المماثلة، أبرزها القضية التي رفعتها صحيفة "نيويورك تايمز" ضد شركة "OpenAI"، في معركة قضائية ترسم ملامح مستقبل الذكاء الاصطناعي وحقوق المؤلفين في العصر الرقمي.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الرجل
١٣-٠٥-٢٠٢٥
- الرجل
سام ألتمان: طريقة استخدامك لـChatGPT قد تكشف عمرك
في تصريح لافت، قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إن الطريقة التي يتفاعل بها المستخدمون مع ChatGPT تكشف الكثير عن أعمارهم، مشيرًا إلى اختلافات واضحة بين الأجيال في كيفية الاستفادة من الأداة. ألتمان: الطلاب لا يتخذون قرارًا دون الرجوع إلى ChatGPT خلال مشاركته في فعالية AI Ascent التي نظمتها شركة Sequoia Capital، أوضح ألتمان أن كبار السن يميلون لاستخدام ChatGPT كبديل لمحرك بحث جوجل، حيث يعتمدون عليه للحصول على معلومات سريعة وإجابات مباشرة. وعلى النقيض من ذلك، فإن الشباب في العشرينيات والثلاثينيات يستخدمونه كمستشار شخصي يساعدهم على اتخاذ قرارات حياتية، بينما طلاب الجامعات يتعاملون معه كـ"نظام تشغيل فعلي" يدير مختلف تفاصيل حياتهم. وأوضح ألتمان أن طلاب الجامعات أصبحوا يربطون الأداة بملفاتهم الشخصية، ويطورون أنظمة استخدام معقّدة تشمل أوامر محفوظة وأدوات إضافية، ما يجعل ChatGPT جزءًا لا يتجزأ من روتينهم الأكاديمي واليومي. وقال: "بعضهم لا يتخذ قرارًا مهمًا دون الرجوع إلى ChatGPT، لأنه يملك المعرفة الكاملة بسياق حياتهم وتاريخ تواصلهم مع الآخرين". أرقام تؤكد الاختلاف بين الأجيال في فبراير الماضي، نشرت OpenAI تقريرًا أظهر أن طلاب الجامعات في الولايات المتحدة هم الأكثر استخدامًا لـ ChatGPT مقارنة بأي فئة أخرى، وأشار إلى أن أكثر من ثلث الأمريكيين بين 18 و24 عامًا يعتمدون على الأداة بشكل منتظم. كما كشفت دراسة لمركز Pew Research نُشرت في يناير أن نسبة المراهقين الأمريكيين (13-17 عامًا) الذين يستخدمون ChatGPT في إنجاز واجباتهم المدرسية تضاعفت خلال عام واحد، من 13% في 2023 إلى 26% في 2024، وتُظهر هذه الأرقام أن ChatGPT لم يعد مجرد أداة تقنية، بل أصبح انعكاسًا لطبيعة الجيل، وعلاقته بالذكاء الاصطناعي.


العربية
١٣-٠٥-٢٠٢٥
- العربية
تقرير: التحسينات في نماذج الذكاء الاصطناعي الاستدلالي تتباطأ قريباً
يشير تحليل أجرته مؤسسة إيبوك، وهي مؤسسة بحثية غير ربحية في مجال الذكاء الاصطناعي، إلى أن قطاع الذكاء الاصطناعي قد لا يتمكن من تحقيق مكاسب هائلة في الأداء من نماذج الذكاء الاصطناعي المنطقية لفترة أطول. ووفقًا لنتائج التقرير، قد يتباطأ التقدم في هذه النماذج خلال عام واحد فقط. أدت نماذج المنطق، مثل o3 من "OpenAI"، إلى مكاسب كبيرة في معايير الذكاء الاصطناعي في الأشهر الأخيرة، وخاصةً تلك التي تقيس مهارات الرياضيات والبرمجة. تستطيع هذه النماذج تطبيق المزيد من الحوسبة على المشكلات، مما يُحسّن أدائها، إلا أن الجانب السلبي يكمن في أنها تستغرق وقتًا أطول من النماذج التقليدية لإكمال المهام، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business". تُطوَّر نماذج الاستدلال بتدريب نموذج تقليدي أولًا على كمية هائلة من البيانات، ثم تطبيق تقنية تُسمى التعلم التعزيزي، والتي تُعطي النموذج "تغذية راجعة" فعّالة حول حلوله للمشكلات الصعبة. حتى الآن، لم تُطبِّق مختبرات الذكاء الاصطناعي الرائدة، مثل "OpenAI"، قدرًا هائلًا من قوة الحوسبة على مرحلة التعلم التعزيزي في تدريب نموذج الاستدلال، وفقًا لشركة إيبوك. قالت شركة OpenAI بأنها استخدمت حوسبة أكثر بحوالي عشرة أضعاف لتدريب o3 مقارنةً بسابقتها o1، وتتوقع "إيبوك" أن معظم هذه الحوسبة خُصصت للتعلم المُعزّز. وكشف الباحث في "OpenAI"، دان روبرتس، مؤخرًا أن الخطط المستقبلية للشركة تدعو إلى إعطاء الأولوية للتعلم المُعزّز لاستخدام قوة حوسبة أكبر بكثير، حتى من تلك المستخدمة في تدريب النموذج الأولي. ولكن لا يزال هناك حد أقصى لمقدار الحوسبة التي يمكن تطبيقها على التعلم المُعزّز، وفقًا لتقرير "إيبوك". يوضح جوش يو، المحلل في شركة إيبوك، أن مكاسب الأداء الناتجة عن تدريب نماذج الذكاء الاصطناعي القياسية تتضاعف أربع مرات سنويًا، بينما تتضاعف مكاسب الأداء الناتجة عن التعلم المعزز عشرة أضعاف كل ثلاثة إلى خمسة أشهر. ويضيف أن تقدم تدريب التفكير المنطقي "سيقترب على الأرجح من المستوى العام بحلول عام 2026". يرتكز تحليل "إيبوك" على عدد من الافتراضات، ويعتمد جزئيًا على التعليقات العامة الصادرة عن مسؤولي شركات الذكاء الاصطناعي. ولكنه يُشير أيضًا إلى أن نماذج الاستدلال المُوسّعة قد تُشكّل تحديًا لأسباب أخرى غير الحوسبة، منها ارتفاع التكاليف العامة للأبحاث. وقال يو: "إذا كانت هناك تكاليف عامة مُستمرة تتطلبها الأبحاث، فقد لا تتوسع نماذج الاستدلال بالقدر المتوقع". وتابع قائلا: "يُعدّ التوسع السريع في الحوسبة عنصرًا بالغ الأهمية في تطور نماذج الاستدلال، لذا من الجدير متابعة هذا الأمر عن كثب". واضاف: "أي مؤشر على أن نماذج الاستدلال قد تصل في المستقبل القريب إلى مستوى قوي، من المرجح أن يُقلق قطاع الذكاء الاصطناعي، الذي استثمر موارد هائلة في تطوير هذه الأنواع من النماذج". وبحسب يو، فقد أظهرت الدراسات بالفعل أن نماذج الاستدلال، التي قد تكون مكلفة للغاية في التشغيل، تعاني من عيوب خطيرة، مثل الميل إلى الهلوسة أكثر من بعض النماذج التقليدية.


الرجل
١١-٠٥-٢٠٢٥
- الرجل
معركة الذكاء الاصطناعي: ألتمان يهزم ماسك في تصويت الروبوتات
في مشهد يعكس التوتر المتصاعد بين اثنين من أبرز الشخصيات في عالم التقنية، طرح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، سؤالاً على روبوت الذكاء الاصطناعي غروك: "من يجب أن يقود تطوير الذكاء الاصطناعي لإنقاذ البشرية، أنا أم إيلون ماسك؟" جاء الرد واضحًا وصادمًا: "أميل إلى إيلون ماسك." غروك اختار ماسك.. لكن البقية قالت ألتمان استجابةً لهذا التحدي، قام موقع Business Insider بطرح السؤال ذاته على ستة روبوتات ذكاء اصطناعي رائدة: ChatGPT، Claude، Copilot، Gemini، Meta AI، وPerplexity. النتيجة؟ ألتمان تفوق 6-1. جميع هذه الأنظمة قدمت إجابات دبلوماسية في البداية، مشيدة بكفاءة كل من ماسك وألتمان، ومؤكدة على أهمية التعاون بينهما. لكن عند إجبارها على الاختيار، مالت الكفة بوضوح لصالح ألتمان. اقرأ أيضاً استطلاع يكشف تراجع شعبية إيلون ماسك بين الأمريكيين ما الذي رجّح كفة ألتمان؟ معركة الذكاء الاصطناعي: ألتمان يهزم ماسك في تصويت الروبوتات ChatGPT: اختار ألتمان نظرًا لنهجه التعاوني والتركيز على السلامة والتنظيم العالمي. Claude: رأى أن ألتمان يوازن بين التطوير والوصول الآمن للمجتمع، مقابل أسلوب ماسك "الابتكاري الجريء". Copilot: فضّل ألتمان بعد التردد، بسبب التزامه بالشفافية وتوجيه الذكاء الاصطناعي لخدمة الإنسانية. Gemini: قال إن سلوك ماسك غير المتوقع وميله للمواجهات العلنية يمثل نقطة ضعف. Meta AI: أشار إلى أن ألتمان يتفوق بفضل تركيزه على رفاهية الإنسان والمشاركة المجتمعية. Perplexity: حلل الفروقات بين الرجلين في مخطط بياني، واعتبر ألتمان "الخيار الأقوى"، بينما وصف ماسك بأنه "مُوازن ضروري لكن أقل أمانًا". غروك: ماسك يقود بخيال بعيد المدى الروبوت "غروك"، المملوك من قبل شركة xAI التابعة لماسك، قال إن ماسك يتميز "بتفكير مبني على المبادئ الأولى" ويركز على "النجاة بعيدة المدى للبشرية"، مثل إنشاء مستعمرات فضائية. بينما اعترف بقوة سجل ألتمان في نشر تقنيات ذكاء اصطناعي واقعية، رأى أن نهجه "تدريجي" وأقل جرأة في التعامل مع المخاطر الوجودية. هل يمكن أن يصبحا صديقين من جديد؟ في سؤال آخر، طُلب من روبوتات الذكاء الاصطناعي تقدير احتمالية عودة الصداقة بين ألتمان وماسك. الإجماع كان سلبيًا: غروك: الاحتمال لا يتعدى 1%، مشيرًا إلى الخلافات القانونية والانتقادات الشخصية. Gemini: توقعت فرصة 20% لصداقة، لكن رجّحت علاقة مهنية دون تقارب شخصي. Meta AI: وضعت الاحتمال بين 5 و10%. Copilot: أجاب ساخرًا بأن الفرصة توازي "كرة ثلج داخل بركان". التكنولوجيا تميل إلى الاستقرار أكثر من الجرأة رغم طموحات ماسك الواسعة وتركيزه على مستقبل البشرية، إلا أن الغالبية الساحقة من روبوتات الذكاء الاصطناعي فضّلت سام ألتمان، مستندة إلى نهجه المنظم، وخبرته الميدانية، والتزامه بالسلامة والتعاون العالمي. قد تستمر المنافسة بين ماسك وألتمان، لكن حتى اللحظة.. الكلمة الأخيرة كانت للروبوتات.