logo
شركة فرنسية تطلق نموذج ذكاء اصطناعي صوتي مفتوح المصدر

شركة فرنسية تطلق نموذج ذكاء اصطناعي صوتي مفتوح المصدر

برلمان١٧-٠٧-٢٠٢٥
الخط : A- A+
إستمع للمقال
أعلنت شركة «ميسترال» الفرنسية الناشئة عن إطلاق Voxtral، الذي يعد أول نموذج صوتي مفتوح المصدر مخصص لتقديم «ذكاء كلامي عملي» يخدم الاستخدامات التجارية.
وبحسب تقرير نشره موقع «تك كرانش» واطلعت عليه «العربية بيزنس»، فإن Voxtral يتيح للمطورين خيارًا يجمع بين كفاءة النماذج المغلقة المصدر وتكلفة النماذج المفتوحة، دون المساس بمستوى الجودة.
وأوضحت الشركة، أن النموذج الجديد قادر على نسخ وفهم الصوت بدقة وبكلفة تقل عن نصف تكلفة نماذج منافسة مثل «Whisper» التابع لـ«OpenAI».
ويستطيع Voxtral معالجة ما يصل إلى 30 دقيقة من المحتوى الصوتي، فيما يتيح هيكله القائم على نموذج «ميسترال سمول 3.1» التعامل مع 40 دقيقة، ما يمكّنه من تحليل المحتوى وتلخيصه، وتحويل الأوامر الصوتية إلى مهام مباشرة مثل تشغيل واجهات برمجة التطبيقات.
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

استخدام 'تشات جي بي تي' في المحاكم
استخدام 'تشات جي بي تي' في المحاكم

بلبريس

timeمنذ 20 ساعات

  • بلبريس

استخدام 'تشات جي بي تي' في المحاكم

وجه سام ألتمان، الرئيس التنفيذي لشركة OpenAI، تحذيراً مباشراً لمستخدمي 'تشات جي بي تي'، يوضح فيه أن المحادثات قد تُستخدم كأدلة قانونية، وليست محمية باعتبارها حديث خاص أو سري. كما أكد ألتمان أن 'تشات جي بي تي' لا يخضع لقوانين السرية المهنية التي تنظم العلاقة بين المستخدم وطبيبه أو محاميه، أي أن المعلومات الحساسة قد تعرض للإستدعاء القضائي بموجب أمر قانوني. و أوضح أيضا أن الشركة تعمل جاهدة لحماية خصوصية المستخدمين، لكن هذا لا يعني أنها ليست ملزمة قانونياً بالكشف عن المعلومات عند الطلب. و أشار إلى أن خاصية حفظ المحادثات مفعلة تلقائياً، وتُستخدم لتحسين أداء النموذج، وقد تخضع للمراجعة البشرية بعد إزالة الهوية، إلا إذا تم إيقافها يدوياً. وفي السياق ذاته ، حذرت تقارير قانونية وتقنية من أن 'تشات جي بي تي' ليس مكاناً آمناً لمشاركة معلومات قانونية أو شخصية، مثل مشاكل الطلاق أو الاعترافات القانونية، لغياب الحماية القانونية والتشفير الكامل.

المعلومات الحساسة التي تكشفونها لـ CHATGPT قد تستخدم ضدكم عند الشرطة والقضاء!
المعلومات الحساسة التي تكشفونها لـ CHATGPT قد تستخدم ضدكم عند الشرطة والقضاء!

طنجة 7

timeمنذ 2 أيام

  • طنجة 7

المعلومات الحساسة التي تكشفونها لـ CHATGPT قد تستخدم ضدكم عند الشرطة والقضاء!

كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI التي أطلقت CHATGPT، عن تحديات قانونية كبيرة قد تواجه مستخدمي تطبيق الذكاء الاصطناعي بسبب المعلومات الحساسة التي يشاركونها مع الخدمة. أوضح ألتمان أن غياب إطار قانوني يحمي سرية المحادثات مع الذكاء الاصطناعي يشكل عائقًا كبيرًا. هذا الأمر يعرض خصوصية المستخدمين للخطر في سياق الدعاوى القضائية أو طلبات تطبيق القانون. غياب السرية القانونية أشار ألتمان إلى أن المستخدمين، وخاصة الشباب، يشاركون تفاصيل شخصية وحساسة مع ChatGPT، مثل مشاكل العلاقات أو استفسارات حول الحياة. يتم هذا الأمر على غرار ما يناقشونه مع معالج نفسي أو مستشار. ومع ذلك، لا تتمتع المحادثات مع ChatGPT بنفس الحماية مثل تلك المحادثات مع الأطباء أو المحامين التي تحميها السرية القانونية. وقال: 'في الوقت الحالي، إذا تحدثت إلى معالج أو محامٍ أو طبيب، هناك سرية قانونية. لكننا لم نحل هذه المشكلة بعد مع ChatGPT'. هذا النقص قد يعني أن OpenAI ملزمة قانونيًا بتقديم سجلات المحادثات في حالة صدور أمر قضائي. التحديات القانونية الحالية تواجه OpenAI بالفعل نزاعًا قانونيًا يبرز هذه المشكلة. في دعوى قضائية مع صحيفة 'نيويورك تايمز'، طُلب من الشركة الاحتفاظ بسجلات محادثات مئات الملايين من مستخدمي ChatGPT عالميًا. تم استثناء عملاء ChatGPT Enterprise من هذا الطلب. وصفت OpenAI هذا الطلب بأنه 'تجاوز'. أعلنت عزمها استئنافه، محذرة من أن السماح للمحاكم بالتدخل في سياساتها المتعلقة بالبيانات قد يفتح الباب أمام المزيد من طلبات الكشف عن المعلومات سواء لأغراض قانونية أو لتطبيق القانون. تأثير التغييرات القانونية على الخصوصية تزايدت المخاوف بشأن خصوصية البيانات الرقمية في السنوات الأخيرة، خاصة مع التغييرات القانونية الكبرى. على سبيل المثال، بعد قرار المحكمة العليا الأمريكية بإلغاء حكم 'رو ضد ويد'، لجأ العديد إلى تطبيقات أكثر أمانًا. استخدموا تطبيقات تتبع الدورة الشهرية المشفرة أو Apple Health لتجنب الكشف عن بياناتهم الشخصية. هذه التطورات تؤكد الحاجة إلى حماية أقوى لبيانات المستخدمين، خاصة عند استخدام أدوات الذكاء الاصطناعي مثل ChatGPT لمناقشة مواضيع حساسة. الحاجة إلى إطار قانوني جديد أكد ألتمان أن غياب الوضوح القانوني بشأن خصوصية المحادثات مع الذكاء الاصطناعي قد يعيق تبني هذه التقنيات على نطاق أوسع. وقال: 'يجب أن تكون هناك نفس الخصوصية لمحادثاتك مع الذكاء الاصطناعي كما هو الحال مع معالجك'. هذه المشكلة لم تكن مطروحة قبل عام واحد فقط. أصبحت الآن قضية ملحة مع تزايد استخدام ChatGPT كأداة للدعم العاطفي. تابعوا طنجة7 على صفحتنا بموقع فيسبوك. وعلى منصة إنستغرام. إضافة لمنصة X وتطبيق نبض

ألتمان: "تشات جي بي تي" يتفوّق على معظم الأطباء في التشخيص... لكن لا غنى عن العنصر البشري
ألتمان: "تشات جي بي تي" يتفوّق على معظم الأطباء في التشخيص... لكن لا غنى عن العنصر البشري

أخبارنا

timeمنذ 3 أيام

  • أخبارنا

ألتمان: "تشات جي بي تي" يتفوّق على معظم الأطباء في التشخيص... لكن لا غنى عن العنصر البشري

أثار الرئيس التنفيذي لشركة OpenAI، سام ألتمان، جدلاً واسعًا بتصريحات جريئة أكد فيها أن أدوات الذكاء الاصطناعي، وتحديدًا "تشات جي بي تي"، أصبحت قادرة على تقديم تشخيصات طبية تتفوّق على تلك التي يقدّمها معظم الأطباء حول العالم، وذلك خلال كلمته في مؤتمر "الإطار الرأسمالي للبنوك الكبرى" الذي ناقش تحديات الذكاء الاصطناعي في الرعاية الصحية. وقال ألتمان إن الذكاء الاصطناعي بات اليوم أداة دقيقة وسريعة في تشخيص الحالات الطبية، مضيفًا: "في كثير من الأحيان، يُعد تشات جي بي تي أفضل من غالبية الأطباء في تقديم التشخيص الطبي". لكنه في الوقت ذاته شدد على أن الاعتماد الكامل على الذكاء الاصطناعي دون إشراف بشري لا يزال خيارًا غير مقبول، وأضاف: "ما زال الناس يذهبون إلى الأطباء، ولا أرغب في أن أضع مصيري الطبي في يد خوارزمية دون وجود طبيب حقيقي في الصورة." تصريحات ألتمان جاءت في ظل ازدياد استخدام الذكاء الاصطناعي في مجالات متعددة داخل قطاع الصحة، من بينها تحليل الصور الطبية، ووضع خطط العلاج، وحتى إدارة المستشفيات. ويبدو أن رؤيته تسعى إلى ترسيخ الذكاء الاصطناعي كشريك داعم للطبيب وليس بديلاً عنه. لكن هذه الرؤية المتوازنة اصطدمت بواقع مثير للقلق في إحدى العيادات الأسترالية، حيث كشفت مريضة على منصة Reddit أن طبيبها اعتمد على "تشات جي بي تي" لتحليل نتائج فحوصاتها، ما دفعها لتقديم شكوى إلى هيئة تنظيم المهن الصحية الأسترالية (AHPRA)، ووصفت التجربة بأنها "غير مهنية وتفتقر إلى الحس الإنساني". وفي سياق موازٍ، حذر ألتمان من مخاطر إساءة استخدام الذكاء الاصطناعي، خاصة في مجالات مثل الأمن السيبراني والاحتيال الصوتي، مشيرًا إلى أن الاعتماد على بصمة الصوت للتحقق من الهوية في بعض المؤسسات المالية بات معرضًا للتلاعب عبر أصوات مزيفة يتم توليدها رقمياً.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store