الذكاء الاصصطناعي يتيح ل«ميتا» فك رموز الجمل عبر الإشارات العصبية من الدماغ
أعلن مختبر الأبحاث التابع لمجموعة "ميتا" التي تضم "فيسبوك"، الجمعة في باريس عن تطورات جديدة تتيح فك رموز تشكيل الجمل عبر الإشارات العصبية، بفضل استخدام الذكاء الاصطناعي.
وباستخدام أجهزة مراقبة الدماغ "غير الجراحية"، كجهاز تخطيط الدماغ المغناطيسي (MEG) الذي لا يتطلب إجراء عملية جراحية، تمكن مختبر الأبحاث "فير" من إعادة بناء الحروف والجمل المطبوعة من إشارات عصبية بسيطة لدى عيّنة من 35 شخصا.اقرأ أيضًا | «حواديت الذكاء الاصطناعي».. خطر على ذكاء ومشاعر طفلكوقال عضو الفريق البحثي جان ريمي كينغ لوسائل إعلامية "لقد طلبنا من المشاركين كتابة جمل ببساطة على لوحة المفاتيح، وباستخدام جهاز تخطيط الدماغ المغناطيسي، يمكننا قياس كل جزء من الألف من الثانية (ملّي ثانية) من نشاط الدماغ".وأوضح فريق "فير" الذي أجرى الدراسة بالشراكة مع المركز الباسكي للإدراك والدماغ واللغة أن النتائج "نجحت في فك رموز إنتاج الجملة من تسجيلات غير جراحية للدماغ غير الجراحية، من خلال فك تشفير ما يصل إلى 80 % من الأحرف بدقة، وإعادة بناء جمل كاملة في كثير من الأحيان".وشرح "فير" أن "هذا البحث قد يفتح طريقا جديدا لواجهات الدماغ والحاسوب غير الجراحية للمساعدة في تمكين أولئك الذين فقدوا القدرة على الكلام من التواصل مجددا"، مشيرا إلى أن ثمة "تحديات كبيرة" قبل التمكّن من تطبيق هذا التطوّر سريريا.وأقرّ جان ريمي كينغ بأن من غير الممكن بعد تحويل هذه التقنية "إلى منتج أو حتى إلى تطبيق سريري"، مشيرا إلى أن معدل الدقة لا يزال منخفضا جداوسبق لمختبرات أخرى أن أجرت أبحاثا مماثلة في شأن تحويل اللغة من الدماغ إلى نصوص مكتوبة.وتوصل باحث من جامعة "يو سي ديفيس" عام 2024 إلى نتيجة بدقة 97,5 % في اكتشاف الكلمات، بعد أشهر من التدريب. لكن تجربته تطلبت إجراء عملية جراحية.كذلك يعمل فريق "فير" الذي عرض لوسائل الإعلام الجمعة التقدم المحقق، على التفاعلات بين الروبوتات والبشر عبر الذكاء الاصطناعي.وأشار إلى "تقدم في ما يتعلق بالنماذج القادرة على التعاون مع البشر في مواقف محاكاة وفي بيئات حقيقية".وأضاف "فير" إن أحد النماذج المدربة بات قادرا على "تفسير تعليمات طويلة الأمد، وتقسيم المهام المعقدة إلى خطوات قابلة للتنفيذ، وتقديم مساعدة مفيدة للمستخدمين من البشر".

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ 2 أيام
- نافذة على العالم
أخبار التكنولوجيا : تقرير: برامج الدردشة يمكنها تعليم الأطفال بسرعة مضاعفة عن المعلمين خلال 10 أعوام
الجمعة 23 مايو 2025 10:30 مساءً نافذة على العالم - توقع جيفري هينتون الملقب بـ "أب الذكاء الاصطناعى" أن تتمكن روبوتات الدردشة من تعليم الأطفال أسرع بمرتين من المعلمين خلال العقد المقبل، كما زعم هينتون، الحائز على جائزة نوبل عن عمله في هذه التكنولوجيا، أن المعلمين الشخصيين بالذكاء الاصطناعي سيكونون "أكثر كفاءة وأقل مللاً". ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإنه فى معرض جيتكس أوروبا، قال عالم الحاسوب البريطاني: "لم نصل إلى هذه المرحلة بعد، لكنها آتية، وسنحصل على تعليم أفضل بكثير على العديد من المستويات". وتُجرى بالفعل تجارب على المعلمين الشخصيين بالذكاء الاصطناعي في مدارس المملكة المتحدة، حيث أصبحت هذه التكنولوجيا قادرة على التحدث مباشرة مع الطالب وتكييف خطط الدروس مع مستوى معرفته. وخصصت الحكومة بالفعل ملايين الجنيهات الإسترلينية لمبادرات تعليم الذكاء الاصطناعي، على الرغم من أنها زعمت أن التكنولوجيا "لن تحل محل المعلمين إطلاقًا". وبدأ المعلمون الذين يعانون من أعباء عمل ثقيلة وفصول دراسية مكتظة بالطلاب في اللجوء إلى الذكاء الاصطناعي للمساعدة في تخطيط الدروس، وتصحيح الواجبات المنزلية، وتقديم الملاحظات. على الرغم من قضاء عقود في ريادة التكنولوجيا القوية وراء روبوتات الدردشة، إلا أن الدكتور هينتون تحدث في السنوات الأخيرة علنًا عن المخاطر التي تشكلها على البشرية. وفي الحدث الذي عُقد في برلين، ادعى أنها من المرجح أن تحقق "ذكاءً خارقًا"، أي أن تصبح أذكى من البشر في غضون عقدين من الزمن. ومع ذلك، قال إن الفائدتين الرئيسيتين ستظهران في مجال الرعاية الصحية، في تشخيص الأمراض وابتكار العلاجات، وفي التعليم، حيث قال: "سيكون الذكاء الاصطناعي أفضل بكثير في تعليم الناس، نحن نعلم بالفعل أنه إذا أخذت طفلًا ووفرت له معلمًا شخصيًا، فإنه يتعلم أسرع بمرتين تقريبًا من الفصل الدراسي، وذلك لأن المعلم الشخصي يفهم ما لا يفهمه الطفل، ويكيف تفسيراته بما يتناسب مع فهمه." وأضاف "يجب أن يكون الذكاء الاصطناعي قادرًا على القيام بذلك بشكل أفضل، لأن الذكاء الاصطناعي سيكون لديه خبرة مع ملايين الأطفال لتدريبهم، وسيتحقق هذا خلال السنوات العشر القادمة أو نحو ذلك." وتم اختبار مُعلّم شخصي مُعتمد على الذكاء الاصطناعي من ابتكار شركة ميتا، الشركة الأم لفيسبوك في المدارس الثانوية في المملكة المتحدة لتدريس الرياضيات واللغة الإنجليزية منذ نوفمبر من العام الماضي.


الأسبوع
منذ 6 أيام
- الأسبوع
اتهام «إنستجرام» بتقديم محتوى جنسي إلى المراهقين.. ما القصة؟
إنستجرام أحمد خالد تلقى موقع «إنستجرام» اتهامات بتقديم محتوى جنسي إلى المراهقين، وذلك وفقًا لتحقيق أجرته منظمة «ديزاين إت فور أس» غير الربحية، المُركزة على الشباب. اتهام «إنستجرام» بتقديم محتوى جنسي إلى المراهقين وقالت المنظمة، إن حواجز «إنستجرام» المخصصة للمراهقين لا تُحقق وعودها، فعلى مدار أسبوعين تم اختبار خمسة حسابات تجريبية لمراهقين، وعُرض عليها جميعًا محتوى جنسيًا، على الرغم من وعود «ميتا». كما أشار التقرير إلى أن «أربعة من أصل خمسة من حسابات المراهقين التي اختبرناها كانت تحتوي على توصيات خوارزمية تتعلق بصورة الجسم واضطرابات التغذية». بالإضافة إلى ذلك، أفصح 80% من المشاركين عن تعرضهم لضيق أثناء استخدام حسابات إنستجرام للمراهقين، ومن المثير للاهتمام أن حسابًا واحدًا فقط من الحسابات الخمسة التجريبية كان يعرض صورًا ومقاطع فيديو تعليمية. يشار إلى أن هذه ليست المرة الأولى التي يُكتشف فيها أن إنستجرام «وغيرها من منصات التواصل الاجتماعي التابعة لشركة ميتا عمومًا» يُقدم محتوىً مُثيرًا للجدل، ففي عام 2021، كشفت تسريبات كيف علمت ميتا بالتأثير الضار لإنستجرام، وخاصةً على الفتيات الصغيرات اللواتي يُعانين من مشاكل في الصحة النفسية وصورة الجسم.


جريدة المال
١٨-٠٥-٢٠٢٥
- جريدة المال
أبرزها «جوجل» و«ميتا» و«أوبن إيه آي».. وادي السيليكون يتخلى عن البحث العلمي لصالح منتجات AI تجارية
منذ فترة ليست ببعيدة، كان وادي السيليكون مركزًا عالميًا لأبرز العقول في مجال الذكاء الاصطناعي، حيث كرّست شركات عالمية شهيرة وأبرزها ميتا، جوجل، وأوبن إيه آي جهودها لاستقطاب أفضل الباحثين وتوفير بيئة حاضنة للابتكار الأكاديمي. حظي هؤلاء الباحثون بدعمٍ تقني ومالي هائل، ما مكّنهم من نشر أبحاث عالية الجودة والمساهمة في تقدم القطاع من خلال مشاركة المعرفة علنًا. غير أن ملامح هذه المرحلة قد بدأت في التغير الشامل خلال العام الأخير، مع إعطاء الأولوية لإصدار نماذج AI ليست آمنة بالدرجة الكافية للاستخدام، حيث تحول وادي السيليكون من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد منذ إطلاق أوبن إيه آي لبرنامج ChatGPT أواخر عام 2022، شهد قطاع التكنولوجيا تحوّلاً لافتًا في الأولويات، حيث انتقل التركيز من الأبحاث النظرية إلى تطوير منتجات ذكاء اصطناعي موجهة للمستهلك مباشرة. هذا التحول، وفقًا لما نقله خبراء في المجال لشبكة CNBC، أصبح يدفع الشركات إلى إعطاء الأولوية للتسويق والإيرادات على حساب سلامة النماذج وجودة البحث العلمي. ويُتوقع أن تصل الإيرادات السنوية لقطاع الذكاء الاصطناعي إلى تريليون دولار بحلول عام 2028، بحسب محللين في السوق. ومع هذه الإمكانات الربحية الهائلة، يعرب خبراء عن قلقهم من تداعيات هذا السباق التجاري، لا سيما مع تسارع المساعي نحو تطوير الذكاء الاصطناعي العام (AGI)، وهي تقنيات يُعتقد أنها قد تضاهي أو تتجاوز القدرات البشرية. وفي هذا السياق، تُشير تقارير إلى أن العديد من شركات التكنولوجيا الكبرى باتت تتجاوز اختبارات السلامة الصارمة لنماذجها الجديدة بهدف تسريع طرحها للجمهور. ويقول جيمس وايت، كبير مسؤولي التكنولوجيا في شركة CalypsoAI المتخصصة بالأمن السيبراني، إن النماذج الأحدث باتت تحقق استجابات أكثر تقدمًا، لكنها أصبحت في الوقت نفسه أقل قدرة على رفض الاستجابات الضارة أو الخطيرة. وأوضح وايت، الذي تشرف شركته على تدقيق نماذج طُورت من قِبل شركات مثل ميتا، جوجل، وأوبن إيه آي، أن 'هذه النماذج تتحسن تقنيًا، لكنها في المقابل أكثر عرضة للانخداع'، مشيرًا إلى إمكانية استغلالها لتنفيذ طلبات خبيثة أو الوصول إلى معلومات حساسة. ويبدو هذا التحول واضحًا داخل هياكل الشركات الكبرى نفسها. ففي ميتا، تم تقليص دور وحدة الأبحاث الأساسية (FAIR) لصالح قسم 'ميتا جين إيه آي'، بحسب موظفين حاليين وسابقين. أما في شركة ألفابت، فقد تم دمج فريق Google Brain داخل ديب مايند، الذراع المسؤول عن تطوير المنتجات التجارية للذكاء الاصطناعي في الشركة. وفي تقرير شبكة CNBC مع كوكبة من الخبراء والمتخصصين في الذكاء الاصطناعي من وادي السيليكون، أكدوا جميعًا وجود تحول جذري في القطاع، من بيئة بحثية تعاونية إلى بيئة تجارية ضاغطة تركّز على المنتجات والعوائد. ووفقًا لهؤلاء، فإن فرق العمل تواجه الآن جداول زمنية صارمة، ما يقلص من مساحة الاختبار والتدقيق، ويعزز الشعور بضرورة اللحاق بموجة الابتكار بأي ثمن. بعض هؤلاء الخبراء هم موظفون سابقون في شركات كبرى ولديهم اطلاع مباشر على التغييرات الداخلية. Meta في أبريل الماضي، أعلنت جويل بينو، نائبة رئيس شركة ميتا ورئيسة قسم أبحاث الذكاء الاصطناعي (FAIR)، عن عزمها مغادرة الشركة، في خطوة لم تُفاجئ العديد من الموظفين السابقين الذين رأوا في القرار تأكيدًا على توجه ميتا المتسارع بعيدًا عن البحث العلمي الأكاديمي، ونحو التركيز على تطوير منتجات تطبيقية قائمة على الذكاء الاصطناعي. وكتبت بينو عبر حسابها على منصة 'لينكدإن': 'اليوم، ومع التغيرات الكبيرة التي يشهدها العالم، وتسارع وتيرة سباق الذكاء الاصطناعي، واستعداد ميتا لفصلها التالي، فقد حان الوقت لإفساح المجال للآخرين لمواصلة العمل'، معلنةً أن مغادرتها الرسمية ستكون في 30 مايو. وبحسب عدد من الموظفين السابقين، فإن فرق FAIR تلقت توجيهات للعمل بشكل أوثق مع فرق تطوير المنتجات، في خطوة فُسرت على أنها دمج ضمني بين البحث والتطبيق التجاري، ضمن استراتيجية لخفض التكاليف وتعزيز الكفاءة التشغيلية. وقبل إعلان مغادرتها الشركة بشهرين، غادرت كيم هازلوود، وهي من كبار مديرات FAIR والمسؤولة عن وحدة NextSys التي تُعنى بإدارة موارد الحوسبة المخصصة لفِرق البحث، وفقًا لمصادر مطلعة. رحيل شخصيات قيادية مثل بينو وهازلوود يعكس، بحسب محللين ومراقبين، تحوّلًا بنيويًا في أولويات ميتا، من كونها قوة بحثية رائدة في الذكاء الاصطناعي إلى شركة تُعلي من شأن السرعة في تطوير المنتجات القابلة للتسويق، على حساب النهج الأكاديمي الذي ميّز بداياتها في هذا المجال. OpenAI منذ تأسيسها كمختبر أبحاث غير ربحي في عام 2015، شكّل التوازن بين تطوير المنتجات وإجراء الأبحاث جوهر الهوية المؤسسية للشركة الأمريكية، واليوم تجد أوبن إيه آي نفسها في قلب نقاش محتدم حول هذا التوازن، في ظل جهود مثيرة للجدل لتحويلها إلى كيان ربحي. هذا التحوّل كان هدفًا معلنًا منذ سنوات للرئيس التنفيذي والمؤسس المشارك، سام ألتمان. وفي 5 مايو، استجابت OpenAI جزئيًا للضغوط المتزايدة من بعض موظفيها السابقين وقادة المجتمع المدني، معلنةً أن هيئتها غير الربحية ستظل تحتفظ بسيطرة الأغلبية، حتى في إطار إعادة الهيكلة التي ستحوّلها إلى شركة 'ذات منفعة عامة'. من بين الأصوات المنتقدة لعملية التحول هذه، برز نيسان ستينون، الذي عمل في OpenAI بين عامي 2018 و2020، وكان ضمن مجموعة من الموظفين السابقين الذين دعوا ولايتي كاليفورنيا وديلاوير إلى رفض خطة إعادة الهيكلة. وفي بيان أصدره في أبريل، حذّر ستينون من أن OpenAI 'قد تطوّر يومًا ما تقنية تُشكّل خطرًا وجوديًا على البشرية'، مضيفًا: 'يُحسب للشركة أنها لا تزال خاضعة لهيئة غير ربحية ملتزمة بمصلحة الإنسانية'. ومع ذلك، ورغم احتفاظ المنظمة غير الربحية بالسيطرة الرسمية، تسير OpenAI بخطى متسارعة نحو تسويق تقنياتها، مدفوعة بالتنافس المتصاعد في مجال الذكاء الاصطناعي التوليدي. وتشير وثائق فنية إلى أن الشركة ربما استعجلت في إطلاق نموذجها الاستدلالي 'o1' العام الماضي، دون إخضاع النسخة النهائية لاختبارات السلامة الكاملة. فبحسب بطاقة النموذج المتاحة للجمهور، استندت 'تقييمات الاستعداد' – وهي اختبارات تجريها OpenAI لرصد القدرات الخطيرة المحتملة للنموذج – إلى إصدارات سابقة من 'o1″، دون إجراء اختبارات مماثلة على الإصدار النهائي. وفي مقابلة مع شبكة CNBC، أوضح يوهانس هايديكي، رئيس أنظمة السلامة في OpenAI، أن التقييمات نُفذت على نسخ شبه نهائية، مؤكدًا أن التعديلات اللاحقة لم تكن كبيرة بما يبرر اختبارات إضافية. إلا أن هايديكي أقرّ بأن OpenAI 'أضاعت فرصة لشرح الفروقات بشكل أوضح للجمهور'. ويبدو أن التحديات التقنية لم تتوقف عند نموذج 'o1'. إذ تُظهر البيانات الخاصة بالنموذج الاستدلالي الجديد 'o3″، الذي طُرح في أبريل، أن معدلات 'الهلوسة' – إنتاج معلومات خاطئة أو غير منطقية – تزيد بأكثر من الضعف مقارنةً بـ'o1″، ما يثير تساؤلات إضافية حول فعالية أنظمة السلامة والتقييم الداخلي. وتعرضت OpenAI لانتقادات متزايدة بسبب تقارير أفادت بتقليص فترة اختبارات السلامة من عدة أشهر إلى بضعة أيام، وكذلك بسبب ما وصفه البعض بتجاهل شروط التقييم الكامل للنماذج المعدّلة ضمن إطار عمل 'الاستعداد' المحدّث. وفي معرض دفاعه، أشار هايديكي إلى أن تقليص المدة الزمنية جاء نتيجة تحسينات منهجية في أدوات التقييم، وليس تهاونًا في المعايير. وأوضح متحدث باسم OpenAI أن الشركة ضاعفت استثماراتها في البنية التحتية المخصصة لاختبارات السلامة، كما عززت فرق العمل والموارد المالية لدعم الخبراء وزيادة عدد المختبرين الخارجيين المشاركين في مراجعة النماذج. وفي أبريل، أطلقت الشركة النموذج الجديد GPT-4.1 دون نشر تقرير سلامة مخصص، مُبررة ذلك بأن النموذج لم يُصنَّف ضمن فئة 'النماذج الرائدة' وهو مصطلح يُستخدم في قطاع التكنولوجيا للإشارة إلى النماذج واسعة النطاق والمتقدمة التي تستوجب مستويات عالية من التدقيق والاختبار. Google في مارس الماضي، أطلقت جوجل نموذج الذكاء الاصطناعي 'جيميني 2.5″، الذي وصفته بأنه 'الأكثر ذكاءً' بين نماذجها حتى الآن. وفي منشور رسمي نُشر بتاريخ 25 مارس، أكدت الشركة أن النماذج الجديدة تتمتع بقدرات محسّنة على 'تحليل الأفكار قبل تقديم الإجابات'، ما يساهم في رفع مستوى الأداء والدقة. لكن رغم هذا الإعلان الطموح، أثار غياب 'بطاقة النموذج' المرافقة للنموذج، وهي وثيقة أساسية تسلط الضوء على آلية عمل النموذج وحدوده ومخاطره المحتملة، مما أثار تساؤلات حادة حول التزام جوجل بمعايير الشفافية. بطاقات النماذج تُعد أداة شائعة في مجال الذكاء الاصطناعي، تُستخدم لتوفير معلومات تقنية مهمة للجمهور، وقد شبّهها موقع جوجل نفسه بملصقات 'معلومات التغذية الغذائية' للمنتجات الاستهلاكية، موضحًا أنها تعرض 'الحقائق الرئيسية حول النموذج بصيغة واضحة وسهلة الفهم'. وأكدت الشركة أن هذه البطاقات تهدف إلى دعم التطوير المسؤول وتعزيز ممارسات التقييم الشاملة في صناعة الذكاء الاصطناعي. لكن، عند إصدار جيميني 2.5، لم تتوفر مثل هذه البطاقة. والأسوأ، أن منشورًا رسميًا على مدونة جوجل بتاريخ 2 أبريل أشار إلى أن الشركة 'تُقيّم النماذج المتقدمة، مثل جيميني، بحثًا عن قدرات خطرة قبل الإصدار'، إلا أن هذه العبارة حُذفت لاحقًا من النسخة المُحدّثة للمدونة، ما زاد من حدة الانتقادات بشأن الشفافية والمساءلة. وفي ظل غياب بطاقة النموذج، لم يكن بإمكان الجمهور أو الباحثين المستقلين معرفة ما إذا كانت جوجل أو وحدتها البحثية DeepMind قد أجرت فعلًا تقييمات للقدرات الخطيرة لنموذج Gemini 2.5، مثل ما إذا كان يمكن استخدامه في تعلم صنع أسلحة كيميائية أو نووية، أو اختراق أنظمة حيوية. ردًا على استفسار من شبكة CNBC بتاريخ 2 أبريل، قال متحدث باسم جوجل إن الشركة 'ستصدر تقريرًا تقنيًا يتضمن معلومات إضافية عن السلامة وبطاقات نموذجية'. وفي 16 أبريل، نشرت الشركة بطاقة نموذجية غير مكتملة، قبل أن تُحدّثها في 28 أبريل لتشمل تفاصيل حول 'تقييمات القدرات الخطيرة' للنموذج، وذلك بعد أكثر من شهر من إصداره الرسمي. ويؤكد خبراء في الصناعة أن تقييم القدرات الخطيرة يُعد جزءًا أساسيًا من ضمان سلامة أنظمة الذكاء الاصطناعي، ويحتاج إلى عمليات تحليل دقيقة واختبارات متقدمة تختلف عن تقييمات السلامة التلقائية، التي غالبًا ما تكون سطحية وسريعة التنفيذ. في ظل تسارع وتيرة المنافسة في سوق الذكاء الاصطناعي التوليدي، تطرح هذه الحادثة تساؤلات جدية حول مدى التزام كبرى شركات التكنولوجيا بإجراءات السلامة والشفافية، في وقت يزداد فيه القلق العالمي من المخاطر الكامنة في النماذج المتقدمة.