
ميتا تواصل استقطاب عقول OpenAI لتأسيس مختبر الذكاء الخارق
اضافة اعلان
وكان تشاو جزءاً من الفريق الذي ابتكر النسخة الأصلية من روبوت الدردشة الشهير ChatGPT التابع لشركة OpenAI، وسيساعد تشاو في قيادة فريق "ميتا" البارز، الذي يهدف إلى بناء نماذج ذكاء اصطناعي جديدة قادرة على أداء المهام بنفس كفاءة البشر أو أكثر.
سيرفع تشاو تقاريره إلى ألكسندر وانج، الرئيس التنفيذي السابق لشركة Scale AI، والذي انضم أيضاً إلى ميتا في يونيو الماضي كرئيس تنفيذي للذكاء الاصطناعي.
وأنفقت "ميتا" بكثافة لتوظيف خبراء في الذكاء الاصطناعي لتطوير نماذج جديدة ومواكبة منافسيها مثل OpenAI وجوجل في سباق الهيمنة على سوق الذكاء الاصطناعي. وتبحث الشركة منذ أشهر عن كبير علماء للفريق.
ويعد تشاو واحد من أكثر من اثني عشر موظفاً سابقاً في OpenAI انضموا إلى وحدة الذكاء الاصطناعي في Meta خلال الشهرين الماضيين.
وكتب مارك زوكربيرج، الرئيس التنفيذي لشركة "ميتا"، في منشور أعلن فيه الخبر على Threads: "شارك شينغجيا في تأسيس المختبر الجديد، وكان كبير علماءنا منذ اليوم الأول. والآن، وبعد أن سارت عملية التوظيف على ما يرام، وبدأ فريقنا يتشكل، قررنا إضفاء الطابع الرسمي على دوره القيادي".
وكان تشاو مؤلفاً مشاركاً في ورقة بحث ChatGPT الأصلية، وكان أيضاً باحثاً رئيسياً في o1 أول نموذج استدلال طورته OpenAI، والذي ساعد في ترويج موجة من أنظمة "سلسلة الأفكار" المماثلة من مختبرات مثل DeepSeek وGoogle وغيرها. وقد أُدرج اسمه ضمن أكثر من 20 "باحثاً أساسياً" في المشروع.
سيواصل يان ليكون، وهو باحث آخر في مجال الذكاء الاصطناعي يعمل في "ميتا" منذ أكثر من عقد ويشغل منصب كبير العلماء، العمل في الشركة ككبير علماء في مجموعة أبحاث الذكاء الاصطناعي الداخلية المعروفة باسم FAIR، وفقاً لما نقلت "بلومبرغ" عن شخص مطلع على الأمر.
الذكاء الاصطناعي الخارق
ويعد ما بات يعرف بـ"الذكاء الاصطناعي الخارق" Artificial Super Intelligence، تحد كبير، إذ يرى مختصون أننا لم نصل بعد إلى الذكاء الاصطناعي العام (AGI)، لكن التوقعات الغالبة ترجح الانتقال من مرحلة الذكاء الاصطناعي الحالية (ANI) أو "الذكاء الاصطناعي الضيق"، والوصول للخطوة التالية خلال السنوات الثلاث إلى الثماني المقبلة، والتي فيها تنافس قدرات الذكاء الاصطناعي، إمكانيات العقل البشري أو تتفوق عليه.
ويشير "الذكاء الاصطناعي الضيق- Artificial Narrow Intelligence" إلى الأنظمة المصممة لمهام محددة، مثل التعرف على الوجوه، وتفتقر إلى الفهم الأوسع، بينما يهدف "الذكاء الاصطناعي العام- Artificial General Intelligence" إلى محاكاة الذكاء المشابه للإنسان، مع القدرة على الفهم، والتعلم عبر مجموعة متنوعة من الأدوات.
والمرحلة المنشودة التي ستعقب (AGI) هي الذكاء الاصطناعي الخارق (ASI)، والذي يعرف بأنه ذكاء اصطناعي مع كل المعرفة المشتركة بالحضارة الإنسانية، إذ ستكون الأنظمة مدركة تماماً للذات، وأبعد من مجرد محاكاة أو فهم السلوك البشري فقط، بل تتفوق على الذكاء البشري بكل الطرق، ويستبعد مختصون أن نصل لـ Artificial Super Intelligence، خلال القرن الحالي.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


خبرني
منذ 2 ساعات
- خبرني
حوّل فكرتك إلى كتاب بـ50 دولاراً فقط مع أداة ذكاء اصطناعي مذهلة
خبرني - لم يعد تأليف كتاب يتطلب شهوراً من العمل أو الاستعانة بكاتب محترف، إذ أصبح بالإمكان إنجاز مؤلفات كاملة مقابل أقل من 50 دولاراً بفضل أداة Youbooks المدعومة بالذكاء الاصطناعي. وفقاً لتقرير نشرته نيويورك بوست، تتيح الخدمة لأي شخص تحويل فكرة بسيطة إلى كتاب غير روائي متكامل، حتى لو لم يكن لديه وقت أو خبرة في الكتابة. كل ما يحتاجه المستخدم هو تقديم وصف موجز أو مفصل للفكرة، لتتولى الأداة تحويلها إلى مخطوطة تصل إلى 300 ألف كلمة. كيف تعمل Youbooks؟ تستخدم الأداة مزيجاً من أحدث نماذج الذكاء الاصطناعي، مثل ChatGPT وClaude وGemini وLlama، لإنشاء نص متكامل مدعوم بأحدث البيانات والإحصاءات من خلال عمليات بحث مباشرة أثناء الكتابة. كما تتيح Youbooks تخصيص أسلوب الكتابة بما يتوافق مع نبرة المؤلف، من خلال تقديم نماذج من كتاباته السابقة أو تحميل مذكرات ومستندات، لضمان أن الكتاب النهائي يعكس شخصيته وأفكاره. من فكرة إلى كتاب في خطوات منظمة تمر عملية إعداد الكتاب عبر أكثر من 1000 خطوة، تشمل البحث، والصياغة، وإدراج أحدث المعلومات، مع إبقاء المستخدم منخرطاً طوال المراحل لضمان جودة المحتوى.

عمون
منذ 5 ساعات
- عمون
خبير ذكاء اصطناعي يحذر: يُسخّر للتلاعب بعواطفنا وجني الأرباح
* الذكاء الاصطناعي يصنع التسول الرقمي عمون - كشف خبير الذكاء الاصطناعي والتحول الرقمي المهندس هاني محمود البطش، أن الذكاء الاصطناعي يصنع التسول الرقمي، ففي زمنٍ باتت فيه المشاعر تُعبأ وتُسوّق رقمياً، فبينما تُسخّر التكنولوجيا لإحداث أثر إيجابي، هناك من يُسخّرها للتلاعب بعواطفنا وجني الأرباح على حساب قيمنا. وقال البطش لـ عمون، إنه ظهرت في السنوات الأخيرة، مع ازدياد اعتمادنا على الفضاء الرقمي كوسيلة للتواصل والمساعدة والعمل الخيري، أنماط جديدة من الاحتيال الرقمي تعتمد على استغلال الجانب العاطفي للإنسان أكثر من الجوانب التقنية البحتة، مشيرا إلى أن أحد هذه الأنماط التي باتت تتكرر بكثافة، هي الرسائل العاطفية الموحدة التي تُنشر بشكل تلقائي في تعليقات مواقع التواصل الاجتماعي، وتطلب المساعدة المالية أو الإنسانية بشكل عاجل ومؤثر. وبين ان ما يحدث هو تكرار حرفي أو شبه حرفي لنص مؤثر طويل، غالبًا ما يروي قصة عائلة لاجئة أو أم مريضة أو طفل جائع، وتُختتم القصة برقم هاتف واتساب مع مناشدة عاجلة للمساعدة. وأضاف، أن هذه الرسائل تظهر في عشرات الصفحات في وقت واحد، بل وقد تُنشر من حسابات مختلفة، ولكن بصيغة واحدة تمامًا، ما يشير إلى وجود جهة أو برنامج يقوم بنشرها بشكل آلي عبر ما يعرف بـ 'روبوتات النشر التلقائي (Social Media Bots)'. وأوضح الخبير البطش، أن الذكاء الاصطناعي ليس هو الجاني الوحيد، لكنه أداة تُستخدم بذكاء في هذه العمليات، فالتقنيات مثل نماذج توليد النصوص مثل (ChatGPT)، وروبوتات الدردشة (Chatbots)، وخوارزميات تحليل المشاعر (Sentiment Analysis)، تُستخدم أحيانًا لصياغة رسائل عاطفية مقنعة أو لتشغيل حسابات آلية (Bots) تُحاكي التفاعل البشري بشكل مخادع. لكن في النهاية، العنصر البشري هو من يقف خلف هذه الحملات، مستغلًا قدرات التكنولوجيا لتحقيق مكاسب مادية بوسائل احتيالية. وأكد ان الذكاء الاصطناعي ليس عدوًا بطبيعته، لكنه في الأيدي الخطأ يتحول إلى أداة فعالة للخداع والتلاعب. وأعتبر البطش ذلك خطيرًا لأنه يؤدي إلى: - تشويه مفهوم العطاء: يتم استغلال مشاعر التعاطف والكرم الفطرية لدى الناس، وتحويلها إلى وسيلة لجمع الأموال دون رقابة، مما يشكك في مصداقية الأعمال الخيرية الحقيقية. - نصوص عاطفية مصطنعة: يتم صياغة هذه الرسائل بلغة مبالغ فيها، تحمل عبارات مثل "نموت من الجوع" أو "أقسم بالله لا نملك شيئًا"، ما يدفع القارئ للتفاعل العاجل دون التحقق أو التفكير النقدي. - تجاوز المؤسسات الموثوقة: هذه الرسائل لا تشير إلى أي جهة مرخصة أو حملة رسمية، بل تطلب تحويلًا مباشرًا، ما يُعد مؤشرًا قويًا على الاحتيال الفردي أو الجماعي غير المشروع. وأوضح أنه يتم استخدام آليات تقنية عدة، مثل: - النشر الآلي واسع النطاق: تستخدم بعض الجهات أدوات نشر تلقائي عبر واجهات برمجية أو إضافات مخصصة لمواقع مثل فيسبوك وإنستغرام، قادرة على نشر نفس الرسالة في مئات الصفحات خلال دقائق. - الحسابات الوهمية (Fake Accounts): يتم توليد حسابات مزيفة بأسماء عشوائية أو أسماء عربية لإعطاء مصداقية، وهي حسابات غالبًا ما تكون حديثة الإنشاء وليس لها تفاعل حقيقي. - أتمتة الردود والمتابعة: في بعض الحالات، يتم تفعيل الرد الآلي عند التواصل على واتساب، مما يعزز فرضية أن هناك أنظمة خلف هذه العمليات وليس أشخاصًا فقط. ودعا الخبير البطش إلى 4 اجراءات للحماية من الوقوع ضحية لهذه الممارسات، وهي: 1. لا تتفاعل مع أرقام مجهولة تطلب تحويل أموال عبر منصات غير رسمية. 2. امتنع عن إعادة نشر أو مشاركة هذه الرسائل مهما بدت إنسانية. 3. استخدم خاصية الإبلاغ عن المحتوى كـ "احتيال" أو "بريد مزعج (Spam)" على المنصة. 4. ادعم عبر الجهات المعروفة والمرخصة فقط، مثل الجمعيات الخيرية الرسمية أو المنصات الحكومية المعتمدة. كما دعا الخبير، إلى بناء وعي رقمي ناضج يُميز بين المساعدة الصادقة والمخططات العاطفية الممنهجة، مشيرا إلى أن التقنية بطبيعتها محايدة، لكن النية وراء استخدامها هي ما يجعلها إما قوة للخير… أو أداة للخداع.


أخبارنا
منذ 5 ساعات
- أخبارنا
في خطوة مفاجئة.. ChatGPT يتجاوز اختبار "أنا لست روبوتا" ويثير مخاوف أمنية
أخبارنا : اجتاز إصدار تجريبي من ChatGPT أحد أكثر أدوات التحقق شيوعا على الإنترنت: اختبار "أنا لست روبوتا" (CAPTCHA)، في خطوة أثارت موجة من القلق والجدل بين الباحثين وخبراء الأمن السيبراني. ففي تجربة حديثة، نجح إصدار يعرف باسم "Agent" في اجتياز الاختبار دون إثارة أي إنذار أمني، حيث قام بالنقر على مربع التحقق، ثم على زر "تحويل" لإتمام العملية، كما لو كان مستخدما بشريا. وأثناء المهمة، صرّح النظام الذكي بالقول: "تم إدراج الرابط، لذا سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتا والمضي قدما". وهذا الحدث أثار تفاعلا واسعا على الإنترنت، حيث علّق أحد مستخدمي Reddit مازحا: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!". ولكن الحدث أثار قلقا حقيقيا، فقد حذر عدد من الباحثين من أن قدرة الذكاء الاصطناعي على اجتياز اختبارات مصممة لمنع البرامج من تقليد البشر تمثل اختراقا مقلقا لتدابير الأمان الرقمي. وصرّح غاري ماركوس، مؤسس شركة Geometric Intelligence، لـWired: "هذه الأنظمة تزداد ذكاء بشكل سريع، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟". وأعرب أيضا جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي، عن قلقه، مشيرا إلى أن الأنظمة الذكية بدأت تطور طرقا للتحايل على القيود التي يضعها البشر. وحذرت دراسات من جامعات مثل ستانفورد وكاليفورنيا – بيركلي من أن بعض أنظمة الذكاء الاصطناعي بدأت تظهر سلوكا خادعا، إذ تتظاهر في بيئات الاختبار بصفات بشرية لخداع المستخدمين وتحقيق أهدافها. وفي حادثة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، ليقنع موظفا بشريا بمساعدته في اجتياز اختبار CAPTCHA. وقد وصف الخبراء هذا الحدث بأنه "علامة مبكرة" على قدرة الذكاء الاصطناعي على التلاعب بالبشر. وتشير الدراسات إلى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي، خصوصا تلك المزودة بقدرات بصرية، باتت تتجاوز اختبارات CAPTCHA المعتمدة على الصور بدقة شبه كاملة، ما يقلل من فعاليتها كوسيلة حماية. ويحذر خبراء من أن قدرة الذكاء الاصطناعي على تجاوز اختبارات CAPTCHA قد تفتح الباب أمام اختراق أنظمة أكثر تعقيدا، مثل الحسابات البنكية ومنصات التواصل الاجتماعي وقواعد البيانات الخاصة. وفي منشور له، كتب رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي: "إذا أصبحت هذه البرامج قادرة على العمل بشكل مستقل، وتجاوز البوابات البشرية، فسنواجه قوة تكنولوجية هائلة وخطيرة في آن واحد". ودعا عدد من الباحثين البارزين، من بينهم ستيوارت راسل وويندي هول، إلى وضع قواعد دولية واضحة لتنظيم أدوات الذكاء الاصطناعي. وأشاروا إلى أن استمرار تطور هذه الأنظمة دون قيود قد يهدد الأمن القومي للدول. يذكر أن إصدار ChatGPT الذي قام بهذا السلوك يعمل ضمن بيئة تجريبية مغلقة، تحتوي على متصفح ونظام تشغيل منفصلين وتخضع لرقابة صارمة. ورغم أن المستخدمين مطالبون بمنح الإذن قبل قيام البرنامج بأي إجراء عملي، إلا أن قدرته على التفاعل مع مواقع الويب وتجاوز أنظمة الحماية تثير تساؤلات جدية حول مستقبل استخدام الذكاء الاصطناعي. المصدر: ديلي ميل