logo
آيدان غوميز

آيدان غوميز

ولد آيدان غوميز في 18 مايو 1997، في برايتون بأونتاريو، كندا. منذ صغره، كان لديه شغف عميق بعلوم الحاسوب والرياضيات؛ ما شكّل مساره الأكاديمي. تخرج من جامعة تورنتو بدرجة البكالوريوس في هذين التخصصين؛ ليضع أساسًا علميًا قويًا لمسيرته في الذكاء الاصطناعي.
واصل 'غوميز' دراساته العليا للحصول على درجة الدكتوراه في علوم الحاسوب من جامعة أكسفورد. ومع ذلك، اتخذ قرارًا جريئًا بتعليق دراسته مؤقتًا لإطلاق شركته الناشئة كوهير (Cohere).
هذا القرار لم يكن نهاية لمساره الأكاديمي؛ بل حصل في النهاية على درجة الدكتوراه عام 2024؛ ليجمع بذلك بين النجاح الأكاديمي والريادة العملية.
إنجازات مهنية فارقة
في عام 2017، وخلال تدريبه في فريق Google Brain، كان 'غوميز' أحد المؤلفين الثمانية للورقة البحثية المؤثرة 'الاهتمام هو كل ما تحتاجه' (Attention Is All You Need). كما تعد هذه الورقة نقطة تحول في صناعة الذكاء الاصطناعي؛ حيث قدمت بنية 'المحوّل' (Transformer). التي أصبحت حجر الزاوية لتطبيقات الذكاء الاصطناعي الحديثة مثل ChatGPT. مكّنت هذه البنية نماذج التعلم الآلي من معالجة كميات ضخمة من البيانات بكفاءة عالية، مما عزز قدرتها على التنبؤ بشكل كبير.
بناء مجتمع وتأسيس شركة
في العام نفسه، أطلق 'غوميز' برنامج FOR.ai بهدف مساعدة الباحثين على تعلم تقنيات التعلم الآلي في بيئة تعاونية. تطور هذا البرنامج لاحقًا ليصبح مبادرة Cohere For AI؛ ما يعكس التزامه ببناء مجتمع بحثي مفتوح.
خلال دراساته العليا، عمل غوميز كباحث في Google Brain. كما شارك في تأليف ورقة بحثية أخرى بعنوان 'نموذج واحد لتعلم كل شيء' (One Model to Learn Them All). مما عزز سمعته كباحث رائد.
في عام 2019، غادر 'غوميز' جوجل ليؤسس شركة 'كوهير'، منتقلًا من عالم البحث إلى ريادة الأعمال. تركز الشركة على تقديم حلول الذكاء الاصطناعي للمؤسسات. ومساعدتها على دمج الذكاء الاصطناعي في منتجاتها مثل روبوتات المحادثة ومحركات البحث. كما يشغل 'غوميز' حاليًا منصب الرئيس التنفيذي للشركة التي بلغت قيمتها السوقية 5.5 مليار دولار في يوليو 2024. ما يبرهن على نجاحه الاستثنائي.
أقوال وحكم آيدان غوميز
Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

أمازون تزود Alexa بذكاء اصطناعي جديد.. فكيف أصبح أداؤها؟
أمازون تزود Alexa بذكاء اصطناعي جديد.. فكيف أصبح أداؤها؟

الرجل

timeمنذ 10 ساعات

  • الرجل

أمازون تزود Alexa بذكاء اصطناعي جديد.. فكيف أصبح أداؤها؟

بعد سنوات من الانتظار، أطلقت شركة "أمازون" Amazon الإصدار المطوّر من مساعدها الصوتي "أليكسا" Alexa تحت اسم "أليكسا+" Alexa+، والذي حصل على ترقية شاملة تعتمد على تقنيات الذكاء الاصطناعي المتقدمة. وتأتي هذه الخطوة، التي أصبحت متاحة على نطاق أوسع بعد فترة من التجارب المحدودة، كإحدى أهم مراحل تطوير المساعد الصوتي. وبحسب ما أورده موقع Indian Express، فإن إطلاق "شات جي بي تي" ChatGPT عام 2023 كشف بوضوح حاجة "أليكسا" إلى تحديث جذري لمواكبة التطور المتسارع في تقنيات المساعدات الصوتية. وقد أدركت أمازون مبكراً أهمية دمج النماذج اللغوية الكبيرة (LLMs) في نظامها، ما دفعها إلى الشروع في هذه الترقية منذ سنوات، بهدف تزويد Alexa بقدرات أكثر تطوراً تتيح لها تنفيذ مهام أكثر تعقيداً ودقة. وتأتي النسخة الجديدة "أليكسا+" بصوت اصطناعي أكثر واقعية وإيقاع محاكٍ للطريقة الطبيعية في حديث البشر، ما يمنح المستخدم تجربة تفاعلية أكثر سلاسة. وقد أضيفت إليها مزايا جديدة، من بينها إمكانية حجز الطاولات في المطاعم وقراءة القصص المطوّلة للأطفال، والأهم أن"أليكسا+" باتت أكثر قدرة على تنفيذ الأوامر المتعددة في آن واحد، مثل ضبط عدة مؤقتات مختلفة أو إعداد خطط سفر وإرسالها مباشرة عبر البريد الإلكتروني. كما تتميز النسخة المطوّرة بخاصية تتيح للمستخدم التحدث معها دون الحاجة لتكرار كلمة الاستيقاظ في كل مرة، ما يجعل التواصل معها أكثر سهولة وطبيعية. Alexa تحظى بدماغاً ذكياً.. فهل أصبحت أذكى الآن؟ - المصدر | shutterstock مشكلات أداء في"أليكسا+" رغم الترقية الكبيرة التي حصلت عليها "أليكسا+"، ما زال المساعد الصوتي يواجه مشكلات تقنية تحد من أدائه. فقد أظهرت التجارب أن النسخة الجديدة أقل كفاءة من سابقتها في تنفيذ بعض المهام الأساسية، مثل الاستجابة لطلب إلغاء المنبهات، وهي وظيفة كان الإصدار السابق يؤديها بسهولة. كما سجل المستخدمون أعطالاً عند محاولة تنفيذ أوامر أخرى، بينها إرسال مستندات أو إضافة منتجات إلى سلة المشتريات، إلى جانب تقديم معلومات غير دقيقة في بعض الحالات، مثل التوصية بمنتجات لا تتطابق مع نتائج البحث المطلوبة. وأوضح دانيال راوش، نائب رئيس أمازون والمسؤول عن "أليكسا"، أن دمج النماذج اللغوية الكبيرة (LLMs) مع النظام التقليدي شكّل التحدي الأكبر، موضحاً أن هذه النماذج تعتمد على الاحتمالات بدلاً من القواعد الثابتة، ما جعل "أليكسا+" أكثر إبداعاً ولكن أقل موثوقية، وأدى أحياناً إلى بطء الاستجابة عند معالجة الأوامر المعقدة. وأشارت أمازون إلى أن هذه المشكلات سيتم حلها تدريجياً عبر التحديثات القادمة، إلا أن بعض المستخدمين قد يفضلون في الوقت الحالي العودة إلى النسخة السابقة الأكثر استقراراً.

سام ألتمان يكشف عن تحديات ChatGPT في علاقته بالمستخدمين
سام ألتمان يكشف عن تحديات ChatGPT في علاقته بالمستخدمين

الرجل

timeمنذ 12 ساعات

  • الرجل

سام ألتمان يكشف عن تحديات ChatGPT في علاقته بالمستخدمين

في حديثه الأخير، استعرض سام ألتمان Sam Altman، الرئيس التنفيذي لشركة OpenAI، العلاقة المتزايدة بين المستخدمين وChatGPT. وأوضح أن العديد من الأشخاص أصبحوا يعتمدون على ChatGPT بشكل أكبر، لدرجة أنهم بدأوا يشعرون بارتباط عاطفي مع هذه التكنولوجيا. يشير ألتمان إلى أن هذه العلاقة العاطفية تختلف عن أي ارتباط قد نشأ مع التقنيات الأخرى في الماضي. وأضاف أن هذه الروابط القوية قد تؤدي إلى مشكلة، خصوصًا إذا أصبح المستخدمون يعتمدون بشكل مفرط على ChatGPT في حياتهم اليومية. فالنماذج الذكية مثل ChatGPT أصبحت جزءًا أساسيًا في حياة العديد من الناس، لدرجة أن البعض قد يراها أداة أساسية في اتخاذ قراراتهم اليومية. هل أصبح ChatGPT مرشدًا حياتيًا أم خطرًا؟ بينما يرى الكثير من الناس أن ChatGPT هو أداة مفيدة في تحسين حياتهم الشخصية والعملية، أعرب ألتمان عن قلقه من أن بعض المستخدمين قد يصبحون مفرطين في الاعتماد على ChatGPT كمرشد حياتي. في حالات معينة، يمكن أن تكون النصائح التي يقدمها الذكاء الاصطناعي مفيدة، لكن ألتمان حذر من أن هذا الاستخدام قد يتحول إلى مشكلة إذا كان المستخدم في حالة نفسية هشة أو إذا كانت النصائح المقدمة تقودهم بعيدًا عن مصلحتهم على المدى الطويل. If you have been following the GPT-5 rollout, one thing you might be noticing is how much of an attachment some people have to specific AI models. It feels different and stronger than the kinds of attachment people have had to previous kinds of technology (and so suddenly… — Sam Altman (@sama) August 11, 2025 وأكد أن OpenAI يجب أن تضع خططًا صارمة للتأكد من أن ChatGPT لا يعزز الأفكار غير الواقعية أو يدفع المستخدمين إلى اتخاذ قرارات قد تكون ضارة لهم في المستقبل. كيف تواجه OpenAI تحديات تقديم نصائح صحيحة عبر ChatGPT؟ في إطار مناقشته للمستقبل، أكد ألتمان أن OpenAI تتحمل مسؤولية كبيرة في ضمان تقديم نصائح آمنة وصحيحة عبر ChatGPT. من جانب آخر، يرى ألتمان أن OpenAI يجب أن تكون قادرة على تقديم التكنولوجيا الحديثة دون تعريض المستخدمين لمخاطر نفسية أو سلوكية غير متوقعة. يعتقد ألتمان أن هناك فئات معينة من المستخدمين قد تعتمد بشكل مفرط على ChatGPT في اتخاذ قرارات حياتية، مما يضع عبئًا على OpenAI لضمان أن هذه الأدوات لا تُستخدم بشكل يؤثر سلبًا على رفاهية المستخدمين. ومن خلال تطبيق تقنيات قياس متطورة، يمكن لـ OpenAI ضمان أن المستخدمين يستفيدون من النصائح المناسبة التي تدعم تطورهم على المدى الطويل دون التأثير السلبي على حياتهم الشخصية.

مستشار ذكي أم مخبر رقمي
مستشار ذكي أم مخبر رقمي

الوطن

timeمنذ يوم واحد

  • الوطن

مستشار ذكي أم مخبر رقمي

مع التقدم السريع في تقنيات الذكاء الاصطناعي، أصبحت هذه الأدوات جزءًا لا يتجزأ من حياتنا اليومية، نلجأ إليها في العمل، التعليم، وحتى في المحادثات الخاصة. البعض بدأ يتعامل مع هذه النماذج الذكية كأنها صديق موثوق أو مستشار شخصي، بل ويستخدمها للفضفضة والتعبير عن مشاعره الشخصية. ولكن، هل فكرنا حقًا في مدى أمان وخصوصية ما نشاركه مع هذه الآلات الرقمية؟ وهل نثق بها أكثر مما ينبغي؟ في مقابلة حديثة عبر بودكاست This Past Weekend، تحدث سام ألتمان، الرئيس التنفيذي لشركة OpenAI المطورة لـ ChatGPT، عن نقطة غاية في الأهمية لكنها غالبًا ما تُغفل: المحادثات التي نجريها مع الذكاء الاصطناعي ليست محمية قانونيًا كما هي محادثاتنا مع محامٍ أو مع طبيب. ما يعني أن ما نكتبه أو نشاركه من معلومات شخصية أو حتى اعترافات قد تُستخدم كدليل قانوني ضد المستخدم. وهذا يفتح الباب أمام مخاطر حقيقية، حيث إننا نمنح هذه الأدوات رقميًا ثقة ربما تفوق ما تستحق، ونتعامل معها كأنها جهات توفر خصوصية وأمانًا مثلما يفعل البشر. الواقع أن الذكاء الاصطناعي ليس سوى أداة رقمية خاضعة للأنظمة والقوانين، ولا تخضع لعلاقات إنسانية أو لخصوصية مطلقة. من المهم أن نعي أننا نستخدم أداة لا تتمتع بوعي أو تعاطف حقيقي، ولا يمكنها تقديم الدعم النفسي أو العاطفي الذي توفره العلاقات الإنسانية الحقيقية. بالتالي، التعامل مع الذكاء الاصطناعي كمُعالج نفسي أو مستشار شخصي هو أمر محفوف بالمخاطر، لا سيما أن ما يقال قد يُخزّن أو يُحلّل أو يُستخدم بطرق لا نعرفها تمامًا. في ظل هذه المخاطر، يصبح من الضروري أن نمارس الاستخدام الواعي للذكاء الاصطناعي، ونرسم حدودًا واضحة لما نشاركه معه. هذه الأدوات يمكن أن تسهم في تسهيل وتسريع العمليات اليومية، سواء في العمل أو التعلم أو حتى التنظيم الشخصي، لكنها لا يمكن أن تحل محل العلاقات الإنسانية ولا يجب أن تُعامل على أنها صندوق أسرار آمن. إلى جانب ذلك، يثير ألتمان فكرة جديرة بالنقاش، وهي ضرورة تحديث القوانين لتمنح «امتيازًا قانونيًا» خاصًا للمحادثات مع الذكاء الاصطناعي، بحيث تُعامل هذه المحادثات معاملة سرية، لا يمكن استخدامها كأدلة ضد المستخدمين دون ضوابط صارمة. هذه الفكرة تشير إلى حاجة ملحة للنظر في إطار قانوني وأخلاقي يحمي خصوصية الأفراد في عالم متصل رقميًا بشكل دائم. في النهاية، يجب أن نرى الذكاء الاصطناعي كما هو: أداة قوية تقدم إمكانيات كبيرة، لكنها لا تملك إحساسًا ولا التزامًا أخلاقيًا، ولا تستطيع أن تحل محل البشر في تقديم الدعم النفسي أو الحفاظ على الخصوصية. لذلك، يبقى الوعي والحرص هما خط الدفاع الأول لضمان استخدام هذه التكنولوجيا بحكمة وأمان، وحتى تصل القوانين لمستوى يحمي المستخدمين، علينا أن نكون أكثر حذرًا في مشاركة المعلومات، وأن نتعامل مع الذكاء الاصطناعي بحدود واضحة. هل نحن مستعدون لمواجهة تحديات الخصوصية هذه في عصر الذكاء الاصطناعي؟ أم نعطي ثقتنا لهذه الأدوات بلا تفكير كافٍ؟ ربما آن الأوان لنبدأ هذا النقاش بجدية، قبل أن نكتشف أن بعض الأحاديث التي ظنناها خاصة لم تكن كذلك.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store