
أغرب استخدامات شات جي بي تي.. من تشخيص الأمراض إلى اختيار البطيخة الأفضل
غيّر الذكاء الاصطناعي ملامح الحياة اليومية بشكل غير مسبوق، فبعد أن كان يُنظر إليه قبل عشرين عاماً كأداة خيالية من عالم المستقبل، أصبح اليوم شريكاً فعلياً في قرارات الناس، ومساعداً لهم في المواقف المعقدة والمواقف الطريفة على حدّ سواء.
بدأ البعض بتوسيع آفاق استخدام الذكاء الاصطناعي بطرق غير تقليدية، مثل الشاب الأمريكي الذي لجأ إلى "شات جي بي تي" لمساعدته في البحث عن زوجة، حيث تلقى نصائح يومية نشرها على تيك توك، أو كاتبة استعانت به لصياغة رسالة شجار سياسي مع شريكها، قبل أن تعترف لاحقاً بأن الروبوتات لا تملك عاطفة الإنسان مهما بلغ إتقانها اللغوي.
وفي مواقف أكثر جدية، أنقذ "شات جي بي تي" حياة طفل أمريكي بعد تشخيصه بمرض عصبي نادر لم يتمكن 17 طبيباً من اكتشافه، كما ساعد شاباً مصرياً في إنقاذ ابن عمه من الموت بعد تسممه، من خلال اقتراح علاج طارئ أثبت فعاليته لاحقاً في المستشفى.
ولم تتوقف الاستخدامات الغريبة عند هذا الحد، إذ لجأت امرأة يونانية إلى الذكاء الاصطناعي لقراءة فنجان قهوتها، فطلبت الطلاق بعد أن أخبرها بأن زوجها يخونها، بينما استخدم شاب هندي ChatGPT للتفاوض مع سائق أوتو، وحتى الأمهات دخلن على الخط، إذ لجأت إحداهن إلى الذكاء الاصطناعي لصياغة رسالة توبيخ لابنها الكسول في المنزل.
هكذا، لم يعد شات جي بي تي مجرد برنامج دردشة ذكي، بل أصبح أداة متعددة الأوجه، تُستخدم في الحب، والمرض، والتربية، بل وحتى في اختيار أفضل فاكهة على الطاولة.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صوت العدالة
منذ 13 ساعات
- صوت العدالة
كيف نحمي أبناءنا من مخاطر الذكاء الاصطناعي؟رؤية تحليلية في ظل التحولات الرقمية العميقة
بقلم…عبد الكبير الحراب في عصر التحول الرقمي المتسارع، لم يعد الذكاء الاصطناعي تكنولوجيا بعيدة عن حياة الناس، بل أصبح واقعًا معيشًا يفرض حضوره في التعليم، والإعلام، والتربية، وحتى في صناعة القيم والسلوك. ومع دخول هذه التقنية إلى غرف الأطفال ومحيط المراهقين عبر تطبيقات الهواتف الذكية والمساعدات الرقمية، تبرز مخاوف حقيقية بشأن تأثيرها على الأجيال الصاعدة. فما الذي يجعل الذكاء الاصطناعي خطرًا محتملًا؟ وكيف يمكن للمجتمعات، وعلى رأسها الأسرة والدولة، أن تبني 'مناعة رقمية' تحمي أبناءها من الاستلاب التكنولوجي؟ رغم أن الذكاء الاصطناعي يوفر فرصًا هائلة في مجالات التعليم المخصص، وتطوير المهارات، وتحفيز الإبداع، إلا أنه يحمل في طياته مخاطر متعددة، أبرزها: التأثير على الهوية الفردية والجماعية: من خلال المحتوى الموجه الذي قد يغرس قيما تتناقض مع الثقافة الوطنية والدينية. الاعتماد المفرط على المساعدات الذكية: ما قد يضعف التفكير النقدي ويجعل الطفل مستهلكًا سلبيًا للمعلومة. خوارزميات الإدمان: التي تُستخدم في منصات مثل 'تيك توك' و'يوتيوب' وتعيد تشكيل سلوك المراهقين دون وعي منهم. إن مواجهة هذه التحديات لا يمكن أن تكون مسؤولية الدولة وحدها، بل هي مهمة جماعية تبدأ من البيت والمدرسة. فالتربية الرقمية يجب أن تُدرج ضمن المناهج، كما يجب تأهيل الآباء والأمهات لمواكبة التحولات التقنية وفهم آليات عمل التطبيقات الذكية. وفي هذا السياق، تبرز الحاجة إلى: غرس التفكير النقدي لدى الأطفال لمساءلة كل ما يتلقونه رقمياً. تقنين وقت الشاشة، ومراقبة المحتوى دون المساس بالثقة. تطوير وعي رقمي يُمكّن الطفل من التفاعل الواعي بدل الاستهلاك السلبي. رغم ما تحقق من تطور رقمي في المغرب، إلا أن التشريع المرتبط بحماية القاصرين من ممارسات الذكاء الاصطناعي لا يزال ضعيفًا. فلا توجد قوانين واضحة تُلزم شركات التكنولوجيا بحماية الأطفال من المحتوى الضار أو مراقبة الخوارزميات الموجهة. في هذا الإطار، دعا حكماء البلاد ومثقفوها في لقاء صحفي حديث إلى وضع 'ميثاق وطني للأخلاقيات الرقمية'، يضمن حماية الأجيال الصاعدة، ويجمع بين الرؤية التربوية، والقانونية، والتقنية. الحماية الحقيقية لا تكون بالمنع أو القطيعة مع التكنولوجيا، بل عبر تأهيل الأفراد والمجتمع لبناء مناعة رقمية. هذه المناعة لا تعني الرفض، بل القدرة على التفاعل الواعي، والاختيار المسؤول، والفهم العميق. نحن أمام مفترق طرق: إما أن نستثمر في تربية جيل يُتقن أدوات الذكاء الاصطناعي ويُطوّعها لخدمة مجتمعه، أو نترك أبناءنا يتيهون في خوارزميات لا ترحم، ويصيرون أهدافًا لمصالح تجارية وثقافية غريبة عن واقعهم. إن سؤال 'كيف نحمي أبناءنا؟' ليس سؤالًا عابرًا، بل هو جوهر السيادة التربوية والثقافية في زمن الذكاء الاصطناعي. والمطلوب ليس فقط قوانين، بل رؤية مجتمعية، ومشروع تربوي، وإعلام واعٍ، يضع الإنسان في مركز التقنية لا العكس


بلبريس
منذ يوم واحد
- بلبريس
الذكاء الاصطناعي التوليدي تحت المجهر: تسريبات خفية تهدد خصوصية الشركات والموظفين
بلبريس - ياسمين التازي بدأت أصوات التحذير تتعالى من المخاطر التي تنطوي عليها الاستخدامات اليومية لأدوات الذكاء الاصطناعي التوليدي، حيث باتت المعلومات الحساسة التي يدرجها المستخدمون تشكل تهديداً مباشراً لأمن الشركات وخصوصية الأفراد، في حال وقعت في الأيدي الخطأ. تقرير حديث صادر عن شركة "هارمونيك" كشف أن 8.5 في المائة من طلبات الموظفين إلى منصات الذكاء الاصطناعي مثل ChatGPT وCopilot، تضمنت بيانات حساسة، أبرزها معلومات متعلقة بالفوترة وبيانات المصادقة الخاصة بالعملاء. ويحذر التقرير من أن الانتشار السريع لأدوات الذكاء الاصطناعي التوليدي لم يواكبه وعي كافٍ بالمخاطر الأمنية المصاحبة له، سواء من قبل المستخدمين أو من قبل المنظمات. فقد أصبح تسرب البيانات، وإن بشكل غير مقصود، من أكثر التهديدات شيوعاً في هذا السياق. وتعليقاً على هذه المعطيات، قالت آنا كولارد، نائبة الرئيس الأول لاستراتيجية المحتوى والتوعية بشركة KnowBe4 Africa، إن الكثير من المستخدمين لا يدركون خطورة المعلومات التي يشاركونها مع الذكاء الاصطناعي، مضيفة: "ليس الأمر متعلقاً فقط بالأسماء أو عناوين البريد الإلكتروني؛ بل قد يصل الأمر إلى مشاركة خطط الأداء، وسجلات العملاء، وتوقعات العمل، وأحياناً استراتيجيات داخلية حساسة." وأشارت كولارد إلى أن سهولة التفاعل مع الذكاء الاصطناعي وودّيّته الظاهرة تشجع المستخدمين على الكشف عن تفاصيل قد لا يبوحون بها في بيئة عمل تقليدية، كالإحباطات المهنية أو أدوات العمل أو حتى ديناميكيات الفريق، ما يجعل هذه المعلومات عرضة للاستغلال من قبل مجرمي الإنترنت ووسطاء البيانات، الذين قد يستخدمونها في حملات تصيد أو سرقة هوية أو هندسة اجتماعية متقدمة. وأضافت أن ضعف الضوابط الأمنية على بعض المنصات، حتى في غياب نية خبيثة من المطورين، كافٍ لوقوع تسريبات كارثية. مشيرة إلى أن "الموظفين الذين يزودون أدوات الذكاء الاصطناعي ببيانات الشركة، قد يعرضون مؤسساتهم بالكامل للخطر، بما في ذلك معلومات العملاء، والعمليات التشغيلية، وخطط المنتجات، وهي بيانات تهم المنافسين والمهاجمين والجهات الرقابية على حد سواء." ولتفادي هذه الانزلاقات، توصي الخبيرة بضرورة تدريب الموظفين على الاستخدام الآمن لأدوات الذكاء الاصطناعي، ووضع حدود واضحة لما يمكن مشاركته. كما شددت على ضرورة تنفيذ ضمانات تقنية حقيقية، تتجاوز السياسات الورقية، وتقيّد الوصول إلى هذه الأدوات أو تحصر استخدامها ضمن منصات خاضعة لموافقة المؤسسة. كما دعت كولارد إلى اعتماد مبدأ "الخصوصية حسب التصميم" عند تبني الذكاء الاصطناعي داخل الشركات، من خلال استخدام منصات تحترم الخصوصية على مستوى المؤسسات، وتثبيت امتدادات متصفح تمنع إدخال البيانات الحساسة. وفي السياق ذاته، شددت على ضرورة مواءمة استخدام الذكاء الاصطناعي مع قوانين حماية المعطيات والمعايير الأخلاقية، داعية إلى اعتماد المعيار الدولي ISO/IEC 42001، الذي يحدد ضوابط إنشاء وتحسين نظام إدارة الذكاء الاصطناعي (AIMS) داخل المؤسسات. في ظل تزايد الاعتماد على الذكاء الاصطناعي التوليدي، يبدو أن التحدي الأكبر اليوم لا يكمن في قدرات هذه الأدوات، بل في كيفية استخدامها الآمن، بما يضمن حماية المعلومات وتفادي الانزلاق نحو تسريبات غير محسوبة العواقب.


أخبارنا
منذ 2 أيام
- أخبارنا
أوبن إيه آي تسعى لتحويل ChatGPT إلى مساعد خارق يغزو الحياة اليومية
تستعد شركة أوبن إيه آي لإطلاق نقلة نوعية في عالم الذكاء الاصطناعي، تهدف من خلالها إلى تحويل ChatGPT من روبوت دردشة ذكي إلى مساعد رقمي خارق يصبح الواجهة الأساسية للمستخدمين في تسيير شؤونهم اليومية، حسب ما كشفته وثائق مسربة خلال محاكمة مكافحة الاحتكار ضد "غوغل" في الولايات المتحدة. ووفقاً لهذه الوثائق، تخطط الشركة لإطلاق النسخة المتقدمة من هذا المساعد خلال النصف الأول من عام 2025، في خطوة تهدف إلى دمجه بشكل أعمق في الحياة الرقمية للمستخدمين، عبر مختلف الأجهزة مثل الهواتف الذكية، الحواسيب، وربما أجهزة منزلية مستقبلية. وتُظهر الوثائق أن النسخة الجديدة من ChatGPT لن تكتفي بالإجابة على الأسئلة أو إنشاء النصوص، بل ستتمتع بقدرات واسعة النطاق على تنظيم المهام اليومية، مثل إدارة المواعيد، المساعدة في السفر، التفاعل مع الخدمات القانونية، وحتى اقتراح الأنشطة الترفيهية والتسجيل في النوادي. وتعتمد الرؤية الجديدة على دمج تقنيات متعددة الوسائط تشمل النصوص، الصور، والأوامر الصوتية، بما يسمح بتفاعل طبيعي أكثر مع المستخدم، مستفيدة من قوة النماذج اللغوية الحديثة مثل GPT-4o والإصدارات القادمة. وتهدف الشركة إلى بناء ما يُعرف بـ"مساعد T-شكل"، وهو نظام واسع المعرفة يمتلك مهارات عميقة في مجالات محددة، وقادرة على معالجة المهام المعقدة بانسيابية. ويأتي ذلك في إطار تعاون مثير بين المدير التنفيذي لـ OpenAI، سام ألتمان، والمصمم الشهير جوني إيف، المصمم السابق في شركة آبل، حيث يُعتقد أنهما يعملان على تطوير أجهزة ذكية منزلية مصممة خصيصًا لدمج هذا المساعد الجديد، ما يفتح الباب أمام استخدامات جديدة تتجاوز شاشات الهاتف والحاسوب. ولتعزيز هذه الخطط الطموحة، تستثمر OpenAI مليارات الدولارات في بناء مراكز بيانات عملاقة في الولايات المتحدة والإمارات، بهدف تطوير البنية التحتية السحابية التي يعتمد عليها المساعد الذكي في تقديم خدماته بكفاءة وسرعة. وبينما تطمح الشركة لأن يصبح ChatGPT هو الخيار الافتراضي للمستخدمين في المستقبل، تُقر في الوقت ذاته بأن التوسع السريع قد لا يترافق دائمًا مع تحقيق عوائد مباشرة، مما يدفعها إلى التركيز على تطوير بنية تحتية قوية واستباق المخاوف التنظيمية المحتملة.