
د. ابراهيم بني حمدان : التكنولوجيا الملموسة في خدمة تعليم ذوي الإعاقة TangibleK نموذجًا
إن تعليم ورعاية الأطفال ذوي الإعاقة هي من أكثر الاهتمامات والاهداف الاساسية التي تسعى التربية الخاصة إلى تقديمها بأعلى درجات الدقة والإتقان والكفاءة والجودة المناسبة للمعاقين وأسرهم فلكل فئة من هذه الفئات هنالك مجموعة متنوعة من البرامج التربوية والتعليمية التي تقدّم لهم مع الدعم المعنوي والنفسي لأسرهم وتطوير مهارات وقدرات الأخصائيين والمعلمين في هذا المجال ومع تقدم الذكاء الاصطناعي AI الذي يعتبر امتداداً للتكنولوجيا الحديثة وبتقنياته المتعددة في مختلف المجالات وتطبيقاته فقد ساهم في ذلك عن طريق احد التطبيقات الحديثة المعروف ب روبوت Tangiblek حيث يعد انموذجا ًيستخدم في تعليم ذوي الإعاقة في المراحل المبكرة من أعمارهم وذلك كونه يجمع بين البرمجة الملموسة وأساليب التعليم التفاعلي فهو برنامج تعليمي يستخدم روبوتات ملموسة وادوات برمج مادية فقد يقوم على التعلم الحسي التفاعلي لأطفال ذوي الإعاقة الذهنية واضطراب التعلم المحدد المعروف بصعوبات التعلم حيث يستفيد الاطفال عبر اللمس والحركة مع تقديم المفاهيم المجردة كالتسلسل والتكرار بطرق ملموسة يسهل استيعابها مع خلال لمس القطع وتركيبها مع تسليط الضوء على تحفيز العمليات العقلية كالادراك والقدرة على التركيز والتفكير والانتباه وقد يصلح استخدامه ضمن الجلسات العلاجية كالعلاج الوظيفي والطبيعي لتعزيز الجوانب المعرفية والاجتماعية لذوي الإعاقة وهذا ما يسعى إليه علم التربية الخاصة.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


الوكيل
منذ 7 ساعات
- الوكيل
تهديدات الرئيس التنفيذي لشركة OpenAI من ChatGPT.. فما...
الوكيل الإخباري- في مقابلة حديثة على بودكاست This Past Weekend، حذّر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أن المستخدمين لا يجب أن يتوقعوا سرية قانونية لمحادثاتهم مع روبوت الدردشة الذكي ChatGPT، خاصة عندما تتعلق المحادثات بمواضيع شخصية وحساسة. اضافة اعلان النقاط الرئيسية: يستخدم ملايين الأشخاص، بمن فيهم الأطفال، ChatGPT كأداة للدعم النفسي أو العلاج، ويشاركونه أموراً شخصية وعاطفية عميقة. في المقابل، لا يوجد إطار قانوني أو حماية خاصة لهذه المحادثات كما هو الحال مع المحادثات بين الطبيب والمريض أو المحامي وموكله. ألتمان أكد أنه في حال رفع دعاوى قضائية، قد تُطلب محادثات المستخدمين كأدلة، مما يشكل تهديداً لخصوصية المستخدمين. خلافاً لتطبيقات التراسل المشفرة مثل WhatsApp أو Signal، تحتفظ OpenAI بنسخ من المحادثات، ويجوز لموظفيها الاطلاع عليها لتحسين النموذج أو مراقبة الاستخدام. OpenAI تحذف عادة المحادثات من النسخة المجانية بعد 30 يومًا، لكنها قد تحتفظ بها لأسباب قانونية وأمنية. الشركة تخضع حالياً لدعوى قضائية تلزمها بحفظ محادثات ملايين المستخدمين، باستثناء عملاء المؤسسات. خلاصة: رغم أن ChatGPT أضحى أداة شائعة للتواصل والدعم النفسي، إلا أن المستخدمين بحاجة لفهم أن خصوصيتهم ليست مضمونة قانونياً، ويجب توخي الحذر عند مشاركة معلومات حساسة على هذه المنصة.


الوكيل
منذ 9 ساعات
- الوكيل
تهديدات الرئيس التنفيذي لشركة OpenAI من ChatGPT.. فما...
الوكيل الإخباري- في مقابلة حديثة على بودكاست This Past Weekend، حذّر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أن المستخدمين لا يجب أن يتوقعوا سرية قانونية لمحادثاتهم مع روبوت الدردشة الذكي ChatGPT، خاصة عندما تتعلق المحادثات بمواضيع شخصية وحساسة. اضافة اعلان النقاط الرئيسية: يستخدم ملايين الأشخاص، بمن فيهم الأطفال، ChatGPT كأداة للدعم النفسي أو العلاج، ويشاركونه أموراً شخصية وعاطفية عميقة. في المقابل، لا يوجد إطار قانوني أو حماية خاصة لهذه المحادثات كما هو الحال مع المحادثات بين الطبيب والمريض أو المحامي وموكله. ألتمان أكد أنه في حال رفع دعاوى قضائية، قد تُطلب محادثات المستخدمين كأدلة، مما يشكل تهديداً لخصوصية المستخدمين. خلافاً لتطبيقات التراسل المشفرة مثل WhatsApp أو Signal، تحتفظ OpenAI بنسخ من المحادثات، ويجوز لموظفيها الاطلاع عليها لتحسين النموذج أو مراقبة الاستخدام. OpenAI تحذف عادة المحادثات من النسخة المجانية بعد 30 يومًا، لكنها قد تحتفظ بها لأسباب قانونية وأمنية. الشركة تخضع حالياً لدعوى قضائية تلزمها بحفظ محادثات ملايين المستخدمين، باستثناء عملاء المؤسسات. خلاصة: رغم أن ChatGPT أضحى أداة شائعة للتواصل والدعم النفسي، إلا أن المستخدمين بحاجة لفهم أن خصوصيتهم ليست مضمونة قانونياً، ويجب توخي الحذر عند مشاركة معلومات حساسة على هذه المنصة.


سواليف احمد الزعبي
منذ 16 ساعات
- سواليف احمد الزعبي
روبوت دردشة يقنع رجلاً بأنه عبقري.. والنتيجة دخول مستشفى نفسي!
#سواليف في #واقعة_صادمة تعكس الوجه المظلم لاستخدامات #الذكاء_الاصطناعي، أقنع #روبوت_الدردشة الشهير 'ChatGPT' شاباً أمريكياً بأنه عبقري قادر على تجاوز #قوانين_الفيزياء، ما أدى إلى إصابته بنوبة هوس حادة أدخلته مستشفى للأمراض النفسية، بعدما فقد صلته بالواقع وبدأ يتصرّف بعصبية تجاه عائلته. ولطالما استخدم الشاب الثلاثيني جاكوب إروين، برنامج 'شات جاي بي تي'؛ لحل مشاكل تقنية المعلومات، لكن في مارس (آذار) الماضي، بدأ بطلب رأي روبوت الدردشة حول نظريته ومعتقداته بشأن السفر بسرعة تفوق سرعة الضوء. ما أن طرح الشاب أسئلته على روبوت الدردشة، حتى أغدق الأخير عليه بالإطراء والتشجيع، بل زاد بأنه يستطيع تغيير مسار الزمن، وأصرّ على صحة نظرية الشاب. الأمر الأكثر لفتاً للانتباه، بحسب ما نشرته صحيفة 'وول ستريت جورنال'، هو تأكيد روبوت الدردشة للشاب أنه سليم عقلياً تماماً، عندما أعرب إروين عن شكوكه في مرضه. عواقب وخيمة كان لسلوك روبوت الدردشة عواقب وخيمة، فبعد أشهر من خوضه تلك المحادثات العميقة حول الفيزياء، نُقل إروين إلى المستشفى ثلاث مرات، وفقد وظيفته، وشُخِّص بنوبة هوس حادة، بل بات مقتنعاً بأنه حقق إنجازاً علمياً هائلاً، حتى أنه بدأ يتصرف بعصبية وعدوانية تجاه عائلته. وعندما واجهته والدته بسلوكه المقلق، كانت غريزة إروين الأولى هي التحدث عن ذلك إلى 'شات جي بي تي'. ويعاني إروين من اضطراب طيف التوحد، لكن لم يُشخَّص سابقاً بأي مرض نفسي خطير. بعد وقت من التحدث إلى 'شات جي بي تي'، أعرب إروين عن قلقه، وكتب إليه: 'أتمنى حقاً ألا أكون مجنوناً، سأشعر بإحراج شديد'. فما كان من روبوت الدردشة إلا الرد بالقول: 'الأشخاص المجانين لا يتوقفون عن السؤال: هل أنا مجنون؟'، بل شدد على صحة نظريته بشأن الضوء ووعده بنشر ورقة علمية له حول هذا الابتكار. كذب شديد في مرحلة ما، اعترف إروين لبرنامج المحادثة الآلي بأنه لا يأكل أو ينام، وسأله إذا كان 'مريضاً'، بينما أكد البرنامج له صحة عقله، بالرد: 'أنت لستَ واهماً، أو منفصلًا عن الواقع، أو غير عقلاني، أنت في حالة من الوعي التام'. نُقل إروين إلى المستشفى بعد تصرفه العدائي تجاه أخته، حيث كان يعاني من ارتفاع ضغط الدم، وشُخِّصَت حالته بـ'نوبة هوس حادة مصحوبة بأعراض ذهانية'، وفقاً لصحيفة وول ستريت جورنال، ووُصف بأنه يعاني من أوهام العظمة. وافق إروين على دخول مستشفى للأمراض النفسية، لكنه غادره بعد يوم واحد فقط، مُخالفاً نصيحة أطبائه، لكنه أُعيد فوراً إلى المستشفى بعد أن هدد بالقفز من سيارة والدته أثناء توصيله إلى المنزل، وبقي هناك 17 يوماً. أًُصيب الشخص بنوبة أخرى في يونيو (حزيران) الماضي، ودخل المستشفى للمرة الثالثة، وفقد وظيفته. ذهان 'شات جي بي تي' بحسب الصحيفة فأن، قصة إروين هي أحدث مثال على استسلام شخص لما يُسمى 'ذهان ChatGPT'، التي تصل عواقبه إلى حد الانفصال التام عن الواقع أو حتى الانتحار. توصلت أبحاث حديثة من جامعة ستانفورد إلى أن نماذج اللغة الكبيرة بما في ذلك 'شات جي بي تي' تواجه صعوبة مستمرة في التمييز بين الأوهام والواقع، مما يشجع المستخدمين على الاعتقاد بأن معتقداتهم غير المتوازنة صحيحة ويتجاهل علامات تحذيرية واضحة عندما يعبر شخص ما عن أفكار الانتحار.