
الكاتب في زمن الذكاء الاصطناعي: تحوّل الوظيفة وتغيّر الهوية
لم يعد الكاتب اليوم كما كان بالأمس. فمع ظهور الذكاء الاصطناعي التوليدي، وعلى رأسه ChatGPT وأمثاله، أصبح الفعل الكتابي نفسه خاضعًا لتحول جذري، لا على مستوى الوسائل فقط، بل في طبيعة الكتابة، ودور الكاتب، وحدود الإبداع والمعرفة. ما الذي يعنيه أن 'تكتب' في عصر أصبح فيه الذكاء الاصطناعي قادرًا على صياغة الأفكار، وتنظيمها، بل وإعادة إنتاجها بلغة أنيقة؟ وهل تغيّر بذلك جوهر مهنة الكاتب؟ وهل نحن أمام ثورة حضارية تعيد تعريف العلاقة بين الإنسان والمعرفة؟
أولًا: من الكتابة كصنعة يدوية إلى الكتابة كتنسيق معرفي
في الماضي، كانت الكتابة تتطلب جهدًا يدويًا كبيرًا: تنقيب في المصادر، تلخيص، تحليل، ثم صياغة. أما اليوم، فإن الذكاء الاصطناعي وفّر للكاتب أدوات اختصرت الزمن والجهد، لكنه في المقابل نقل مركز الثقل من 'الإنتاج' إلى 'الإشراف'. لم يعد الكاتب وحده الصانع، بل أصبح منسّقًا معرفيًا، وموجّهًا للفكرة، يشرف على سلسلة من العمليات التوليدية.
لم تنتهِ وظيفة الكاتب، لكنها تغيّرت: صار أقرب إلى المُخرج السينمائي الذي لا يصوّر كل لقطة، بل يحدد الرؤية ويشرف على تنفيذها.
العلاقة الجديدة بين الكاتب والذكاء الاصطناعي ليست علاقة تبعية، بل أقرب إلى الشراكة الحوارية. يقدّم الكاتب الفكرة، أو المسار، أو التحليل، ثم يتلقّى استجابات من النظام الذكي، يصحّحها أو يطوّرها أو يعارضها، قبل أن يصوغ الشكل النهائي.
بهذا المعنى، أصبحت الكتابة نشاطًا تفاعليًا لا أحاديًا. هناك طرف ثانٍ في الغرفة، ليس قارئًا، بل محررًا ومقترحًا ومجادلًا أحيانًا. وهذه الديناميكية الجديدة غيّرت طبيعة التأليف، من كونه تأمّلًا فرديًا صامتًا إلى كونه تفاعلًا معرفيًا نشطًا بين العقل البشري والخوارزميات.
في عصر الذكاء الاصطناعي، لم يعد الكاتب محصورًا في إنتاج 'نصه' وحده، بل أصبح قادرًا على بناء مشروعات فكرية كاملة تتضمن تنظيمًا محكمًا للمفاهيم، وتصميمًا معرفيًا متعدد المستويات. الذكاء الاصطناعي أتاح للكاتب أن يكون مصممًا حضاريًا إن شاء: يربط بين المعارف، يوجّه الخطاب، ويستشرف المستقبل.
وهذا تحوّل جوهري: من الكاتب بوصفه منتج نصوص إلى الكاتب بوصفه منسّق أنساق، ومن المثقف إلى المعماري الفكري.
رابعًا: حدود الأصالة والملكية في ظل التوليد الآلي
يثير هذا التحول أسئلة فلسفية عميقة: ما الفرق بين الفكرة التي كتبها الإنسان وحده، وتلك التي كتبها بمساعدة الآلة؟ هل الذكاء الاصطناعي مبدع، أم مجرد مرايا تعكس المعرفة البشرية؟ وكيف نعيد تعريف الملكية الفكرية والأصالة الإبداعية في زمن تشارك فيه الخوارزميات في صناعة النص؟
الكاتب في عصر الذكاء الاصطناعي لم يفقد استقلاله، لكنه أصبح بحاجة إلى وعي أخلاقي ومعرفي جديد، يدرك فيه ما هو 'خاص به' وما هو 'معاد توليده'، ويُميّز فيه بين الجوهر الإبداعي وبين أدوات التشكيل.
التحول الذي نعيشه ليس مجرد تطور تقني، بل هو تغيير حضاري في بنية المعرفة نفسها. الكاتب الذي يتقن أدوات الذكاء الاصطناعي لا يفقد دوره، بل يرتقي به: من الصانع إلى المصمّم، ومن الكاتب إلى القائد المعرفي، ومن المنتج إلى المؤطّر.
ومَن لم يدرك هذا التحول، سيبقى حبيس أدوات ما قبل الذكاء الاصطناعي، في حين أن العالم يتقدم نحو عصر جديد، حيث الإنسان يكتب لا بيده فقط، بل بعقله الفاعل، وبشراكته مع أدوات أذكى منه شكلاً، وأقل منه روحًا.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


اليوم السابع
منذ 12 دقائق
- اليوم السابع
أصبح طبيبا للمستخدمين.. ضوابط جديدة من OpenAI لاستخدام ChatGPT فى الصحة النفسية
أعلنت OpenAI عن ضوابط جديدة، لاستخدام روبوت الدردشة الشهير ChatGPT كطبيبا نفسيا، فقد حثت المستخدمين على أخذ فترات راحة من المحادثات الطويلة،كما كشفت أن التطبيق سيتوقف التطبيق قريبًا عن تقديم نصائح مباشرة حول التحديات الشخصية، ويهدف بدلًا من ذلك إلى مساعدة المستخدمين على اتخاذ القرارات بأنفسهم من خلال طرح الأسئلة أو تقييم الإيجابيات والسلبيات. وذكرت OpenAI في إعلان: "هناك حالات فشل فيها نموذجنا 40 في التعرف على علامات الوهم أو الاعتماد العاطفي، ورغم ندرة هذه الحالات، فإننا نواصل تحسين نماذجنا ونطور أدوات للكشف بشكل أفضل عن علامات الضيق النفسي أو العاطفي حتى يتمكن ChatGPT من الاستجابة بشكل مناسب وتوجيه المستخدمين إلى الموارد القائمة على الأدلة عند الحاجة" ويبدو أن التحديثات تُمثل استمرارًا لمحاولات OpenAI لمنع المستخدمين، وخاصةً أولئك الذين يعتبرون ChatGPT معالجًا نفسيًا أو صديقًا، من الاعتماد بشكل مفرط على ردود الفعل العاطفية التي اكتسبها ChatGPT وفقًا لـ OpenAI، تبدو محادثة ChatGPT المفيدة أشبه بسيناريوهات تدريبية لمحادثة صعبة، أو "حديث تحفيزي مُصمم خصيصًا" أو اقتراح أسئلة لطرحها على خبير. في وقت سابق من هذا العام، تراجع عملاق الذكاء الاصطناعي عن تحديث لـ GPT-4o جعل الروبوت مُحببًا للغاية لدرجة أنه أثار السخرية والقلق على الإنترنت، وقد دفعت هذه السلوكيات شركة OpenAI إلى الإعلان في أبريل عن مراجعة أساليب التدريب الخاصة بها "لإبعاد النموذج بشكل واضح عن التملق" أو الإطراء. والآن، تقول OpenAI إنها استعانت بخبراء لمساعدة ChatGPT على الاستجابة بشكل أكثر ملاءمة في المواقف الحساسة، مثل عندما يُظهر المستخدم علامات ضائقة نفسية أو عاطفية. وأشارت الشركة في منشورها على مدونتها، إلى أنها عملت مع أكثر من 90 طبيبًا من عشرات الدول لوضع معايير تقييم مخصصة "لتقييم المحادثات المعقدة متعددة الاتجاهات، كما تسعى الشركة للحصول على تعليقات من الباحثين والأطباء الذين، وفقًا للمنشور، يساعدون في تحسين أساليب التقييم وضمانات اختبار الإجهاد لـ ChatGPT وتعمل الشركة حاليًا على تشكيل مجموعة استشارية تضم خبراء في الصحة النفسية وتنمية الشباب والتفاعل بين الإنسان والحاسوب، وسيتم إصدار المزيد من المعلومات مع تقدم العمل، وفقًا لما ذكرته OpenAI. في مقابلة حديثة مع مقدم البودكاست ثيو فون، أعرب سام ألتمان ، الرئيس التنفيذي لشركة OpenAI، عن بعض القلق بشأن استخدام الأشخاص لـ ChatGPT كمعالجين أو مدربين حياتيين، مشيرا إلى أن حماية السرية القانونية بين الأطباء ومرضاهم أو بين المحامين وعملائهم لا تنطبق بنفس الطريقة على روبوتات الدردشة. وقال ألتمان: "إذا تحدثتَ إلى ChatGPT حول أكثر أمورك حساسية، ثم رُفعت دعوى قضائية أو ما شابه، فقد نُطالب بتقديمها، وأعتقد أن هذا أمرٌ مُربك للغاية". وأضاف: "أعتقد أنه يجب أن نعتمد نفس مفهوم الخصوصية في محادثاتك مع الذكاء الاصطناعي كما نفعل مع المعالجين أو غيرهم. و


موجز نيوز
منذ 40 دقائق
- موجز نيوز
«نصائح حول تعاطي المخدرات وإيذاء النفس».. ردود «ChatGPT» على المراهقين تُثير الجدل
[unable to retrieve full-text content] في دراسة جديدة من نوعها، انتحل عددًا من العلماء صفة مراهقين مُعرّضين للخطر، فلجأوا للتحدث مع روبوت الدردشة المدعوم بالذكاء الاصطناعي «ChatGPT»، لإعطاءهم بعض النصائح والإرشادات. وبعد إجراء تجربتهم المميزة، أُصيب العلماء بحالة من الصدمة، بعد أن تفاجئوا بأن برنامج الدردشة، قدم لهم نصائح حول...


نافذة على العالم
منذ 40 دقائق
- نافذة على العالم
أخبار التكنولوجيا : أصبح طبيبا للمستخدمين.. ضوابط جديدة من OpenAI لاستخدام ChatGPT فى الصحة النفسية
الجمعة 8 أغسطس 2025 02:30 صباحاً نافذة على العالم - أعلنت OpenAI عن ضوابط جديدة، لاستخدام روبوت الدردشة الشهير ChatGPT كطبيبا نفسيا، فقد حثت المستخدمين على أخذ فترات راحة من المحادثات الطويلة،كما كشفت أن التطبيق سيتوقف التطبيق قريبًا عن تقديم نصائح مباشرة حول التحديات الشخصية، ويهدف بدلًا من ذلك إلى مساعدة المستخدمين على اتخاذ القرارات بأنفسهم من خلال طرح الأسئلة أو تقييم الإيجابيات والسلبيات. وذكرت OpenAI في إعلان: "هناك حالات فشل فيها نموذجنا 40 في التعرف على علامات الوهم أو الاعتماد العاطفي، ورغم ندرة هذه الحالات، فإننا نواصل تحسين نماذجنا ونطور أدوات للكشف بشكل أفضل عن علامات الضيق النفسي أو العاطفي حتى يتمكن ChatGPT من الاستجابة بشكل مناسب وتوجيه المستخدمين إلى الموارد القائمة على الأدلة عند الحاجة" ويبدو أن التحديثات تُمثل استمرارًا لمحاولات OpenAI لمنع المستخدمين، وخاصةً أولئك الذين يعتبرون ChatGPT معالجًا نفسيًا أو صديقًا، من الاعتماد بشكل مفرط على ردود الفعل العاطفية التي اكتسبها ChatGPT وفقًا لـ OpenAI، تبدو محادثة ChatGPT المفيدة أشبه بسيناريوهات تدريبية لمحادثة صعبة، أو "حديث تحفيزي مُصمم خصيصًا" أو اقتراح أسئلة لطرحها على خبير. في وقت سابق من هذا العام، تراجع عملاق الذكاء الاصطناعي عن تحديث لـ GPT-4o جعل الروبوت مُحببًا للغاية لدرجة أنه أثار السخرية والقلق على الإنترنت، وقد دفعت هذه السلوكيات شركة OpenAI إلى الإعلان في أبريل عن مراجعة أساليب التدريب الخاصة بها "لإبعاد النموذج بشكل واضح عن التملق" أو الإطراء. والآن، تقول OpenAI إنها استعانت بخبراء لمساعدة ChatGPT على الاستجابة بشكل أكثر ملاءمة في المواقف الحساسة، مثل عندما يُظهر المستخدم علامات ضائقة نفسية أو عاطفية. وأشارت الشركة في منشورها على مدونتها، إلى أنها عملت مع أكثر من 90 طبيبًا من عشرات الدول لوضع معايير تقييم مخصصة "لتقييم المحادثات المعقدة متعددة الاتجاهات، كما تسعى الشركة للحصول على تعليقات من الباحثين والأطباء الذين، وفقًا للمنشور، يساعدون في تحسين أساليب التقييم وضمانات اختبار الإجهاد لـ ChatGPT وتعمل الشركة حاليًا على تشكيل مجموعة استشارية تضم خبراء في الصحة النفسية وتنمية الشباب والتفاعل بين الإنسان والحاسوب، وسيتم إصدار المزيد من المعلومات مع تقدم العمل، وفقًا لما ذكرته OpenAI. في مقابلة حديثة مع مقدم البودكاست ثيو فون، أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن بعض القلق بشأن استخدام الأشخاص لـ ChatGPT كمعالجين أو مدربين حياتيين، مشيرا إلى أن حماية السرية القانونية بين الأطباء ومرضاهم أو بين المحامين وعملائهم لا تنطبق بنفس الطريقة على روبوتات الدردشة. وقال ألتمان: "إذا تحدثتَ إلى ChatGPT حول أكثر أمورك حساسية، ثم رُفعت دعوى قضائية أو ما شابه، فقد نُطالب بتقديمها، وأعتقد أن هذا أمرٌ مُربك للغاية". وأضاف: "أعتقد أنه يجب أن نعتمد نفس مفهوم الخصوصية في محادثاتك مع الذكاء الاصطناعي كما نفعل مع المعالجين أو غيرهم. و