
7 أشياء لا تُخبر بها الذكاء الاصطناعي.. 'قد تُستخدم ضدك في المحكمة'
وأكد ألتمان أن هذه المحادثات لا تتمتع بأي حماية قانونية كما هو الحال مع المحامين أو الأطباء أو المعالجين النفسيين، مشيرًا إلى أنها قد تُستخدم كأدلة قضائية في حال وقوع نزاعات قانونية أو دعاوى مرفوعة ضد المستخدم.
وأضاف أن الرسائل المحذوفة قد لا تُحذف فعليًا، إذ يمكن للشركة الاحتفاظ بها ضمن إطار بعض الإجراءات القانونية، كما هو الحال في القضية المرفوعة من صحيفة 'نيويورك تايمز' ضد OpenAI.
وشدد ألتمان على أن غياب إطار قانوني صارم حتى الآن يجعل من الضروري توخي الحذر عند التعامل مع أدوات الذكاء الاصطناعي، خاصة أن الكثير من المستخدمين يعتقدون بالخطأ أن بياناتهم آمنة وخاصة.
هذا التحذير يسلّط الضوء على أهمية التفكير مليًا قبل مشاركة أي معلومات مع أدوات مثل ChatGPT، ويدعو إلى الوعي بما يجب تجنّب الإفصاح عنه.
في ما يلي سبعة أنواع من المعلومات يُنصح بعدم مشاركتها مع أدوات الذكاء الاصطناعي، وفقًا لما نشره موقع Business Insider:
1-معلوماتك الطبية الخاصة
حتى لو بدت غير ضارة، فإن مشاركة تاريخك الطبي قد يؤدي إلى انتهاك خصوصيتك أو استخدامه دون إذن. قد تُباع هذه البيانات لشركات التأمين، أو تُستعمل في قرارات صحية مصيرية دون علمك.
2-الموقع الجغرافي الدقيق
الإفصاح عن موقعك الحالي بشكل متكرر يفتح الباب لتتبعك أو استهدافك. بعض التطبيقات تشارك موقعك مع أطراف ثالثة لأغراض تسويقية أو حتى أمنية، دون علمك أو موافقتك.
3-البيانات البنكية والمعلومات المالية
إدخال معلومات بطاقتك الائتمانية أو حسابك البنكي يعرضك لخطر الاحتيال المالي. وقد يكون من المستحيل استرداد أموالك في حال استُغلت هذه البيانات من خلال تسريب أو اختراق.
4-صور أو مقاطع فيديو خاصة
تحميل صورك الشخصية قد يؤدي إلى استخدامها في تدريب النماذج أو حتى في محتوى لم توافق عليه. بعض الأنظمة تحتفظ بهذه الصور داخل قواعد بيانات قابلة للاختراق أو الاستخدام التجاري.
5-كلمات المرور والمعلومات السرّية
لا يجب إدخال كلمات السر أو الرموز الخاصة في أي محادثة، حتى لو بدا الأمر كطلب دعم. تذكر أن الذكاء الاصطناعي لا ينسى، وقد تُخزن هذه المعلومات أو تُستخدم لاحقًا بشكل غير مقصود.
6-الآراء السياسية أو الدينية المتطرفة
رغم أن التعبير عن الرأي مشروع، إلا أن مشاركة آرائك الحساسة يمكن أن تُربط بهويتك الرقمية لاحقًا، وقد تؤثر على تصنيفك أو تقييمك في بعض البيئات التي تراقب هذه التوجهات.
7-تفاصيل علاقاتك الشخصية والعاطفية
مناقشة مشاكلك العاطفية أو تفاصيل علاقاتك الخاصة مع الذكاء الاصطناعي قد تُستغل لاحقًا في تحليل حالتك النفسية أو بناء ملفات شخصية عنك. هذا النوع من البيانات يجب أن يبقى في إطارك الخاص فقط.
(وكالات)

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


القدس العربي
منذ 17 ساعات
- القدس العربي
7 أشياء لا تُخبر بها الذكاء الاصطناعي.. 'قد تُستخدم ضدك في المحكمة'
لندن- 'القدس العربي': أطلق سام ألتمان، الرئيس التنفيذي لشركة OpenAI ومؤسس تطبيق ChatGPT، تحذيرًا صريحًا لمستخدمي أدوات الذكاء الاصطناعي، وخاصة أولئك الذين يشاركون معلومات شخصية أو نفسية حساسة عبر هذه المنصات. وأكد ألتمان أن هذه المحادثات لا تتمتع بأي حماية قانونية كما هو الحال مع المحامين أو الأطباء أو المعالجين النفسيين، مشيرًا إلى أنها قد تُستخدم كأدلة قضائية في حال وقوع نزاعات قانونية أو دعاوى مرفوعة ضد المستخدم. وأضاف أن الرسائل المحذوفة قد لا تُحذف فعليًا، إذ يمكن للشركة الاحتفاظ بها ضمن إطار بعض الإجراءات القانونية، كما هو الحال في القضية المرفوعة من صحيفة 'نيويورك تايمز' ضد OpenAI. وشدد ألتمان على أن غياب إطار قانوني صارم حتى الآن يجعل من الضروري توخي الحذر عند التعامل مع أدوات الذكاء الاصطناعي، خاصة أن الكثير من المستخدمين يعتقدون بالخطأ أن بياناتهم آمنة وخاصة. هذا التحذير يسلّط الضوء على أهمية التفكير مليًا قبل مشاركة أي معلومات مع أدوات مثل ChatGPT، ويدعو إلى الوعي بما يجب تجنّب الإفصاح عنه. في ما يلي سبعة أنواع من المعلومات يُنصح بعدم مشاركتها مع أدوات الذكاء الاصطناعي، وفقًا لما نشره موقع Business Insider: 1-معلوماتك الطبية الخاصة حتى لو بدت غير ضارة، فإن مشاركة تاريخك الطبي قد يؤدي إلى انتهاك خصوصيتك أو استخدامه دون إذن. قد تُباع هذه البيانات لشركات التأمين، أو تُستعمل في قرارات صحية مصيرية دون علمك. 2-الموقع الجغرافي الدقيق الإفصاح عن موقعك الحالي بشكل متكرر يفتح الباب لتتبعك أو استهدافك. بعض التطبيقات تشارك موقعك مع أطراف ثالثة لأغراض تسويقية أو حتى أمنية، دون علمك أو موافقتك. 3-البيانات البنكية والمعلومات المالية إدخال معلومات بطاقتك الائتمانية أو حسابك البنكي يعرضك لخطر الاحتيال المالي. وقد يكون من المستحيل استرداد أموالك في حال استُغلت هذه البيانات من خلال تسريب أو اختراق. 4-صور أو مقاطع فيديو خاصة تحميل صورك الشخصية قد يؤدي إلى استخدامها في تدريب النماذج أو حتى في محتوى لم توافق عليه. بعض الأنظمة تحتفظ بهذه الصور داخل قواعد بيانات قابلة للاختراق أو الاستخدام التجاري. 5-كلمات المرور والمعلومات السرّية لا يجب إدخال كلمات السر أو الرموز الخاصة في أي محادثة، حتى لو بدا الأمر كطلب دعم. تذكر أن الذكاء الاصطناعي لا ينسى، وقد تُخزن هذه المعلومات أو تُستخدم لاحقًا بشكل غير مقصود. 6-الآراء السياسية أو الدينية المتطرفة رغم أن التعبير عن الرأي مشروع، إلا أن مشاركة آرائك الحساسة يمكن أن تُربط بهويتك الرقمية لاحقًا، وقد تؤثر على تصنيفك أو تقييمك في بعض البيئات التي تراقب هذه التوجهات. 7-تفاصيل علاقاتك الشخصية والعاطفية مناقشة مشاكلك العاطفية أو تفاصيل علاقاتك الخاصة مع الذكاء الاصطناعي قد تُستغل لاحقًا في تحليل حالتك النفسية أو بناء ملفات شخصية عنك. هذا النوع من البيانات يجب أن يبقى في إطارك الخاص فقط. (وكالات)


العربي الجديد
منذ 3 أيام
- العربي الجديد
دراسة: الذكاء الاصطناعي لا يزيد بل يقلل سرعة عمل المبرمجين
اكتشف باحثون يدرسون دور الذكاء الاصطناعي في تطوير البرمجيات، أنّ إنتاجية وكفاءة مطوري البرمجيات مفتوحة المصدر الذين يعتمدون على أدوات الذكاء الاصطناعي في عملهم أقل من الذين لا يستخدمون هذه الأدوات التي يتم ترويجها بكثافة. وبحسب فريق الباحثين التابع لمركز أبحاث تقييم ومخاطر النماذج "إم إي تي آر (METER)"، فإنه بعد تجربة عشوائية مُحكمة شملت 16 مطوراً قاموا بسلسلة من المهام النموذجية التي تتطلبها وظائفهم، مثل تصحيح الأخطاء، وجدوا أنّ استخدام الذّكاء الاصطناعي جعل المطور يستغرق وقتاً أطول بنسبة 16% لإنجاز المهمة، مقارنة بزميله الذي لا يعتمد على أدوات الذكاء الاصطناعي. وأشار الباحثون إلى أنّ المبرمجين يعتمدون كثيراً على أدوات الذكاء الاصطناعي بهدف زيادة إنتاجيتهم. ففي مايو/ أيار الماضي، أصدرت شركة " أوبن إيه آي " (OpenAI)، المطورة لمنصة تشات جي بي تي (ChatGPT)، وكيل ذكاء اصطناعي لهندسة البرمجة يُسمى "كود إكس" (Codex) لمساعدة مطوري البرمجيات في عملهم. ومع ذلك، رأى مركز أبحاث "إم إي تي آر"، وهو مركز غير هادف للربح ويقع مقره في كاليفورنيا، أن وكيل الذكاء الاصطناعي "كود إكس" (Codex) أدى إلى انخفاض سرعة عمل المبرمجين ولم يزدها، رغم توقعات المطورين بزيادة سرعة الإنجاز بنسبة 25% عند استخدام هذه الأداة. وذكر الباحثون أن "البطء الكبير" الناتج عن استخدام أدوات الذكاء الاصطناعي في البرمجة كان مخالفاً لمعتقدات المطورين وتوقعات الخبراء، بل وصفوا "الفجوة بين التصور والواقع" بأنها "لافتة للنظر". ومن أبرز نتائج الدراسة اكتشاف أن المطورين الذين استخدموا الذكاء الاصطناعي في عملهم اعتقدوا أنه "زاد من سرعتهم بنسبة 20%"، بحسب ما ورد في فريق الدراسة. وأشار فريق معهد "إم إي تي آر" الذي أعد الدراسة أن المطورين المشاركين "أخطؤوا في تقدير تأثير الذّكاء الاصطناعي على إنتاجيتهم". تكنولوجيا التحديثات الحية ماذا نعرف عن "خطة عمل الذكاء الاصطناعي" الأميركية؟ في الوقت نفسه، لم ينفِ الباحثون أن أدوات الذكاء الاصطناعي مفيدة للمبرمجين، بل رأوا أنها قد تكون مفيدة للمطورين الأقل خبرة أو أولئك الذين "يعملون في قاعدة بيانات غير مألوفة". وتؤكد نتائج هذه الدراسة بحثاً آخر نشرته جامعة ستانفورد في وقت سابق من العام الحالي، وأظهر أنّ الذكاء الاصطناعي يُعيق بشكل كبير العمال ذوي الخبرة، بينما يُعزز من هم أقل مهارة. وخلص الباحثون إلى أنّ آثاره على الإنتاجية "تختلف اختلافاً كبيراً" بناءً على مستوى مهارة المستخدم وكفاءته، حيث يؤثر سلباً على كفاءة ذوي الخبرة ويُحسّن كفاءة المبتدئين والأقل خبرة. (أسوشييتد برس)


العربي الجديد
منذ 6 أيام
- العربي الجديد
سام ألتمان يحذّر من "أزمة احتيال" في مجال الذكاء الاصطناعي
قال الرئيس التنفيذي لشركة أوبن إيه آي سام ألتمان، إن العالم قد يكون على شفا "أزمة احتيال" بسبب قدرة الذكاء الاصطناعي على تمكين الأشخاص ذوي النيات السيئة من انتحال شخصيات الآخرين. وأوضح ألتمان خلال لقاء للاحتياطي الفيدرالي الأميركي أمس الثلاثاء أن "ما يخيفني، هو أنه يبدو أن هناك بعض المؤسسات المالية التي لا تزال تقبل بصمة الصوت وسيلةً للتحقق من هويتك لتحويل مبالغ كبيرة أو القيام بأمور أخرى"، "من الجنون أن يستمر ذلك"، "لقد هزم الذكاء الاصطناعي تماماً معظم الطرق التي يستخدمها الناس حالياً للتحقق من هويتهم، باستثناء كلمات المرور". زيادة الاحتيال باستخدام الذكاء الاصطناعي وضع يثير قلق الخبراء. حذّر مكتب التحقيقات الفيدرالي (إف بي آي) العام الماضي من عمليات الاحتيال التي تستخدم تقنية "استنساخ" الصوت والفيديو باستخدام الذكاء الاصطناعي. وأبلغ آباء عدة عن استخدام تقنية الصوت المولّد اصطناعياً في محاولات لخداعهم والحصول على أموالهم من طريق إقناعهم بأن أطفالهم في خطر. وفي وقت سابق من هذا الشهر، حذّر مسؤولون أميركيون من أن شخصاً يستخدم الذكاء الاصطناعي لتقليد صوت وزير الخارجية ماركو روبيو قد اتصل بوزراء خارجية ودوليين أميركيين وحاكم ولاية أميركية وعضو في الكونغرس. تكنولوجيا التحديثات الحية نصائح لرصد عمليات الاحتيال الرقمية والوقاية منها هل يستفيد ألتمان من الاحتيال؟ تأتي تصريحات ألتمان متناقضة مع تصرفاته وشركته، إذ بينما يحذّر من الاحتيال، يرفض تقنين الذكاء الاصطناعي. يُرتقب إصدار البيت الأبيض "خطة عمل الذكاء الاصطناعي " في الأيام المقبلة، وهي وثيقة سياسية تحدد نهج واشنطن في تنظيم هذه التكنولوجيا وتعزيز هيمنة أميركا في مجال الذكاء الاصطناعي. قدّمت "أوبن إيه آي" توصيات للخطة، لكن حثّت إدارةَ ترامب على تجنب فرض قوانين تنظم الذكاء الاصطناعي، بدعوى إعاقة قدرة شركات التكنولوجيا على المنافسة مع الابتكارات الأجنبية في مجال الذكاء الاصطناعي. وقال ألتمان: "في الوقت الحالي، هي مكالمات صوتية، قريباً ستكون مكالمات فيديو أو فايس تايم لا يمكن تمييزها عن الواقع". ويبدو أن هذه المخاوف ستكون مفيدة لألتمان نفسه، إذ يدعم أداة تسمى The Orb، صممتها شركة تولز فور هيومانيتي، وتقول إنها ستوفر "دليلاً على أن المستخدم بشري" في عالم يصعب فيه على الذكاء الاصطناعي التمييز بين ما هو حقيقي وما هو مزيف على الإنترنت.