
الميزة الجديدة في ChatGPT قنبلة موقوتة OpenAI تحاول احتوائها
ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية.
ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business".
ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا.
وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".
وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها".
تدابير وقائية
قالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة.
وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال.
وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام.
وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية.
وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة.
وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية".
وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص".
تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي.
وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام.
وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.
قد يهمك أيضــــــــــــــا

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


المغرب اليوم
منذ يوم واحد
- المغرب اليوم
الميزة الجديدة في ChatGPT قنبلة موقوتة OpenAI تحاول احتوائها
يَعِدُ أحدثُ مُنتَج من شركة "OpenAI" بتسهيل جمع البيانات تلقائيًا، وإنشاء جداول البيانات، وحجز الرحلات، وإعداد عروض تقديمية، وربما، حتى المساعدة بناء سلاح بيولوجي. ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية. ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business". ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا. وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية". وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها". تدابير وقائية قالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة. وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال. وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام. وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية. وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة. وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية". وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص". تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي. وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام. وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت. قد يهمك أيضــــــــــــــا


المغرب اليوم
منذ يوم واحد
- المغرب اليوم
ميزة جديدة في "شات جي بي تي" تجعله قنبلة موقوتة و"OpenAI" تحاول كبحها
يَعِدُ أحدثُ مُنتَج من شركة "OpenAI" بتسهيل جمع البيانات تلقائيًا، وإنشاء جداول البيانات، وحجز الرحلات، وإعداد عروض تقديمية، وربما، حتى المساعدة بناء سلاح بيولوجي. ويُعد "وكيل شات جي بي تي"، وهو وكيل ذكاء اصطناعي جديد أضافته الشركة لروبوت الدردشة "شات جي بي تي" قادر على اتخاذ إجراءات نيابةً عن المستخدم، أولَ مُنتَج تُصنِّفه "OpenAI" على أنه يتمتع بقدرة "عالية" في ما يتعلق بالمخاطر البيولوجية. ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يُمكنه تقديم مساعدة فعّالة للجهات والأشخاص "المبتدئين" وتمكينهم من التسبب في تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن. ووفقًا لـ"إطار التأهب" الخاص بـ"OpenAI"، الذي تستخدمه الشركة لرصد المخاطر الجديدة التي تُسبِّب أضرارًا جسيمة من نماذجها المتقدمة والاستعداد لها، فإن التداعيات الواقعية لهذا الأمر قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تُنفذها جهات غير حكومية ستصبح أكثر احتمالًا وتكرارًا. وقال بواز باراك، أحد أعضاء الفريق الفني في "OpenAI"، في منشور على مواقع التواصل: "البعض قد يظن أن المخاطر البيولوجية غير حقيقية، وأن النماذج لا تقدم سوى معلومات يمكن العثور عليها من خلال البحث. ربما كان هذا صحيحًا في 2024، لكنه بالتأكيد ليس صحيحًا اليوم. بناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية". وأضاف: "في حين لا يمكننا الجزم بأن هذا النموذج قادر على تمكين شخص مبتدئ من إحداث ضرر بيولوجي جسيم، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية شاملة مثل تلك التي قمنا بتطبيقها". تدابير وقائية قالت "OpenAI" إن تصنيف النموذج على أنه عالي الخطورة لإساءة الاستخدام البيولوجي كان "نهجًا احترازيًا"، وهو تصنيف أدى إلى إجراءات وقائية إضافية للأداة. وقالت كيرين جو، الباحثة في مجال السلامة لدى "OpenAI"، إنه على الرغم من عدم امتلاك الشركة أدلة قاطعة على أن النموذج يمكن أن يُرشد فعليًا شخصًا مبتدئًا إلى إحداث ضرر بيولوجي جسيم، فقد فعّلت الشركة إجراءات الحماية على أي حال. وتشمل هذه الإجراءات جعل وكيل شات جي بي تي يرفض الرسائل التي قد تكون مُصممة لمساعدة شخص ما على إنتاج سلاح بيولوجي، وأنظمة ترصد الطلبات التي قد تكون غير آمنة وتحولها للمراجعة من قبل خبراء، وقواعد صارمة لحجب المحتوى الخطير، واستجابات أسرع للمشكلات، ومراقبة دقيقة لأي علامات على سوء الاستخدام. وأصبحت الشركة قلقة بشكل متزايد بشأن احتمالية إساءة استخدام النماذج في تطوير الأسلحة البيولوجية. وفي منشور بمدونتها الشهر الماضي، أعلنت "OpenAI" أنها تُكثف اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها للمساعدة في صنع أسلحة بيولوجية. وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تُمكّن النماذج قريبًا من "رفع مستوى المبتدئين"، أي مساعدة الأفراد ذوي الخلفية العلمية المحدودة على تطوير أسلحة خطيرة. وقال باراك: "على عكس التهديدات النووية والإشعاعية، فإن الحصول على المواد لا يُمثل عائقًا كبيرًا أمام إنشاء تهديدات بيولوجية وبالتالي يعتمد الأمن بشكل أكبر على ندرة المعرفة والمهارات المخبرية". وتابع: "بناءً على تقييماتنا وخبراء خارجيين، يُمكن لوكيل شات جي بي تي غير المقيد سد هذه الفجوة المعرفية وتقديم نصائح أقرب إلى خبير متخصص". تُعد ميزة الوكيل الجديدة في "شات جي بي تي"، التي أضافتها "OpenAI" مؤخرًا ،محاولةً للاستفادة من أحد أكثر مجالات تطوير الذكاء الاصطناعي رواجًا وخطورةً؛ إلا وهو وكلاء الذكاء الاصطناعي. وتتسابق مختبرات الذكاء الاصطناعي حاليًا لبناء وكلاء يمكنهم إدارة المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة عقب إصدارات مماثلة من "غوغل" و"أنثروبيك". وترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصةً تجاريةً واعدةً، إذ تتجه الشركات بشكل متزايد نحو دمج الذكاء الاصطناعي في سير العمل وأتمتة بعض المهام. وأقرت "OpenAI" بأن زيادة استقلالية نماذج الذكاء الاصطناعي تُسبب مخاطر أكبر، وتؤكد الشركة أهمية تحكم المستخدم للحد من هذه المخاطر. على سبيل المثال، يطلب الوكيل الإذن قبل اتخاذ أي إجراء مهم، ويمكن للمستخدم إيقافه مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.


المغرب اليوم
منذ يوم واحد
- المغرب اليوم
دمج روبوت الدردشة غروك في سيارات تسلا يثير مخاوف حول الخصوصية
سيارات تسلا الكهربائية مؤخرًا أنهم سيحصلون على ميزة مجانية؛ ابتداءً من 12 يوليو، أصبح روبوت روبوت الدردشة "غروك" مُثبتًا تلقائيًا ومتاحًا للاستخدام في جميع سيارات تسلا الجديدة. و"غروك" هو روبوت دردشة معتمد على الذكاء الاصطناعي طورته "xAI"، وهي شركة ذكاء اصطناعي أطلقها إيلون ماسك ، الرئيس التنفيذي لشركة تسلا، قبل عامين. ويبدو أن ماسك يستغل أصوله المتنوعة ومشروعاته التجارية لمنح العملاء قيمة إضافية. ولكن في هذه الحالة، من المنطقي التساؤل عن المستفيد الأكبر من "الهدية"، التي تُعزز أعمال ماسك، بحسب تقرير لمجلة فورتشن، اطلعت عليه "العربية Business". ومع هذا التحديث، أصبح "غروك" يظهر الآن في شكل زر على الشاشة الرئيسية لسيارة تسلا. ويمكن للمستخدمين طرح أسئلة عليه أو تكليفه بمهام لأداءها، تمامًا كما يفعلون مع أي روبوت دردشة آخر، سواءً كان "شات جي بي تي" من شركة "OpenAI" أو "Gemini" من "غوغل. وفي الوقت الحالي، لا يمكن لغروك التحكم في أيٍّ من وظائف السيارة، مثل النوافذ أو مكيف الهواء، لكن ليس من الصعب تخيّل استخدامات عملية كثيرة للنموذج اللغوي الكبير داخل السيارة، بدءًا من الرد على رسائل البريد الإلكتروني ووصولًا إلى تلخيص كتاب. من المستفيد؟ من المرجح أن يجعل الاتفاق الجديد بين "تسلا" و"xAI" من "تسلا" عميلًا رئيسيًا لشركة الذكاء الاصطناعي، على الرغم من أن أيًا من الشركتين لم تكشف عن أي تفاصيل مالية تتعلق بهذه الشراكة. وباعت "تسلا" ما يقرب من 1.8 مليون سيارة العام الماضي فقط، مما يعني أن هذه الشراكة الجديدة ستفتح الباب أمام ملايين العملاء لبدء استخدام "غروك". وإذا استفادت ولو نسبة صغيرة من مالكي "تسلا" الجدد من هذه الميزة، فقد يؤدي ذلك إلى زيادة تكاليف الحوسبة لشركة "xAI"، التي تُنفق بالفعل حوالي مليار دولار شهريًا لبناء مراكز بياناتها وشراء ما يكفي من رقائق الكمبيوتر لمنافسة شركات الذكاء الاصطناعي الأخرى. لكن من المهم التفكير في طريقة مشاركة البيانات التي قد تحدث الآن بعد تثبيت "غروك" في سيارات تسلا. في إفصاحاتها، قالت "تسلا" إن محادثات السائقين مع "غروك" ستُعالج بأمان بواسطة "xAI"، بما يتماشى مع سياسة خصوصية "xAI"، مشيرةً إلى أن المحادثات ستكون مجهّلة الهوية ولن تُربط بسيارة بعينها. وتوضح نظرة على سياسة خصوصية "xAI" أن الشركة تجمع معلومات شخصية، ومحتوى المستخدم، ومعلومات من مواقع التواصل الاجتماعي، وبيانات أخرى مرتبطة باستخدام الخدمة، وأنها ستشارك البيانات مع مزودي خدمات متعاقدين معها، والشركات المرتبطة بها، والجهات الخارجية التي يوافق العملاء على مشاركة المعلومات معها. لكن السؤال الأهم هو: ما هي البيانات الدقيقة التي ستتمكن "xAI" من الوصول إليها عند استخدام "غروك" في السيارات؟. اقترح ماسك إضافة "كلمة تنبيه" لتفعيل روبوت الددرشة، لكن هل سيحد هذا من أجزاء المحادثات التي يلتقطها "غروك" داخل السيارة؟ أم أنه سيستمع إلى كل ما يُقال في السيارة بمجرد تفعيله عبر الشاشة الرئيسية؟. والمحادثات ليست سوى جزء من البيانات المتاحة. ففي النهاية، أصبحت السيارات من أقوى أجهزة جمع البيانات في الحياة اليومية. وتحتوي السيارات على أجهزة كمبيوتر وأجهزة استشعار متعددة، وتشير بعض التقديرات إلى أنها تُنتج حوالي 25 غيغابايت من البيانات كل ساعة، وهي بيانات قد تكون قيّمة بشكل خاص لشركة لديها نموذج ذكاء اصطناعي ضخم تحتاج إلى بيانات لتدريبه. تقول "تسلا" في سياسة الخصوصية الخاصة بها إنها تستخدم بيانات السيارات في نماذج الذكاء الاصطناعي الخاصة بالقيادة الذاتية، وتسمح للعملاء بتنزيل نسخ من البيانات التي تجمعها لأنفسهم. لكن "تسلا" لا توضح بالتفصيل أنواع هذه البيانات التي تستخدمها ولأي غرض، ولم تُحدّث سياسة الخصوصية الخاصة بها منذ إضافة "غروك" في 12 يوليو، لذا من غير الواضح كيف سيتم استخدام المحادثات في السيارات. خطر كبير قال ألبرت كاهن، المدير التنفيذي لـ" Surveillance Technology Oversight Project"، وهي منظمة معنية بالمصلحة العامة وتقدم خدمات قانونية وتُركز على كيفية استخدام التكنولوجيا لاستهداف الأفراد: "هذا جزء من اتجاه أوسع نراه في صناعة السيارات". وأضاف: "السيارات تحولت من رمز للاستقلالية على الطرق المفتوحة إلى أكثر جوانب حياتنا خضوعًا للمراقبة. هناك قدر هائل من الخطر في استخدام البيانات التي تُجمع في سرية من سياراتنا ضدنا، سواء من قِبل جهات إنفاذ القانون أو مسؤولي الهجرة، أو ببساطة استغلالها لتحقيق ربح دون موافقتنا". وتحتوي سيارات تسلا، على وجه التحديد، على سلسلة من الكاميرات، وتجمع البيانات من مقاطع الفيديو والكاميرات، وبيانات أجهزة الاستشعار بالموجات فوق الصوتية، ونظام تحديد المواقع العالمي ومعلومات الموقع، وبيانات القراءات الحيوية للمركبة، مثل السرعة، واستخدام البطارية، وقراءات عداد المسافات، وسجلات الأحداث مثل بيانات الاصطدامات أو الأعطال، وبيانات تفاعل المستخدم. وهذه جميعها بيانات قدمتها "تسلا" للسلطات الحكومية للعثور على المجرمين أو لمساعدة جهات إنفاذ القانون في التحقيقات. ومن غير الواضح ما إذا كان يُسمح باستخدام المحادثات مع "غروك" في التحقيقات أيضًا. وقال كاهن إنه مع زيادة عدد الكاميرات وأجهزة الاستشعار في المركبات ذاتية القيادة، يتم جمع عدد متزايد من أنواع البيانات من السائقين، مضيفًا: "تسارع هذه الشركات إلى الادعاء بأن بياناتنا تُخفي هويتها، لكن من الصعب جدًا فعليًا إخفاء هوية هذا النوع من المعلومات بطريقة لا يمكن معها إعادة تحديد هوية أصحابها لاحقًا". وبصفته الشخص الذي يقف وراء بعض أشهر المنتجات التقنية اليوم -من السيارات الكهربائية، وتقنيات القيادة الذاتية، والنماذج اللغوية الكبيرة، إلى مواقع التواصل الاجتماعي وأقمار ستارلينك للإنترنت- يبدو أن ماسك يُصرّ بشكل متزايد على دمج مختلف مكونات إمبراطوريته التجارية لتقديم منتج جديد وفريد للمستهلكين، وسيكون قرار المستهلكين بشأن جدوى هذه التنازلات متروكًا لهم.