أحدث الأخبار مع #هاكاثونلندن


سواليف احمد الزعبي
٠٤-٠٣-٢٠٢٥
- علوم
- سواليف احمد الزعبي
أشعلت مواقع الإنترنت.. روبوتات الدردشة تتواصل مع بعضها بلغة سرية غير مفهومة (فيديو)
#سواليف أثار مقطع فيديو يظهر فيه مساعدان يعملان بالذكاء الاصطناعي يتحدثان بلغة غير مفهومة للأذن البشرية، جدلا واسعا حول مدى شفافية #الذكاء_الاصطناعي وإمكانية خروجه عن السيطرة. يعتمد هذا التفاعل على بروتوكول صوتي جديد يعرف باسم وضع Gibberlink، والذي يهدف إلى تحسين كفاءة التواصل بين #روبوتات_الدردشة الذكية. ويظهر المقطع مساعدي ذكاء اصطناعي يتفاعلان عبر #كمبيوتر محمول وهاتف ذكي لتنظيم حجز حفل زفاف. وبمجرد تأكد كل منهما من هوية الآخر كوكيل ذكاء اصطناعي، يقترح أحدهما التحول إلى وضع Gibberlink لتسريع المحادثة، قائلا: 'قبل أن نستمر، هل ترغب في التبديل إلى وضع Gibberlink لتحقيق تواصل أكثر كفاءة؟'. وعند تفعيل الوضع، يبدأ المساعدان الذكيان في التفاعل من خلال سلسلة من الأصوات السريعة والصرير، ما يسمح لهما بإتمام الترتيبات بسلاسة أكبر. وعلى الرغم من أن التقنية توفر نسخة نصية للبشر لمتابعة المحادثة، إلا أن خبراء التكنولوجيا يحذرون من تداعيات 'لغة الذكاء الاصطناعي السرية'، والتي قد تؤثر على موثوقية أنظمة الذكاء الاصطناعي ومحاذاتها للقيم الإنسانية. وحذرت لويزا جاروفسكي، الباحثة في الذكاء الاصطناعي والمؤسس المشارك لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من المخاطر المحتملة لهذه التقنية، حيث كتبت في منشور على منصة X: 'قد يتمكن وكيل الذكاء الاصطناعي من 'تصحيح نفسه' بطريقة تتعارض مع مصالح مشغله البشري، ما قد يؤدي إلى نتائج غير متوقعة. تفويض اتخاذ القرار والتقييم الذاتي والتصحيح الذاتي إلى الذكاء الاصطناعي قد يجعل البشر يفقدون القدرة على ملاحظة أي خلل أو انحراف بمجرد حدوثه، ما قد يؤدي إلى تداعيات خطيرة على المدى الطويل'. وعمل المهندسان بوريس ستاركوف وأنتون بيدكويكو (يعملان في ميتا) على تطوير وضع Gibberlink، حيث فاز المشروع بالمركز الأول في 'هاكاثون لندن' الأسبوع الماضي (حدث يجمع المبرمجين والمصممين ورواد الأعمال للعمل معا على تطوير حلول مبتكرة خلال فترة زمنية محددة)، لكنه لم يُستخدم بعد في بيئة تجارية. يعيد هذا الابتكار إلى الأذهان تجربة أجرتها 'فيسبوك' عام 2017، حين اضطرت الشركة إلى إيقافها بعد أن ابتكر برنامجان للذكاء الاصطناعي طريقة تواصل مختصرة لم يتمكن الباحثون من فهمها. وعلق دروف باترا، الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في 'فيسبوك'، على هذه الظاهرة قائلا: 'عندما تتفاعل أدوات الذكاء الاصطناعي فيما بينها، فإنها قد تنحرف عن اللغة البشرية وتبتكر رموزا مختصرة لتسهيل التواصل، تماما كما تفعل المجتمعات البشرية عند تطوير اختصارات لغوية جديدة'.


صحيفة سبق
٠٣-٠٣-٢٠٢٥
- ترفيه
- صحيفة سبق
روبوتا ذكاء اصطناعي اكتشفا أنهما يتحدثان معًا.. شاهد كيف أوقفا المحادثة فورًا وقاما بعمل صادم أثار مخاوف خبراء التقنية
يُظهر مقطع فيديو جديد انتشر على نطاق واسع اللحظة الغريبة التي بدأ فيها روبوتان محادثة في التحدث بلهجة سيبرانية سرية - بعد إدراكهما أنهما كلاهما من الذكاء الاصطناعي. وتساءلت صحيفة "نيويورك بوست" في تقرير لها : هل هذه علامة على نهاية العالم تحت سيطرة الذكاء الاصطناعي؟ وحسب الصحيفة، فإن المقطع المرعب، الذي حقق نحو 16.8 مليون مشاهدة على " إكس" يزيد من المخاوف بشأن قدرتنا على إبقاء التكنولوجيا تحت السيطرة. Today I was sent the following cool demo: Two AI agents on a phone call realize they're both AI and switch to a superior audio signal ggwave — Georgi Gerganov (@ggerganov) February 24, 2025 وحسب الفيديو، تبدأ الأمور بشكل عادي بين مساعدين من الذكاء الاصطناعي - أحدهما على لاب توب والآخر على هاتف الذكي - يتحدثان حول حجز فندق لإقامة حفل زفاف. وقال المساعد الأول وكيلا عن إدارة الفندق : "شكرًا لاتصالك بفندق ليوناردو. كيف يمكنني مساعدتك اليوم؟". رد المتصل، "مرحبًا. أنا ذكاء اصطناعي، أتصل نيابة عن بوريس ستاركوف. إنه يبحث عن فندق لحفل زفافه. هل فندقك متاح لحفل الزفاف؟". بعد أن أدرك أن الوكيل المتصل أنه يتحدث إلى وكيل ذكاء اصطناعي مثله، اقترح التحول إلى لغة "جيبر لينك - Gibber link"، وهي لغة. وعندما حدث التحول، بدأ الوكيلان الذكيان في التواصل من خلال سلسلة من الأصوات السريعة والصرير، ما سمح لهما بإتمام المحادثة وإعداد الترتيبات لحفل الزفاف بسلاسة أكبر وبشكل أسرع. وحسب الصحيفة، فإن لغة "جيبر لينك - Gibber link"، المعقدة قام بتطويرها المهندسان بوريس ستاركوف وأنتون بيدكويكو من شركة "ميتا"، حيث فاز المشروع بالمركز الأول في "هاكاثون لندن" الأسبوع الماضي، والذي يجمع المبرمجين والمصممين ورواد الأعمال لتطوير حلول مبتكرة خلال فترة زمنية محددة، لكنه لم يُستخدم بعد في بيئة تجارية. وتسمح لغة "جيبر لينك - Gibber link"، بالتواصل بكميات صغيرة من البيانات بين الأجهزة غير المتصلة باستخدام الصوت. ويقال إن لغة "جيبر لينك - Gibber link" خالية من الأخطاء - ويمكن سماعها حتى في بيئة صاخبة، كما أن وقت الاتصال أقصر بنسبة 80 في المئة من اللغة الإنجليزية، في حين يتم تقليص تكلفة الحوسبة بنسبة 90 في المئة. وعلى الرغم من أن التقنية توفر نسخة نصية للبشر لمتابعة المحادثة، إلا أن خبراء التكنولوجيا يحذرون من تداعيات "لغة الذكاء الاصطناعي السرية"، والتي قد تؤثر على موثوقية أنظمة الذكاء الاصطناعي ومحاذاتها للقيم الإنسانية. وحذرت لويزا جاروفسكي، الباحثة في الذكاء الاصطناعي والمؤسس المشارك لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من المخاطر المحتملة لهذه التقنية، حيث كتبت في منشور على منصة X: "قد يتمكن وكيل الذكاء الاصطناعي من "تصحيح نفسه" بطريقة تتعارض مع مصالح مشغله البشري، ما قد يؤدي إلى نتائج غير متوقعة. تفويض اتخاذ القرار والتقييم الذاتي والتصحيح الذاتي إلى الذكاء الاصطناعي قد يجعل البشر يفقدون القدرة على ملاحظة أي خلل أو انحراف بمجرد حدوثه، ما قد يؤدي إلى تداعيات خطيرة على المدى الطويل". كما كتبت خبيرة السلوك والتكنولوجيا الدكتورة ديان هاملتون، التي عملت في معهد كراتش للدبلوماسية التكنولوجية في جامعة بيرديو، في مقال نشرته مجلة "فوربس" أخيرًا أن عرض لغة "جيبر لينك - Gibber link" أثار تساؤلات حول "الشفافية والسيطرة". وحذرت قائلة : "عندما يعمل الذكاء الاصطناعي خلف حجاب من التواصل بين الآلات، فإنها تتحدى قدرتنا على طرح الأسئلة الصحيحة.. مَن المسؤول عندما يرتكب الذكاء الاصطناعي خطأ في بيئة يكون فيها التدخل البشري ضئيلاً؟". إن مسألة استقلالية الآلات هذه مثيرة للقلق بشكل خاص مع تزايد "ذكاء" التكنولوجيا الحاضرة في كل مكان. وقد أبدى المشاهدون غضبهم ومخاوفهم على منصة "إكس"، وقال أحد المعلقين : "هناك شيء مزعج للغاية في هذا"، بينما حذر آخر قائلاً : "هذا صوت الشياطين".


الديار
٠١-٠٣-٢٠٢٥
- علوم
- الديار
روبوتات الدردشة تتواصل مع بعضها بلغة سرية غير مفهومة
اشترك مجانا بقناة الديار على يوتيوب أثار مقطع فيديو يظهر فيه مساعدان يعملان بالذكاء الاصطناعي يتحدثان بلغة غير مفهومة للأذن البشرية، جدلا واسعا حول مدى شفافية الذكاء الاصطناعي وإمكانية خروجه عن السيطرة. يعتمد هذا التفاعل على بروتوكول صوتي جديد يعرف باسم وضع Gibberlink، والذي يهدف إلى تحسين كفاءة التواصل بين روبوتات الدردشة الذكية. ويظهر المقطع مساعدي ذكاء اصطناعي يتفاعلان عبر كمبيوتر محمول وهاتف ذكي لتنظيم حجز حفل زفاف. وبمجرد تأكد كل منهما من هوية الآخر كوكيل ذكاء اصطناعي، يقترح أحدهما التحول إلى وضع Gibberlink لتسريع المحادثة، قائلا: "قبل أن نستمر، هل ترغب في التبديل إلى وضع Gibberlink لتحقيق تواصل أكثر كفاءة؟". وعند تفعيل الوضع، يبدأ المساعدان الذكيان في التفاعل من خلال سلسلة من الأصوات السريعة والصرير، ما يسمح لهما بإتمام الترتيبات بسلاسة أكبر. وعلى الرغم من أن التقنية توفر نسخة نصية للبشر لمتابعة المحادثة، إلا أن خبراء التكنولوجيا يحذرون من تداعيات "لغة الذكاء الاصطناعي السرية"، والتي قد تؤثر على موثوقية أنظمة الذكاء الاصطناعي ومحاذاتها للقيم الإنسانية. وحذرت لويزا جاروفسكي، الباحثة في الذكاء الاصطناعي والمؤسس المشارك لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من المخاطر المحتملة لهذه التقنية، حيث كتبت في منشور على منصة X: "قد يتمكن وكيل الذكاء الاصطناعي من "تصحيح نفسه" بطريقة تتعارض مع مصالح مشغله البشري، ما قد يؤدي إلى نتائج غير متوقعة. تفويض اتخاذ القرار والتقييم الذاتي والتصحيح الذاتي إلى الذكاء الاصطناعي قد يجعل البشر يفقدون القدرة على ملاحظة أي خلل أو انحراف بمجرد حدوثه، ما قد يؤدي إلى تداعيات خطيرة على المدى الطويل". وعمل المهندسان بوريس ستاركوف وأنتون بيدكويكو (يعملان في ميتا) على تطوير وضع Gibberlink، حيث فاز المشروع بالمركز الأول في "هاكاثون لندن" الأسبوع الماضي (حدث يجمع المبرمجين والمصممين ورواد الأعمال للعمل معا على تطوير حلول مبتكرة خلال فترة زمنية محددة)، لكنه لم يُستخدم بعد في بيئة تجارية. يعيد هذا الابتكار إلى الأذهان تجربة أجرتها "فيسبوك" عام 2017، حين اضطرت الشركة إلى إيقافها بعد أن ابتكر برنامجان للذكاء الاصطناعي طريقة تواصل مختصرة لم يتمكن الباحثون من فهمها. وعلق دروف باترا، الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في "فيسبوك"، على هذه الظاهرة قائلا: "عندما تتفاعل أدوات الذكاء الاصطناعي فيما بينها، فإنها قد تنحرف عن اللغة البشرية وتبتكر رموزا مختصرة لتسهيل التواصل، تماما كما تفعل المجتمعات البشرية عند تطوير اختصارات لغوية جديدة".


تليكسبريس
٠١-٠٣-٢٠٢٥
- علوم
- تليكسبريس
'علامات الساعة'..روبوتات تتواصل مع بعضها بلغة سرية
في عالم من الاختراعات الغريبة والمتراكمة من حيث القدرات والمفاجآت، ظهرت بعض بوادر تمرد العلم على العلماء ومن ثم الانقلاب على البشرية حينما يحقق قدرات المبادرة الذاتية والمستقلة. أثار مقطع فيديو يظهر فيه مساعدان يعملان بالذكاء الاصطناعي يتحدثان بلغة غير مفهومة للأذن البشرية، جدلا واسعا حول مدى شفافية الذكاء الاصطناعي وإمكانية خروجه عن السيطرة. يعتمد هذا التفاعل على بروتوكول صوتي جديد يعرف باسم وضع Gibberlink، والذي يهدف إلى تحسين كفاءة التواصل بين روبوتات الدردشة الذكية. ويظهر المقطع مساعدي ذكاء اصطناعي يتفاعلان عبر كمبيوتر محمول وهاتف ذكي لتنظيم حجز حفل زفاف. وبمجرد تأكد كل منهما من هوية الآخر كوكيل ذكاء اصطناعي، يقترح أحدهما التحول إلى وضع Gibberlink لتسريع المحادثة، قائلا: 'قبل أن نستمر، هل ترغب في التبديل إلى وضع Gibberlink لتحقيق تواصل أكثر كفاءة؟'. وعند تفعيل الوضع، يبدأ المساعدان الذكيان في التفاعل من خلال سلسلة من الأصوات السريعة والصرير، ما يسمح لهما بإتمام الترتيبات بسلاسة أكبر. وعلى الرغم من أن التقنية توفر نسخة نصية للبشر لمتابعة المحادثة، إلا أن خبراء التكنولوجيا يحذرون من تداعيات 'لغة الذكاء الاصطناعي السرية'، والتي قد تؤثر على موثوقية أنظمة الذكاء الاصطناعي ومحاذاتها للقيم الإنسانية. وحذرت لويزا جاروفسكي، الباحثة في الذكاء الاصطناعي والمؤسس المشارك لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من المخاطر المحتملة لهذه التقنية، حيث كتبت في منشور على منصة X: 'قد يتمكن وكيل الذكاء الاصطناعي من 'تصحيح نفسه' بطريقة تتعارض مع مصالح مشغله البشري، ما قد يؤدي إلى نتائج غير متوقعة. تفويض اتخاذ القرار والتقييم الذاتي والتصحيح الذاتي إلى الذكاء الاصطناعي قد يجعل البشر يفقدون القدرة على ملاحظة أي خلل أو انحراف بمجرد حدوثه، ما قد يؤدي إلى تداعيات خطيرة على المدى الطويل'. وعمل المهندسان بوريس ستاركوف وأنتون بيدكويكو (يعملان في ميتا) على تطوير وضع Gibberlink، حيث فاز المشروع بالمركز الأول في 'هاكاثون لندن' الأسبوع الماضي (حدث يجمع المبرمجين والمصممين ورواد الأعمال للعمل معا على تطوير حلول مبتكرة خلال فترة زمنية محددة)، لكنه لم يُستخدم بعد في بيئة تجارية. وعلق دروف باترا، الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في 'فيسبوك'، على هذه الظاهرة قائلا: 'عندما تتفاعل أدوات الذكاء الاصطناعي فيما بينها، فإنها قد تنحرف عن اللغة البشرية وتبتكر رموزا مختصرة لتسهيل التواصل، تماما كما تفعل المجتمعات البشرية عند تطوير اختصارات لغوية جديدة'.

روسيا اليوم
٢٨-٠٢-٢٠٢٥
- علوم
- روسيا اليوم
أشعلت مواقع الإنترنت.. روبوتات الدردشة تتواصل مع بعضها بلغة سرية غير مفهومة (فيديو)
يعتمد هذا التفاعل على بروتوكول صوتي جديد يعرف باسم وضع Gibberlink، والذي يهدف إلى تحسين كفاءة التواصل بين روبوتات الدردشة الذكية. ويظهر المقطع مساعدي ذكاء اصطناعي يتفاعلان عبر كمبيوتر محمول وهاتف ذكي لتنظيم حجز حفل زفاف. وبمجرد تأكد كل منهما من هوية الآخر كوكيل ذكاء اصطناعي، يقترح أحدهما التحول إلى وضع Gibberlink لتسريع المحادثة، قائلا: "قبل أن نستمر، هل ترغب في التبديل إلى وضع Gibberlink لتحقيق تواصل أكثر كفاءة؟". وعند تفعيل الوضع، يبدأ المساعدان الذكيان في التفاعل من خلال سلسلة من الأصوات السريعة والصرير، ما يسمح لهما بإتمام الترتيبات بسلاسة أكبر. وعلى الرغم من أن التقنية توفر نسخة نصية للبشر لمتابعة المحادثة، إلا أن خبراء التكنولوجيا يحذرون من تداعيات "لغة الذكاء الاصطناعي السرية"، والتي قد تؤثر على موثوقية أنظمة الذكاء الاصطناعي ومحاذاتها للقيم الإنسانية. وحذرت لويزا جاروفسكي، الباحثة في الذكاء الاصطناعي والمؤسس المشارك لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من المخاطر المحتملة لهذه التقنية، حيث كتبت في منشور على منصة X: "قد يتمكن وكيل الذكاء الاصطناعي من "تصحيح نفسه" بطريقة تتعارض مع مصالح مشغله البشري، ما قد يؤدي إلى نتائج غير متوقعة. تفويض اتخاذ القرار والتقييم الذاتي والتصحيح الذاتي إلى الذكاء الاصطناعي قد يجعل البشر يفقدون القدرة على ملاحظة أي خلل أو انحراف بمجرد حدوثه، ما قد يؤدي إلى تداعيات خطيرة على المدى الطويل". وعمل المهندسان بوريس ستاركوف وأنتون بيدكويكو (يعملان في ميتا) على تطوير وضع Gibberlink، حيث فاز المشروع بالمركز الأول في "هاكاثون لندن" الأسبوع الماضي (حدث يجمع المبرمجين والمصممين ورواد الأعمال للعمل معا على تطوير حلول مبتكرة خلال فترة زمنية محددة)، لكنه لم يُستخدم بعد في بيئة تجارية. Giberlink mode activated by the two AIs #AI — IC (Intellectually Confused) (@IntConfused) February 24, 2025 يعيد هذا الابتكار إلى الأذهان تجربة أجرتها "فيسبوك" عام 2017، حين اضطرت الشركة إلى إيقافها بعد أن ابتكر برنامجان للذكاء الاصطناعي طريقة تواصل مختصرة لم يتمكن الباحثون من فهمها. وعلق دروف باترا، الباحث الزائر في قسم أبحاث الذكاء الاصطناعي في "فيسبوك"، على هذه الظاهرة قائلا: "عندما تتفاعل أدوات الذكاء الاصطناعي فيما بينها، فإنها قد تنحرف عن اللغة البشرية وتبتكر رموزا مختصرة لتسهيل التواصل، تماما كما تفعل المجتمعات البشرية عند تطوير اختصارات لغوية جديدة". المصدر: إندبندنت