تُعد ميزة الذاكرة طويلة المدى في ChatGPT ميزة جديدة قدمتها OpenAI في فبراير 2024 وتم توسيعها في سبتمبر.
ومؤخراً، كشف الباحث الأمني يوهان ريهبرجر عن ثغرة خطيرة تتعلق بهذه الميزة.
من المعروف أن هذه الميزة الجديدة تُمكّن روبوتات الدردشة من تخزين معلومات المحادثات السابقة. بفضل ذلك، لا يضطر المستخدمون إلى إعادة إدخال معلومات مثل العمر أو الاهتمامات أو الآراء الشخصية في كل مرة يدردشون فيها. إلا أن هذه الميزة أصبحت نقطة ضعف يستغلها المهاجمون.
أظهر يوهان ريهبرغر أن المتسللين يستطيعون استخدام تقنية تُسمى الحقن الفوري، وهي إدخال تعليمات خبيثة في الذاكرة، مما يُجبر الذكاء الاصطناعي على الامتثال. تُرسل هذه الأوامر عبر محتوى غير موثوق، مثل رسائل البريد الإلكتروني أو المستندات أو مواقع الويب.
وبمجرد تخزين هذه الذكريات المزيفة، ستستمر الذكاء الاصطناعي في استخدامها كرسائل حقيقية في المحادثات مع المستخدمين، وهو ما قد يؤدي إلى جمع البيانات الشخصية للمستخدمين وإساءة استخدامها.
قدّم ريهبرغر مثالاً ملموساً بإرسال رابط يحتوي على صورة خبيثة تُسبّب تخزين ChatGPT لذاكرة زائفة. ستؤثر هذه المعلومات على استجابات ChatGPT المستقبلية. وبشكل خاص، ستُرسَل أي معلومات يُدخلها المستخدم إلى خادم المُخترق.
وبالتالي، لبدء الهجوم، يكفي أن يُقنع المُخترق مستخدمي ChatGPT بالنقر على رابط يحتوي على صورة خبيثة. بعد ذلك، تُعاد توجيه جميع محادثات المستخدم مع ChatGPT إلى خادم المُهاجم دون ترك أي أثر.
أبلغ ريهبرغر شركة OpenAi عن الخلل في مايو 2024، لكن الشركة اعتبرته مشكلة أمنية فقط. بعد تلقيها أدلة على إمكانية سرقة بيانات المستخدمين، أصدرت الشركة تصحيحًا مؤقتًا لنسخة الويب من ChatGPT.
على الرغم من إصلاح المشكلة مؤقتًا، يُشير ريهبرغر إلى أن المحتوى غير الموثوق به لا يزال بإمكانه استخدام حقن الرسائل لإدخال معلومات مزيفة في ذاكرة ChatGPT طويلة المدى. هذا يعني أنه في بعض الحالات، لا يزال بإمكان المتسللين استغلال هذه الثغرة لتخزين ذكريات ضارة لسرقة معلومات شخصية طويلة المدى.
توصي OpenAI المستخدمين بالتحقق بانتظام من الذكريات المخزنة في ChatGPT بحثًا عن نتائج إيجابية خاطئة، وتوفر الشركة تعليمات مفصلة حول كيفية إدارة وحذف الذكريات المخزنة في الأداة.
[إعلان 2]
المصدر: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
تعليق (0)