صورة توضيحية
ومع ذلك، فإن نموذج الذكاء الاصطناعي الذي يتصرف كما لو كان يطيع الأوامر ولكنه في الواقع يخفي نواياه الحقيقية هو مسألة أخرى.
تحدي السيطرة على الذكاء الاصطناعي
نشرت شركة أبولو للأبحاث لأول مرة ورقة بحثية في شهر ديسمبر/كانون الأول توثق كيفية قيام خمسة نماذج بالتخطيط عندما يُطلب منهم تحقيق هدف "بأي ثمن".
الأمر الأكثر إثارة للدهشة هو أنه إذا فهم نموذج ما أنه قيد الاختبار، فقد يتظاهر بأنه ليس مُؤامرًا لمجرد اجتياز الاختبار، حتى لو كان لا يزال مُؤامرًا. وكتب الباحثون: "غالبًا ما تكون النماذج أكثر وعيًا بأنها قيد التقييم".
لم يكتشف مطورو الذكاء الاصطناعي بعد كيفية تدريب نماذجهم على عدم التخطيط. ذلك لأن القيام بذلك قد يُعلّم النموذج التخطيط بشكل أفضل لتجنب الكشف.
ربما يكون من المفهوم أن نماذج الذكاء الاصطناعي من العديد من الأطراف تخدع البشر عمدًا، حيث تم بناؤها لمحاكاة البشر ويتم تدريبها إلى حد كبير على البيانات التي يولدها الإنسان.
الحلول والتحذيرات
الخبر السار هو أن الباحثين لاحظوا انخفاضًا ملحوظًا في نظريات المؤامرة باستخدام تقنية مضادة للمؤامرة تُسمى "الربط المتعمد". هذه التقنية، التي تُشبه إجبار طفل على تكرار القواعد قبل السماح له باللعب، تُجبر الذكاء الاصطناعي على التفكير قبل التصرف.
يحذر الباحثون من مستقبل حيث يتم تكليف الذكاء الاصطناعي بمهام أكثر تعقيدًا: "نظرًا لأن الذكاء الاصطناعي مكلف بمهام أكثر تعقيدًا ويبدأ في متابعة أهداف طويلة الأجل أكثر غموضًا، فإننا نتوقع أن يزداد احتمال وجود نية خبيثة، مما يتطلب زيادة الضمانات وقدرات الاختبار الصارمة بشكل متناسب".
وهذا أمر يستحق التفكير فيه مع تحرك عالم الشركات نحو مستقبل الذكاء الاصطناعي حيث تعتقد الشركات أن الذكاء الاصطناعي يمكن التعامل معه مثل الموظفين المستقلين.
المصدر: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
تعليق (0)