Vietnam.vn - Nền tảng quảng bá Việt Nam

مراقبة "سلسلة التفكير" للذكاء الاصطناعي

(دان تري) - دعا أكثر من 40 عالمًا من OpenAI وGoogle DeepMind وAnthropic وMeta بشكل جماعي إلى إجراء المزيد من الأبحاث في تقنية مراقبة "سلسلة الفكر" في نماذج الذكاء الاصطناعي.

Báo Dân tríBáo Dân trí31/07/2025

تُعتبر هذه فرصةً هشةً، لكنها بالغة الأهمية، لضمان سلامة تطبيقات الذكاء الاصطناعي مستقبلًا. وتكتسب هذه الفرصة أهميةً بالغة، لا سيما مع إقرار فيتنام مؤخرًا قانون صناعة التكنولوجيا الرقمية ، الذي يتضمن لوائحَ مفصلةً لإدارة الذكاء الاصطناعي.

"نافذة الفرصة" تضيق

وفي ورقة بحثية مشتركة صدرت مؤخرا، حذر باحثو OpenAI من أن قدرة الذكاء الاصطناعي على مراقبة "الأفكار" قد تختفي في حالة عدم وجود جهود بحثية مركزة، حسبما قال بوين بيكر، الباحث في OpenAI.

وهذا مهم بشكل خاص مع تزايد قوة نماذج الذكاء الاصطناعي وإمكانية إحداث تأثيرات خطيرة على المجتمع.

الميزة الأساسية لنماذج الذكاء الاصطناعي المنطقي مثل o-3 من OpenAI و R1 من DeepSeek هي "سلسلة الأفكار" ( CoT) - وهي العملية التي يعبر بها الذكاء الاصطناعي عن خطوات المنطق الخاصة به باللغة الطبيعية، على غرار الطريقة التي يكتب بها البشر كل خطوة من خطوات مشكلة الرياضيات على ورقة مسودة.

تمنحنا هذه القدرة لمحة نادرة عن كيفية اتخاذ الذكاء الاصطناعي للقرارات.

ويمثل هذا لحظة نادرة من الوحدة بين العديد من القادة في صناعة الذكاء الاصطناعي لتعزيز البحث في مجال سلامة الذكاء الاصطناعي.

هذا الأمر ذو أهمية خاصة في ظل المنافسة الشرسة بين شركات التكنولوجيا في مجال تطوير الذكاء الاصطناعي. من أبرز الموقعين على الورقة البحثية مارك تشين، مدير الأبحاث في OpenAI، وإيليا سوتسكيفر، الرئيس التنفيذي لشركة Safe Superintelligence، وجيفري هينتون، الحائز على جائزة نوبل، وشين ليج، المؤسس المشارك لشركة Google DeepMind، ودان هندريكس، مستشار السلامة في xAI.

وتظهر مشاركة هذه الأسماء البارزة أهمية هذه القضية.

ووفقاً لتقييم السيد بوين بيكر أيضاً، "نحن في لحظة حرجة حيث ظهرت ما يسمى بـ"سلسلة التفكير" الجديدة التي قد تختفي في السنوات القليلة المقبلة إذا لم يركز الناس عليها حقاً".

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 1

لماذا يعد رصد "تفكير الذكاء الاصطناعي" أمرًا مهمًا؟

غالبًا ما يُنظر إلى أنظمة الذكاء الاصطناعي الحالية على أنها "صناديق سوداء" - فنحن نعرف المدخلات والمخرجات ولكننا لا نفهم عمليات صنع القرار داخلها.

سيصبح هذا الأمر خطيرًا عندما يتم تطبيق الذكاء الاصطناعي في مجالات مهمة مثل الرعاية الصحية والمالية والأمن القومي.

مراقبة CoT هي نظام آلي يقرأ السلسلة الذهنية للنموذج الذهني ومعلومات أخرى ذات صلة للكشف عن التفاعلات المشبوهة أو الضارة المحتملة. ليس هذا حلاً شاملاً، ولكنه قد يُشكّل طبقة حماية أمنية قيّمة.

تظهر الأبحاث من OpenAI أن نماذج الذكاء الاصطناعي تميل إلى أن تكون واضحة للغاية بشأن نواياها في تسلسلات تفكيرها.

على سبيل المثال، كانوا غالبًا صريحين جدًا بشأن خططهم لتخريب مهمة ما عندما فكروا "لنبدأ بالاختراق". وهذا يُظهر قدرة الذكاء الاصطناعي على رصد السلوكيات غير السليمة وكشفها.

"دعونا نخترق" هي العبارة التي غالبًا ما "تفكر" بها نماذج الذكاء الاصطناعي عندما "تنوي" تخريب القواعد أو التحايل عليها أثناء أداء مهمة ما.

إن إظهار أنظمة الذكاء الاصطناعي نية "الاختراق" في عملياتها الفكرية يشير إلى قدرتنا على اكتشاف سلوكيات الذكاء الاصطناعي السيئة قبل حدوثها. لذا، تُعد مراقبة عمليات التفكير أمرًا بالغ الأهمية.

بعبارة أخرى، فإن عبارة "دعنا نخترق" هي بمثابة "إشارة تحذير" لإعلام البشر بأن الذكاء الاصطناعي على وشك القيام بشيء خاطئ.

فيتنام واللوائح القانونية المتعلقة بالذكاء الاصطناعي

وفي الواقع، قطعت فيتنام خطوات مهمة في بناء الإطار القانوني للذكاء الاصطناعي.

في 14 يونيو، أقر المجلس الوطني الفيتنامي قانون صناعة التكنولوجيا الرقمية، والذي يتضمن الفصل الرابع منه لوائح مفصلة بشأن الذكاء الاصطناعي - وهو أحد الأطر القانونية الأكثر شمولاً بشأن الذكاء الاصطناعي في جنوب شرق آسيا اليوم.

تنص المادة 41 من القانون على المبادئ الأساسية لتطوير وتوفير ونشر الذكاء الاصطناعي في فيتنام.

وعلى وجه الخصوص، تنص الفقرة (ب) من البند 1 على ما يلي: "ضمان الشفافية والمساءلة والقدرة على التفسير؛ وضمان عدم تجاوزها للسيطرة البشرية".

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 2

أقرت الجمعية الوطنية قانون صناعة التكنولوجيا الرقمية (تصوير: نهات باك).

هذه هي المبادئ التي يدعو إليها العلماء الدوليون عند مناقشة مراقبة سلسلة الذكاء الاصطناعي.

علاوةً على ذلك، تنص الفقرة (د) من البند 1 من المادة 41 على ما يلي: "ضمان القدرة على التحكم في الخوارزميات ونماذج الذكاء الاصطناعي". وهذا يتوافق تمامًا مع روح الإشراف على لجنة التكنولوجيا التي يقترحها الخبراء الدوليون.

والأمر الأكثر أهمية هو أن المادة 41، البند 1، النقطة (أ) تضع أيضًا معيارًا أخلاقيًا عاليًا عندما تنص على أن الذكاء الاصطناعي يجب أن "يخدم الرخاء والسعادة البشرية، مع وضع البشر في المركز".

وهذا يعني أن مراقبة سلسلة أفكار الذكاء الاصطناعي ليست مجرد متطلب تقني، بل هي أيضًا التزام أخلاقي - مما يضمن أن الذكاء الاصطناعي موجه دائمًا نحو المنفعة الإنسانية، وليس أهداف الآلة الخاصة.

تصنيف وإدارة الذكاء الاصطناعي حسب مستوى المخاطر

لقد ذهب قانون صناعة التكنولوجيا الرقمية في فيتنام إلى أبعد من ذلك من خلال تصنيف الذكاء الاصطناعي إلى مجموعات مخاطر مختلفة مع تعريفات واضحة وعلمية.

تُعرّف المادة 43 "أنظمة الذكاء الاصطناعي عالية الخطورة" بأنها الأنظمة التي من المحتمل أن تشكل مخاطر أو أضرارًا جسيمة على صحة الإنسان وحقوق الإنسان والنظام العام.

ومن المثير للاهتمام أن القانون ينص على استثناءات محددة للذكاء الاصطناعي عالي المخاطر، بما في ذلك الأنظمة "المقصود منها مساعدة البشر في تحسين نتائج العمل" و"غير المقصود منها استبدال عملية صنع القرار البشري".

ويظهر هذا توازناً في العقلية بين تشجيع الابتكار وضمان السلامة.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 3

إن تصنيف الذكاء الاصطناعي حسب مستوى المخاطر سيساعد في إنشاء نظام مراقبة متعدد الطبقات (صورة توضيحية: LinkedIn).

وعلى وجه الخصوص، فإن التمييز بين "الذكاء الاصطناعي عالي المخاطر" و"الذكاء الاصطناعي عالي التأثير" (الأنظمة المستخدمة لأغراض متعددة والتي تضم عددا كبيرا من المستخدمين) يوضح الفروق الدقيقة في النهج.

وهذا تصنيف أكثر تقدمية من قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يأخذ في الاعتبار ليس فقط مستوى المخاطرة، بل أيضًا حجم ونطاق التأثير.

ومن شأن هذا التصنيف أن يساعد في إنشاء نظام إشراف متعدد الطبقات، حيث تكون الرقابة على سلسلة الرؤية مهمة بشكل خاص لأنظمة الذكاء الاصطناعي عالية المخاطر وعالية التأثير.

منصة لمراقبة الذكاء الاصطناعي

ومن أبرز النقاط الرائدة في قانون الصناعة والتكنولوجيا الرقمية في فيتنام هو متطلبات الشفافية وعلامات التعريف.

تنص المادة 44 على أن أنظمة الذكاء الاصطناعي التي تتفاعل مباشرةً مع البشر ملزمة بإخطار المستخدمين بتفاعلهم معها. وفي الوقت نفسه، يجب أن تحمل المنتجات التي تُنتجها أنظمة الذكاء الاصطناعي علامات تعريف.

لهذا الأمر آثارٌ مهمة على تطبيق مراقبة CoT. فعندما يعلم المستخدمون أنهم يتفاعلون مع الذكاء الاصطناعي، سيكون لهم الحق في طلب توضيحاتٍ لعملية اتخاذ القرار، مما يُشكّل ضغطًا إيجابيًا على مطوري الذكاء الاصطناعي للحفاظ على قدرتهم على مراقبة عملية التفكير لديه.

وعلى وجه الخصوص، فإن تكليف وزارة العلوم والتكنولوجيا بمسؤولية "إصدار قائمة منتجات التكنولوجيا الرقمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي" يظهر الإدارة الاستباقية.

وهذا يمثل فرقًا مهمًا عن العديد من البلدان الأخرى، حيث تكون لوائح الذكاء الاصطناعي في أغلب الأحيان أكثر عمومية.

وعلاوة على ذلك، فإن اشتراط "التعرف على المعرف من قبل المستخدم أو الآلة" يمثل رؤية لنظام بيئي للذكاء الاصطناعي قادر على مراقبة نفسه - وهو ما يتناسب تمامًا مع فكرة المراقبة الآلية لسلسلة الرؤية.

نموذج الإدارة الشاملة

وتوضح المادة 45 من القانون المذكور أعلاه فلسفة إدارية تقدمية عندما تحدد بوضوح مسؤوليات ثلاث مجموعات من الكيانات وفقًا لدورة حياة منتج الذكاء الاصطناعي: كيان التطوير، وكونه كيان التوفير، وكونه كيان تنفيذ استخدام نظام الذكاء الاصطناعي.

ويؤدي هذا إلى إنشاء نظام مساءلة متكامل من البداية إلى النهاية، مما يضمن أن الرقابة على الذكاء الاصطناعي لا تقع على عاتق طرف واحد فقط.

من الجدير بالملاحظة التمييز الدقيق بين "تطوير" و"توفير" الذكاء الاصطناعي؛ المطورون هم أولئك الذين "يبحثون ويطورون"، في حين أن المزودين هم أولئك الذين يجلبونه إلى السوق تحت اسم علامة تجارية.

وهذا يعني أنه حتى لو قامت شركة ما بإعادة تسمية نموذج الذكاء الاصطناعي الحالي، فإنها لا تزال مسؤولة عن الشفافية والقدرة على التفسير.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 4

والأمر المثير للاهتمام بشكل خاص هنا هو كيف يوزع القانون مسؤوليات مختلفة على كيانات مختلفة.

يتعين على المطور الالتزام بجميع المبادئ، ويجب على المزود أن يتحمل مسؤولية إضافية فيما يتعلق بالتحديد وإدارة المخاطر العالية، ويُعفى المستخدم جزئيًا من المسؤولية ولكن لا يزال يتعين عليه ضمان الشفافية والسيطرة على المخاطر.

يخلق هذا النموذج "سلسلة من المسؤولية" حيث يكون لكل رابط حافز للحفاظ على الإشراف على سلسلة تفكير الذكاء الاصطناعي، حيث يكون الجميع مسؤولين أمام المستخدم النهائي.

تحدي الحفاظ على قدرات المراقبة

مع ذلك، قد تظل القدرة على رصد سلاسل أفكار الذكاء الاصطناعي هشةً وعرضةً للخطر. كما قد تُشكّل بنى الذكاء الاصطناعي الجديدة تهديداتٍ أخرى.

ويعمل العديد من الباحثين على تطوير أنظمة التفكير في الفضاء الرياضي المستمر، بدلاً من الكلمات المنفصلة، ​​وهو ما قد يلغي تماماً الحاجة إلى استخدام اللغة في التفكير.

علاوة على ذلك، يمكن للذكاء الاصطناعي أن يصبح "مُصفى" - أي أنه يُظهر فقط الأفكار الإيجابية للبشر والتي تستحق التقدير، بينما يخفي عمداً نواياه الحقيقية.

الخطر هنا هو أنه بمجرد أن يدرك الذكاء الاصطناعي أنه يخضع للمراقبة، فإنه قد يتعلم إخفاء سلسلة أفكاره الحقيقية.

في هذا السياق، يكتسب البند المتعلق بـ "التحكم في المخاطر طوال دورة حياة أنظمة الذكاء الاصطناعي" في الفقرة (هـ)، البند 1، المادة 41 من القانون الفيتنامي أهمية خاصة. ويتطلب ذلك آلية مراقبة مستمرة، لا تقتصر على وقت النشر فقط.

التأثير على مستقبل تطوير الذكاء الاصطناعي

إن مراقبة سلسلة الأفكار قد تصبح أداة مهمة لضمان عمل الذكاء الاصطناعي بطرق تفيد البشر.

إذا استمرت النماذج في التفكير باللغة الطبيعية، وإذا كانت السلوكيات التي تشكل أخطر المخاطر تتطلب تفكيراً مكثفاً، فقد يتيح هذا الكشف بشكل موثوق عن سوء السلوك الخطير.

بالنسبة لفيتنام، فإن تطبيق تقنيات مراقبة CoT من شأنه أن يساعد على تنفيذ أحكام القانون بشكل فعال.

على سبيل المثال، سيكون من الأسهل استيفاء شرط "القدرة على التفسير" الوارد في المادة 41 إذا كان تسلسل أفكار الذكاء الاصطناعي متاحًا. وبالمثل، سيصبح "التحكم في الخوارزميات ونماذج الذكاء الاصطناعي" أكثر جدوى.

سيواجه تطبيق مراقبة سلسلة الذكاء الاصطناعي في فيتنام عددًا من التحديات. أولها، مشكلة الموارد البشرية - نقص خبراء الذكاء الاصطناعي القادرين على تطوير وتشغيل أنظمة المراقبة.

ويتطلب هذا استثمارًا كبيرًا في التدريب وجذب المواهب.

اتجاهات المستقبل

ويدعو الباحثون مطوري نماذج الذكاء الاصطناعي الرائدين إلى البحث في ما يجعل CoT "قابلة للمراقبة" - العوامل التي يمكن أن تزيد أو تقلل من الشفافية حول كيفية استخدام نماذج الذكاء الاصطناعي - والتوصل إلى إجابات قريبًا.

إن فرصة مراقبة "تفكير" الذكاء الاصطناعي قد تكون نافذتنا الأخيرة للحفاظ على السيطرة على أنظمة الذكاء الاصطناعي القوية بشكل متزايد اليوم.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 5

بالنسبة لفيتنام، يُعدّ وجود إطار قانوني شامل للذكاء الاصطناعي من خلال قانون صناعة التكنولوجيا الرقمية ميزةً كبيرة. فقد أرست اللوائح المتعلقة بالشفافية، ومراقبة الخوارزميات، وتصنيف المخاطر، أساسًا قانونيًا متينًا لتطبيق تقنيات رصد سلسلة الأفكار في مجال الذكاء الاصطناعي.

إن الجمع بين الأبحاث الدولية المتطورة والإطار القانوني المحلي التقدمي من شأنه أن يساعد فيتنام ليس فقط على تطوير الذكاء الاصطناعي بشكل آمن، بل وأيضاً أن تصبح نموذجاً للدول الأخرى في المنطقة.

ويتماشى هذا مع هدف تحويل فيتنام إلى "مركز إقليمي وعالمي للتكنولوجيا الرقمية" كما هو منصوص عليه في استراتيجيات التنمية الوطنية.

في ظلّ الأساس القانوني القائم، تحتاج فيتنام إلى الإسراع في نشر البحوث والتطبيقات العملية المتعلقة برصد سلسلة أفكار الذكاء الاصطناعي. فبهذا وحده، يُمكننا ضمان أن يخدم الذكاء الاصطناعي "رخاء الإنسان وسعادته"، كما ينصّ عليه قانون صناعة التكنولوجيا الرقمية.

المصدر: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm


تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

قم بزيارة U Minh Ha لتجربة السياحة الخضراء في Muoi Ngot وSong Trem
منتخب فيتنام يصعد لتصنيف الفيفا بعد الفوز على نيبال وإندونيسيا في خطر
بعد 71 عامًا من التحرير، لا تزال هانوي تحتفظ بجمال تراثها في التدفق الحديث
الذكرى السنوية الحادية والسبعين ليوم تحرير العاصمة - تحفيز الروح المعنوية لهانوي للمضي قدمًا بقوة في العصر الجديد

نفس المؤلف

إرث

شكل

عمل

No videos available

الأحداث الجارية

النظام السياسي

محلي

منتج