وجد تقرير OpenAI الصادر في أكتوبر أن الجهات الفاعلة السيبرانية على مستوى العالم تعمل في المقام الأول على دمج الذكاء الاصطناعي في خطوط الهجوم الحالية لتحسين الأداء، بدلاً من تطوير أدوات أو أساليب هجومية جديدة تمامًا.
وفقًا لشركة OpenAI، فإن جزءًا كبيرًا من النشاط الذي تم اكتشافه يتضمن استخدام الذكاء الاصطناعي للمساعدة في المهام المألوفة مثل تطوير البرامج الضارة، وبناء البنية التحتية للتحكم، وإنشاء رسائل تصيد عبر البريد الإلكتروني أكثر تطورًا، وجمع المعلومات حول الأهداف.
وجاء في التقرير أن "الفرق المحظورة كانت في الغالب تعمل على دمج الذكاء الاصطناعي في العمليات الحالية، بدلاً من بناء عمليات جديدة تعتمد على الذكاء الاصطناعي".
ووجد التقرير أيضًا أن العديد من مجموعات المستخدمين استفادت من نماذج اللغة الكبيرة (LLMs) لاستخراج المعرفة في مجموعة متنوعة من المجالات التقنية، من تطوير التطبيقات إلى تكوين نظام الشبكة، وغالبًا بطريقة تخصص كل حساب لمهمة محددة.
تم تحديد العديد من شبكات المستخدمين الأخرى التي تستخدم منصات الذكاء الاصطناعي لإنشاء محتوى إلكتروني، بما في ذلك المقالات والصور ومقاطع الفيديو ، لخدمة الحملات الإعلامية أو الترويج لوجهات نظر معينة. ومع ذلك، فإن معظم هذه الحسابات غير فعّالة، ومستويات التفاعل فيها منخفضة للغاية.
بالإضافة إلى ذلك، رصدت OpenAI ظاهرة مراكز الاحتيال ومجرمي الإنترنت الذين يستخدمون ChatGPT لدعم أنشطة الاحتيال الإلكتروني في ميانمار وكمبوديا. وتُظهر بعض الحالات أن الذكاء الاصطناعي لا يُستخدم فقط لتحرير المحتوى، بل أيضًا لإدارة جداول العمل والموارد البشرية والمالية.
ومع ذلك، تُشير OpenAI إلى أن الذكاء الاصطناعي يُستخدم بنشاط أيضًا لمنع الاحتيال. وتشير التقديرات إلى أن استخدام ChatGPT للكشف عن عمليات الاحتيال وتجنبها يفوق بثلاث مرات استخدامه لارتكابها.
يتم رفض معظم الطلبات الخبيثة من قبل النظام، لكن التقرير يشير إلى أنه لا يزال هناك "منطقة رمادية" حيث يمكن استغلال الطلبات التقنية أو القائمة على البحث لأغراض غير مقصودة.
ومع ذلك، تؤكد OpenAI أن الكود أو المحتوى الذي تم إنشاؤه ليس ضارًا حتى يتم إساءة استخدامه خارج المنصة.
(TTXVN/فيتنام+)
المصدر: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
تعليق (0)