النموذج قادر على التفكير وحل المشكلات الرياضية المعقدة والإجابة على أسئلة البحث العلمي ، وهو ما يعتبر خطوة مهمة إلى الأمام في الجهود المبذولة لتطوير الذكاء العام الاصطناعي (AGI) - الآلات ذات القدرات المعرفية مثل البشر.
صرحت شركة OpenAI بأنها "حذرة" بشكل خاص بشأن كيفية طرح نموذج o1 للجمهور نظرًا لقدراته المتقدمة. الصورة: Getty Images
وفقًا لصحيفة فاينانشال تايمز، صنّفت شركة OpenAI خطر هذه النماذج الجديدة بأنه "متوسط" فيما يتعلق بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)، وهو أعلى مستوى تقييم للشركة على الإطلاق. هذا يعني أن هذه التقنية قد "حسّنت بشكل ملحوظ" قدرة الخبراء على صنع أسلحة بيولوجية.
وبحسب الخبراء، فإن برامج الذكاء الاصطناعي القادرة على التفكير التفصيلي، خاصة في أيدي الجهات السيئة، يمكن أن تزيد من خطر إساءة الاستخدام.
أكد البروفيسور يوشوا بينجيو، عالم الذكاء الاصطناعي الرائد عالميًا من جامعة مونتريال، أن هذا المستوى المتوسط من المخاطر يزيد من إلحاح لوائح الذكاء الاصطناعي، مثل مشروع قانون مجلس الشيوخ رقم 1047، الذي يُناقش حاليًا في كاليفورنيا. يُلزم هذا القانون مُصنّعي الذكاء الاصطناعي باتخاذ تدابير للحد من خطر إساءة استخدام نماذجهم لتطوير أسلحة بيولوجية.
وفقًا لموقع The Verge، أصبح أمن وسلامة نماذج الذكاء الاصطناعي مصدر قلق كبير حيث تتسابق شركات التكنولوجيا مثل Google وMeta وAnthropic لبناء وتحسين أنظمة الذكاء الاصطناعي المتقدمة.
تتمتع هذه الأنظمة بالقدرة على تقديم فوائد عظيمة في مساعدة البشر على إكمال المهام وتقديم المساعدة في مجموعة متنوعة من المجالات، ولكنها تشكل أيضًا تحديات تتعلق بالسلامة والمسؤولية الاجتماعية.
كاو فونج (وفقا لـ FT، رويترز، ذا فيرج)
[إعلان 2]
المصدر: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
تعليق (0)