ستتعاون الشركتان مع معهد سلامة الذكاء الاصطناعي الأمريكي، التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، وهو وكالة اتحادية أمريكية. تُعدّ هذه خطوةً مهمةً في إدارة تكنولوجيا الذكاء الاصطناعي والإشراف عليها، والتي كانت مصدر قلقٍ كبيرٍ منذ إطلاق OpenAI لمنصة ChatGPT.
وقالت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي في الولايات المتحدة: "هذه مجرد البداية، ولكنها علامة فارقة مهمة في الجهود المبذولة لإدارة مستقبل الذكاء الاصطناعي بشكل مسؤول".
بموجب الاتفاقية، سيقدم معهد سلامة الذكاء الاصطناعي الأمريكي ملاحظاته لكلا الشركتين حول تحسينات السلامة المحتملة لنماذجهما، قبل وبعد نشرها للجمهور. كما سيتعاون المعهد بشكل وثيق مع معهد سلامة الذكاء الاصطناعي البريطاني خلال هذه العملية.
قال جاك كلارك، المؤسس المشارك ورئيس قسم السياسات في أنثروبيك: "تستفيد شراكتنا مع معهد سلامة الذكاء الاصطناعي الأمريكي من خبرتهم الواسعة لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع. وهذا يعزز قدرتنا على تحديد المخاطر والحد منها، مما يعزز تطوير الذكاء الاصطناعي المسؤول".
وتأتي هذه الخطوة في إطار الجهود المبذولة لتنفيذ الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي والمقرر صدوره في عام 2023، والذي يهدف إلى إنشاء إطار قانوني للنشر السريع لنماذج الذكاء الاصطناعي في الولايات المتحدة.
لكن بينما تتبنى الحكومة الفيدرالية نهجًا تطوعيًا، أقرّ المشرعون في كاليفورنيا، مركز التكنولوجيا في أمريكا، مشروع قانون على مستوى الولاية بشأن سلامة الذكاء الاصطناعي في 28 أغسطس/آب. وإذا وقّع الحاكم على مشروع القانون، فسيفرض لوائح أكثر صرامة على صناعة الذكاء الاصطناعي.
أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن دعمه لتنظيم الذكاء الاصطناعي على المستوى الوطني بدلاً من مستوى الولايات، بحجة أن هذا من شأنه أن يساعد في تجنب خطر إعاقة البحث والابتكار في مجال الذكاء الاصطناعي.
وتُظهر الخطوة التي اتخذتها شركات التكنولوجيا الرائدة والحكومة الأمريكية اتجاهًا نحو تحقيق التوازن بين الابتكار والسلامة في مجال الذكاء الاصطناعي سريع التطور.
[إعلان 2]
المصدر: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
تعليق (0)