ستتعاون الشركتان مع معهد سلامة الذكاء الاصطناعي الأمريكي، التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، وهو وكالة اتحادية أمريكية. تُعدّ هذه خطوةً مهمةً في إدارة تكنولوجيا الذكاء الاصطناعي والإشراف عليها، والتي كانت مصدر قلقٍ كبيرٍ منذ إطلاق OpenAI لـ ChatGPT.
وقالت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي في الولايات المتحدة: "هذه مجرد البداية، لكنها معلم مهم في الجهود المبذولة لإدارة مستقبل الذكاء الاصطناعي بشكل مسؤول".
بموجب الاتفاقية، سيقدم معهد سلامة الذكاء الاصطناعي الأمريكي ملاحظاته لكلا الشركتين حول التحسينات المحتملة للسلامة في نماذجهما، قبل وبعد نشرها للجمهور. كما سيتعاون المعهد بشكل وثيق مع معهد سلامة الذكاء الاصطناعي البريطاني خلال هذه العملية.
قال جاك كلارك، المؤسس المشارك ورئيس قسم السياسات في أنثروبيك: "تستفيد شراكتنا مع معهد سلامة الذكاء الاصطناعي الأمريكي من خبرتهم الواسعة لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع. وهذا يعزز قدرتنا على تحديد المخاطر والحد منها، مما يعزز تطوير الذكاء الاصطناعي المسؤول".
وتأتي هذه الخطوة في إطار الجهود المبذولة لتنفيذ الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي والمقرر صدوره في عام 2023، والذي يهدف إلى إنشاء إطار قانوني للنشر السريع لنماذج الذكاء الاصطناعي في الولايات المتحدة.
بينما تتبنى الحكومة الفيدرالية نهجًا تطوعيًا، أقرّ المشرعون في كاليفورنيا، مركز التكنولوجيا في أمريكا، مشروع قانون على مستوى الولاية بشأن سلامة الذكاء الاصطناعي في 28 أغسطس/آب. وإذا وقّع الحاكم على مشروع القانون، فسيفرض لوائح أكثر صرامة على صناعة الذكاء الاصطناعي.
أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن دعمه لتنظيم الذكاء الاصطناعي على المستوى الوطني بدلاً من مستوى الولايات، بحجة أن هذا من شأنه أن يساعد في تجنب خطر إعاقة البحث والابتكار في مجال الذكاء الاصطناعي.
وتُظهر الخطوة التي اتخذتها شركات التكنولوجيا الرائدة والحكومة الأمريكية اتجاهاً نحو تحقيق التوازن بين الابتكار والسلامة في مجال الذكاء الاصطناعي سريع التطور.
[إعلان 2]
المصدر: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
تعليق (0)