أكد نيك كليج، رئيس الشؤون العالمية في ميتا، هذه المعلومات لرويترز في مقابلة أجريت معه هذا الأسبوع. وبناءً على ذلك، تُجمع بيانات تدريب الذكاء الاصطناعي "متعدد الشخصيات" (الذي أطلقته الشركة في 27 سبتمبر) من المنشورات (نصوص مكتوبة وصور) التي ينشرها المستخدمون علنًا على فيسبوك وإنستغرام. ولا يُستخدم المحتوى الخاص أو المحتوى المقتصر على الأصدقاء والعائلة والمحادثات.
صرح كليج بأن ميتا تتخذ التدابير التقنية اللازمة للتحكم في البيانات التي يستخرجها الذكاء الاصطناعي، لكنه رفض الإفصاح عن تفاصيل آلية عمل هذا النموذج. وأكد رئيس ميتا: "نستبعد مجموعات البيانات التي تحتوي على الكثير من المعلومات الشخصية، ولا نستخدم بيانات من مواقع مثل لينكدإن لتدريب الذكاء الاصطناعي بسبب مخاوف تتعلق بالخصوصية".
يتم استخدام المنشورات العامة على Facebook و Instagram لتدريب الذكاء الاصطناعي الخاص بـ Meta
يصف مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، مساعد الذكاء الاصطناعي ميتا بأنه قادر على "التحدث كالإنسان" بفضل تصميمه على نموذج لغوي ضخم يُسمى Llama 2، بالإضافة إلى نموذج Emu لتحويل النص إلى صورة. يستطيع مساعد الشركة توليد النصوص والصوت والصور، ويمكنه الوصول إلى المعلومات في الوقت الفعلي بفضل شراكته مع محرك بحث Bing من مايكروسوفت، وهي منصة تستخدم أيضًا أحدث جيل من ChatGPT.
يتألف Meta AI من 28 روبوت دردشة (برامج استجابة آلية) مبنية على الصورة النمطية للمشاهير. في اليوم الأول من الاختبار، واجهت هذه الأداة جدلاً واسعاً عندما أظهرت علامات سمية، وتفاعلت بشكل مبالغ فيه بسبب شخصيتها. من بينها، قدمت بعض روبوتات الدردشة معلومات تميل إلى العنصرية، وتتعمق في الحياة الشخصية للمستخدمين. وازدادت المشكلة خطورة عندما أعلن فريق Meta نفسه عدم اختبار هذا الذكاء الاصطناعي بسبب مخاوف بشأن المحتوى غير المألوف الذي يقدمه الذكاء الاصطناعي للشركة.
يُثير استخدام ميتا لبيانات المستخدمين المنشورة على منصات التواصل الاجتماعي لتغذية الذكاء الاصطناعي مخاوف بشأن قضايا حقوق النشر. وعندما سُئل ممثل الشركة عما إذا كانت ميتا تلتزم بخطوات تجنب نسخ المحتوى المحمي بحقوق النشر، اكتفى بذكر البند الذي يمنع المستخدمين من إنشاء محتوى ينتهك الخصوصية وحقوق الملكية الفكرية على هذه المنصة.
[إعلان 2]
رابط المصدر
تعليق (0)