بعد أن أطلقت شركة OpenAI الناشئة تطبيقها الأول للذكاء الاصطناعي، ChatGPT، أواخر عام ٢٠٢٢، انطلقت موجة من المنافسة على تطوير تطبيقات الذكاء الاصطناعي، وخاصةً الذكاء الاصطناعي التوليدي، مما وفّر العديد من المزايا في جميع مجالات الحياة. إلا أن هذا ينطوي أيضًا على العديد من المخاطر.
انتهاك الخصوصية
في السنوات الأخيرة، تكبدت العديد من المؤسسات والأفراد خسائر فادحة نتيجة استخدام مجرمي الإنترنت للذكاء الاصطناعي لإنشاء مقاطع فيديو مزيفة لصور وأصوات أشخاص حقيقيين. ومن الأمثلة على ذلك خدعة التزييف العميق (Deepfake).
وفقًا لتقرير احتيال الهوية الصادر عن Sumsub في نهاية نوفمبر 2023، ازدادت عمليات الاحتيال بتقنية Deepfake عالميًا بمقدار 10 أضعاف خلال الفترة 2022-2023. وهو الوقت الذي شهدت فيه تطبيقات الذكاء الاصطناعي انتشارًا واسعًا في العالم .
تشير شركة Status Labs إلى أن تقنية Deepfakes كان لها تأثير كبير على الثقافة والخصوصية والسمعة الشخصية. وقد ركزت معظم الأخبار والاهتمام حول تقنية Deepfakes على صور المشاهير الإباحية، وصور الانتقام الإباحية، والتضليل الإعلامي، والأخبار الكاذبة، والابتزاز، والاحتيال. على سبيل المثال، في عام 2019، تعرضت شركة طاقة أمريكية للاحتيال بمبلغ 243,000 دولار أمريكي على يد مخترق قام بتزييف صورة وصوت مديريها التنفيذيين، وطلب من الموظفين تحويل الأموال إلى شركائهم.
أفادت رويترز أنه في عام ٢٠٢٣، نُشر حوالي ٥٠٠ ألف مقطع فيديو وصوت بتقنية التزييف العميق عبر منصات التواصل الاجتماعي حول العالم. بالإضافة إلى التزييف العميق للمتعة، هناك حيلٌ ابتكرها أشخاصٌ لخداع المجتمع. ووفقًا لمصادر، تُقدّر خسائر عمليات الاحتيال بتقنية التزييف العميق عالميًا في عام ٢٠٢٢ بنحو ١١ مليون دولار أمريكي.
حذّر العديد من خبراء التكنولوجيا من الآثار السلبية للذكاء الاصطناعي، بما في ذلك حقوق الملكية الفكرية والأصالة، بالإضافة إلى نزاعات الملكية الفكرية بين "الأعمال" التي يُنتجها الذكاء الاصطناعي. على سبيل المثال، يطلب شخص من تطبيق ذكاء اصطناعي رسم صورة بموضوع معين، فيطلب شخص آخر من الذكاء الاصطناعي القيام بالمثل، مما ينتج عنه لوحات فنية متشابهة للغاية.
من المرجح جدًا أن يؤدي هذا إلى نزاعات حول الملكية. ومع ذلك، لم يتخذ العالم حتى الآن قرارًا بشأن الاعتراف بحقوق الطبع والنشر للمحتوى المُنتج بواسطة الذكاء الاصطناعي (الاعتراف بحقوق الطبع والنشر للأفراد الذين يطلبون الذكاء الاصطناعي الإبداعي أو الشركات التي تُطوّر تطبيقات الذكاء الاصطناعي).
صورة تم إنشاؤها بواسطة تطبيق الذكاء الاصطناعي
من الصعب التمييز بين الحقيقي والمزيف
فهل يُمكن أن ينتهك المحتوى المُولّد بالذكاء الاصطناعي حقوق الطبع والنشر؟ من الناحية التقنية، يُصنّع المحتوى المُولّد بالذكاء الاصطناعي بواسطة خوارزميات من بيانات مُدرّب عليها. يجمع مطورو تطبيقات الذكاء الاصطناعي قواعد البيانات هذه من مصادر مُتعددة، لا سيما من قاعدة المعرفة على الإنترنت. العديد من هذه الأعمال مُسجّلة بحقوق الطبع والنشر لأصحابها.
في 27 ديسمبر 2023، رفعت صحيفة نيويورك تايمز (الولايات المتحدة الأمريكية) دعوى قضائية ضد شركة OpenAI (باستخدام ChatGPT) وشركة مايكروسوفت، مدّعيةً استخدام ملايين مقالاتهما لتدريب روبوتات الدردشة ومنصات الذكاء الاصطناعي التابعة لهاتين الشركتين. والدليل على ذلك وجود محتوى أنشأته روبوتات الدردشة بناءً على طلب المستخدمين، وهو مطابق أو مشابه لمحتوى المقالات. ولا يمكن لهذه الصحيفة تجاهل استخدام الشركات "لملكيتها الفكرية" لتحقيق الربح.
صحيفة نيويورك تايمز هي أول صحيفة أمريكية كبرى ترفع دعوى قضائية تتعلق بحقوق الطبع والنشر المتعلقة بالذكاء الاصطناعي. ومن المحتمل أن تحذو صحف أخرى حذوها في المستقبل، خاصةً بعد نجاح نيويورك تايمز.
وفي وقت سابق، توصلت شركة OpenAI إلى اتفاقية ترخيص حقوق الطبع والنشر مع وكالة أسوشيتد برس للأنباء في يوليو 2023 وAxel Springer - وهي دار نشر ألمانية تمتلك صحيفتين Politico وBusiness Insider - في ديسمبر 2023.
انضمت الممثلة سارة سيلفرمان أيضًا إلى دعويين قضائيتين في يوليو 2023، متهمةً شركتي ميتا وأوبن إيه آي باستخدام مذكراتها كنص تدريبي لبرامج الذكاء الاصطناعي. كما أعرب العديد من الكُتّاب عن قلقهم عندما كُشف عن استحواذ أنظمة الذكاء الاصطناعي على عشرات الآلاف من الكتب في قواعد بياناتها، مما أدى إلى رفع دعاوى قضائية من كتّاب مثل جوناثان فرانزن وجون جريشام.
في هذه الأثناء، رفعت خدمة الصور Getty Images دعوى قضائية ضد شركة ذكاء اصطناعي لإنشاء صور تعتمد على رسائل نصية بسبب الاستخدام غير المصرح به للمواد المرئية المحمية بحقوق الطبع والنشر الخاصة بالشركة...
قد يواجه المستخدمون مشاكل تتعلق بحقوق الطبع والنشر عند استخدامهم "بإهمال" أعمالًا طلبوا من أدوات الذكاء الاصطناعي "إنشائها". ويوصي الخبراء دائمًا باستخدام أدوات الذكاء الاصطناعي فقط للبحث وجمع البيانات وتقديم الاقتراحات لأغراض مرجعية.
من ناحية أخرى، تُربك تطبيقات الذكاء الاصطناعي المستخدمين عندما لا يستطيعون التمييز بين الحقيقة والزيف في محتوى معين. قد يرتبك الناشرون ومكاتب الصحف عند استلام المخطوطات. كما يواجه المعلمون صعوبة في معرفة ما إذا كانت أعمال الطلاب تستخدم الذكاء الاصطناعي أم لا.
سيتعين على المجتمع الآن أن يكون أكثر يقظةً، إذ لا يُعرف ما هو حقيقي وما هو مزيف. على سبيل المثال، سيصعب على الشخص العادي معرفة ما إذا كانت الصورة "مُعقّدة" أو مُعدّلة بواسطة الذكاء الاصطناعي.
هناك حاجة إلى تنظيمات قانونية بشأن استخدام الذكاء الاصطناعي
في انتظار أدوات تطبيقية قادرة على كشف تدخل الذكاء الاصطناعي، تحتاج هيئات الإدارة إلى وضع لوائح قانونية واضحة ومحددة قريبًا بشأن استخدام هذه التقنية لإنشاء محتوى خاص. يجب أن توضح اللوائح القانونية للجميع أن المحتوى والأعمال قد تأثرت بالذكاء الاصطناعي، مثل وضع علامة مائية افتراضيًا على الصور التي تم التلاعب بها.
[إعلان 2]
المصدر: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
تعليق (0)