Vietnam.vn - Nền tảng quảng bá Việt Nam

أخلاقيات العاملين في وسائل الإعلام عند استخدام تقنية الذكاء الاصطناعي

Báo Quốc TếBáo Quốc Tế27/10/2024

نعيش في عصر الثورة التكنولوجية الرابعة، حيث أصبح الذكاء الاصطناعي تدريجيًا جزءًا لا غنى عنه في العديد من مجالات الحياة الاجتماعية. ولا يمكن لوسائل الإعلام، باعتبارها جسرًا للمعلومات بين الجمهور والفعاليات، أن تكون بمنأى عن هذا التوجه.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
السيدة نجوين ثي هاي فان - مديرة مركز تدريب الصحافة، جمعية الصحفيين الفيتناميين، في ورشة عمل حول تكنولوجيا الذكاء الاصطناعي. (المصدر: جمعية الصحفيين الفيتناميين)

وللاستفادة القصوى من المزايا التي توفرها الذكاء الاصطناعي، يتعين على العاملين في مجال الاتصالات أن يزودوا أنفسهم بالمعرفة اللازمة حتى يتمكنوا من استخدام الذكاء الاصطناعي بشكل فعال، مع ضمان الموثوقية والأخلاقيات في نقل المعلومات.

من "حرارة" الذكاء الاصطناعي

من الواضح أن الذكاء الاصطناعي (AI) من أكثر الكلمات المفتاحية رواجًا اليوم. في سبتمبر 2024، سجّل البحث عن كلمة "AI" في محرك بحث جوجل خلال 0.3 ثانية 15 مليارًا و900 مليون نتيجة؛ بينما سجّل البحث عن كلمة "أدوات الذكاء الاصطناعي" خلال 0.4 ثانية أكثر من 3 مليارات و400 مليون نتيجة. تُظهر هذه الأرقام الضخمة مدى انتشار الذكاء الاصطناعي والأدوات القائمة عليه عالميًا والاهتمام به.

في الوقت الحاضر، تتزايد أدوات الذكاء الاصطناعي التي تظهر في مختلف المجالات، بما في ذلك صناعة الإعلام. فإلى جانب برنامج ChatGPT المعروف على نطاق واسع، هناك العديد من تطبيقات الذكاء الاصطناعي المُطورة في مجالات متخصصة، والتي تُؤدي مهامًا مُحددة. ليس من الصعب سرد العديد من الأدوات هنا، على سبيل المثال: Bing AI، وClause، وZapier Central لمجموعة مهام Chatbot؛ وJasper، وCopy.ai، وAnyword لمهام إنشاء المحتوى؛ وDescript، وWondershare، وRunway لمهام إنتاج وتحرير الفيديو ؛ وDALL-E3، وMidjourney، وStable Diffusion لمهام إنشاء الصور؛ وMurf، وAIVA لمهام المحتوى الصوتي، وغيرها. ومؤخرًا، أطلقت شركة أمازون العملاقة أدوات الذكاء الاصطناعي التي طورتها، Video Generator وImage Generator، بهدف "إلهام الإبداع وتحقيق قيمة أكبر".

على الرغم من أن أدوات الذكاء الاصطناعي تختلف على نطاق واسع من حيث الحجم ومستوى التخصص، إلا أن التكنولوجيا تشترك بشكل أساسي في أمرين: يتم تطوير أدوات الذكاء الاصطناعي بناءً على خوارزميات وبيانات "لتدريب" أداة الذكاء الاصطناعي.

الرقابة الأخلاقية على استخدام الذكاء الاصطناعي في وسائل الإعلام

لا شك أن فوائد أدوات الذكاء الاصطناعي لا تُنكر، ومع الوتيرة السريعة لتحديثات التكنولوجيا، سيزداد عدد أدوات الذكاء الاصطناعي المتخصصة في كل مجال، لتستجيب لمهام متنوعة، من البسيطة إلى المعقدة، في صناعة الإعلام. ومع هذا التطور الهائل، تُطرح تساؤلات عديدة حول الرقابة الأخلاقية على تطوير واستخدام أدوات الذكاء الاصطناعي في صناعة الإعلام؟ ماذا سيحدث إذا تم التلاعب بخوارزميات وبيانات هذه الأداة بشكل يضر بالمجتمع؟ من يضمن حقوق الملكية الفكرية لبيانات الإدخال التي تستخدمها هذه الأداة للتدريب؟ ومن يُقيّم مستوى الضرر الذي تُسببه؟

هل هناك تفاوت بين من يملكون أدوات الذكاء الاصطناعي ومن لا يملكونها لأداء المهمة نفسها؟ حتى أن تساؤلات طُرحت حول احتمالية الضرر غير المنضبط الناتج عن أدوات الذكاء الاصطناعي، لا سيما في المجالات الحساسة التي قد تؤثر على العديد من الأشخاص على نطاق واسع، مثل وسائل الإعلام وشبكات التواصل الاجتماعي.

إدراكًا للمخاوف المذكورة أعلاه، أصدرت العديد من المنظمات والجمعيات والحكومات، وحتى الشركات والمؤسسات التي تُطوّر أدوات الذكاء الاصطناعي، توصياتٍ وتوضيحاتٍ، بل وحتى مدونات سلوكٍ تتعلق بمسألة الرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي. وينص إعلان أخلاقيات الذكاء الاصطناعي - توصية اليونسكو - الذي اعتمدته 193 دولة عام 2021، بوضوح على أن "النمو السريع للذكاء الاصطناعي قد أتاح فرصًا عديدة عالميًا، بدءًا من المساعدة في تشخيص الرعاية الصحية ، ووصولًا إلى تمكين التواصل البشري عبر وسائل التواصل الاجتماعي، وتعزيز كفاءة العمل من خلال المهام الآلية".

ومع ذلك، تُثير هذه التغيرات السريعة أيضًا مخاوف أخلاقية عميقة. فقد بدأت هذه المخاطر المرتبطة بالذكاء الاصطناعي تُفاقم أوجه عدم المساواة القائمة، مما يُلحق المزيد من الضرر بالفئات المحرومة أصلًا...". ومن هنا، "نطلب من اليونسكو تطوير أدوات لدعم الدول الأعضاء، بما في ذلك منهجية تقييم الجاهزية، وهي أداة تُمكّن الحكومات من رسم صورة شاملة عن استعدادها لنشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول لجميع مواطنيها".

في إطار نهجها العالمي، أطلقت اليونسكو المرصد العالمي لأخلاقيات وحوكمة الذكاء الاصطناعي، الذي تقول إنه "يوفر معلومات حول مدى استعداد الدول لتبني الذكاء الاصطناعي أخلاقيًا ومسؤولًا. كما يستضيف مختبر أخلاقيات وحوكمة الذكاء الاصطناعي، الذي يجمع المساهمات والبحوث المؤثرة ومجموعات الأدوات والممارسات الإيجابية حول مجموعة واسعة من قضايا أخلاقيات الذكاء الاصطناعي..."

بالإضافة إلى المنظمات العالمية مثل اليونسكو، تعمل العديد من الجمعيات المهنية على تطوير مدونات سلوك خاصة بها. على سبيل المثال، وضعت الجمعية الدولية لاتصالات الأعمال (IABC)، وهي جمعية تضم آلاف الأعضاء من جميع أنحاء العالم، مجموعة من المبادئ التوجيهية للاستخدام الأخلاقي للذكاء الاصطناعي من قبل متخصصي الاتصالات، والتي تهدف إلى توجيه أعضاء IABC حول أهمية مدونة أخلاقياتها للذكاء الاصطناعي. يمكن تحديث هذه المبادئ واستكمالها مع مرور الوقت مع تطور تكنولوجيا الذكاء الاصطناعي. تتضمن هذه المبادئ العديد من النقاط المحددة التي ينبغي على متخصصي الاتصالات اتباعها، مثل:

يجب أن تكون موارد الذكاء الاصطناعي المستخدمة مُدارةً بشريًا لخلق تجارب إيجابية وشفافة تُعزز الاحترام وتبني الثقة في مهنة الإعلام. من المهم البقاء على اطلاع دائم بالفرص والمخاطر المهنية التي تُمثلها أدوات الذكاء الاصطناعي. من المهم أيضًا إيصال المعلومات بدقة وموضوعية وإنصاف. قد تكون أدوات الذكاء الاصطناعي عرضة للعديد من الأخطاء والتناقضات وغيرها من المشكلات التقنية. يتطلب هذا حكمًا بشريًا للتحقق بشكل مستقل من دقة المحتوى المُنشأ بواسطة الذكاء الاصطناعي وشفافيته وخلوه من الانتحال.

حماية المعلومات الشخصية و/أو السرية للآخرين، وعدم استخدامها دون إذنهم. تقييم مخرجات الذكاء الاصطناعي بناءً على التفاعل البشري وفهم المجتمع الذي يهدف إلى خدمته. إزالة التحيز قدر الإمكان، ومراعاة القيم الثقافية ومعتقدات الآخرين.

يجب عليهم التحقق من صحة مخرجاتهم بشكل مستقل، مع مراعاة الدقة المهنية اللازمة لضمان دقة وثائق أو معلومات أو مراجع الجهات الخارجية، ونسبها وتوثيقها، وحصولها على التراخيص اللازمة أو الإذن اللازم للاستخدام. لا يُحاولون إخفاء أو تمويه استخدام الذكاء الاصطناعي في مخرجاتهم المهنية. يُقرّون بطبيعة الذكاء الاصطناعي مفتوحة المصدر، وبالمسائل المتعلقة بالسرية، بما في ذلك إدخال معلومات كاذبة أو مضللة أو خادعة.

بالنسبة للشركات والمؤسسات التي تمتلك وتُطوّر وتُتاجر بأدوات الذكاء الاصطناعي، فهي الأكثر فهمًا لتفاصيلها، وتعرف الخوارزميات الأساسية التي تعمل بها، والبيانات التي تُدرّب عليها. لذلك، تحتاج هذه الشركات أيضًا إلى توفير معلومات تتعلق بمبادئ أخلاقيات تطوير الذكاء الاصطناعي. في الواقع، هناك شركات مهتمة بهذه المسألة.

تلتزم جوجل بعدم تطوير أدوات الذكاء الاصطناعي في المجالات التي تنطوي على خطر كبير بالتسبب في ضرر، ولن نفعل ذلك إلا عندما نعتقد أن الفوائد تفوق المخاطر بشكل كبير، مع مراعاة الضمانات المناسبة. الأسلحة أو غيرها من التقنيات التي يكون الغرض الرئيسي منها أو استخدامها هو التسبب في إصابة بشرية أو تسهيل حدوثها بشكل مباشر. التقنيات التي تجمع أو تستخدم المعلومات لأغراض المراقبة والتي تنتهك المعايير الدولية. التقنيات التي ينتهك غرضها المبادئ المقبولة عمومًا للقانون الدولي وحقوق الإنسان.

فيما يتعلق بالأمن والسلامة، تتعهد جوجل بما يلي: "سنواصل تطوير وتطبيق تدابير أمنية وسلامة فعّالة لتجنب النتائج غير المقصودة التي قد تُسبب أضرارًا. سنصمم أنظمة الذكاء الاصطناعي لدينا لتكون حذرة على النحو المناسب، وسنسعى إلى تطويرها وفقًا لأفضل الممارسات في أبحاث سلامة الذكاء الاصطناعي. سندمج مبادئ الخصوصية لدينا في تطوير تقنيات الذكاء الاصطناعي واستخدامها. سنوفر فرصًا للإشعار والموافقة، ونشجع على تبني هياكل حماية الخصوصية، ونوفر شفافية وضوابط مناسبة لاستخدام البيانات".

على غرار جوجل، أصدرت مايكروسوفت أيضًا بيانًا حول مبادئ الذكاء الاصطناعي ومنهجه، مؤكدةً: "نحن ملتزمون بضمان تطوير أنظمة الذكاء الاصطناعي بمسؤولية وبطريقة تضمن ثقة الناس...". علاوة على ذلك، وبشكل أو بآخر، تعهدت شركات التكنولوجيا الكبرى، التي تستثمر بكثافة في تطوير أدوات الذكاء الاصطناعي، مثل أمازون وOpenAI، بالتزاماتها الخاصة.

أثبتت العديد من الأمثلة التاريخية ازدواجية التكنولوجيا، بجوانبها الإيجابية والسلبية. فرغم كونها منصة تكنولوجية عالية التقنية، لا يزال الذكاء الاصطناعي قائمًا على خوارزميات وبيانات يُطورها ويجمعها البشر؛ وفي الوقت نفسه، تُعدّ معظم منتجات الذكاء الاصطناعي جزءًا من خطط أعمال الشركات المالكة لها.

لذلك، هناك دائمًا مخاطر محتملة من الجانب التقني، وكذلك من فريق تطوير المنتج وإدارته. تكمن المشكلة هنا في مدى تأثير أدوات الذكاء الاصطناعي على الأغلبية، حتى على المستوى الاجتماعي والاقتصادي للمجتمع. يُعدّ الاهتمام المُلِحّ بالرقابة الأخلاقية عند استخدام تقنية الذكاء الاصطناعي علامةً مُرحّبًا بها، بمشاركة منظمات دولية واسعة النطاق مثل الأمم المتحدة، أو الحكومات، ثم جمعيات الصناعة، والأهم من ذلك كله، في وحدات تطوير التكنولوجيا.

ومع ذلك، وكما أن قائمة أدوات الذكاء الاصطناعي تطلق إصدارات جديدة باستمرار، كل منها أكثر تطوراً وتعقيداً من سابقتها، فإن المدونات والمبادئ أو الإرشادات تحتاج أيضاً إلى التحديث والاستكمال في الوقت المناسب، وعلاوة على ذلك، تحتاج إلى أن تكون استباقية لمنع وتقييد ومراقبة وحدات تطوير المنتجات والمستخدمين ضمن إطار حيث القدرة على الامتثال للرقابة الأخلاقية في تكنولوجيا الذكاء الاصطناعي بشكل عام والعاملين في وسائل الإعلام بشكل خاص يمكن أن تحقق أعلى مستوى من الكفاءة.


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

قوس الكهف المهيب في تو لان
تتمتع الهضبة التي تقع على بعد 300 كيلومتر من هانوي ببحر من السحب والشلالات والزوار الصاخبين.
أقدام خنزير مطهوة مع لحم كلب مزيف - طبق خاص بالشمال
صباحات هادئة على شريط الأرض على شكل حرف S

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج