يُعدّ تطوير المساءلة عاملاً مهماً في تعزيز الذكاء الاصطناعي المفيد بشكل متزايد. صورة توضيحية: بلومبرج. |
يُحدث الذكاء الاصطناعي التوليدي تغييرًا جذريًا في العديد من المجالات. ففي مجال التعليم ، يدعم الذكاء الاصطناعي التعلم، ويكشف الانتحال، ويُسهم في التدريس. وفي المجال الطبي، يدعم الذكاء الاصطناعي تشخيص الصور، ويُخصص برامج العلاج، ويُجري أبحاثًا دوائية. كما تُعزز هذه الأداة إنشاء المحتوى تلقائيًا، وتدعم خدمة العملاء، وتُنشئ "مؤثرين رئيسيين" في مجال الأعمال والتسويق.
إلى جانب فوائده، يثير انتشار الذكاء الاصطناعي المُولِّد مخاوف أخلاقية، إذ يُمكن لهذه الأداة أن تُفاقم التحيز وتنشر معلومات مضللة. كما يُمكن للذكاء الاصطناعي أن يُعرِّض الخصوصية وأمن البيانات واستقرار القوى العاملة للخطر.
على غرار العديد من دول العالم ، تتقدم فيتنام في تطبيق الذكاء الاصطناعي المُولِّد. ولكي يصبح الذكاء الاصطناعي أداةً مفيدةً للبشر بدلًا من أداةٍ ضارة، يُعدّ تطوير الذكاء الاصطناعي بمسؤوليةٍ إحدى المهام المهمة.
اتجاهات الذكاء الاصطناعي المسؤول
يتذكر الدكتور سام جوندار، المحاضر الأول في تكنولوجيا المعلومات في معهد RMIT في فيتنام، بعض الخلافات المحيطة بأخلاقيات الذكاء الاصطناعي التوليدي، من فضيحة تايلور سويفت الإباحية، إلى انتحال شخصية الرئيس الأمريكي السابق جو بايدن، إلى الاحتيال الأكاديمي باستخدام الذكاء الاصطناعي.
"إن الأمر الأكثر إثارة للقلق هو حالات برامج الدردشة التي تحرض على الانتحار، أو إنشاء محتوى يسيء للأطفال، أو تشجيع الاغتيالات، أو خوارزميات التوظيف المتحيزة، أو الثغرات الأمنية التي تستغلها الذكاء الاصطناعي.
وأضاف الدكتور جوندار: "تسلط هذه القضايا الضوء على الحاجة إلى اتباع نهج يركز على الإنسان للتخفيف من إساءة استخدام الذكاء الاصطناعي وحماية المصالح الفردية والمجتمعية".
شاشة أداة مايكروسوفت كوبيلوت. الصورة: بلومبرغ. |
وفقًا للدكتور جوندار، سيشهد عام 2025 توجهًا نحو الذكاء الاصطناعي المسؤول والمركّز على الإنسان. ومع تزايد المخاوف بشأن التحيز والمعلومات المضللة والمخاطر الأخلاقية، تُعطى الأولوية لتقنية الذكاء الاصطناعي الشفاف (XAI)، مما يساعد المستخدمين على فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات.
بدأت العديد من البلدان مثل الولايات المتحدة وكندا وأستراليا والصين واليابان وغيرها في اعتماد لوائح الذكاء الاصطناعي لإدارة وضمان نشر الذكاء الاصطناعي الأخلاقي في جميع أنحاء الصناعة.
وهناك اتجاه آخر يتمثل في الذكاء الاصطناعي الهجين، وهو نموذج يجمع بين الذكاء الاصطناعي والبشر، والذي قد يتطور أيضًا في عام 2025.
في مجال التنمية المستدامة، يُمكن للذكاء الاصطناعي أن يُساهم في معالجة تغير المناخ وتعزيز التكنولوجيا الخضراء. علاوةً على ذلك، سيُوسّع الذكاء الاصطناعي نطاق تطبيقاته في مجال الأمن السيبراني، مما يُساعد على تعزيز القدرة على تحليل المخاطر والتصدي للتهديدات في الفضاء الرقمي.
وأكد الدكتور جوندار أنه "مع تسارع تبني الذكاء الاصطناعي، فإن ضمان حوكمة الذكاء الاصطناعي المسؤولة أمر ضروري لتحسين فوائد التكنولوجيا وتقليل المخاطر المحتملة".
حلول تطوير الذكاء الاصطناعي المسؤولة
فيتنام من الدول الرائدة في مجال الابتكار في مجال الذكاء الاصطناعي. لذلك، يُعدّ ضمان التطوير الأخلاقي للذكاء الاصطناعي أمرًا بالغ الأهمية، إذ يُجنّب خوارزميات الذكاء الاصطناعي المتحيزة، ومخاطر الخصوصية، وفقدان ثقة الجمهور.
ولتطوير الذكاء الاصطناعي وفقًا للمبادئ الأخلاقية، اقترح الدكتور جوندار عددًا من الحلول مثل الاستثمار في الأبحاث المتعلقة بأخلاقيات الذكاء الاصطناعي، والتعاون مع الجامعات لتوفير إطار قانوني لنشر الذكاء الاصطناعي المسؤول.
وبعد ذلك، ينبغي النظر في دمج أخلاقيات الذكاء الاصطناعي في المناهج الجامعية، وتوسيع برامج تدريب الذكاء الاصطناعي لقادة الأعمال والمعلمين وصناع السياسات.
تعزيز المسؤولية والأخلاقيات يُسهم في جعل الذكاء الاصطناعي أداةً مفيدةً للبشر. الصورة: بلومبرغ. |
من المهم أيضًا رفع مستوى الوعي العام، لمساعدة الأفراد والشركات على فهم تأثير الذكاء الاصطناعي على الخصوصية. كما يمكن أن يشجع ذلك على استخدام الذكاء الاصطناعي لأغراض اجتماعية كالصحة والبيئة والتعليم، بدلًا من التركيز على الربح فقط.
بالإضافة إلى التعليم والتوعية، تلعب الأطر القانونية أيضًا دورًا مهمًا في دعم تطوير الذكاء الاصطناعي المسؤول.
واقترح خبراء من معهد RMIT فيتنام عددًا من الحلول، مثل تطبيق لوائح أكثر صرامة على الذكاء الاصطناعي، والتعامل مع نماذج حوكمة الذكاء الاصطناعي الدولية، وإطلاق شهادة أخلاقية للذكاء الاصطناعي، بالإضافة إلى بناء نظام تصنيف مخاطر الذكاء الاصطناعي ونظام التدقيق لتقييم واختبار الأنظمة عالية المخاطر.
وأكد الدكتور جوندار: "بما أن فيتنام تهدف إلى أن تصبح قوة إقليمية في مجال الذكاء الاصطناعي بحلول عام 2030، فإن نجاحها لن يعتمد فقط على التقدم التكنولوجي ولكن أيضًا على اللوائح القوية والاستثمار الأخلاقي في الذكاء الاصطناعي والوعي العام لمكافحة المخاطر المحتملة".
المصدر: https://znews.vn/xu-huong-ai-moi-cua-nam-2025-post1538816.html
تعليق (0)