لقد أصبح الذكاء الاصطناعي (AI) هو الموضوع الأكثر مناقشة في صناعة التكنولوجيا منذ أن أعلنت OpenAI عن ChatGPT في نوفمبر 2022. وبعد فترة وجيزة، استثمرت شركات مثل Google وMeta وMicrosoft... أيضًا بشكل كبير في جهود الذكاء الاصطناعي الخاصة بها.
كانت شركات التكنولوجيا الكبرى صريحة بشأن طموحاتها في مجال الذكاء الاصطناعي، لكنها مؤخرًا بدأت تُعالج بهدوء المخاطر التي تُشكلها هذه التكنولوجيا على أعمالها. في تقريرها السنوي لعام ٢٠٢٣، ذكرت شركة ألفابت، الشركة الأم لجوجل، أن منتجات وخدمات الذكاء الاصطناعي تُشكل تحديات أخلاقية وتكنولوجية وقانونية وتنظيمية وغيرها، مما قد يؤثر سلبًا على علامتها التجارية والطلب عليها.

ذكرت ميتا ومايكروسوفت وأوراكل أيضًا مخاوف بشأن الذكاء الاصطناعي في ملفاتها المقدمة إلى هيئة الأوراق المالية والبورصات الأمريكية (SEC)، غالبًا تحت بند "عوامل الخطر"، وفقًا لبلومبرج. على سبيل المثال، صرّحت مايكروسوفت بأن ميزات الذكاء الاصطناعي التوليدي قد تكون عرضة لتهديدات أمنية غير متوقعة.
في تقرير ميتا السنوي لعام ٢٠٢٣، أكدت الشركة الأم لفيسبوك أن "هناك مخاطر جسيمة مرتبطة بتطوير ونشر الذكاء الاصطناعي"، وأنه "لا يوجد ضمان بأن استخدام الذكاء الاصطناعي سيُحسّن الخدمات أو المنتجات أو الأعمال". وسردت ميتا سيناريوهات تتعلق بالذكاء الاصطناعي قد تُلحق الضرر بالمستخدمين وتُعرّضهم للمقاضاة، مثل التضليل الإعلامي (كما في الانتخابات)، والمحتوى الضار، وانتهاك الملكية الفكرية، وخصوصية البيانات.
وفي الوقت نفسه، أعرب الجمهور أيضًا عن قلقه بشأن الذكاء الاصطناعي الذي قد يجعل بعض الوظائف قديمة أو تختفي، أو نماذج اللغة الكبيرة المدربة على البيانات الشخصية التي تنشر معلومات مضللة.
في الرابع من يونيو/حزيران، أرسلت مجموعة من موظفي OpenAI السابقين والحاليين "خطاب نوايا" يطلبون فيه من شركات التكنولوجيا بذل المزيد من الجهود للحد من مخاطر الذكاء الاصطناعي. وأعربوا عن قلقهم من أن يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة والتلاعب والمعلومات المضللة، وأن أنظمة الذكاء الاصطناعي الآلية غير الخاضعة للرقابة ستهدد بقاء البشرية.
مصدر
تعليق (0)