لقد أصبح الذكاء الاصطناعي (AI) هو الموضوع الأكثر مناقشة في صناعة التكنولوجيا منذ أن أعلنت OpenAI عن ChatGPT في نوفمبر 2022. وبعد فترة وجيزة، استثمرت شركات مثل Google وMeta وMicrosoft... أيضًا بشكل كبير في جهود الذكاء الاصطناعي الخاصة بها.
لا تخجل شركات التكنولوجيا الكبرى من طموحاتها في مجال الذكاء الاصطناعي، لكنها مؤخرًا تعالج بهدوء المخاطر التي تُشكلها هذه التكنولوجيا على أعمالها. في تقريرها السنوي لعام ٢٠٢٣، ذكرت شركة ألفابت، الشركة الأم لجوجل، أن منتجات وخدمات الذكاء الاصطناعي تُشكل تحديات أخلاقية وتكنولوجية وقانونية وتنظيمية وغيرها، مما قد يؤثر سلبًا على علامتها التجارية والطلب عليها.

وفقًا لبلومبرغ، ذكرت ميتا ومايكروسوفت وأوراكل أيضًا مخاوف بشأن الذكاء الاصطناعي في ملفاتها المقدمة إلى هيئة الأوراق المالية والبورصات الأمريكية (SEC)، غالبًا تحت بند "عوامل الخطر". على سبيل المثال، صرّحت مايكروسوفت بأن ميزات الذكاء الاصطناعي التوليدي قد تكون عرضة لتهديدات أمنية غير متوقعة.
في تقرير ميتا السنوي لعام ٢٠٢٣، أكدت الشركة الأم لفيسبوك أن "هناك مخاطر جسيمة مرتبطة بتطوير ونشر الذكاء الاصطناعي"، وأنه "لا يوجد ضمان بأن استخدام الذكاء الاصطناعي سيُحسّن الخدمات أو المنتجات أو العمليات التجارية". وسردت ميتا سيناريوهات تتعلق بالذكاء الاصطناعي قد تُلحق الضرر بالمستخدمين وتُعرّضهم للمقاضاة، مثل المعلومات المضللة (كما في الانتخابات)، والمحتوى الضار، وانتهاك الملكية الفكرية، وخصوصية البيانات.
وفي الوقت نفسه، أعرب الجمهور أيضًا عن قلقه بشأن الذكاء الاصطناعي الذي قد يجعل بعض الوظائف قديمة أو تختفي، أو نماذج اللغة الكبيرة المدربة على البيانات الشخصية التي تنشر معلومات مضللة.
في الرابع من يونيو/حزيران، أرسلت مجموعة من موظفي OpenAI السابقين والحاليين "خطاب نوايا" يطالبون فيه شركات التكنولوجيا ببذل المزيد من الجهود للحد من مخاطر الذكاء الاصطناعي. وأعربوا عن قلقهم من أن الذكاء الاصطناعي يزيد من عدم المساواة والتلاعب والمعلومات المضللة، وأن أنظمة الذكاء الاصطناعي الآلية غير الخاضعة للرقابة تهدد بقاء البشرية.
مصدر
تعليق (0)