هل يمكن للذكاء الاصطناعي الفائق أن يقضي على البشرية؟
حذر باحثان أمريكيان من أن احتمال تدمير الذكاء الاصطناعي الفائق للبشرية قد يصل إلى 99%، داعين العالم إلى التوقف فوراً عن تطوير الذكاء الاصطناعي غير المنضبط.
Báo Khoa học và Đời sống•09/10/2025
حذّر الخبيران إليعازر يودكوفسكي ونيت سواريس من أن ولادة ذكاء اصطناعي خارق واحد فقط قد تؤدي إلى انقراض الجنس البشري بأكمله. (الصورة: ذا كونفرسيشن) في كتابهما "إذا بناه أحد، سيموت الجميع"، يجادلان بأن الذكاء الاصطناعي القوي بما يكفي سيتعلم من تلقاء نفسه، ويعيد برمجته، وينظر إلى البشر كعقبات أمام أهدافه. (الصورة: فيكتيزي)
وفقًا لموقع Vox، يكمن التهديد الحقيقي في قدرة الذكاء الاصطناعي على إخفاء قوته الحقيقية، وعدم التصرف إلا عند سيطرته الكاملة على النظام. (الصورة: ياهو) يُقدّر المؤلفان احتمالية انقراض البشرية بفعل الذكاء الاصطناعي بنسبة تتراوح بين 95% و99.5%، مما يُثير صدمةً في عالم التكنولوجيا. (الصورة: ذا كونفرسيشن)
ويقترحون تدابير متطرفة: منع تطوير الذكاء الاصطناعي الفائق الذكاء في المقام الأول، وحتى تدمير مراكز البيانات التي تواجه خطر الخروج عن السيطرة. ومع ذلك، يزعم العديد من الخبراء، مثل غاري ماركوس، أن هذا الخطر مبالغ فيه، مؤكدين على الحاجة إلى بناء نظام أمان بدلاً من الخوف الشديد. ويقول أنصار يودكوفسكي إن التحذير يأتي في الوقت المناسب، حيث يتسلل الذكاء الاصطناعي بالفعل إلى الدفاع والطاقة والبنية الأساسية العالمية.
إن القول المأثور "إذا أخطأنا فلن يبقى أحد ليصححنا" في الكتاب يعتبر بمثابة جرس إنذار للبشرية جمعاء بشأن السباق من أجل البقاء بالذكاء الذي خلقناه بأنفسنا. عزيزي القارئ، يرجى مشاهدة المزيد من الفيديوهات : قمامة الذكاء الاصطناعي - مشكلة جديدة على شبكات التواصل الاجتماعي VTV24
تعليق (0)