وفقًا لموقع Android Authority ، تُفصّل ورقة بحثية من Apple حلاً لتشغيل نماذج اللغات الكبيرة (LLMs) على الأجهزة ذات ذاكرة الوصول العشوائي (RAM) المحدودة. وتكشف الورقة كيف يُمكن للشركة تخزين "معلمات النموذج" وتحميل جزء منها في ذاكرة الوصول العشوائي للجهاز عند الحاجة، بدلاً من تحميل النموذج بأكمله فيها.
تتطلع شركة Apple إلى مساعدة أجهزة iPhone القديمة ذات ذاكرة الوصول العشوائي الأقل في تشغيل الذكاء الاصطناعي العام
تدعي الورقة البحثية أن هذه الطريقة تسمح بتشغيل النماذج التي تتطلب ضعف ذاكرة الوصول العشوائي (RAM) التي يمكن أن يمتلكها جهاز iPhone مع ضمان سرعات استنتاج 4-5x و20-25x مقارنة بطرق التحميل البسيطة على وحدة المعالجة المركزية ووحدة معالجة الرسومات على التوالي.
سيكون نشر الذكاء الاصطناعي على جهاز ذي ذاكرة وصول عشوائي (RAM) أكبر فائدة كبيرة، إذ سيسمح بسرعات قراءة وكتابة أسرع. تُعدّ السرعة أمرًا بالغ الأهمية للذكاء الاصطناعي المدمج، إذ تتيح أوقات استدلال أسرع بكثير، إذ لا يضطر المستخدمون بالضرورة إلى انتظار عشرات الثواني (أو أكثر) للحصول على استجابة أو نتيجة نهائية. كل هذا يعني أن مساعد الذكاء الاصطناعي المدمج قد يعمل بسرعات محادثة، ويُنشئ الصور والنصوص بشكل أسرع، ويُلخّص المقالات بشكل أسرع، وما إلى ذلك. لكن حل Apple يعني أن المستخدمين لا يحتاجون بالضرورة إلى ذاكرة وصول عشوائي (RAM) كبيرة لتسريع استجابة مهام الذكاء الاصطناعي المدمج.
قد يسمح نهج آبل لأجهزة آيفون، القديمة والجديدة، بتقديم ميزات ذكاء اصطناعي اصطناعي مباشرةً على الجهاز. وهذا مهم لأن هواتف آيفون من آبل عادةً ما تحتوي على ذاكرة وصول عشوائي (RAM) أقل من هواتف أندرويد المتطورة. على سبيل المثال، تأتي سلسلة آيفون 11 بسعة 4 جيجابايت فقط من ذاكرة الوصول العشوائي (RAM)، بينما يحتوي حتى هاتف آيفون 15 الأساسي على 6 جيجابايت فقط.
ليست آبل شركة الهواتف المحمولة الوحيدة التي تعمل على تقليص حجم LLM. تدعم رقاقات كوالكوم وميديا تيك الرائدة الحديثة دقة INT4 لتقليص حجم هذه الطرازات. على أي حال، تسعى الشركات لإيجاد طرق جديدة لتقليل متطلبات النظام للذكاء الاصطناعي المدمج، مما يسمح حتى للهواتف منخفضة المواصفات بتوفير هذه الميزة.
[إعلان 2]
رابط المصدر
تعليق (0)