معالجات الحاسوب وصل الي نهايات قانون مور ، ما هي الخطوة قادمة؟
في عام 2012 ، يمكنك شراء معالج رباعي النواة ثماني النواة بتردد تشغيل أساسي يبلغ 3.5 جيجاهرتز وتردد توربو يبلغ 3.9 جيجاهرتز. في عام 2018 ، يمكنك أيضًا شراء معالجات بتردد تشغيل أساسي يبلغ 3.5 جيجاهرتز وتردد توربو يبلغ 3.9 جيجاهرتز ، والتي تحتوي هذه المرة على 16 مركزًا و 32 مؤشر ترابط معالجة. كان معالج Threadripper 2950x وسعره ضعفي سعر 2012 Core i7-3770K.
ما الذي يحدث بالضبط؟ ألا يجب أن يعمل معالج 2018 عند 28 جيجاهرتز ، وفقًا لقانون مور ، الذي تم تقديمه في عام 1975 ، والذي ينص على أن كثافة الترانزستور في الدائرة تتضاعف كل عامين؟ نعم ، يمكنك الآن العثور على معالج i9 مسجّل بسرعة 5 جيجاهرتز ، لكن معالج Intel Core i3-10100 سيكون متاحًا في عام 2020 بأربعة أنوية وثمانية خيوط ، وبسرعة 3.6 و 4.3 جيجاهرتز ، لا يزال لديه نفس مواصفات المعالج. i7 لديه 2012.
وفقًا لقانون مور ، يجب أن يتضاعف أداء الكمبيوتر كل عامين ، لكن هذه سياسة أكثر منها قاعدة. ويمكننا أن نقول بثقة مطلقة أننا في هذه الأيام لم نعد نرى مثل هذا المستوى من التقدم المستمر. الآن السؤال الذي يطرح نفسه هو سبب حدوث هذا التراجع في الأداء وفي أي المجالات يمكن أن نتوقع زيادة أداء الكمبيوتر في المستقبل؟
شغل هذا السؤال أذهان بعض أكثر العقول الموهوبة في معهد ماساتشوستس للتكنولوجيا ، الذين طرحوا سؤالاً في عدد من مجلة العلوم: "ما الذي يدفع أداء الكمبيوتر بعد قانون مور؟"
أحد أسباب المشكلة هو الاعتماد طويل المدى لشركة Intel على عملية 14 نانومتر منذ عام 2014 ، لكن هذا ليس العامل الوحيد. يقولون إن عملية تصغير الأجهزة ستنتهي يومًا ما على أي حال. ويقولون جزئيًا: "على الرغم من أن تقنية أشباه الموصلات قد تكون قادرة على تحقيق ترانزستورات تصل إلى 2 نانومتر ، فمن المحتمل أن تتوقف عملية التصغير عند 5 نانومتر بسبب انخفاض الكفاءة". كلما اقتربنا من الأبعاد الذرية (ذرة السيليكون لها أبعاد 0.146 نانومتر) ، تزداد تكلفة الإنتاج بشكل كبير.
لكن ما هي مهمة عد النوى؟ نما عدد النوى بشكل مطرد في السنوات الأخيرة ، ويرجع ذلك إلى حد كبير إلى جهود AMD. هل تستطيع النوى مساعدة الموقف؟ "قد نشهد زيادة طفيفة في عدد النوى ، ولكن ليس كثيرًا. "فقط لأن برنامجًا ما يمكنه بالكاد استخدام العديد من النوى في وقت واحد." يدور هذا النقاش ، بالطبع ، حول أجهزة الكمبيوتر المنزلية ، والخوادم - خاصة الخوادم المشاركة في المعالجة المستندة إلى السحابة والمعالجة القائمة على محرك البحث - ستستمر في زيادة عدد النوى.
عوامل إضافية
وفقًا لباحثي معهد ماساتشوستس للتكنولوجيا ، فإن ما يحافظ على المعالجات وراءها هو طبيعة استخدامها العام. لطالما شقت الأجهزة المتخصصة طريقها إلى علب الكمبيوتر لدينا ، وغالبًا ما تستهدف الرسومات. بالطبع ، لدينا وحدات معالجة رسومات (GPU) ، ونواة Quick Sync في معالجات Intel لا تفعل شيئًا سوى تحويل الفيديو. لدينا بالفعل بطاقات معالجة تستند إلى PhysX للاعبين ، ولكن لاحقًا اشترت Nvidia التكنولوجيا وأحضرتها إلى وحدات معالجة الرسومات الخاصة بها. يمكن لعملاء Apple Mac Pro أيضًا اختيار بطاقة Afterburner إذا كانوا يريدون تسريع أجهزة ترميز الفيديو ProRes ، لكن ASICs تركز بشكل أساسي على سوق تعدين البيتكوين.
يقول الباحثون: "نعتقد أن أحد الأشياء التي سنفعلها أكثر هو تصميم الرقائق المتخصصة في تشغيل تطبيق معين ، وسنستخدمها لتسريع الأمور". لكن هذه الرقائق ليست بديلاً عن معالجات الأغراض العامة التي تقوم بالعديد من الأشياء المختلفة. إذا نظرت إلى الرقائق ، ستلاحظ وجود دائرة خاصة صغيرة عليها تتعامل مع التشفير. "لذلك عندما تكون على الإنترنت وترغب في الحصول على معاملة مالية آمنة ، قد يكون هناك الكثير من المعالجة ، لكن هذه الشريحة الصغيرة تؤدي المهمة."
ثم يتعلق الأمر بالبرمجيات. كما تظهر التجربة السريعة لباحثي معهد ماساتشوستس للتكنولوجيا ، يتم تحقيق الأداء من خلال تحسين أكبر: تمت كتابة قيمة صعبة للغاية (مضاعفة المصفوفات 4096 × 4096) بلغة بايثون ، واستغرق الكمبيوتر الحديث 7 ساعات لإكمال العملية ، ولكن أثناء تم استخدام 0.0006٪ فقط من ذروة أداء الجهاز. تمت كتابة هذه القيمة الصعبة جدًا بعد ذلك بلغة Java وتم إكمال العملية بمعدل 10.8 مرة أسرع. ثم في لغة C ، والتي كانت أسرع بـ47 مرة من كود Python. من خلال معالجة الكود لاستخدام الطاقة الكاملة للمعالج ذي 18 نواة ، تم الانتهاء من هذا الحساب الصعب للغاية في 0.41 ثانية. هذا 600000 مرة أسرع.
ينتمي المثال أعلاه إلى معالج تطبيق عام ، لذلك إذا تمكنا من دمج كود مثالي مع جهاز تطبيق معين ، فسنحقق سرعات أعلى. في عصر ما بعد الحداثة ، قد نرى تطبيقات وأنظمة تشغيل أصغر حجمًا وأكثر تحسينًا ، ولم تعد هذه البرامج تشغل جميع محركات أقراص الحالة الصلبة وذاكرة الوصول العشوائي.
لنفترض أنك تريد إرسال بريد إلكتروني وأن خدمة Outlook تضع إشعارًا أمامك: "إرسال ، نعم أم لا؟" كيف يمكن لجهاز الكمبيوتر التعامل مع مثل هذا الطلب؟ "من الأشياء التي يمكن القيام بها إعادة تصميم كل شيء. "يمكنك العثور على أمثلة لأشخاص يستجيبون بشكل إيجابي أو سلبي ، ثم كتابة برنامج يحدد هذه الأشياء."
أو يمكنك القول أن لدينا الآن أشياء مثل Siri و Google Assistant التي يمكنها اكتشاف ليس فقط نعم أو لا ، ولكن أيضًا ملايين الأشياء الأخرى. ربما لا يكون من الصعب كتابة تطبيق صغير أنه عندما يسمع ما يقوله المستخدم ، فإنه يرسله أولاً إلى Google للمعالجة ثم إلينا. هذه طريقة فعالة للغاية لكتابة التعليمات البرمجية الخاصة بنا ، لكنها طريقة غير مثالية للغاية لمتابعة عملية المعالجة. "لأن نظام التعرف على الصوت معقد للغاية وأنت تعرف بالفعل ما إذا كانت الإجابة بنعم أم لا."
لذلك ، في غياب مزايا الأداء على المستوى الهندسي ، نحتاج الآن إلى دمج الأجهزة والبرامج لضمان قيام أجهزة الكمبيوتر المستقبلية بوظائفها بشكل أسرع. - حتى إذا كان تردد التشغيل لا يزال هو نفسه 3.5 جيجا هرتز.