Архитектура arm и x86 различия – Нужны ли ноутбукам Apple процессоры ARM? Принципиальные отличия технологии ARM от x86.
Чем различаются архитектуры ARM и x86
Еще совсем недавно (всего 10 лет назад) на рынке пользовательских процессоров было три архитектуры, и все они были более-менее неплохо разделены: ARM-процессоры ставились в мобильные устройства, где важно было время автономной работы, x86-процессоры ставились в устройства под управлением Windows, ну и в пику Intel Apple использовала в своих устройствах процессоры на архитектуре PowerPC (хотя мы знаем, что она все же «переползла» на x86). Но на сегодняшний момент на рынке пользовательских процессоров осталось всего две архитектуры — PowerPC выбыл из гонки, причем совсем недавно: последнее устройство на этой архитектуре, PlayStation 3, перестали производить всего пару недель назад. Более того — все больше утечек о том, что на ARM-процессорах можно будет запускать полноценную Windows, и с другой стороны — тот же Android отлично работает с х86-процессорами начиная с версии 4.0. То есть, как мы видим, разница между этими архитектурами все больше размывается в глазах пользователей, и в этой статье мы и выясним, почему так происходит.
Архитектура х86
Для начала определимся с тем, что же такое архитектура. Говоря простым языком, с точки зрения программиста архитектура процессора — это его совместимость с определенным набором команд, которые могут использоваться при написании программ и реализуются на аппаратном уровне с помощью различных сочетаний транзисторов процессора.
Процессоры х86 построены на архитектуре CISC (Complex Instruction Set Computing, процессоры с полным набором инструкций) — это означает, что в процессоре реализовано максимальное число инструкций, что, с одной стороны, упрощает написание программ и уменьшает их вес, и другной стороны — процессор практически невозможно нагрузить на 100%.
Первым процессором на архитектуре х86 был Intel 8086 — это первый 16-битный процессор от Intel, работающий на частоте до 10 МГц и выпущенный в 1978 году. Процессор оказался крайне популярным и производился до 1990 года, а все последующие процессоры стали с делать с ним совместимые. Сначала эта совместимость показывалась в виде окончания названия процессора на 86, ну а в дальнейшем, с выходом Pentium, архитектуру решили назвать х86.
В 1985 году вышел процессор i386, который стал первым 32-битный процессором от Intel, а к 1989 году Intel выпустила первый скалярный процессор i486 — этот процессор умел выполнять одну операцию за такт. В дальнейшем, с выходом Pentium в 1993 году, процессоры от Intel стали суперскалярными, то есть научились делать несколько операций за один такт, и суперконвейерными — то есть имели два вычислительных конвейера. Но это было еще не все — по сути все процессоры Intel, начиная с i486DX, являются CISC-процессорами с RISC-ядром (Reduced Instruction Set Computer, процессоры с сокращённым набором инструкций): в микропроцессор встраивается аппаратный транслятор, который непосредственно перед исполнением преобразуют CISC-инструкции процессоров x86 в более простой набор внутренних инструкций RISC, при этом одна команда x86 может порождать несколько RISC-команд.
С тех пор особо ничего не поменялось — да, росло число конвейеров, росло число операций за такт, процессоры стали многоядерными и 64-битными, но до сих пор все решения от Intel и AMD являются суперконвейерными суперскалярными микропроцессорами, построенными на основе CISC-архитектуры с RISC-ядром.
Архитектура ARM
Архитектура ARM появилась позже x86, в 1986 году с выходом процессора ARM2. Цель ее разработки была в максимальной оптимизации и уменьшения числа транзисторов — к примеру, под нагрузкой x86-процессор тогда использовал едва ли 30% от числа всех транзисторов, все другие банально простаивали. Поэтому ARM разработали собственный чип на RISC-архитектуре, который назвали ARM2 — он имел всего 30000 транзисторов (сравните с 275 тысячами транзисторов в актуальном тогда i386), и не имел как кэша (что в общем-то тогда было нормой для процессоров — кэш можно было докупить и поставить отдельно), но и микропрограммы как таковой — микрокод исполнялся как и любой другой машинный код, путём преобразования в простые инструкции:
В итоге из-за того, что число транзисторов в ARM-процессорах ощутимо меньше, чем в х86, мы и получаем, что их тепловыделение тоже ощутимо ниже. Но, с другой стороны, из-за упрощенной архитектуры и производительность у ARM тоже ощутимо ниже, чем у x86.
В дальнейшем к ARM так же прикрутили поддержку и суперскалярности, и суперконвеерности, процессоры стали многоядерными и несколько лет назад стали 64-битными. В итоге современные решения от ARM являются суперконвейерными суперскалярными микропроцессорами, построенными на основе RISC-архитектуры.
Итоги
В результате мы видим две крайности: x86 являются мощными решениями, обвешанными инструкциями, которые могут выполнять абсолютно любые задачи с хорошей скоростью. Но за это приходится платить увеличенным тепловыделением. ARM же — простые процессоры, у которых набор инструкций ощутимо меньше, поэтому выполнение многих серьезных задач на них не имеет особого смысла из-за медлительности процесса. Но при этом и тепловыделение низкое. Однако самое основное — обе архитектуры поддерживают RISC-инструкции, а значит что на обеих архитектурах можно запускать одинаковые ОС, что мы и видим в случае с Android, Linux и Windows, и это означает, что в будущем разница между х86 и ARM будет размываться все больше.
Новые процессоры ARM смогут потягаться с Core i5 / Habr
Согласно собственным тестам ARM, процессор Cortex-A76 уже примерно соответствует по производительности разогнанному процессору Core i5-7300U, рассеивая при этом менее 5 Вт (TDP), в сравнении с 15 Вт у чипа Intel
Процессоры ARM традиционно используются в смартфонах и планшетах, но в последнее время производители ПК вроде Asus и HP решили, что производительность и низкое энергопотребление этих «камней» вполне подходят для ноутбуков. Глядя на такое положение вещей, сама компания ARM анонсировала процессорные архитектуры, специально предназначенные для конкуренции с Intel и AMD на ноутбуках и настольных компьютерах в 2019−2020 годы. По мнению ARM, новые чипы вполне могут сравниться и даже превзойти процессоры Intel в однопоточной производительности.
ARM анонсировала две новые микроахитектуры:
- Deimos, 7 нм, 2019 год
- Hercules, 7 и 5 нм, 2020 год
Все эти процессоры будут использовать новую технологию DynamiQ, которая заменит big.LITTLE.
Сложно заранее сказать, насколько реальные системы на ARM смогут сравниться в производительности с обычными машинами x86. Всем понятно, что большинство программного обеспечения пишется и оптимизируется для x86, а под ARM будет работать через эмуляцию, что сразу даёт x86 фору в производительности. Например, можно посмотреть на реальные бенчмарки PCMark 8 Work 3.0 обычных процессоров в сравнении с ARM. Бенчмарки проводились в нативном разрешении каждого планшета/ноутбука.
Как видим, мощный современный ARM-процессор Snapdragon 835 (производитель: Qualcomm) сильно проигрывает в производительности даже системе на Celeron N3450. Проигрыш объясняется двумя причинами: кроме упомянутого режима вынужденной эмуляции это ещё и меньшее количество ядер в процессорах ARM по сравнению с представителями семейства Core.
Но ARM собирается устранить это обидное недоразумение в будущих процессорных архитектурах, где микросхемы станут изготовлять по техпроцессам 7 и 5 нм. К 2019−2020 годам компания намерена догнать и обогнать по производительности существующие процессоры Core i5-4300U, Core i5-6300U и Core i5-7300U, а траектория развития процессоров ARM превзойдёт закон Мура. По заявлению фирмы, до выхода Cortex-A76 в последние годы ARM и так выдаёт средний ежегодный прирост производительности процессоров около 20%, а после Cortex-A76 ежегодный прирост ещё увеличится. Итак, с 2016 по 2020 годы производительность её чипов вырастет в 2,5 раза, то есть процессоры на архитектуре Hercules будут в 2,5 раза быстрее, чем Cortex-A73. Львиная доля в этом скачке производительности объясняется переходом с техпроцесса 16 нм на 5 нм, но частично — системными улучшениями, ведь в сравнении с остальной процессорной индустрией ARM демонстрирует (или обещает продемонстрировать) намного больший прогресс.
Но разница постепенно нивелируется. Согласно собственным бенчмаркам ARM, процессор Cortex-A76 уже примерно соответствует по производительности процессору Core i5-7300U, рассеивая при этом менее 5 Вт (TDP), в сравнении с 15 Вт у чипа Intel.
Проигрывая в производительности, ноутбуки вроде Asus NovaGo уже сейчас выигрывают в энергопотреблении, то есть во времени работы без подзарядки. Вероятно, это преимущество сохранится и в будущем, когда мощность процессоров ARM резко вырастет.
Вероятно, ARM рассчитывает, что процессоры на её архитектуре станут настолько же популярными в ноутбуках, насколько популярными они сейчас являются в смартфонах и планшетах. Это вполне целенаправленная и логичная экспансия. Как и планшеты, ноутбуки тоже преимущественно эксплуатируются в «мобильном» режиме, то есть без непосредственного подключения к сети питания, а в таком режиме ноутбуки на ARM смогут работать несколько дней. Кроме того, ведущим производителем ARM-процессоров является компания Qualcomm. По всей вероятности, она станет и крупнейшим производителем 5G-модемов. Это даёт дополнительное преимущество ARM-ноутбукам, которые в будущем предположительно будут эксплуатироваться в режиме постоянного соединения с сетью 5G.
Чем архитектура ARM отличается от x86. Чем различаются архитектуры ARM и x86
В этом материале пойдет речь о процессорной архитектуре . Полупроводниковые продукты на ее основе можно встретить в смартфонах, роутерах, планшетных ПК и прочих мобильных устройствах, где она до недавних пор занимала ведущие позиции в этом сегменте рынка. Сейчас же ее постепенно вытесняют более новые и свежие процессорные решения.
Краткая справка о компании ARM
История компании ARM началась в 1990 году, когда она была основана Робином Саксби. Основой же для ее создания стала новая микропроцессорная архитектура. Если до этого господствующие позиции на рынке ЦПУ занимала х86 или CISC , то после образования данной компании появилась достойная альтернатива в виде RISC. В первом случае выполнение программного кода сводилось к 4 этапам:
Получение машинных инструкций.
Выполнение преобразования микрокода.
Получение микроинструкций.
Поэтапное выполнение микроинструкций.
О сновная же идея архитектуры RIS С состояла в том, что обработку программного кода можно свести к 2 этапам:
Получение RISC- инструкций.
Обработка RISC- инструкций.
К ак в первом, так и во втором случае есть как плюсы, так и существенные недостатки. х86 успешно завоевала компьютерный рынок, а RISC ( в том числе и , представленная 2011 году) — рынок мобильных устройств.
История появления архитектуры Cortex A7. Ключевые особенности
В качестве основы для «Кортекс А7» выступала «Кортекс А8». Основная идея разработчиков в данном случае сводилась к тому, чтобы увеличить производительность и значительно улучшить энергоэффективность процессорного решения. Именно это в конечном итоге и получилось у инженеров компании ARM . Еще одной важной особенностью в данном случае стало то, что появилась возможность создавать ЦПУ с технологией big.LITTLE. То есть полупроводниковый кристалл мог включать 2 вычислительных модуля. Один из них был нацелен на решение наиболее простых задач с минимальным энергопотреблением и, как правило, в этой роли и выступали ядра «Кортекс А7». Второй же был предназначен для запуска наиболее сложного софта и базировался на вычислительных блоках «Кортекс А15» или «Кортекс А17». Официально «Кортекс А7» была представлена, как было отмечено ранее, в 2011 году. Ну а первый процессор ARM Cortex A7 увидел свет годом позже, то есть в 2012 году.
Технология производства
Изначально полупроводниковые продукты на основе А7 производились по технологическим нормам 65 нм. Сейчас эта технология безнадежно устарела. В дальнейшем были выпущены еще два поколения процессоров А7 по нормам допуска уже 40 нм и 32 нм. Но и они сейчас уже стали неактуальными. Наиболее свежие модели ЦПУ на основе этой архитектуры изготавливаются уже по нормам 28 нм, и именно их пока еще можно встретить в продаже. Дальнейший переход на более новые с новыми нормами допуска и устаревшей архитектурой ожидать вряд ли стоит. Чипы на базе А7 сейчас занимают наиболее бюджетный сегмент рынка мобильных устройств и их постепенно вытесняют уже гаджеты на основе А53, которая практически при той же энергоэффективности параметрах имеет более высокий уровень быстродействия.
Архитектура микропроцессорного ядра
1, 2, 4 или 8 ядер может входить в состав ЦПУ на базе ARM Cortex A7. Характеристики процессоров в последнем случае указывают на то, что в состав чипа входят, по существу, 2 кластера по 4 ядра. 2-3 года процессорные продукты начального уровня основывались на чипах с 1-им или 2-мя вычислительными модулями. Средний уровень занимали 4-ядерные решения. Ну а премиум-сегмент был за 8-ядерными чипами. Каждое микропроцессорное ядро на основе такой архитектуры включало следующие модули:
Б лок обработки чисел с плавающей запятой (FPU).
Кеш 1-го уровня.
Блок NEON для оптимизации работы ЦПУ.
Вычислительный модуль ARMv7.
Также были следующие общие компоненты для всех ядер в составе ЦПУ:
Кеш L2.
Блок управления ядрами CoreSight.
Контроллер шины управления данными АМВА с разрядностью 128 бит.
Возможные частоты
Максимальное значение тактовой частоты для данной микропроцессорной архитектуры может изменяться от 600 МГц до 3 ГГц. Также необходимо отметить, что этот параметр, который указывает максимальное влияние на производительность вычислительной системы, изменяется. Причем на частоту оказывает влияние с
Нужны ли ноутбукам Apple процессоры ARM? Принципиальные отличия технологии ARM от x86.
Накануне WWDC 2018 меня посетила такая мысль, а что если Apple завтра и правда объявит о планах перевода Macbook на процессоры ARM? На самом деле это будет революционное заявление, да и многие специалисты утверждают, что за ARM будущее…
Напомню, что в истории Apple уже был один глобальный переход с собственных процессоров POWER PC на x86, так что появление ноутбука на процессоре ARM лично мне не кажется чем-то нереальным. И первым претендентом на такой переход видится мне именно мой любимый Macbook 12″.
Что такое архитектура процессора?
Если говорить простым языком, то архитектура представляет собой набор инструкций, которые понимает процессор. На сегодняшний день существуют два типа архитектуры процессоров — CISC (Complex Instruction Set Computing) и RISC (Reduced Instruction Set Computing). Возможно вам даже встречались где-то эти понятия, однако более на слуху x86 и ARM.
Процессоры с архитектурой x86 (производятся компаниями Intel и AMD, а само название взято от модели первого процессора Intel 8086) относятся к типу CISC, соответсвенно ARM (разработка британской компанией Acorn) к RISC.
Основным отличием CISC процессоров от RISC можно считать подход к реализации набора инструкций. Если в CISC процессорах содержатся инструкции на все случаи жизни (нужные и ненужные, много вариантов защит, виртуализаций, оптимизаций и так далее), то RISC процессоры обладают лишь минимально необходимым для работы набором команд.
Кстати, компания, разработавшая архитектуру ARM, сама процессоры не выпускает, а выдаёт разрешение на разработку.
Понятно, что за излишнюю сложность и функционал, который, в лучшем случае, используется только на 30-40% приходится расплачиваться дополнительным расходом энергии. Из-за своей прожорливости к ресурсам x86 полностью слили рынок мобильных устройств процессорам ARM, которые, в свою очередь не смогли конкурировать на десктопах за счет своей низкой производительности. Получилось своеобразное разделение — ноутбуки, компы и сервера живут на архитектуре x86, а ARM процессоры на планшетах и телефонах.
Сейчас явная грань в производительности и автономности между процессорами, основанными на этих архитектурах постепенно стёрлась. Компактный Intel Core M сравним по скорости с топовым ARM процессором A11 от Apple. И что-то мне подсказывает, что Apple под силу разработать и более мощный ARM процессор для Macbook, который уже будет конкурировать с Intel Core i5 или i7.
Опыт внедрения ARM процессоров уже имеется, например ASUS и HP ещё в конце прошлого года выпустили ноутбуки на процессорах Quallcomm Snapdragon 835 и Windows 10 на борту, а ближе к осени планируются новые версии на Snapdragon 850 и 1000, специально разработанных для портативных компьютеров.
Что будет с macOS и iOS если Apple перейдет на процессоры ARM?
На мой взгляд, вполне вероятно объединение macOS и iOS в некую единую систему. Да и отказ от 32-битных приложений в новой версии macOS явно делался не просто так. Как-никак, завтра конференция для разработчиков, потому вполне логично предположить и такой сценарий.
И основной проблемой, по крайней мере на старте выхода подобного ноутбука, с процессором ARM, мне видится не столько сама операционная система, а отсутствие необходимого стороннего софта под неё. Ведь все приложения потребуют оптимизации под новые процессоры, несовместимость платформ. Хотя, тут уже и Microsoft суетится в данном направлении.
Возможно завтра Apple и предложит какой-то удобный инструмент для перекомпиляции приложений в автоматическом режиме, во всяком случае, хотелось бы на это посмотреть. Вот чего я больше от этой презентации.
Подписывайтесь на канал Яндекс.Дзен и узнавайте первыми о новых материалах, опубликованных на сайте.Если считаете статью полезной,
не ленитесь ставить лайки и делиться с друзьями.
Как устроен процессор. Почему за ARM будущее? — Рамблер/новости
Как устроен процессор. Почему за ARM будущее?Современного потребителя электроники очень сложно удивить. Мы уже привыкли к тому, что наш карман законно занимает смартфон, в сумке лежит ноутбук, на руке послушно отсчитывают шаги «умные» часы, а слух ласкают наушники с активной системой шумоподавления.
Забавная штука, но мы привыкли носить с собой не один, а сразу два, три и более компьютеров. Ведь именно так можно назвать устройство, у которого есть процессор. И вовсе неважно, как выглядит конкретный девайс. За его работу отвечает миниатюрный чип, преодолевший бурный и стремительный путь развития.
Почему мы подняли тему процессоров? Все просто. За последние десять лет произошла настоящая революция в мире мобильных устройств.
Между этими устройствами всего 10 лет разницы. Но Nokia N95 тогда нам казалась космическим девайсом, а на ARKit сегодня мы смотрим с определенным недоверием
А ведь все могло бы сложиться иначе и потрепанный Pentium IV так бы и остался пределом мечтаний рядового покупателя.
Мы постарались обойтись без сложных технических терминов и рассказать, как работает процессор, и выяснить, за какой архитектурой будущее.
1. С чего все началось
Первые процессоры были абсолютно не похожи на то, что вы можете видеть, приоткрыв крышку системного блока вашего ПК.
Вместо микросхем в 40-е годы XX века использовались электромеханические реле, дополненные вакуумными лампами. Лампы выполняли роль диода, регулировать состояние которого можно было за счет понижения или повышения напряжения в цепи. Выглядели такие конструкции так:
Для работы одного исполинского компьютера нужны были сотни, иногда тысячи процессоров. Но, при этом, вы не смогли бы запустить на таком компьютере даже простенький редактор, как NotePad или TestEdit из штатного набора Windows и macOS. Компьютеру банально не хватило бы мощности.
2. Появление транзисторов
Первые полевые транзисторы появились еще в 1928 году. Но мир изменился лишь после появления так называемых биполярных транзисторов, открытых в 1947-м.
В конце 40-х физик-экспериментатор Уолтер Браттейн и теоретик Джон Бардин разработали первый точечный транзистор. В 1950 его заменил первый плоскостной транзистор, а в 1954 году небезизвестный производитель Texas Instruments анонсировал уже кремниевый транзистор.
Но настоящая революция наступила в 1959 году, когда ученый Жан Энри разработал первый кремниевый планарный (плоский) транзистор, который стал основой для монолитных интегральных схем.
Да, это немного сложно, поэтому давайте копнем немного глубже и разберемся с теоретической частью.
3. Как работает транзистор
Итак, задача такого электрического компонента как транзистор заключается в управлении током. Проще говоря, этот немного хитрый переключатель, контролирует подачу электричества.
Основное преимущество транзистора перед обычным переключателем в том, что он не требует присутствия человека. Т.е. управлять током такой элемент способен самостоятельно. К тому же, он работает намного быстрее, чем вы бы самостоятельно включали или отключали электрическую цепь.
Из школьного курса информатики вы, наверняка, помните, что компьютер «понимает» человеческий язык за счет комбинаций всего двух состояний: «включено» и «выключено». В понимании машины это состояние «0» или «1».
Задача компьютера заключается в том, чтобы представить электрический ток в виде чисел.
И если раньше задачу переключения состояний выполняли неповоротливые, громоздкие и малоэффективные электрические реле, то теперь эту рутинную работу взял на себя транзистор.
С начала 60-х транзисторы стали изготавливать из кремния, что позволило не только делать процессоры компактнее, но и существенно повысить их надежность.
Но сначала разберемся с диодом
Вдыхаем!
Кремний (он же Si — «silicium» в таблице Менделеева) относится к категории полупроводников, а значит он, с одной стороны, пропускает ток лучше диэлектрика, с другой, — делает это хуже, чем металл.
Хочется нам того или нет, но для понимания работы и дальнейшей история развития процессоров придется окунуться в строение одного атома кремния. Не бойтесь, сделаем это кратко и очень понятно.
Задача транзистора заключается в усилении слабого сигнала за счет дополнительного источника питания.
У атома кремния есть четыре электрона, благодаря которым он образует связи (а если быть точным — ковалентные связи) с такими же близлежащими тремя атомами, формируя кристаллическую решетку. Пока большинство электронов находятся в связи, незначительная их часть способна двигаться через кристаллическую решетку. Именно из-за такого частичного перехода электронов кремний отнесли к полупроводникам.
Но столь слабое движение электронов не позволило бы использовать транзистор на практике, поэтому ученые решили повысить производительность транзисторов за счет легирования, а проще говоря — дополнения кристаллической решетки кремния атомами элементов с характерным размещением электронов.
Так стали использовать 5-валентную примесь фосфора, за счет чего получили транзисторы n-типа. Наличие дополнительного электрона позволило ускорить их движение, повысив пропуск тока.
При легировании транзисторов p-типа таким катализатором стал бор, в который входят три электрона. Из-за отсутствия одного электрона, в кристаллической решетке возникают дырки (выполняют роль положительного заряда), но за счет того, что электроны способны заполнять эти дырки, проводимость кремния повышается в разы.
Предположим, мы взяли кремниевую пластину и легировали одну ее часть при помощи примеси p-типа, а другую — при помощи n-типа. Так мы получили диод — базовый элемент транзистора.
Теперь электроны, находящиеся в n-части, будут стремится перейти в дырки, расположенные в p-части. При этом n-сторона будет иметь незначительный отрицательный, а p-сторона — положительный заряды. Образованное в результате этого «тяготения» электрическое поле –барьер, будет препятствовать дальнейшему перемещению электронов.
Если к диоду подключить источник питания таким образом, чтобы «–» касался p-стороны пластины, а «+» — n-стороны, протекание тока будет невозможно из-за того, что дырки притянутся в минусовому контакту источника питания, а электроны — к плюсовому, и связь между электронами p и n стороны будет утеряна за счет расширения объединенного слоя.
Но если подключить питание с достаточным напряжением наоборот, т.е. «+» от источника к p-стороне, а «–» — к n-стороне, размещенные на n-стороне электроны будут отталкиваться отрицательным полюсом и выталкиваться на p-сторону, занимая дырки в p-области.
Но теперь электроны притягивает к положительному полюсу источника питания и они продолжаются перемещаться по p-дыркам. Это явление назвали прямым смещением диода.
Диод + диод = транзистор
Сам по себе транзистор можно представить как два, состыкованных друг к другу диода. При этом p-область (та, где размещены дырки) у них становится общей и именуется «базой».
У N-P-N транзистора две n-области с дополнительными электронами — они же «эмиттер» и «коллектор» и одна, слабая область с дырками — p-область, именуемая «базой».
Если подключить источник питания (назовем его V1) к n-областям транзистора (независимо от полюса), один диод получит обратное смещение и транзистор будет находиться в закрытом состоянии.
Но, как только мы подключим еще один источник питания (назовем его V2), установив «+» контакт на «центральную» p-область (базу), а «–» контакт на n-область (эмиттер), часть электронов потечет по вновь образованной цепи (V2), а часть будет притягиваться положительной n-областью. В результате, электроны потекут в область коллектора, а слабый электрический ток будет усилен.
Выдыхаем!
4. Так как все-таки работает компьютер?
Как автор данного материала, я хочу сразу извиниться за утомительное объяснение несколькими абзацами выше. Но именно понимание принципа работы транзистора даст вам понимание того, как работает компьютер.
А теперь самое главное.
В зависимости от подаваемого напряжения, транзистор может быть либо открыт, либо закрыт. Если напряжение недостаточное для преодоления потенциального барьера (того самого на стыке p и n пластин) — транзистор будет находится в закрытом состоянии — в состоянии «выключен» или, говоря языком двоичной системы — «0».
При достаточно напряжении транзистор открывается, а мы получаем значение «включен» или «1» в двоичной системе.
Такое состояние, 0 или 1, в компьютерной индустрии назвали «битом».
Т.е. мы получаем главное свойство того самого переключателя, который открыл человечеству путь к компьютерам!
В первом электронном цифровом вычислителе ЭНИАК, а проще говоря — первом компьютере, использовалось около 18 тысяч ламп-триодов. Размер компьютера был сопоставим с теннисным кортом, а его вес составлял 30 тонн.
Для понимания работы процессора нужно понять еще два ключевых момента.
Момент 1. Итак, мы определились с тем, что такое бит. Но с его помощью мы можем лишь получить две характеристики чего-либо: или «да» или «нет». Для того, чтобы компьютер научился понимать нас лучше, придумали комбинацию из 8 битов (0 или 1), которую прозвали байтом.
Используя байт можно закодировать число от нуля до 255. Используя эти 255 чисел — комбинаций нулей и единиц, можно закодировать все что угодно.
Момент 2. Наличие чисел и букв без какой-либо логики нам бы ничего не дало. Именно поэтому появилось понятие логических операторов.
Подключив всего два транзистора определенным образом, можно добиться выполнения сразу нескольких логических действий: «и», «или». Комбинация величины напряжения на каждом транзисторе и тип их подключения позволяет получить разные комбинации нулей и единиц.
Стараниями программистов значения нулей и единиц, двоичной системы, стали переводить в десятичную для того, чтобы мы могли понять, что именно «говорит» компьютер. А для ввода команд привычные нами действия, вроде ввода букв с клавиатуры, представлять в виде двоичной цепи команд.
Проще говоря, представьте, что есть таблица соответствия, скажем, ASCII, в которой каждой букве соответствует комбинация 0 и 1. Вы нажали кнопку на клавиатуре, и в этот момент на процессоре, благодаря программе, транзисторы переключились таким образом, чтобы на экране появилась та самая, написанная на клавише буква.
Это довольно примитивное объяснение принципа работы процессора и компьютера, но именно понимание этого позволяет нам двигаться дальше.
5. И началась транзисторная гонка
После того, как в 1952 году британский радиотехник Джеффри Дамер предложил размещать простейшие электронные компоненты в монолитном кристалле полупроводника, компьютерная индустрия сделал семимильный шаг вперед.
От интегральных схем, предложенных Дамером, инженеры быстро перешли на микрочипы, в основе которых использовались транзисторы. В свою очередь, нескольких таких чипов уже образовывали сам процессор.
Разумеется, что размеры таких процессоров мало чем схожи с современными. К тому же, вплоть до 1964 года у всех процессоров была одна проблема. Они требовали индивидуального подхода — свой язык программирования для каждого процессора.
А дальше началась гонка техпроцессов. Задачей чипмейкеров стало в производственных масштабах как можно плотнее разместить транзисторы друг возле друга, добившись уменьшенного технологического процесса.
1964 год IBM System/360. Компьютер, совместимый с универсальным программным кодом. Набор инструкций для одной модели процессора мог использоваться и для другой. 70-e годы. Появление первых микропроцессоров. Однокристальный процессор от Intel. Intel 4004 — 10 мкм ТП, 2 300 транзисторов, 740 КГц.1973 год Intel 4040 и Intel 8008. 3 000 транзисторов, 740 КГц у Intel 4040 и 3 500 транзисторов при 500 кГц у Intel 8008.
1974 год Intel 8080. 6 мкм ТП и 6000 транзисторов. Тактовая частота около 5 000 кГц. Именно этот процессор использовался в компьютере Altair-8800. Отечетсвенная копия Intel 8080 — процессор КР580ВМ80А, разработанный Киевским НИИ микроприборов. 8 бит.
1976 год Intel 8080. 3 мкм ТП и 6500 транзисторов. Тактовая частота 6 МГц. 8 бит.
1976 год Zilog Z80. 3 мкм ТП и 8500 транзисторов. Тактовая частота до 8 МГц. 8 бит.
1978 год Intel 8086. 3 мкм ТП и 29 000 транзисторов. Тактовая частота около 25 МГц. Система команд x86, которая используется и сегодня. 16 бит.
1980 год Intel 80186. 3 мкм ТП и 134 000 транзисторов. Тактовая частота — до 25 МГц. 16 бит.
1982 год Intel 80286. 1,5 мкм ТП и 134 000 транзисторов. Частота — до 12,5 МГц. 16 бит.
1982 год Motorola 68000. 3 мкм и 84 000 транзисторов. Этот процессор использовался в компьютере Apple Lisa.
1985 год Intel 80386. 1,5 мкм тп и 275 000 транзисторов. Частота — до 33 МГц в версии 386SX.
Казалось бы, продолжать список можно было бы до бесконечности, но тут инженеры Intel столкнулись с серьезной проблемой.
6. Закон Мура или как чипмейкерам жить дальше
На дворе конец 80-х. Еще в начале 60-х один из основателей компании Intel Гордон Мур формулировал так называемый «Закон Мура». Звучит он так:Каждые 24 месяца количество транзисторов, размещенных на кристалле интегральной схемы, удваивается.
Назвать этот закон законом сложно. Вернее будет окрестить его эмпирическим наблюдением. Сопоставив темпы развития технологий, Мур сделал вывод, что может сформироваться подобная тенденция.
Но уже во время разработки четвертого поколения процессоров Intel i486 инженеры столкнулись с тем, что уже достигли потолка производительности и больше не могут разместить большее количество процессоров на той же площади. На тот момент технологии не позволяли этого.
В качестве решения был найден вариант с использованием рядом дополнительных элементов:
кэш-памяти;
конвейера;
встроенного сопроцессора;
множителя.
Часть вычислительной нагрузки ложилась на плечи этих четырех узлов. В результате, появление кэш-памяти с одной стороны усложнило конструкцию процессора, с другой — он стал значительно мощнее.
Процессор Intel i486 состоял уже из 1,2 млн транзисторов, а максимальная частота его работы достигла 50 МГц.
В 1995 году к разработке присоединяется компания AMD и выпускает самый быстрый на тот момент i486-совместимый процессор Am5x86 на 32-битной архитектуре. Изготавливался он уже по 350 нанометровому техпроцессу, а количество установленных процессоров достигло 1,6 млн штук. Тактовая частота повысилась до 133 МГц.
Но гнаться за дальнейшим наращиванием количества установленных на кристалле процессоров и развитии уже утопической архитектуры CISC (Complex Instruction Set Computing) чипмейкеры не решились. Вместо этого американский инженер Дэвид Паттерсон предложил оптимизировать работу процессоров, оставив лишь самые необходимые вычислительные инструкции.
Так производители процессоров перешли на платформу RISC (Reduced Instruction Set Computing]. Но и этого оказалось мало.
В 1991 году выходит 64-битный процессор R4000, работающий на частоте 100 МГц. Через три года появляется процессор R8000, а еще через два года — R10000 с тактовой частотой вплоть до 195 МГц. Параллельно развивался рынок SPARC-процессоров, особенностью архитектуры которых стало отсутствие инструкций умножения и деления.
Вместо борьбы за количество транзисторов, производители чипов стали пересматривать архитектуру их работы. Отказ от «ненужных» команд, выполнение инструкций в один такт, наличие регистров общего значения и конвейеризация позволили оперативно наращивать тактовую частоту и мощность процессоров, не извращаясь с количеством транзисторов.
Вот лишь некоторые из появившихся с период с 1980 по 1995 год архитектур:
SPARC;
ARM;
PowerPC;
Intel P5;
AMD K5;
Intel P6.
В их основе лежала платформа RISC, а в некоторых случаях и частичное, совмещенное использование CISC-платформы. Но развитие технологий вновь подталкивало чипмейкеров продолжить наращивание процессоров.
В августе 1999 года на рынок выходе AMD K7 Athlon, изготовленный по 250 нанометровому техпроцессу и включающий 22 млн транзисторов. Позднее планку подняли до 38 млн процессоров. Потом до 250 млн Увеличивался технологический процессор, росла тактовая частота. Но, как гласит физика, всему есть предел.
7. Конец транзисторных соревнований близко
В 2007 году Гордон Мур выступил с весьма резким заявлением:
Закон Мура скоро перестанет действовать. Устанавливать неограниченное количество процессоров до бесконечности невозможно. Причина тому — атомарная природа вещества.
Невооруженным глазом заметно, что два ведущих производителям чипов AMD и Intel последние несколько лет явно замедлили темпы развития процессоров. Точность технологического процесса выросла всего до нескольких нанометров, но размещать еще больше процессоров невозможно.
И пока производители полупроводников грозятся запустить многослойные транзисторы, проводя параллель с 3DNand памятью, у упершейся в стену архитектуры x86 еще 30 лет назад появился серьезный конкурент.
8. Что ждет «обычные» процессоры
«Закон Мура» признан недействительным еще с 2016 года. Об этом официально заявил крупнейший производитель процессоров Intel. Удваивать вычислительную мощность на 100% каждые два года чипмейкеры больше не состоянии.
И теперь у производителей процессоров есть несколько малоперспективных вариантов.
Первый вариант — квантовые компьютеры. Попытки построить компьютер, который использует для представления информации частицы, уже были. В мире существует несколько подобных квантовых устройств, но они способны справляться лишь с алгоритмами небольшой сложности.
К тому же, о серийном запуске подобных устройств в ближайшие десятилетия не может идти и речи. Дорого, неэффективно и… медленно!
Да, квантовые компьютеры потребляют намного меньше энергии, чем их современные коллеги, но при этом работать они будут медленнее до тех пор, пока разработчики и производители комплектующих не перейдут на новую технологию.
Второй вариант — процессоры со слоями транзисторов. О данной технологии всерьез задумались и в Intel, и в AMD. Вместо одного слоя транзисторов планируют использовать несколько. Похоже, что в ближайшие годы вполне могут появится процессоры, в которых будут важны не только количество ядер и тактовая частота, но и количество транзисторных слоев.
Решение вполне имеет право на жизнь, и таким образом монополистам удастся доить потребителя еще пару десятков лет, но, в конце концов, технология опять-таки упрется в потолок.
Сегодня же, понимая стремительное развитие ARM-архитектуры, Intel провела негромкий анонс чипов семейства Ice Lake. Процессоры будут изготавливаться по 10-нанометровому технологическому процессу и станут основой для смартфонов, планшетов и мобильных устройств. Но произойдет это в 2019 году.
9. Будущее за ARM Итак, архитектура x86 появилась в 1978 году и относится к типу платформы CISC. Т.е. сама по себе она предполагает наличие инструкций на все случаи жизни. Универсальность — главный конек x86.
Но, в тоже время, универсальность сыграла с этими процессорами и злую шутку. У x86 есть несколько ключевых недостатков:
сложность команд и откровенная их запутанность;
высокое потребление энергии и выделение теплоты.
За высокую производительность пришлось попрощаться с энергоэффективностью. Более того, над архитектурой x86 сейчас трудятся две компании, которых можно смело отнести к монополистам. Это Intel и AMD. Производить x86-процессоры могут только они, а значит и правят развитием технологий только они.
В тоже время разработкой ARM (Arcon Risk Machine) занимаются сразу несколько компания. Еще в 1985 году в качестве основы для дальнейшего развития архитектуры разработчики выбрали платформу RISC.
В отличие от CISC, RISC предполагает разработку процессора с минимально необходимым количеством команд, но максимальной оптимизацией. Процессоры RISC намного меньше CISC, более энергоэффективны и просты.
Более того, ARM изначально создавался исключительно как конкурент x86. Разработчики ставили задачу построить архитектуру, более эффективную чем x86.
Еще с 40-х годов инженеры понимали, что одной из приоритетных задач остается работа над уменьшением габаритов компьютеров, а, в первую очередь — самих процессоров. Но вряд ли почти 80 лет назад кто-либо мог предположить, что полноценный компьютер будет меньше спичечного коробка.
Архитектуру ARM в свое время поддержала компания Apple, запустив производство планшетов Newton на базе семейства ARM-процессоров ARM6.Продажи стационарных компьютеров стремительно падают, в то время как количество ежегодно реализуемых мобильных устройств уже исчисляется миллиардами. Зачастую, помимо производительности, при выборе электронного гаджета пользователя интересуют еще несколько критериев:
мобильность;
автономность.
x86 архитектура сильна в производительности, но стоит вам отказаться от активного охлаждения, как мощный процессор покажется жалким на фоне архитектуры ARM.
10. Почему ARM — неоспоримый лидер
Вряд ли вы будете удивлены, что ваш смартфон, будь то простенький Android или флагман Apple 2016 года в десятки раз мощнее полноценных компьютеров эпохи конца 90-х.
Но во сколько мощнее тот же айфон?
Само по себе сравнение двух разных архитектур — штука очень сложная. Замеры здесь можно выполнить лишь приблизительно, но понять то колоссальное преимущество, что дает построенные на ARM-архитектуре процессоры смартфона, можно.
Универсальный помощник в таком вопросе — искусственный тест производительности Geekbench. Утилита доступна как на стационарных компьютерах, так и на Android и iOS платформах.
Средний и начальный класс ноутбуков явно отстает от производительности iPhone 7. В топовом сегменте все немного сложнее, но в 2017 году Apple выпускает iPhone X на новом чипе A11 Bionic.
Там, уже знакомая вам архитектура ARM, но показатели в Geekbench выросли почти вдвое. Ноутбуки из «высшего эшалона» напряглись.
А ведь прошел всего один год.
Развитие ARM идет семимильными шагами. Пока Intel и AMD год за годом демонстрируют 5 — 10% прирост производительности, за тот же период производители смартфонов умудряются повысить мощность процессоров в два — два с половиной раза.
Скептически настроенным пользователям, которые пройдутся по топовым строчкам Geekbench лишь хочется напомнить: в мобильных технологиях размер — это то, что прежде всего имеет значение.
Установите на стол моноблок с мощным 18-ядерный процессором, который «в клочья разрывает ARM-архитектуру», а затем положите рядом iPhone. Чувствуете разницу?
11. Вместо вывода
Объять 80-летнюю историю развития компьютеров в одном материале невозможно. Но, прочитав данную статью, вы сможете понять как устроен главный элемент любого компьютера — процессор, и чего стоит ждать от рынка в последующие годы.
Безусловно, Intel и AMD буду работать над дальнейшим наращиванием количества транзисторов на одном кристалле и продвигать идею многослойных элементов.
Но нужна ли вам как покупателю такая мощность?
Вряд ли вас не устраивает производительность iPad Pro или флагманского iPhone X. Не думаю, что вы недовольны производительностью расположившейся на кухне мультиварки или качеством картинки на 65-дюймовом 4K-телевизоре. А ведь во всех этих устройствах используются процессоры на ARM-архитектуре.
Windows уже официально заявила, что с интересом смотрит в сторону ARM. Поддержку этой архитектуры компания включила еще в Windows 8.1, а ныне активно работает над тандемом с ведущим ARM-чипмейкером Qualcomm.
На ARM успела посмотреть и Google — операционная система Chrome OS поддерживает эту архитектуру. Появились сразу несколько дистрибутивов Linux, которые также совместимы с данной архитектурой. И это только начало.И лишь попробуйте на минутку представить, каким приятным будет сочетание энергоэффективного ARM-процессора с графеновым аккумулятором. Именно эта архитектура позволит получить мобильные эргономичные гаджеты, которые смогут диктовать будущее.
Почему перевод компьютеров на ARM-процессоры — неудачная идея
В последнее время появляется все больше информации о том, что крупные игроки на рынке компьютеров снова начинают смотреть в сторону ARM-процессоров: к примеру, Microsoft смогли заставить на них работать полноценную (почти) Windows 10, более того — планшеты с ними скоро поступят в продажу. Есть слухи, что Apple начнет переводить Mac на свои процессоры к 2020 году — а ведь они тоже основаны на архитектуре ARM. Но, как говорится в Библии, «нет ничего нового под солнцем» — попытки отказаться от архитектуры x86 были и до этого, и что из этого вышло, и почему шанс того, что сейчас все пойдет по тому же сценарию, велик — мы и поговорим в этой статье.
История попыток отказаться от х86
Перенесемся мысленно в 1996 год. Тогда на рынке уже четко определились два конкурента — Microsoft с Windows 95 и Apple с Mac OS 7 (или же System 7). И, дабы завоевать большую долю рынка, каждый из них пытался придумать что-то оригинальное. У Apple это был планшет Newton — и, хотя он и провалился из-за отвратительно работающего рукописного ввода, продукт был достаточно инновационным в то время (и работал, кстати, под управлением ARM-процессора). Microsoft идея планшетом понравилась, но пойти они решили по своему собственному пути — «железом» пусть занимаются сторонние разработчики, компания же займется софтом — так и появилась Windows CE (прожившая аж до 2013 года — то есть 17 лет).
Суть системы была проста: она должна выглядеть как Windows, работать максимально похоже на Windows, запускать программы, написанные на Win32 API, но при этом иметь поддержку процессоров на архитектурах, отличных от x86. Идея была классная, но реализация подкачала: и хотя CE 1.0 и 2.0 действительно были похожи на Windows 95, функционально они здорово проигрывали последней: были проблемы по обмену данными с другими устройствами, не было поддержки мультимедийных функций, и, что самое главное — эту ОС не оценили разработчики, поэтому количество сторонних приложений было мизерное. И с учетом того, что на рынке была такая система, как Palm OS, работающая и быстрее, и интуитивно понятнее, с большим количеством софта и лучшим функционалом — продажи устройств на CE были неважными. В 2000 году Microsoft пытается улучшить ситуацию, выпустив версию CE 3.0, где добавлена возможность выхода в Интернет и проигрывания MP3 и видеороликов, но момент был уже упущен.
Окончательно «похоронила» Windows CE для планшетов сама же Microsoft, представив в 2002 году Windows XP Tablet Edition — по сути обычную XP, но с наэкранной клавиатурой и другими оптимизациями для работы пальцем или стилусом. Понятное дело, что планшеты на ней были по сути обычными компьютерами с x86-процессорами, которые поддерживали весь софт для XP. Так что этот момент можно считать первой победой x86-процессоров.
Переместимся еще на 4 года вперед — в 2006. Уже было очевидно, что эра одноядерных процессоров подходит к концу: у AMD уже есть двухядерные процессоры, Intel тоже готовит к выпуску двухядерные Core 2 Duo. А что же в этом время происходит на Mac? Увы — все плохо: компания в 90-ых сделала ставку не на x86, а на процессоры архитектуры PowerPC, разработанной IBM. Тогда они были если не лучше, то, как минимум, конкурировали на равных с решениями от Intel. Но тут в игру вмешалась AMD, и в стане x86 началась гонка за частотой — она росла вдвое чуть ли не раз в два года, и в итоге к 2004 году частоты процессоров доросли до вполне современных 3 ГГц. А вот с PowerPC так не получилось сразу по двум причинам: более «толстый» техпроцесс и нежелание отказаться от старых наработок привели к тому, что к тому же году частоты топового PowerPC G5 были лишь на уровне 2 ГГц, а производительность Pentium 4 с 3 ГГц была местами вдвое выше.
К счастью, в Apple быстро поняли, что «лодка» IBM тонет, и вовремя перешли на решения от Intel. Но у читателя наверное возникнет вопрос — а что с программами? Ведь эти две архитектуры сильно различаются, так что люди, купившие новые Mac с процессорами от Intel, должны были остаться без софта. Ответ прост — был написан эмулятор, который позволял на процессорах от Intel запускать софт для PowerPC. С учетом того, что Core 2 Duo были местами в 3-4 раза быстрее, даже с учетом эмуляции программы зачастую работали даже быстрее, чем на «родной» архитектуре, так что конечные потребители или не заметили разницы, или были даже довольны приростом производительности. Ну а через год большинство разработчиков программ оптимизировало их под x86, а еще через год Apple убрала из системы эмулятор PowerPC за ненадобностью. Так что это можно считать второй победой x86.
Переместимся в совсем уж недалекое прошлое — 2012 год: Microsoft представляет две системы, Windows 8 и Windows RT. Про первую думаю рассказывать нет смысла: обычная Windows, работающая только на x86-64, с несколько видоизмененным интерфейсом. А вот вторая ОС была несколько интереснее: с виду она выглядела как Windows 8, и даже имела бесплатный предустановленный Office 2013. Но работало первое устройство на этой ОС — планшет Surface — на ARM-процессоре Tegra 3. Ничего не напоминает? Да, история с Windows CE повторяется. Достаточно большому количеству пользователей захотелось попробовать и новую ОС, и сам планшет Surface от ее создателя.
Увы — всех быстро постигло разочарование: и хотя система даже работала на ядре от Windows 8, возможность установки ПО была жестко ограничена Магазином Windows, где 90% программ до сих выглядят так, как будто написаны школьниками на переменке. И даже это не было бы большой проблемой, если бы Microsoft продавали свой планшет по цене популярных нетбуков — тогда бы его хотя бы брали как печатную машинку с выходом в интернет. Но, увы, ценник на Surface был на уровне планшетов на Windows 8 с процессорами Intel Atom. Да, производительность Atom была на уровне Tegra 3 в Surface, но вот полноценная ОС позволяла ставить любой нужный софт, так что в итоге продажи Surface на Windows RT были крайне низкими. Microsoft через год обновила ее до Windows 8.1 RT и даже выпустала неплохой планшет Lumia 2520, но, увы, ситуацию это не спасло, и до Windows 10 эта версия ОС не обновилась — так что планшеты на x86 опять победили.
Что же в итоге? За 20 лет было сделано две попытки уйти с x86 на другие архитектуры, и одна попытка уйти с других архитектур на x86. Первые две с треском провалились, а вот последняя — вполне удалась. И теперь Microsoft предпринимают еще одну попытку подружить Windows и ARM — посмотрим, что же в итоге получилось.
Полноценная Windows 10 на ARM — наконец-то успех?
И вот в 2017 года пошли слухи, что Microsoft готовит полноценную Windows 10 для ARM. В самом конце 2017 появились готовые образы такой системы, а в начале 2018 на выставке были представлены несколько планшетов на ней. Со стороны все смотрится здорово: Snapdragon 835, 4 ГБ ОЗУ или больше, SSD на 128 ГБ или больше — вполне адекватное «железо» для хорошего планшета, но что же на деле?
К слову — несколько удивляет выбор процессора: Microsoft с 2012 года умела запускать Windows на решениях от Nvidia — процессорах Tegra. Последняя версия процессора, Tegra X1, отлично показала себя в приставке Nintendo Switch, а с учетом того, что графика у этого процессора по сути является обычной видеокартой Nvidia 900-ой серии, только со сниженными частотами и небольшим количеством CUDA, выбор такого процессора решил бы проблему с драйверами на графику — не пришлось бы их писать под видеокарту Adreno, которыми оснащены процессоры Snapdragon. С другой стороны — последние имеют встроенный модем, а с учетом того, что планшеты — все же мобильные устройства и эксплуатироваться будут вне дома — возможно именно это и перевесило чашу весов в сторону Snapdragon.
Но мы несколько отвлеклись. Конфигурация, указанная выше, будет стоить от 1000 долларов (планшет HP Envy x2) — и тут возникает вопрос: а стоит ли он своих денег? Ведь за 900 долларов можно взять планшет Surface Pro 4 с процессором Intel Core m3, охлаждаемым также пассивно. Давайте посмотрим на тесты производительности, и начнем с PCMark 8 — он эмулирует реальные пользовательские задачи:
И тут мы видим оглушительный провал — даже простенький Celeron оказывается на 60% быстрее, решения же с Core m3 быстрее в 2.5 раза. Чтобы была понятна производительность мобильного Celeron: при открытии вкладки с 1080р видео с Youtube система уже становится задумчивой. А если в фоне будет еще какая-нибудь закачка или обновление системы — работать и вовсе станет некомфортно. Теперь представьте, что мы имеем процессор на треть слабее — проблемы с производительностью будут возникать постоянно. И будут они в большинстве задач: к примеру, обработка фото на Celeron проходит в 4 раза быстрее:
Единственные тесты, где Snapdragon оказывается хотя бы на уровне Celeron или даже лучше — в так называемых нативных приложениях, которые уже умеют работать на ARM. Но даже в них превосходство Core m3 неоспоримо:
С производительностью видеокарты дела обстоят все же несколько лучше:
Как видите, в популярном тесте Futuremark Cloud Gate Adreno 540 все же смог обогнать интегрированную графику в Celeron на 10%. Но, в любом случае, отставание от Core m3 близко к двукратному.
Ну ладно, с производительностью все достаточно печально — а что же со временем автономной работы? На презентации нам обещали аж 20 часов работы — и если это так, то производительность для достаточного количества людей отходит на второй план. Но, увы, чуда не произошло — при серфинге в Chrome (надеюсь, никто Edge всерьез не воспринимает?) время автономной работы составило 10 часов — на 1.5 часа больше, чем у Dell с полноценным процессором:
Стоит ли огромная переплата за слабое железо лишних 1.5 часов автономной работы? На мой взгляд — нет.
И тут возникает вопрос — почему все так плохо с производительностью и временем автономной работы, ведь под Android Snapdragon 835 зачастую работает вдвое быстрее, оставляя Celeron далеко позади? Ответ прост — эмуляция: это единственный способ заставить х86-программы работать на ARM-процессоре. А она, как мы знаем, очень требовательная, и в лучшем случае падение производительности оказывается двукратным, в худшем — предела нет (отличным примером является эмулятор Playstation 3 для ПК, где i7 вместе с GTX 1080 Ti выдают в играх 5-7 fps, хотя ни для кого не вызывает сомнении то, что такая связка реально мощнее консоли больше чем на порядок). В случае с переходом с PowerPC на x86 проблема падения производительности из-за эмуляции не стояла, ибо x86-процессоры были существенно мощнее. Но вот ARM-процессоры реально не дотягивают даже до 2-ядерных Intel Core, поэтому эмуляция только усугубляет проблему не самой высокой производительности.
Вторая проблема — ARM-процессоры не поддерживают множество нужных для некоторых программ инструкций: к примеру, нет поддержки AVX, FMA, последних версий SSE. Это опять же или ограничивает круг запускаемых программ, или снижает производительность в программах, где эти инструкции используются.
Третья проблема не столь глобальна — процессоры ARM умеют пока что эмулировать только x86 программы. С учетом того, что до полноценного перехода на x64 еще далеко, и большинство программ имеют инсталляторы и для 32-битных систем, особых проблем это не вызовет.
А вот последняя проблема уже достаточно глобальна — Windows 10 на ARM поддерживает драйвера, совместимые только с ARM64. Иными словами — если Microsoft не включила в систему поддержку нужного вам устройства, а его производитель не удосужился написать новый драйвер для ARM — вы его не подключите. В итоге какие-нибудь флешки или жесткие диски работать будут нормально, а вот с модемами, принтерами, камерами, картридерами и прочими устройствами будут проблемы.
Можно ли решить эти проблемы? Конечно — нужно «всего лишь» начать писать софт нативно на ARM. И это опять же знакомо — это же говорили нам Microsoft на презентации Windows RT в 2012 году. Что сделало большинство разработчиков? Правильно, посмеялось и забыло про такую ОС. Почему? Да потому что это банально невыгодно — нужно «перелопатить» кучу кода, бывает даже писать с нуля — и ради чего, пары-тройки девайсов, на которых вашу программу может вообще никто запускать не будет? Поэтому возможно что самый популярный софт, типа того же браузера Chrome, и перепишут нативно на ARM, но что-то более редкое, типа того же Photoshop, так и будет запускаться в режиме эмуляции с низкой производительностью.
Как решить эту проблему? Apple сделала просто — взяла да и перевела сразу все свои устройства с PowerPC на x86, так что у разработчиков просто не оставалось выхода как начать писать софт под новую архитектуру. Но Microsoft, очевидно, от поддержки x86 отказываться явно не будет — хотя бы из-за низкой производительности текущих ARM-процессоров. Так что проблемы, как видите, в реальности нерешаемые, и поэтому шанс, что планшеты на Windows с ARM «взлетят» — достаточно низок.
Удастся ли Apple выпустить ультрабук с ARM-процессором к 2020 году?
С Microsoft разобрались, теперь поговорим о их главном конкуренте — Apple: по слухам, те хотят выпустить ультрабук на собственном ARM-процессоре к 2020 году. И, увы, они опять же совершают ту же ошибку, что и Microsoft — основная масса MacBook и iMac останутся на процессорах от Intel, поэтому опять же разработчики будут неохотно портировать свой софт под ARM — это не принесет им прибыли. Поэтому опять же будет эмуляция, и опять же будут существенные потери производительности и, в итоге, никаких причин брать Mac на ARM. Единственный выход из ситуации — это резко перевести все свои устройства с процессоров от Intel на решения от ARM, но это граничит с областью фантастики: сейчас в iMac и Mac Pro ставятся в том числе и 18-ядерные мощнейшие процессоры Intel Xeon, и дабы пользователи, купив новый Mac на ARM, не почувствовали снижения производительности, Apple должна разработать чип, который будет как минимум вдвое их мощнее при том же тепловыделении. Реально это? Очевидно, что нет.
Итог — для каждой архитектуры свои устройства
В итоге я еще раз процитирую фразу из Библии: «нет ничего нового под солнцем». Компании очередной раз пытаются отказаться от x86, и, судя по всему, это очередной раз не получится. Возможно, в будущем, когда производительность ARM-процессоров станет существенно выше, чем у решений от AMD и Intel, переход и будет совершен, но пока что для каждой архитектуры есть свои типы устройств: для смартфонов и тонких планшетов это ARM, для ноутбуков и ПК — x86-64.
Процессоры архитектуры ARM v8 идут на сервера / Habr
Процессорная архитектура ARM имеет на Хабре свою небольшую, но преданную армию поклонников. И хотя до сегодняшнего дня подавляющее большинство смотрело на процессоры ARM как на исключительно процессор для мобильных устройств, уже многим было ясно, что «процессорами для планшетов» возможности ARM не исчерпываются. Однако даже регулярно появлявшиеся на Хабре анонсы о «серверных» платформах на базе процессоров архитектуры ARM не могли убедить скептиков. Все равно, в существующем виде, эти процессоры на «серверные» никак не тянули, оставаясь нишевым решением, чем-то вроде пары лет назад ставшим популярным «сервере на Intel Atom».
Однако времена меняются, и этот старожил процессорных архитектур (не все знают, что первый процессор архитектуры ARM появился еще 28 лет назад, в 1983 году, и ARM как семейство архитектур, ровесник i386) наконец, похоже, дорос и до серверов.
В конце декабря ARM анонсировала новую процессорную архитектуру — ARMv8, ориентированную на серверное применение, а компания Applied Micro (APM, ранее была известна как AMCC, Applied Micro Circuits Corp.) предложила плату референсного дизайна, X-Gene Platform, для демонстрации возможностей нового продукта.
Тут надо сделать оговорку, что такая давняя история этой архитектуры, а также широкое лицензирование ее различным независимым разработчикам, занимающимся развитием семейства часто без связи друг с другом, привела к тому, что схема именований версий семейств процессоров и их архитектур, способна свести с ума. Желающие самостоятельно разобраться с ней могут попробовать сделать это из статьи Википедии, она далеко выходит за рамки этой статьи и потянет на отдельную, полноценную статью сама по себе.
Если вы разберетесь с этим, то поймете, почему я называю архитектуру ARMv8 новой, хотя на рынке давно существуют процессоры с названием ARM9 и ARM11.
Итак, прежде всего о технических характеристиках процессоров новой архитектуры:
- Полноценное 64-битное ядро ARM
- Аппаратная поддержка виртуализации как CPU, так и ввода-вывода.
- 64-битная виртуальная и 40-битная физическая адресация
В настоящий момент архитектура доступна в виде FPGA, и появится как полноценный самостоятельный System-on-a-Chip APM X-Gene во второй половине 2012 года.
APM X-Gene это:
- Cуперскалярная архитектура процессора, с Out-of-Order выполнением 4 инструкций за такт.
- 3GHz тактовая частота
- Двухядерный процессорный модуль с раздельным кэшем L1 для инструкций и данных и общим L2
- Масштабируемость до 128 ядер.
- Когерентная неблокируемая системная шина с QoS и пропускной способностью к памяти и устройствам ввода-вывода до 80GB/s (гигаБАЙТ!)
- Интегрированный 10Gb Ethernet и PCIe, с возможностью подключить внешний 100Gb Ethernet
- Будет производиться на TSMC по 40/28nm технологии
- Энергопотребление — порядка 2W на ядро на полной загрузке (0,5W в режиме простоя).
- Готов портированный LAMP-стек приложений
Вот теперь, пожалуй, уже можно всерьез говорить о том, что ARM приходит на сервера.
Еще почитать по теме: