Новые "весенние" процессоры продолжают радовать нас своим появлением. На этот раз отличилась компания Intel, представившая на украинском рынке сразу два топовых процессора Pentium 4 c частотой 3,4 GHz, однако построенных на различных ядрах — Northwood и Prescott соответственно. Надеемся, данный обзор поможет определиться с тем, что же способны дать пользователю такие похожие и вместе с тем настолько разные CPU.
На сей раз мы решили не делать громоздкий материал, тем более что совсем недавно
уже рассматривали детально предыдущие поколения этих процессоров с частотами 3,2
GHz. С особенностями ядра Northwood наверняка знакомо большинство читателей нашего
издания, следовательно, изменения в производительности при переходе на новую частоту
3,4 GHz можно просчитать даже на калькуляторе, имея необходимую базу предыдущих
результатов тестирования. Но конструктив процессора несколько обновился. Основное
(внешнее) изменение коснулось элементов питания самого кристалла. Как известно,
на тыльной стороне процессорной подложки расположены навесные элементы (в основном
шунтирующие конденсаторы). Так вот, если раньше в 200 (800) MHz серии Northwood
их количество и расположение было одинаковым, то модель 3,4 GHz кардинально отличается
от своих предшественников. Его подложка как две капли воды похожа на Pentium 4
Extreme Edition. Почти двукратное увеличение числа конденсаторов наверняка вызвано
желанием уменьшить всплески и уровень помех, возникающих в цепях питания процессора.
Как оказалось, данные метаморфозы положительно сказались на разгонном потенциале,
но об этом позже.

Prescott также отметился, но в данном случае изменения касаются исключительно
программной части. С технической точки зрения отличий новой модели с частотой
3,4 GHz от 3,2 нам обнаружить не удалось. Так что же это за изменения, которые
позволят новым массовым CPU от Intel показать себя во всей красе?

Конфигурации
тестовых систем
Платформа
Intel
AMD
Процессор Intel Pentium 4 (Prescott) 3,2/3,4E GHz Intel Pentium 4 (Northwood) 3,4C GHz AMD Athlon 64 3400+ 2,2 GHz
Материнская плата Abit IC7-MAX3 (чипсет i875P) ASUS K8V Deluxe (чипсет VIA K8T800)
Память Kingston HyperX PC3500 (2?512
MB)
Видеокарта HIS Radeon 9800XT 256 MB
Жесткий диск Western Digital WD300BB 30
GB 7200 об/мин
ОС Windows XP Professional SP2

Экосистема процессорного ядра Prescott

Пожалуй, одно из значимых достижений
последнего времени — корректное "понимание" Prescott операционной
системой Windows XP с установленным Service Pack 2. До официального выхода этого
"апгрейда" рано говорить о возможных преимуществах и новом уровне
управления технологией Hyper-Threading, но сама тенденция все-таки положительная.
Также в ходе тестирования нами была замечена еще одна интересная особенность
— материнские платы, для которых есть новые версии BIOS с заявленной 100%-ной
совместимостью с ядром Prescott, демонстрируют весьма необычное поведение. Действительно,
после перепрошивки скорость работы с памятью существенно возрастает, а ее латентность
несколько снижается (напомним, в случае установки CPU Prescott). Но если в плату
с новым BIOS установить Northwood, быстродействие подсистемы памяти хоть и незначительно,
но все же упадет. Выводов из всего этого пока два: а) если вы владелец Pentium
4 серий B/C, не спешите обновлять BIOS на своей материнской плате; б) пока рано
говорить о "нюансах" BIOS как о сложившейся закономерности, но тот
факт, что три популярные модели материнских плат все же демонстрируют такой
результат, по крайней мере, заставляет задуматься.

Также отметим медленное внедрение поддержки SSE3 в современное мультимедийное
ПО. Обещанные драйверы от ATI и NVidia пока не появились, а авторы медиакодеков
пока не спешат использовать преимущества SSE3 в своих продуктах. Хотя в Японии
— стране, так любящей высокие технологии, — новый набор команд уже достаточно
интенсивно применяется "национальным" ПО. Нам даже удалось найти результаты
тестирования, где сообщалось о 10%-ном приросте производительности в случае
медиакодирования. Опять-таки, когда "реальность" SSE3 дойдет до нас
— еще неизвестно. Но тот факт, что, по крайней мере, это будет "в плюс",
а не "в минус", уже радует.


Результаты тестирования

Тест Primordia из набора Science Mark 2.0 хоть и косвенно, но свидетельствует
о том, что Prescott не создан для сложной математики. Даже с новой частотой
3,4 GHz он далек от своих конкурентов. А вот Northwood 3,4 GHz доказал, что
при использовании технологии Hyper-Threading его вычислительные способности
практически не уступают Athlon 64 3400+.

Остальные результаты вполне можно рассматривать с точки зрения глобальных закономерностей.
Налицо действительное соответствие рейтинга 3400+ у Athlon 64 2,2 GHz реальной
производительности Pentium 4 (Northwood) 3,4 GHz. При некоторых отклонениях
(Unreal Tournament всегда демонстрировал более высокие результаты на процессорах
AMD, а "мультимедиа" всегда лучше удается CPU от Intel, особенно с
использованием ПО, поддерживающего SMP) мы наблюдаем в принципе схожее быстродействие.
Теперь посмотрим, где же новый 90-нанометровый процессор Intel занял первые
места — архивирование WinRAR, 3DMark 2003, SPECviewperf 7.1.1. Опять-таки примечательно
— если Prescott отстает, то отстает значительно, если лидирует, то тоже весьма
ощутимо. Еще одно подтверждение тому, что новый процессор Intel нельзя однозначно
назвать ни "хорошим", ни "наоборот". Во-первых, пока полностью
не сформировалась та самая экосистема, где он сможет себя проявить на все 100%,
а во-вторых, он просто другой (отличный от всего того, к чему мы так
долго привыкали).

Выводы

После довольно революционного появления семейства AMD64, пошатнувшего
и взбудоражившего IT-общественность, снова наблюдается некоторое спокойствие.
Как показало наше тестирование, новые массовые процессоры Intel Pentium 4 (Northwood)
3,4 GHz и AMD Athlon 64 3400+ 2,2 GHz действительно являются "топовыми"
для обеих компаний и ничем друг другу не уступают, а выбор остается исключительно
за пользователем. Хотя платформа от AMD обойдется покупателю несколько дешевле,
но той разительной разницы, которая была в случае с Athlon XP, уже не будет.
Теперь при желании приобрести новые High-End-системы вне зависимости от производителя
платформы придется заплатить сопоставимые суммы. Ну а посоветовать приобретение
Prescott можно тем, кто хочет стать обладателем передовых технологий, которые
должны проявить себя в будущем. Так сказать, платформа "на вырост".

Но все же выскажем некоторые претензии к Prescott. Заключаются они в слишком
высоком тепловыделении. Даже выполнив все рекомендации касательно циркуляции
воздуха, мы получили в закрытом корпусе около 70 °С на чипе. В случае применения
мощной видеокарты и модулей памяти PC3200 это может привести к тому, что температура
внутри корпуса превысит 50 °С — согласитесь, многовато. Надеемся, что в
будущих степпингах Intel вплотную займется решением данной проблемы, иначе дальнейший
рост частот может оказаться небезопасным.

Разгон

Для серьезного и стабильного разгона новых процессоров от Intel придется
как минимум сменить штатные кулеры на что-то более мощное и добавить в корпус
пару-тройку вентиляторов. CPU с индексом "С" смог стабильно работать
на частоте 3,72 GHz (наверняка сказались дополнительные элементы в цепи питания,
о которых мы говорили вначале). Prescott достиг порога в 3,8 GHz, однако в открытом
корпусе и с кулером Zalman CNPS7000ACu, как нам кажется, достичь более высоких
частот, используя традиционные методы охлаждения, просто не удастся.

Мы уже ни раз говорили, что активное развитие компьютерных технологий заставляет нас пользователей, всегда быть в курсе событий. Вроде бы еще вчера ты неплохо разбирался в современных технологиях, а уже через несколько месяцев, с трудом можешь конфигурировать несложную машинку. Действительно совсем недавно мы считали, что компьютер с процессором Celeron с частотой выше 2ГГц и графической картой GeForce FX 5600, может справиться не только с современными играми, но и с наступающим поколением игр. Однако последние события на рынке компьютерных игр (мы имеем ввиду выход таких шедевров как FarCry) позволяют серьезно задуматься над возможностями вашего компьютера.

В этой статье мы рассмотрим особенности сборки оптимального игрового компьютера, основанного на новом процессоре Intel Pentium 4 Prescott , а так же попробуем выяснить, насколько увеличься производительность игровых приложений при использовании особенностей этого процессора.

Что такое Intel Pentium 4 Prescott?

В начале февраля Intel анонсировала четыре новых процессора Pentium 4 2.8, 3.0, 3.2, и 3.4 ГГц, основанных на долгожданном ядре Prescott , которое включает ряд нововведений, способных в самом ближайшем будущем изменить представление о производительности современного компьютера. Обычно, выход нового ядра процессора, является первым серьезным шагом для перехода к каким-либо новым возможностям, которые, на момент выпуска ядра, не могут быть реализованы, однако в самом ближайшем будущем без них мы не сможем обойтись. Подтверждений для этого множество. Например, появление процессоров с поддержкой технологий MMX и SSE . Тогда, несколько лет назад, мы могли с трудом представить себе, зачем все это надо, и каким будет прирост производительности по сравнению с обычными процессорами Pentium . Зато сегодня очень сложно представить себе процессор без поддержки мультмедийных потоковых инструкций. То же самое происходит сегодня. Скорее всего, увидеть реальное преимущество новых процессоров на старых приложениях будет не просто, однако в самом ближайшем будущем мы себе уже не сможем представить, как могли жить и работать без этих нововведений.

В этой статье мы рассмотрим основные особенности нового ядра, и соответственно, попробуем сравнить возможности новых процессоров с процессорами, основанными на ядре Northwood. Это позволит четко решить, стоит ли покупать новый процессор, или можно обойтись стареньким, проверенным Northwood.

Как отличить новые процессоры?

Новые процессоры имеют точно такую же конструкцию, что и процессоры, основанные на ядре Northwood, поэтому для их отличия Intel ввела новый индекс в названии процессора - E . Например, Процессор Pentium 4 3.2 C основан на ядре Northwood, имеет поддержку 800МГц шины и технологии HT , в то время как Pentium 4 3.2 E выполнен на ядре Prescott , и так же поддерживает 800МГц шину и технологию HT .

Вместе с выпуском четырех новых процессоров, Intel представила процессор Pentium 4 3.4 EE (Extreme Edition), основанный на ядре Northwood и имеющий 2 Mb кэш памяти третьего уровня, а так же упрощенную версию Pentium 4 2.8 A , основанную на ядре Prescott с ограниченной частотой шины (533МГц) и отсутствием поддержки технологии HT .

Что нового?

Новое ядро Prescott включает настолько много изменений, что для этого можно выделить отдельную статью. Однако не всем нам интересно углубленно изучать сложные технические особенности, поэтому мы попробуем на понятном, человеческом языке рассмотреть какие преимущества или недостатки дают все эти нововведения.

Итак, начинаем с самого ядра. Prescott выполнена по новой 90- нанометровой технологии, что позволило уменьшить размеры площадь самого кристалла, при этом общее число транзисторов было увеличено более чем в два раза. В то время как ядро Northwood имеет площадь 145мм2 и на нем размещено 55 миллионов транзисторов, ядро Prescott имеет площадь 122мм2, при этом на нем расположено 125 миллионов транзисторов.

Новые SSE инструкции

В связи с использованием в процессорах AMD технологии SSE 2, Intel представила в новом Prescott новую технологию SSE 3, которая включает 13 новых потоковых инструкций, которые увеличат производительность некоторых операций как только программы начнут использовать их. На самом деле SSE 3 является не просто расширением SSE 2, эта технология не только добавляет новые инструкции, она позволяет облегчить и автоматизировать процесс оптимизации готовых приложений средствами компилятора. Другими словами, разработчику программного обеспечения не надо будет переписывать код программы, необходимо будет только перекомпилировать ее. Таким образом, можно предположить, что воспользоваться новыми возможностями SSE 3, позволяющими значительно увеличить производительность мы сможем уже довольно скоро.

Увеличенный объем кэш памяти

Одним из важнейших, с точки зрения производительности, дополнений можно считать увеличенный до 1 Mb кэш второго уровня. Опыт показывает, чем больше кэш, тем выше производительность. Однако, при увеличении объема кэш памяти, увеличилась латентность. Что это значит и как это влияет на производительность? Здесь есть три варианта развития ситуации. Наибольшее увеличение производительности будет замечено, в случае если объем используемых приложением данных сравним с объемом кэш памяти. В этом случае увеличение объема кэш памяти в два раза заметно снижает процент «промахов» и повышает производительность, не смотря на увеличение латентности. Однако, если объем используемых данных заметно меньше объема кэш памяти, то увеличение латентности негативно скажется на производительности. И третья, возможная ситуация, когда объем данных заметно больше объема кэш памяти. В этом случае кэш памяти не будет влиять на производительность, т.к. основные задержки будут связаны со скоростными характеристиками памяти.

Объем кэш памяти первого уровня так же был увеличен до 16 Kb , при этом так же возросла латентность, но в данном случае это не так важно.

Улучшенная предвыборка данных

Для того, что бы снизить негативный эффект от увеличенной латентности кэш памяти, а так же просто увеличить производительность ядро Prescott имеет улучшенный механизм предвыборки данных.

Улучшенный Hyperthreading

Ядро Prescott включает улучшенную версию технологии Hyperthreading . В новую версию включено множество новых особенностей, способных оптимизировать многопоточное выполнение различных операций. Единственный недостаток новой версии заключается в необходимости перекомпиляции программного обеспечения и обновления операционной системы.

Увеличенная длинна конвейера

Для увеличения рабочей частоты будущих процессоров, ядро Prescott имеет увеличенную длину конвейера с 20 до 31 ступени. Увеличение длинны конвейера негативно сказывается на производительности в случае неправильного предсказания ветвлений. Проще говоря, если ветвление предсказаний будет выполнено неправильно, то будет сброшен весь конвейер, и все будет повторено снова. Для компенсации увеличения длинны конвейера, была улучшена технология предсказания ветвлений.

Почему новый процессор Pentium 4 имеет большую рабочую температуру?

Те, кто уже попробовали новый процессор, заметили, что он имеет заметно более высокую рабочую температуру, чем предыдущее поколение процессоров. Это связано в первую очередь с уменьшением площади кристалла и увеличенным числом транзисторов, что незамедлительно сказалось на потребляемой мощности. Так, если по спецификации TDP процессор Northwood 3.20 C потреблял 82 W , то Prescott 3.20 E потребляет уже 103 W . В результате этого при 100% загрузке процессора, температура увеличилась с 60о С до 80о С. Обращаем внимание, что некоторые платы, имеющие функцию аппаратного мониторинга могут не адекватно среагировать на увеличение температуры и выключить компьютер. Поэтому прежде, чем использовать новый процессор, позаботьтесь о изменении критического уровня производительности.

Совместимость

Несмотря на соответствие новых процессоров спецификации Socket 478 P 4, Intel изменила спецификации потребляемой мощности, и по этому не все платы смогут поддержать новый процессор. Для некоторых моделей придется искать обновление BIOS . Кроме этого, опыт показывает, что для нормальной работы нового процессора необходимо иметь хороший блок питания, мощный стабилизатор питания на системной плате, а так же эффективную систему охлаждения. Ниже мы подробно рассмотрим особенности основных составляющих современного компьютера, и расскажем, на что необходимо обращать внимание при выборе комплектующих. Начнем наш рассказ с выбора корпуса и блока питания.

Выбираем корпус…

Итак, начинаем с выбора корпуса. Корпус для современного компьютера должен не только нравиться вам визуально, но и должен иметь мощный и стабильный блок питания, быть удобным в сборке, а так же обеспечивать достаточное охлаждение всех внутренних элементов.

Для нашего будущего компьютера мы выбрали корпус PowerMan 6200, который имеет не только привлекательный внешний вид, но и достаточно интересную начинку.

Корпус PowerMan 6200 - внешне это обычный корпус класса MidTower, предназначенный для построения универсальных компьютеров на системных платах ATX / microATX. Передняя панель выполненная в оригинальном двухцветном дизайне, позволяет устанавливать до четырех 5.25” устройств и один флоппи дисковод, который спрятан под декоративной панелью. Использование этой панели позволяет сделать корпус более эстетичным, однако, она не позволяет устанавливать вместо дисковода, ZIP - или MO - приводы, т.к. диски этого типа имеют большую толщину и размер. Кроме того, если вы не планируете использовать флоппи-дисковод, то имеющаяся щель будет выглядеть нелепо.

Ниже отсека флоппи-дисковода расположена кнопка включения, два индикатора активности накопителей и питания, а так же одна маленькая кнопка «Сброс», имеющая конструкцию, исключающую случайное нажатие.

Для обеспечения удобного доступа к внутреннему пространству корпуса, можно снять обе боковые стенки корпуса. Шасси корпуса выполнено из высококачественной, хорошо обработанной стали, толщиной 0.6-0.7мм. Все металлические детали корпуса имеют гладкие кромки, предупреждая травматизм при сборке.

Как вы можете видеть, внутри корпуса может быть установлено четыре 5.25” и до восемь 3.5” устройств. Честно говоря, такое количество накопителей свойственно скорее серверам или рабочим станциям, чем игровому компьютеру. Кстати, если вы решите сделать универсальный компьютер, то сможете без проблем установить столько дисков, сколько надо, тем более, что на передней стороне может быть установлено четыре 80мм вентилятора, обеспечивающих надежное охлаждение дисковой подсистемы.

Тыльная сторона корпуса, мало, чем отличается от других MidTower корпусов. Здесь имеется два вентиляционных отверстия, для устновки 80мм вентиляторов, посадочные места для дополнительных разъемов и даже тыльная панель, закрывающая порты ввода-вывода использующая традиционное размещение портов на системной плате.

В этом корпусе используется собственный блок питания PowerMan HPC -300, который по многочисленным мнениям, считается очень неплохим решением для стабильного питания современных компьютеров, использующих высокопроизводительные и функциональные конфигурации.

Блок питания имеет мощность 300 W с номинальной нагрузкой 68% от максимальной. Для обеспечения наиболее комфортной работы, блок питания имеет пониженный уровень шума, достигаемый благодаря управлению скоростью вращения вентилятора, а так же обеспечивает надежную защиту по разным параметрам.

Выходные параметры блока питания

Выходы

Min . нагр.

Max . нагр.

погрешность

шумы и колебания

В принципе, пользователь может выбрать любой понравившейся корпус, оснащенный мощным блоком питания, однако, не забывайте, что экономия здесь может закончиться не только порезанными и поцарапанными руками, но и серьезными проблемами с «железом» будущего компьютера.

Системная плата…

Теперь переходим к системной плате. Выбор системной платы под процессор Pentium 4 с ядром Prescott не самый простой этап в конфигурировании нового компьютера. Дело в том, что на сегодняшний день еще не все производители системных плат, предоставили обновления BIOS для поддержки нового процессора, и, кроме того, из-за повышенного потребления энергии новыми процессорами, плата должна иметь хороший стабилизатор питания.

Для нашего игрового компьютера мы использовали системную плату Albatron PX 865 PE , основанную на чипсете i 865 PE . Эта плата входит в серию PX 865 PE , в которую вошли еще две платы PX 865 PE Pro и ProII , отличающихся наличием на борту сетевого контроллера, а так же наличием других самых современных особенностей, типа Gigabit CSA Ethernet контроллера, 8-канального звукового чипа, ATA 133 RAID контроллера, IEEE 1394 и других особенностей.

Как вы можете понять, Albatron PX 865 PE является начальной моделью в этой линейке, обеспечивая пользователя только основными функциями, свойственными чипсету i 865 PE + ICH 5, включая возможность включения PAT , позволяющая расширить возможности до уровня системных плат, основанных на чипсете i 875.

Для минимизации затрат, комплектация Albatron PX 865 PE включает только самое необходимое. В частности сюда входит описание, CD с драйверами, набор FDD / IDE / SATA кабелей, а так же панель на тыльную сторону корпуса, включающая четыре дополнительных портов USB 2.0.

Спецификация

Albatron PX865PE

Intel Pentium 4/Celeron
(800/533/400MHz FSB, Hyper-Threading, Socket 478)

Чипсет

Разгоночные функции

Adjustable Vcore, Vmem and Vagp
Independently adjustable PCI frequency

Память

4 DDR DIMM slots for DDR400/DDR333/DDR266 SDRAM

Слоты расширения (PCI / ACR / CNR)

USB 2.0 порты

8 (2 на тыльной панели портов ввода-вывода)

IEEE1394

ATA-100/133

SerialATA-150

2 канала (ICH5)

Интегрированный IDE RAID контроллер

Интегрированный звук

Integrated LAN

Phoenix - AwardBIOS v6.00PG

Форм-фактор

Теперь давайте рассмотрим некоторые из особенностей платы. В нижней части платы традиционно располагаются четыре DIMM слота, позволяющие устанавливать до 4Гб памяти DDR 400. Память может работать как в двухканальном, так и в одноканальном режимах. При использовании двухканального режима, модули памяти должны устанавливаться парами. Для облегчения установки, слоты одной пары имеют идентичный цвет. Для получения максимальной производительности памяти мы рекомендуем использовать одинаковые модули памяти. Рядом со слотами памяти, располагается разъем питания ATX 2.01 (дополнительный 4-х контактный разъем питания 12 V расположен рядом с процессором), и два IDE разъема.

Выше слотов памяти, традиционно располагается сокет для процессора, рядом с которым располагается многофазная схема стабилизации, от грамотной реализации зависит не только стабильность работы процессора, но и его работоспособность в целом. Чип северного моста, расположенные слева от процессора, охлаждается достаточно большим пассивным радиатором.

Несмотря на то, что Albatron PX 865 PE имеет только пять PCI слотов, AGP 8 x слот расположен довольно близко к DIMM слотам, затрудняя процесс монтажа модулей памяти при установленной графической карте. Для простой и надежной фиксации AGP карты, слот имеет специальный замок. Кроме AGP 8 x шины, i 865 PE поддерживает шину для гигабитных сетевых контроллеров, однако в нашей плате сетевые особенности отсутствуют.

Теперь давайте рассмотрим, особенности, интегрированные в южный мост ICH 5. Традиционно чип южного моста располагается в левой нижней части платы. Рядом с ним, обычно, размещаются все необходимые разъемы и порты. В нашем случае, рядом с чипом южного моста разместились лишь разъемы SATA 150 контроллера. Как известно, интегрированный SATA контроллер не поддерживает режимы RAID , однако для его использования нет необходимости использовать дополнительные драйверы.

Все остальные разъемы, позволяющие воспользоваться интегрированными особенностями южного моста, располагаются с левого краю платы. Наименее удачным здесь считается расположения разъема для подключения флоппи-дисковода. Кроме этого неудачного разъема, здесь располагаются разъемы для подключения дополнительных USB портов, ИК- датчика, аудио разъемов и т.д.

Несмотря на многочисленные «фи» в адрес такого расположения этих элементов, мы хотим отметить, что с точки зрения сборки все оказалось более чем удобно, позволяя протянуть дополнительные провода по основанию корпуса, исключая вечную путаницу проводов.

В верхней части платы, над слотами расширения, располагается аудио кодек Realtek AC ’97 ALC 650 E , поддерживающий акустику 5.1 и SPDIF . Кроме того, здесь имеется посадочное место для сетевого контроллера 3 Com 910- A 01, используемого на плате Albatron PX 865 PE Pro .

И, наконец, давайте рассмотрим тыльную панель портов ввода-вывода. Как вы можете видеть, здесь используется достаточно скромный набор портов, свойственный платам предыдущего поколения.

Особенности BIOS и разгон

Плата Albatron PX 865 PE оборудована Phoenix AwardBIOS v 6.00 PG , который предлагает широкий набор функций настройки параметров системы, включая мощные средства разгона, позволяющие индивидуально настроить различные частотные параметры. Ниже мы хотели бы обратить ваше внимание на некоторые, наиболее интересные разделы BIOS .

Итак, начнем с Frequency / Voltage Control , который позволяет изменить частоту FSB в диапазоне от 200 до 550МГц, что позволяет разогнать процессор до 7700МГц, что, наверное, будет полезным в ближайшем будущем.

При увеличении частоты FSB увеличивается частота шины памяти, AGP , PCI и SRC . Для достижения максимальной производительности и стабильности пользователь может уменьшить желаемую частоту, для чего в этом разделе имеются специальные опции.

И, наконец, в этом разделе пользователь может изменить напряжение ядра процессора на 0.1 V , 0.2 V или 0.3 V , Vagp на 0.1 V , а так же Vdimm на 0.1 V , 0.2 V или 0.3 V .

В разделе Advanced Chipset Features пользователь может установить некоторые параметры памяти, а так же активизировать режим Performance Enhancement , который, судя по описанию в правой части окна, представляет собой ни что иное, как неофициально поддерживаемую технологию PAT .

Во время наших экспериментов по разгону тестового процессора Intel Pentium 4 2.8 E нам удалось поднять частоту FSB до 220МГц, что увеличило рабочую частоту процессора до 3080МГц. В этом режиме система оставалась максимально стабильной. При увеличении частоты FSB до 230МГц, возникли проблемы стабильности на этапе загрузки операционной системы. Возможно, несколько поработав с напряжением ядра процессора, можно добиться высокой стабильности и в этом режиме, однако, учитывая особые требования по питанию новых процессоров, рисковать с увеличением напряжения мы не стали.

При работе в разогнанном режиме мы обратили внимание на один интересный факт: Рабочая температура не изменялась в зависимости от выбранного частотного режима. Так, в режиме простоя, как в штатном, так и в разогнанном режимах, температура процессора оставалась на уровне 57 оС, а при запуске теста Burnit, позволяющего максимально загрузить процессора, рабочая температура поднималась до 74 оС, что стало возможным благодаря применению нового боксового кулера Intel, который использует более мощный вентилятор и новый профиль радиатора, обеспечивающий более эффективное охлаждение процессора.

Во всем остальном конструкция кулера осталась без изменений, и, естественно не вызывает ни каких проблем при использовании на обычных S 478 платах.

Графическая карта…

Выбор графической карты для игрового компьютера является настолько же важным этапом, как выбор платформы, а может быть и еще важнее. Дело в том, что сегодня на рынке имеется очень четкое деление. Современные графические карты ATI , позволяют заметно расширить производительность современных игр, однако пока их стоимость остается на достаточно высоком уровне. С другой стороны, графические карты GeForece FX 5700 и выше, имеют несколько меньшие возможности, но при этом их цена намного ниже графических карт ATI . В принципе, если позволяют деньги, мы рекомендовали бы использовать что-то типа ATI RADEON 9800 XT , однако, в этой статье мы строим именно оптимальный компьютер, поэтому думать о самых дорогих графических картах не приходиться.

В нашем тестовом компьютере используется графическая карта Albatron FX 5700 EP . Эта видеокарта является одной из младших моделей в семействе Albatron Gigi GeForce FX . Она оборудована 128 Mb DDR памяти, использует 64 bit шину памяти, и ядро, работающее на частоте 425МГц. Кроме этого Albatron FX 5700 EP имеет RAMDAC 400МГц и поддерживает вывод на два монитора с разрешением до 2048х1536, что обеспечивается дополнительными DVI - и TV - выходами. Несмотря на то, что эта карта не имеет ни каких ярких особенностей, ее отличает достаточно низкая цена, порядка 133$ (на апрель 2004 года).

Производительность

Итак, теперь пришло время посмотреть, на что же способен, собранный нами компьютер. Для этого мы проведем стандартный набор тестов, который позволит нам оценить возможности каждой подсистемы компьютера, а так же покажет, как будут работать на нем основные типы игр.

Тестовая конфигурация:

  • Процессор Intel Pentium 2.8E (Prescott)
  • Системная плата Albatron PX 865 PE
  • Графическая карта Albatron FX 5700 EP
  • Жесткий диск 80Gb Seagate Barracuda 7200.7

Для сравнения результатов мы используем платформу следующей конфигурации:

  • Процессор Intel Pentium 4 2.8 С (FSB 800 МГЦ)
  • Системная плата Soltek SL -86 SPE 2 (i865PE)
  • Видеокарта Palit GeForce FX5600 128Mb
  • Жесткий диск 80Gb Seagate Barr а cuda 7200.7

Рассмотрение результатов начнем с теста PCMark 2004, который позволит оценить быстродействие основных компонентов процессора.

В тесте PCMark 2004 мы наблюдаем достаточно интересную картину распределения производительности. Во-первых, общая производительность процессора находиться практически на уровне предыдущего поколения процессоров Pentium 4, оснащенных кэш памятью 512 Mb . Это подтверждает сказанное ранее, что реальное увеличение производительности мы увидим в ближайшем будущем, когда все используемые сегодня программы, будут оптимизированы под новые особенности нового процессора. Во-вторых, мы хотим обратить внимание на заметное увеличение производительности памяти, что свидетельствует о лучшей реализации контроллера памяти в системной плате Albatron PX 865 PE . И, в-третьих, несколько увеличенная производительность дисковых операций. Честно говоря, объяснить это можно только индивидуальными особенностями используемых накопителей.

Другими словами, мы можем говорить, что выбранная нами конфигурация позволяет заметно расширить производительность памяти, и незначительно увеличить производительность процессора, однако, в ближайшем будущем, с появлением программной оптимизации, производительность увеличиться еще больше.

Теперь, давайте перейдем к нашему основному позиционированию - игровым приложениям, и сначала давайте посмотрим на возможности тестовой платформы в DX 9 тесте 3 DMark 2003.

GT1 - Wings of Fury

GT2 - Battle of Proxycon

GT3 - Troll’s Lair

GT4 - Mother Nature

CPU Score

CPU Test 1

CPU Test 2

Fill Rate (Single-Texturing)

337,4 MTexels/ s

516,6 MTexels/ s

Fill Rate (Multi-Texturing)

925,4 MTexels/ s

1043,9 MTexels/ s

Vertex Shader

Pixel Shader 2.0

Ragtroll

Здесь мы провели два испытания без включения режимов сглаживания и анизотропной фильтрации, и с минимальными установками AA и AF .

Как вы можете видеть, при включении режимов сглаживания, заметно падает производительность, что обусловлено в первую очередь возможностями графического чипа FX 5700, однако, без использования режима сглаживания и фильтрации, позволяет получить достаточно высокие скорости, что подтверждают результаты наших традиционных игровых тестов.

Как вы можете видеть, полученные результаты близки и несколько превосходят возможности аналогичных платформ с процессором Pentium 4 2.8 C , и полнее удовлетворят современного геймера, однако, если провести испытания в двух новых играх Halo (~25 fps) и Farcry (~ 13 fps), то вы увидите беспомощность построенной нами системы, что связано в первую очередь с ограничениями графической карты. Если вы хотите без проблем играть в эти игры, то необходимо приобрести видеокарту ATI Radeon 9800 XT , что заметно увеличит цену компьютера, и наша тестовая платформа перестанет быть оптимальной. Можно, конечно же, подыскать более дешевую альтернативу ATI Radeon 9800 XT , однако это в любом случае негативно повлияет на цену. Кстати, одно из оптимальных решений, на которое мы рекомендуем обратить внимание - ATI Radeon 9700.

С одной стороны, время в IT-индустрии летит настолько быстро, что не успеваешь замечать новые продукты и технологии, а с другой… ну-ка, вспомним — сколько лет мы не видели нового ядра от Intel? Не старого с переделками: тут частоту FSB подняли, там виртуальную многопроцессорность с серверного процессора на десктопный перенесли (на самом деле — просто разрешили последнему честно рассказать, что она у него есть), но действительно полностью нового? Если не с нуля разработанного, то хотя бы не латаного, а заново по тем же лекалам сшитого, но с другими рюшечками и по последней моде? А ведь целых два года, оказывается! Даже с хвостиком небольшим. И все это время горячие головы рассуждали на излюбленную тему: а каким же оно будет, новое ядро? Чего только не предсказывали — вплоть до полной анафемы архитектуре NetBurst и воцарения сплошного Banias на декстопной платформе. Правда (как часто бывает), оказалась менее сказочной: новое ядро оказалось честным и последовательным продолжателем Northwood. Разумеется, с некоторыми архитектурными нововведениями, но стремления «до основанья, а затем…» в нем не прослеживается. Поэтому чисто эмоционально Prescott можно оценивать по-разному: кто-то похвалит инжереров Intel за последовательность и целеустремленность, кто-то, наоборот — посетует на отсутствие свежих идей. Однако эмоции — личное дело каждого, мы же обратимся к фактам. Теория

Основные изменения в ядре (Prescott vs. Northwood)

Для начала мы предлагаем вам небольшую табличку, в которой сведены воедино наиболее существенные различия между ядрами Prescott и Northwood во всем что касается «железа» (а точнее — кремния, и прочих «минеральных составляющих»).

Остается только добавить, что новое ядро содержит 125 миллионов транзисторов (куда там бедному Northwood с его 55 миллионами!), и его площадь равна 112 кв. мм (немного меньше площади Northwood — 146/131 кв. мм, в зависимости от ревизии). Произведя несложный арифметический подсчет, видим, что увеличив количество транзисторов в ~2,3 раза, за счет нового техпроцесса инженерам Intel удалось, тем не менее, уменьшить площадь ядра. Правда, не так значительно — «всего» в 1,3 (1,2) раза.

Что же касается технологии «напряженного» (некоторые предпочитают термин «растянутый») кремния — то она, если объяснять на пальцах, довольно проста: с целью увеличения расстояния между атомами кремния, он помещается на подложку, расстояние между атомами у которой больше. В результате, для того чтобы «хорошо усесться», атомам кремния приходится растягиваться по предложенному формату. Выглядит это примерно вот так:

Ну а понять, почему электронам проще проходить через напряженный кремний, вам поможет вот этот простенький рисунок:

Как видите, геометрическая ассоциация в данном случае вполне уместна: путь электрона просто становится короче.

Ну а теперь рассмотрим гораздо более интересные отличия: в логике ядра. Их тоже немало. Однако для начала будет нелишним напомнить об основных особенностях архитектуры NetBurst как таковой. Тем более что не так уж и часто мы это делали в последнее время.

Немного предыстории

Итак, одним из основных отличий ядер, разработанных в рамках архитектуры NetBurst, сама компания Intel считает уникальную особенность, выражающуюся в разделении собственно процесса декодирования x86-кода во внутренние инструкции, исполняемые ядром (uops), и процедуры их выполнения. Между прочим, такой подход породил в свое время немало споров относительно корректности подсчета стадий конвейера у Pentium 4: если подходить к данному процессору с классической точки зрения (эпохи до-NetBurst), то стадии декодера следует включать в общий список. Между тем, официальные данные Intel о длине конвейера процессоров Pentium 4 содержат информацию исключительно о количестве стадий конвейера исполняющего блока, вынося декодер за его рамки. С одной стороны — «крамола!», с другой — это объективно отражает особенность архитектуры, поэтому Intel в своем праве: она же ее и разработала. Спорить, можно, разумеется, до посинения, однако… какая, собственно, разница? Главное — понимать суть подхода. Не нравится вам, что декодер исключен? Ну так прибавьте его стадии к «официальным» — и получите искомую величину конвейера по классической схеме, вместе с декодером.

Таким образом, основная идея NetBurst — асинхронно работающее ядро, в котором декодер инструкций работает независимо от Execution Unit. С точки зрения Intel, существенно бо льшая, чем у конкурентов, частота работы ядра, может быть достигнута только при асинхронной модели т.к. если модель синхронная, то расходы на синхронизацию декодера с исполняющим блоком возрастают пропорционально частоте. Именно поэтому вместо обычного L1 Instructions Cache, где хранится нормальный x86-код, в архитектуре NetBurst применяется Execution Trace Cache, где инструкции хранятся уже в декодированном виде (uops). Trace — это и есть последовательность uops.

Также в историческом экскурсе хотелось бы окончательно развеять мифы, связанные с излишне упрощенной формулировкой, согласно которой ALU у Pentium 4 работает на «удвоенной частоте». Это и так… и не так. Однако для начала взглянем на условную блок-схему процессора Pentium 4 (уже Prescott):

Легко заметить, что ALU состоит из нескольких частей: в нем присутствуют блоки Load / Store, Complex Instructions, и Simple Instructions. Так вот: с удвоенной скоростью (0,5 такта на операцию) обрабатываются лишь те инструкции, что поддерживаются исполняющими блоками Simple Instructions. Блок ALU Complex Instructions, исполняющий команды, отнесенные к сложным — наоборот, может тратить до четырех тактов на исполнение одной инструкции.

Вот, собственно, и все, что хотелось бы напомнить относительно внутреннего устройства процессоров сконструированных на базе архитектуры NetBurst. Ну а теперь перейдем к нововведениям в самом свежем NetBurst-ядре — Prescott.

Увеличение длины конвейера

Вряд ли это изменение можно назвать усовершенствованием — ведь общеизвестно, что чем длиннее конвейер, тем бо льшие накладные расходы вызывает ошибка механизма предсказания ветвлений, и, соответственно, уменьшается средняя скорость выполнения программ. Однако, видимо, другого способа увеличить разгонный потенциал ядра, инженеры Intel найти не смогли. Пришлось прибегнуть к непопулярному, но проверенному. Итог? Конвейер Prescott увеличен на 11 стадий, соответственно, общее их количество равняется 31. Честно говоря, мы намеренно вынесли эту «приятную новость» в самое начало: фактически, описание всех последующих нововведений можно условно назвать «а вот теперь мы вам расскажем, как инженеры Intel боролись с последствиями одного-единственного изменения, чтобы оно окончательно не угробило производительность»:).

Усовершенствования в механизме предсказания ветвлений

В основном, тонкий тюнинг коснулся механизма предсказания переходов при работе с циклами. Так, если ранее по умолчанию обратные переходы считались циклом, то теперь анализируется длина перехода, и исходя из нее механизм пытается предсказать: цикл это, или нет. Также было обнаружено, что для ветвей с определенными типами условных переходов, независимо от их направления и расстояния, использование стандартного механизма предсказания ветвлений чаще всего неактуально — соответственно, теперь в этих случаях он не используется. Однако кроме теоретических изысканий, инженеры Intel не побрезговали и голой эмпирикой т.е. просто-напросто отслеживанием эффективности работы механизма предсказания ветвлений на примере конкретных алгоритмов. С этой целью было исследовано количество ошибок механизма предсказания ветвлений (mispredictions) на примерах из теста SPECint_base2000, после чего по факту были внесены изменения в алгоритм с целью их уменьшения. В документации приводятся следующие данные (количество ошибок на 100 инструкций):

Подтест SPECint_base2000 Northwood (130 nm) Prescott (90 nm)
164.gzip 1.03 1.01
175.vpr 1.32 1.21
176.gcc 0.85 0.70
181.mcf 1.35 1.22
186.crafty 0.72 0.69
197.parser 1.06 0.87
252.eon 0.44 0.39
253.perlbmk 0.62 0.28
254.gap 0.33 0.24
255.vortex 0.08 0.09
256.bzip2 1.19 1.12
300.twolf 1.32 1.23

Ускорение целочисленной арифметики и логики (ALU)

В ALU был добавлен специализированный блок для исполнения инструкций shift и rotate, что позволяет теперь исполнять данные операции на «быстром» (двухскоростном) ALU, в отличие от ядра Northwood, где они исполнялись в блоке ALU Complex Instructions, и требовали бо льшего количества тактов. Кроме того, ускорена операция целочисленного умножения (integer multiply), ранее исполнявшаяся в блоке FPU. В новом ядре для этого выделен отдельный блок.

Также есть информация о присутствии некоторого количества мелких усовершенствований, позволяющих увеличить скорость обработки инструкций FPU (и MMX). Впрочем, ее мы лучше проверим в практической части — при анализе результатов тестов.

Подсистема памяти

Разумеется, одним из основных плюсов нового ядра являются увеличенные размеры L1-кэша данных (в 2 раза т.е. до 16 килобайт) и кэша второго уровня (также в 2 раза т.е. до 1 мегабайта). Однако есть и еще одна интересная особенность: в ядро введена специальная дополнительная логика, обнаруживающая page faults в инструкциях software prefetch. Благодаря этому нововведению, инструкции software prefetch теперь имеют возможность осуществлять не только предвыборку данных, но и предвыборку page table entries т.е., другими словами, prefetch умеет не останавливаться на загруженной странице, но еще и обновлять страницы памяти в DTLB. Разбирающиеся в вопросе наверняка заметят на этом примере, что Intel внимательно следит за отзывами программистов, пусть даже и не кается прилюдно по поводу каждого обнаруженного ими негативного фактора, влияющего на производительность.

Новые инструкции (SSE3)

Кроме всего прочего, в Prescott добавлена поддержка 13 новых инструкций. Назван этот набор, по устоявшейся традиции, SSE3. В их числе присутствуют команды преобразования данных (x87 to integer), работы с комплексной арифметикой, кодирования видео (правда, всего одна), новые команды, предназначенные для обработки графической информации (массивов вершин), а также две инструкции, предназначенные для синхронизации потоков (явно последствия появления Hyper-Threading). Впрочем, о SSE3 мы в скором времени выпустим отдельную статью, поэтому рассматривать возможности данного набора в этом материале воздержимся, чтобы не портить излишней популяризацией серьезную и интересную тему.

Ну а теперь, пожалуй, довольно с нас теории и спецификаций. Попытаемся, как говорилось в одном известном анекдоте, «вместе со всем этим взлететь»:). Тестирование

Конфигурации стендов и ПО

Тестовый стенд

  • Процессоры:
    • AMD Athlon 64 3400+ (2200 МГц), Socket 754
    • Intel Pentium 4 3,2 ГГц «Prescott» (FSB 800/HT), Socket 478
    • Intel Pentium 4 2,8A ГГц «Prescott» (FSB 533/нет HT), Socket 478
    • Intel Pentium 4 3,4 ГГц «Northwood» (FSB 800/HT), Socket 478
    • Intel Pentium 4 3,2 ГГц «Northwood» (FSB 800/HT), Socket 478
  • Материнские платы:
    • ABIT KV8-MAX3 (версия BIOS 17) на чипсете VIA K8T800
    • ASUS P4C800 Deluxe (версия BIOS 1014) на чипсете Intel 875P
    • Albatron PX875P Pro (версия BIOS R1.00) на чипсете Intel 875P
  • Память:
    • 2x512 МБ PC3200 DDR SDRAM DIMM TwinMOS (тайминги 2-2-2-5)
  • Видеокарта: Manli ATI Radeon 9800Pro 256 МБ
  • Жесткий диск: Western Digital WD360 (SATA), 10000 об/мин



Pentium 4 2,8A ГГц «Prescott»
Единственный Prescott с частотой FSB 533 МГц
и без поддержки Hyper-Threading



Pentium 4 3,4 ГГц «Northwood»
Просто еще один Northwood…

Системное ПО и драйверы устройств

  • Windows XP Professional SP1
  • DirectX 9.0b
  • Intel Chipset Installation Utility 5.0.2.1003
  • VIA Hyperion 4.51
  • VIA SATA Driver 2.10a
  • Silicon Image Driver 1.1.0.52
  • ATI Catalyst 3.9
Плата ABIT KV8-MAX3 ASUS P4C800 Deluxe Albatron PX875P Pro
Чипсет VIA K8T800 (K8T800 + VT8237) Intel 875 (RG82004MC + FW82801ЕB) Intel 875 (RG82875 + FW82801ЕB)
Поддержка процессоров Socket 754, AMD Athlon 64 Socket 478, Intel Pentium 4, Intel Celeron
Разъемы памяти 3 DDR 4 DDR 4 DDR
Слоты расширения AGP/ 5 PCI AGP Pro/ 5 PCI AGP/ 5 PCI
Порты ввода/вывода 1 FDD, 2 PS/2 1 FDD, 2 COM, 1 LPT, 2 PS/2 1 FDD, 2 COM, 1 LPT, 2 PS/2
USB 4 USB 2.0 + 2 разъема по 2 USB 2.0 2 USB 2.0 + 3 разъема по 2 USB 2.0
FireWire 1 порт + 2 разъема на 2 порта (планка в комплекте), Texas Instruments TSB43AB23 1 порт + 1 разъем на 1 порт (нет планки в комплекте), VIA VT6307 —
Интегрированный в чипсет ATA-контроллер ATA133 + SATA RAID (0, 1) ATA100 + SATA ATA100 + SATA
Внешний ATA-контроллер Silicon Image Sil3114CT176 (SATA RAID 0, 1, 0+1, Spare) Promise PDC20378 (ATA133+SATA RAID 0, 1, 0+1) —
Звук AC"97-кодек Avance Logic ALC658 AC"97-кодек Analog Devices AD1985 AC"97-кодек Avance Logic ALC655
Сетевой контроллер 3Com Marvell 940-MV00 (Gigabit Ethernet) 3Com Marvell 920-MV00 (Fast Ethernet)
I/O-контроллер Winbond W83627HF-AW Winbond W83627THF-A Winbond W83627THF
BIOS 4 Мбит Award BIOS v6.00PG 4 Мбит AMI BIOS v2.51 3 Мбит Phoenix AwardBIOS v6.00
Форм-фактор, размеры ATX, 30,5x24,5 см ATX, 30,5x24,5 см ATX, 30,5x24,5 см
Средняя текущая цена (количество предложений) Н/Д(0) Н/Д(0) Н/Д(0)

В завершение описания, хотелось бы разъяснить алгоритм подбора участников тестирования. С одной стороны, полностью исключить из тестов процессоры AMD было бы неправильно, ведь эта платформа — основной конкурент Intel, как сейчас, так и в обозримом будущем. С другой стороны — совмещать в одной статье сравнение двух поколений Pentium 4 с процессорами другого производителя, означало бы не сравнить толком ни то, ни другое. Поэтому мы решили в первом материале, посвященном Prescott, пойти на определенный компрормисс: во-первых, полностью исключить всевозможные «экстремальные» варианты в виде Pentium 4 eXtreme Edition и Athlon 64 FX, во-вторых же, взять в качестве представителя альтернативной платформы только один, но быстрый из обычных десктопных процессоров AMD: Athlon 64 3400+.

Да и то, по большому счету, его результаты здесь приводятся лишь в качестве опции. В этом материале нас более всего интересует сравнение нового ядра Intel со старым. Если кто-то желает получить одновременно информацию о том, как производительность Prescott соотносится с ближайшим конкурентом — что ж, она представлена на диаграммах. Комментарии? Пожалуй, они просто излишни. Вы сами в этом убедитесь. Зная, какова производительность Prescott и Northwood, работающих на одинаковой частоте, и то, как соотносятся производительность Northwood и топовых процессоров AMD (а этот вопрос мы уже неоднократно освещали) — вы знаете вполне достаточно для того, чтобы самостоятельного сделать все остальные выводы.

Кроме того, хотелось бы разъяснить наличие на диаграммах двух столбиков для Prescott 3,2 ГГц. Дело просто в том, что мы решили… подстраховаться. Всем известно, что с выходом процессора на другом ядре, среди производителей системных плат сразу же начинается суматоха с обновлением BIOS, всяческих microcode update, и прочего «железно-ориентированного» ПО. Нам показалось логичным использовать такой ресурс нашей тестовой лаборатории как «официально Prescott-ready» системные платы максимально полно, чтобы уберечься от возможных последствий некорректной работы конкретной модели. Впрочем, как вы увидите далее, опасения оказались напрасными: в большинстве случаев новый процессор вел себя на обеих платах совершенно одинаково.

Все характеристики Prescott 2,8A ГГц программа
CPU-Z определяет вполне корректно:
как наличие SSE3, так и шину 533 МГц

Разумеется, не ошиблась она и в случае с
Prescott 3,2E ГГц

Низкоуровневые тесты в CPU RightMark

Для начала, мы решили проверить функционирование нового ядра в двух режимах — традиционно самом лучшем для процессоров Pentium 4 и самом худшем: SSE/SSE2 и MMX/FPU. Начнем с вычислительного блока (Math Solving).

Результаты неутешительные. Новое ядро медленнее старого, более того — в режиме MMX/FPU его отставание даже больше, чем при использовании SSE/SSE2. Делаем первый вывод: если что-то в FPU и «подкручивали», то явно в CPU RightMark используются другие команды. Ну а что у нас с рендерингом?

Во-первых, рассмотрим варианты работы модуля рендеринга в однопоточном и двухпоточном режимах с максимальной производительностью (SSE/SSE2). Картина достаточно интересная: если используется один поток — преимущество Prescott минимально, а больший по частоте Northwood его легко обгоняет. Однако стоит нам задействовать Hyper-Threading, как Prescott тут же резко вырывается вперед, причем настолько, что обгоняет всех других участников. Возникает впечатление, что некая работа над ядром в плане улучшения обработки параллельно выполняющихся потоков, была проведена, и заключалась она не только в расширении набора команд. Посмотрим теперь, как себя ведут те же процессоры в режиме MMX/FPU.

Абсолютно аналогичная картина. Причем если сопоставить ее с предыдущей — хорошо видно, что тщательность анализа себя оправдала: если бы, к примеру, мы ограничились рассмотрением лучшего (двухпотокового) результата, можно было бы ошибочно сделать вывод о том, что ядро Prescott быстрее в плане исполнения инструкций, причем даже в режиме MMX/FPU. Сейчас же хорошо видно, что быстродействие возросло исключительно благодаря оптимизации использования ресурсов виртуальных CPU.

Тесты в реальных приложениях

Перед тем как начать рассмотрение результатов тестов в реальных приложениях, сделаем небольшое вводное разъяснение. Дело в том, что процессор Pentium 4 на ядре Prescott с частотой 3,4 ГГц, к сожалению, до сих пор для нас недоступен, поэтому то, что вы видите на диаграммах под названием "Virtual" Prescott 3,4 ГГц — это не более чем аппроксимация результатов Prescott 3,2 ГГц, рассчитанная исходя из идеальных условий роста производительности пропорционально частоте. Кто-то может заметить, что это слишком топорный подход. Дескать, намного корректнее было бы, к примеру, разогнать имеющийся Prescott 3,2 ГГц с помощью выставления большей частоты FSB, или хотя бы выстроить кривую аппроксимации по трем точкам: Prescott 2,8 ГГц -> 3,0 ГГц -> 3,2 ГГц. Разумеется, так было бы корректнее. Однако «на всякого мудреца довольно простоты», и… просто обратите внимание на то, какие поправки вносит в общую картину наличие на диаграммах даже «идеального» Prescott 3,4 ГГц (а реальный будет либо таким же, либо медленнее — третьего не дано). Рискуя навлечь на себя немилось преждевременным разглашением тайны, скажем сразу: да практически никаких. Где ядро Prescott выигрывает — там это и так видно. А где проигрывает — не помогают ему даже идеализированные 3,4 ГГц…

Работа с графикой

Самые предсказуемые результаты у Northwood 3,4 ГГц (немного лучше, чем у Northwood 3,2 ГГц) и Prescott 2.8 ГГц (отсутствие поддержки Hyper-Threading сразу же выбросило его в аутсайдеры). Prescott 3,2 ГГц пытается быть хотя бы наравне с одночастотным Northwood, но у него не получается даже это. Ну а наш «виртуальный Prescott 3,4 ГГц», в свою очередь, не смог обогнать реальный Northwood 3,4 ГГц — что тоже естественно. C другой стороны, можно заметить, что все процессоры кроме Prescott 2,8 ГГц почти равны. Вряд ли это будет аргументом для апгрейда на Prescott, но хотя бы не станет существенным доводом против его покупки для тех, кто задумывается над приобретением новой системы.

В Lightwave ситуация аналогичная, только Prescott отстает еще больше. Здесь уместно будет вспомнить, что Lightwave (судя по сравнению результатов 6-й ветки с 7-й), затачивался под Pentium 4 очень тщательно и скрупулезно. Можно предположить, что именно поэтому он оказался так чувствителен к малейшим архитектурным изменениям в ядре. Также отметим, что впервые протестированный нами в этой программе Athlon 64 3400+ демонстрирует пусть и не лучший, но вполне приличный результат.

Для Photoshop в современных процессорных архитектурах, видимо, самым главным параметром является размер кэша. Мы уже неоднократно обращали внимание на то, что эта программа весьма «кэшелюбива», и результаты Prescott это подтверждают.

Кодирование медиаданных

Вообще, поскольку мы тестируем новую (или существенно модифицированную, если вам так больше нравится) архитектуру — то для нас любое приложение может стать маленьким открытием. По сути, сейчас количество даже важнее качества, потому что нам просто необходимо набрать как можно больше данных о том, как старые (еще не оптимизированные под Prescott) программы ведут себя с новым процессорным ядром. Вот, тот же LAME: оказывается, для него Prescott по всем статьям новый процессор — результаты совершенно не ложатся на то, что мы ранее знали про Northwood. Правда, они стали хуже. Что ж, бывает. Продолжаем коллекционировать…

Ogg Encoder демонстрирует практически идентичную картину: Prescott существенно проигрывает всем остальным процессорам без исключения, несмотря на удвоенный кэш данных первого уровня и L2. Остается предположить, что виновато увеличение длины конвейера при оставшемся неизменным объеме Trace Caсhe.

Даже тяготеющий к архитектуре NetBurst кодек DivX невзлюбил новое ядро. Не то что бы очень сильно, но все-таки оно ему не понравилось. Впрочем, тут есть определенная надежда на SSE3 — разработчики DivX просто обожают различные оптимизации (во всяком случае, судя по анонсам), поэтому весьма велик шанс, что единственная и неповторимая инструкция, предназначенная для ускорения кодирования видео, найдет свое место в будущем релизе данного кодека. Однако это все в будущем, а пока — увы…

А вот результаты XviD мы опять не приводим по причине совершенно невообразимого «фортеля», который в очередной раз выкинула эта нежно нами любимая программа. Дело в том, что прирост производительности Prescott по отношению к Northwood в ней составил… 232% ! Такие тесты, пардон, мы использовать просто отказываемся. Похоже, что их результаты могут зависеть вообще от чего угодно…

Ну, вот и первая победа. Впрочем, возвращаясь к теме о предпочтениях различного ПО, можно заметить, что Windows Media Video 9 весьма неплохо поддерживает Hyper-Threading, а данные низкоуровневых тестов показали, что эффективность задействования виртуальных CPU в случае с новым ядром возрастает. Похоже, что это первый положительный результат, достигнутый за счет качественного, а не количественного изменения в Prescott. Во всех предыдущих случаях он «выезжал» исключительно за счет большого объема кэша…

Очень, очень интересный результат. Mainconcept MPEG Encoder, которому мы пеняли за «корявую» работу с Hyper-Threading при кодировании в формат MPEG1 — вполне адекватно работает с виртуальными процессорами, если они эмулируются Prescott, а не Northwood! Впору даже задуматься: быть может, программисты не виноваты, просто «затык» был в процессорном ядре, которое некорректно распараллеливало потоки? Вполне возможно, по крайней мере, глядя на результаты Prescott, понимаешь, что и это предположение имеет право на жизнь. C другой стороны вполне неплохо себя показал Prescott 2,8A ГГц, про Hyper-Threading и слыхом не слыхавший. Забавная ситуация. Пожалуй, мы находимся на пороге интересного открытия: напрашивается предположение, что вся «оптимизация работы Hyper-Threading в Prescott» сводится всего лишь к тому… что этой технологии в Northwood не хватало объема кэша, чтобы развернуться в полную силу!

И снова можно порадоваться за новое ядро: в Mainconcept MPEG Encoder не только пропал «глюк» с кодированием MPEG1, но и преобразование в MPEG2 стало работать существенно быстрее. Имея в виду результаты предыдущих тестов, можно почти однозначно утверждать, что основным виновником торжества является улучшенная работа Hyper-Threading (и не забываем о том, за счет чего она могла стать лучше — если наши предположения верны). Что самое интересное — не понадобились даже специальные команды для управления потоками из набора SSE3, процессор сам отлично разобрался (поддержку SSE3 в данной версии кодировщика предполагать не приходится — она вышла довольно давно).

А вот Canopus ProCoder просто почти ничего не заметил. В принципе, небольшая разница в производительности присутствует, и она даже в пользу Prescott. Но, по сути, это копейки, мелочь. Учитывая «кэшелюбивость» ProCoder, можно даже сказать так: весь большой кэш, судя по всему, ушел на компенсацию других недостатков нового ядра. Он просто вытянул Prescott на ту же высоту, что и Northwood, но, увы — не более.

Архивирование

Традиционно, мы протестировали 7-Zip как со включенной поддержкой многопоточности, так и без нее. Ожидаемый эффект достигнут в этой программе не был: не заметно, чтобы многопоточность на Prescott давала намного больший эффект, чем на Northwood. Да и вообще — особой разницы между старым и новым ядром не видно. Похоже, что мы наблюдаем упомянутый выше эффект: все, что смогли сделать количественные показатели Prescott (объемы кэша L1 Data и L2) — это компенсировать его же удлиненный конвейер.

К слову: один из немногих тестов, где хоть как-то видна разница между платами. В остальном — все та же картина: Prescott и Northwood одинаковой частоты идут рядом, практически не отличаясь по скорости. Пессимисты скажут: «плохо», оптимисты: «могло быть и хуже»:). Мы — просто промолчим…

Игры

Картина во всех трех играх схожая, поэтому особенно расписываться нет нужды: Prescott все же медленнее. Правда, ненамного.

Обобщая результаты

Что ж, если делать какие-то выводы на основании тех тестов, что присутствуют в статье, то ситуация выглядит следующим образом: ядро Prescott в целом медленнее Northwood. Иногда это удается компенсировать бо льшим объемом кэша, вытянув производительность на уровень старого ядра. Ну а если программа особенно чувствительна к объему L2, Prescott даже способен выиграть. Кроме того, несколько улучшилась эффективность Hyper-Threading (но похоже, что причина снова кроется в увеличении объема L2-кэша). Соответственно, если программа умеет использовать обе сильные стороны нового ядра — большой кэш и виртуальную многопроцессорность — то выигрыш получается ощутимым. В целом же, производительность Prescott примерно такая же, как у Northwood, а применительно с старому, неоптимизированному ПО — даже более низкая. Ожидаемой революции, увы, не получилось. С другой стороны… а был ли мальчик? Но об этом — ниже.

Что же касается Prescott 2,8A ГГц с 533-мегагерцевой системной шиной и без поддержки Hyper-Threading, то как раз тут все предельно ясно. Во-первых, для Intel это просто очень хороший способ сделать хотя бы что-то из тех экземпляров, которые в «настоящем Prescott"овском» режиме банально не заработали. Этакий «Celeron среди Prescott"ов» (хотя будет, судя по всему, на базе этого ядра и официальный Celeron). Во-вторых — отсутствие Hyper-Threading скорее всего свидетельствует о принципиальном нежелании Intel видеть HT на устаревшей, низкоскоростной шине. Действительно: единственным представителем 533 МГц FSB + HT так и остался первый процессор с поддержкой этой технологии — Pentium 4 3,06 ГГц. Да и то по вполне понятной, извиняющей его причине: не было еще на тот момент CPU с 800-мегагерцевой шиной.

Таким образом, да простят нам инженеры Intel эту вольность, Pentium 4 2,8A ГГц — это «как бы не Prescott». А просто сравнительно недорогой (другим его выпускать нельзя — не купит ведь никто…), но высокочастотный Pentium 4. И совершенно неважно, на каком он сделан ядре, не в этом суть. Честно говоря, было искушение его в этот материал вообще не включать, но потом мы решили поступить наоборот: дать ему один раз «засветиться», и более к данному чу дному процессору не возвращаться. Из простого сравнения одночастотных ядер Prescott и Northwood понятно, что без Hyper-Threading Prescott 2.8 ГГц даже с Pentium 4 2.8C (800 МГц FSB + HT) по усредненным показателям производительности соперничать не сможет. Версии

Да, именно «версии», а не «выводы». Слишком неоднозначным получился этот материал. Проще было бы ограничиться анализом диаграмм и сделать напрашивающийся, лежащий на поверхности вывод: «если новое не быстрее (а то и медленнее) старого — значит, оно хуже». Списать, так сказать, в расход. Однако самый простой ответ — не всегда самый правильный. Поэтому мы решили коснуться аналитики, и рассмотреть выход Prescott в исторически-рыночной перспективе. Получилось, что ответов на вопрос «в чем для Intel состоит смысл выпуска Pentium 4 на ядре Prescott?» на самом деле несколько, и каждый из них можно логично аргументировать.

Версия первая или Большая ошибка

Почему бы и нет? Жила-была компания Intel, и появилась у нее идея: сделать процессорное ядро, ориентированное не на максимальный КПД (если рассматривать КПД как соотношение производительности к частоте), а на легкую масштабируемость. Дескать, если наши 2000 МГц проигрывают 1000 МГц от конкурента — не беда, догоним частоту до 4 ГГц и оставим всех позади. Между прочим, с чисто инженерной точки зрения, это вполне адекватное решение. Не все ли равно? Пользователя-то (грамотного) все равно интересуют не мегагерцы, а производительность, какая ему разница, за счет чего она достигается? Главное чтобы масштабируемость оказалась именно такой, какую предполагалось достичь. И вот, выясняется, что с масштабируемостью начались большие проблемы. Догнали до 3,4 ГГц, остановились… и пришлось придумывать новое ядро, у которого КПД еще ниже… и неизвестно, какими темпами будет расти у него частота… и так далее. Напомним, что это версия. Рассмотрим ее внимательнее в сопоставлении с реальными фактами.

Факт, свидетельствующий в пользу данной версии — рост частоты Pentium 4 за прошедший 2003 год. Все-таки 200 МГц, да еще и по отношению к такой «частотолюбивой» архитектуре как NetBurst — явно мало. Однако… как общеизвестно, рассматривать какой-то факт в отрыве от других — не очень хорошая практика. Был ли смысл в активном наращивании частоты Pentium 4 в прошлом году? Вроде бы нет… Основной конкурент решал другие вопросы — у него новая архитектура, новое ядро, ему нужно наладить массовое производство процессоров на базе этого ядра, обеспечить им соответствующую обвязку в виде чипсетов, системных плат, программного обеспечения, в конце концов! Поэтому один из вариантов ответа на вопрос «почему практически не росла частота (и производительность) Pentium 4 в 2003 году» звучит просто: не было особого смысла ее наращивать. Ни догонять, ни перегонять — вроде некого. Стало быть, можно особенно не торопиться.

Получить ответ на главный вопрос мы, увы, пока не можем: как будет «гнаться» новое ядро? Пока что, если судить по внешним признакам, фактов, подтверждающих хорошую масштабируемость Prescott — нет. Впрочем, равно как и опровергающих ее. Анонсированы 3,4-гигагерцевые версии как Prescott, так и Northwood. Northwood 3,4 ГГц, наверное, будет последним процессором на этом ядре (хотя, официальных подтверждений этого предположения нет). А то, что Prescott стартовал с 3,4 ГГц, а не с 3,8 или 4,0 тоже легко объяснимо: зачем прыгать через ступеньки? Подводя итог: версия «Большой ошибки», в принципе, имеет право на существование. Но если частота (а еще точнее, — производительность) Prescott будет быстро расти, это однозначно подтвердит ее несостоятельность.

Версия вторая или Переходное ядро

Ни для кого не секрет, что иногда производителю требуется выпустить некое устройство, достаточно ординарное само по себе (в другой ситуации совершенно не заслуживающее звания релизного продукта). Но в том-то и дело, что выпуск данного устройства необходим для продвижения на рынок других, анонсируемых одновременно с ним или чуть позже. Таким был Pentium 4 Willamette, вряд ли достойный звания «хорошего и быстрого процессора», однако явно обозначивший факт перехода одного из самых крупных игроков на процессорном рынке, на новое ядро, и под конец своего существования сменивший «промежуточный» Socket 423 на «долгоиграющий» Socket 478. Что, если аналогичная роль уготована Prescott?

Уже всем известно, что с выходом Grantsdale-P, нас ждет появление еще одного процессорного разъема для Pentium 4 (Socket T / Socket 775 / LGA775), и поначалу устанавливаться в него будут именно CPU на ядре Prescott. Лишь впоследствии Pentium 4 «Tejas» начнет постепенно их замещать. И тут вполне логично задаться вопросом: а насколько быстро будет происходить это замещение? Поскольку мы все равно лишь выдвигаем версии, ограничивать свою фантазию не будем, и предположим, что Intel желает этот процесс максимально ускорить. С помощью чего? Скорее всего — оставив Socket 478 мирно почивать в нижних строчках на диаграммах производительности, и сделав Socket 775 символом обновленной, мощной и скоростной платформы для Pentium 4. Тогда все становится ясно: Prescott нужен для того, чтобы на рынке присутствовал процессор, способный работать как в платах с разъемом Socket 478, так и с новым Socket 775. Tejas же, если наши предположения верны, будет устанавливаться только в Socket 775, и станет, таким образом, могильщиком как для Prescott, так и для устаревшей платформы Socket 478. Логично? Нам кажется, что да. В таком случае, правдоподобно смотрится и следующее предположение: жизнь Prescott’у уготована весьма недолгая…

Версия третья или «Кто с мечом к нам придет…»

Не секрет, что соперничество между двумя основными конкурентами — Intel и AMD, почти всегда строилось на противопоставлении двух основных аргументов. Intel: «наши процессоры — самые быстрые!», AMD: «зато у наших лучше соотношение цены и производительности!». Соперничество давнее, аргументы тоже. Причем, они не изменились даже с выходом процессоров AMD на ядрах K7/K8, — несмотря на то, что у последних с производительностью дела обстоят намного лучше, чем у K6. Ранее Intel не делала исключений из основного своего правила: продавать свои CPU с производительностью, аналогичной процессорам конкурента, немного дороже. Рынок местами очень прост, поэтому причина такого поведения понятна: если их и так покупают — то зачем снижать цену? Опять-таки: хоть участвовать в ценовых войнах Intel и приходилось, но развязывала их всегда AMD, это уже стало традицией. Третья версия базируется на очевидном предположении: а что если на этот раз Intel решила повести себя агрессивнее, чем обычно, и развязать ценовую войну первой?

В списке достоинств нового ядра Prescott числится не только новизна, объемы кэшей, и потенциально хорошая (правда, пока не подтвержденная) масштабируемость, но и… цена! Это сравнительно дешевое в производстве ядро: если при использовании 90-нанометровой технологии будет достигнут показатель выхода годных чипов хотя бы такой же, как у Northwood — то, ничуть не теряя в абсолютных показателях прибыли, Intel сможет продавать свои процессоры за гораздо меньшую цену. Напомним одну очевидную зависимость: такую характеристику CPU как «соотношение цена / производительность», можно улучшать, не только повышая производительность, но и снижая цену. Вообще-то, никто не мешает быстродействие даже понизить (!) — главное, чтобы цена упала еще больше:). Судя по появляющимся в Сети неофициальным анонсам цен на Pentium 4 Prescott, стоить они будут намного дешевле Pentium 4 Northwood. Таким образом, мы можем предположить, что Intel решила осуществить своего рода «обход с флангов»: пока основной конкурент, по старинке, все гонится и гонится за производительностью, ему будет нанесен удар в секторе middle-end систем, где пользователи тщательно анализируют именно такой показатель как price / performance.

Версия четвертая или Тайное оружие

Здесь следует сделать небольшое лирическо-историческое отступление для тех, кто «во времена оные» не очень активно отслеживал разные мелкие нюансы в процессорном секторе. Так, к примеру, можно вспомнить, что сразу после появления первых процессоров с поддержкой Hyper-Threading (а ими были вовсе не Pentium 4 «Northwood» + HT, а Xeon «Prestonia»), многие задались вопросом: «если ядра Prestonia и Northwood настолько похожи, что практически не отличаются по основным характеристикам, но у Prestonia поддержка Hyper-Threading присутствует, а у Northwood ее нет — то не логично ли предположить, что и у Northwood она тоже есть, просто искусственно заблокирована?». Впоследствии это предположение косвенно подтвердилось — анонсом Pentium 4 3,06 ГГц на все том же ядре Northwood, но уже с Hyper-Threading. Более того, самые смелые выдвигали и вовсе крамольную мысль: Hyper-Threading была даже в Willamette!

А теперь вспомним: что у нас в последнее время известно по части новых технологических инициатив Intel. Сразу всплывают два названия: «La Grande» и «Vanderpool». Первое — технология аппаратной защиты приложений от вмешательства извне, которую вкратце можно описать словами «сделать так, чтобы одно ПО не могло вмешиваться в функционирование другого». Впрочем, о La Grande вы можете почитать на нашем сайте . Об Vanderpool информации меньше, но исходя из обрывков доступной на сегодня, можно сделать вывод, что она представляет собой вариацию на тему полной виртуализации PC, включая все без исключения аппаратные ресурсы. Таким образом (самый простой, но и самый эффектный пример), на одном компьютере смогут работать параллельно две операционные системы, причем одна из них может быть даже перезагружена — но это совершенно не отразится на работе другой.

Так вот: есть очень большие подозрения, что и La Grande и Vanderpool в ядре Prescott уже реализованы, но (как было ранее с Hyper-Threading) пока не активированы. Если это предположение истинно, то многое относительно самого ядра становится понятным. В частности — то, почему оно такое большое, почему так долго разрабатывалось, но, несмотря на это, не выирывает в скорости у предыдущего. Если исходить из гипотезы «Тайного оружия», можно предположить, что основные ресурсы команды разработчиков были направлены вовсе не на достижение быстродействия, а на отладку новых функций. Частично данная версия перекликается со второй — так или иначе, но мы имеем дело с переходным ядром. Соответственно, быть совершенным оно вовсе не обязано, ибо не в том его основное предназначение. Между прочим, также удачно вторую и четвертую версии дополняет третья: низкая цена в данном случае является именно той конфеткой, что подсластит для конечного пользователя пилюлю «переходности».

Подводя итоги

Мы не зря назвали эту статью «полшага вперед». Prescott получился более сложным и неоднозначным, чем ожидаемый «Northwood с увеличенным объемом кэша и более высокой частотой» (как многие его воспринимали). Разумеется, можно обвинить производителя в том, что прирост скорости в среднем близок к нулю (а местами и отрицательный), в очередной чехарде с поддержкой процессоров на базе нового ядра системными платами… И, между прочим, вполне справедливо это сделать. Это, в конце концов, не наши проблемы — а между тем, именно мы с ними и столкнемся. Поэтому просто поставим в конце статьи «жирное троеточие». На стоп-кадре видно только начало шага: нога, зависшая в воздухе, или, если угодно, лайнер на взлете. Что нас ждет дальше? Благоприятным ли окажется «приземление» (Tejas?..) Пока можно только догадываться.


Казалось бы не так уж и давно вышел Pentium 4 2,8 ГГц, но неугомонная компания Intel видать настолько горда способностью своего нового процессорного ядра к постоянному «разгону», что не дает нам покоя анонсами все новых и новых процессоров:). Однако сегодняшний наш герой отличается от предыдущей топовой модели не только на 200 с небольшим мегагерц — то, о чем давно мечтали некоторые особо продвинутые пользователи, наконец-то свершилось: технология эмуляции двух процессоров на одном процессорном ядре, ранее бывшая достоянием лишь сверхдорогих Xeon, наконец-то «освобождена» и отправлена в «свободное десктопное плавание». Хотите двухпроцессорный домашний компьютер? Их есть у нас! Все последующие модели Pentium 4, начиная с рассматриваемой в этом материале, будут обладать поддержкой Hyper-Threading. Однако кто-то может вполне резонно поинтересоваться: «А зачем мне двухпроцессорная машина дома? У меня же не сервер какой-нибудь!». И действительно — зачем? Именно это мы и постарались объяснить ниже. Итак: Hyper-Threading — что это такое и зачем он может быть нужен в обычных персональных компьютерах?

SMP и Hyper-Threading: «галопом по европам»

Для начала, давайте сделаем вид, что начинаем «с чистого листа» т. е. механизмы функционирования многопроцессорных систем нам неизвестны. Мы не собираемся начинать данной статьей цикл монографий, посвященных этому вопросу:), поэтому сложных моментов, связанных, к примеру, с виртуализацией прерываний и прочими вещами, трогать не будем. Фактически, нам нужно просто представлять как работает классическая SMP(Symmetric Multi-Processor)-система с точки зрения обычной логики. Нужно это хотя бы потому, что не так уж велико количество пользователей, хорошо себе представляющих как работает SMP-система, и в каких случаях от использования двух процессоров вместо одного можно ожидать реального увеличения быстродействия, а в каких — нет. Честное слово, один из авторов этого материала как-то угробил часа полтора времени, доказывая своему, скажем так, «не бедному» другу, что Unreal Tournament у него на многопроцессорной машине будет работать ничуть не быстрее, чем на обычной:). Смешно? Уверяю вас — только со стороны. Итак, представим, что у нас есть, к примеру, два процессора (остановимся на этом, самом простом примере) вместо одного. Что это нам дает?

В общем-то… ничего. Потому что в дополнение к этому нам нужна еще и операционная система, умеющая эти два процессора задействовать. Система эта должна быть по определению многозадачной (иначе никакого смысла в наличии двух CPU просто быть не может), но кроме этого, ее ядро должно уметь распараллеливать вычисления на несколько CPU. Классическим примером многозадачной ОС, которая этого делать не умеет, являются все ОС от Microsoft, называемые обычно для краткости «Windows 9x» — 95, 95OSR2, 98, 98SE, Me. Они просто-напросто не могут определить наличие более чем одного процессора в системе… ну и, собственно, дальше объяснять уже нечего:). Поддержкой SMP обладают ОС этого же производителя, построенные на ядре NT: Windows NT 4, Windows 2000, Windows XP. Также в силу своих корней, этой поддержкой обладают все ОС, основанные на идеологии Unix — всевозможные Free- Net- BSD, коммерческие Unix (такие как Solaris, HP-UX, AIX), и многочисленные разновидности Linux. Да, к слову — MS DOS многопроцессорность в общем случае тоже «не понимает»:).

Если же два процессора все же определились системой, то дальнейший механизм их задействования в общем-то (на «логическом», подчеркнем, уровне!) довольно-таки прост. Если в данный момент времени исполняется одно приложение — то все ресурсы одного процессора будут отданы ему, второй же будет просто простаивать. Если приложений стало два — второе будет отдано на исполнение второму CPU, так что по идее скорость выполнения первого уменьшиться не должна вообще никак. Это в примитиве. Однако на самом деле все сложнее. Для начала: исполняемое пользовательское приложение у нас может быть запущено всего одно, но количество процессов (т. е. фрагментов машинного кода, предназначенных для выполнения некой задачи) в многозадачной ОС всегда намного больше. Начнем с того, что сама ОС — это тоже приложение… ну и не будем углубляться — логика понятна. Поэтому на самом деле второй CPU способен немного «помочь» даже одиночной задаче, взяв на себя обслуживание процессов, порожденных операционной системой. Опять-таки, к слову об упрощениях — именно так, идеально, разделить CPU между пользовательским приложением и ОС, конечно, все равно не получится, но, по крайней мере, процессор, занятый исполнением «полезной» задачи, будет меньше отвлекаться.

Кроме того, даже одно приложение может порождать потоки (threads), которые при наличии нескольких CPU могут исполняться на них по отдельности. Так, например, поступают почти все программы рендеринга — они специально писались с учетом возможности работы на многопроцессорных системах. Поэтому в случае использования потоков выигрыш от SMP иногда довольно весо м даже в «однозадачной» ситуации. По сути, поток отличается от процесса только двумя вещами — он во-первых никогда не порождается пользователем (процесс может запустить как система, так и человек, в последнем случае процесс = приложение; появление потока инициируется исключительно запущенным процессом), и во-вторых — поток умирает вместе с родительским процессом независимо от своего желания — к примеру, если родительский процесс «глюкнул и упал» — все порожденные им потоки ОС считает бесхозными и «прибивает» уже сама, автоматически.

Также не стоит забывать, что в классической SMP-системе оба процессора работают каждый со своим кэшем и набором регистров, но память у них общая. Поэтому если две задачи одновременно работают с ОЗУ, мешать они друг другу будут все равно, даже если CPU у каждой «свой собственный». Ну и наконец последнее: в реальности мы имеем дело не с одним, не с двумя, и даже не с тремя процессами. На приведенном коллаже (это действительно коллаж, потому что со скриншота Task Manager были удалены все пользовательские процессы, т. е. приложения, запускаемые «для работы») хорошо видно, что «голая» Windows XP, сама по себе, не запустив еще ни одного приложения, уже породила 12 процессов, причем многие из них к тому же еще и многопоточные, и общее количество потоков достигает двухсот восьми штук (!!!).

Поэтому рассчитывать на то, что нам удастся прийти к схеме «по собственному CPU на каждую задачу» совершенно не приходится, и переключаться между фрагментами кода процессоры будут все равно — и физические, и виртуальные, и будь они хоть виртуальные в квадрате и по 10 штук на каждое физическое ядро:). Впрочем, на самом деле все не так грустно — при грамотно написанном коде ничего в данный момент не делающий процесс (или поток) процессорного времени практически не занимает (это тоже видно на коллаже).

Теперь, разобравшись с «физической» многопроцессорностью, перейдем к Hyper-Threading. Фактически — это тоже многопроцессорность, только… виртуальная. Ибо процессор Pentium 4 на самом деле один — вот он, стоит в сокете, сверху кулер пришлепнут:). Второго сокета — нет. А процессоров ОС видит — два. Как это? В общем-то, очень просто. Смотрим на рисунок.

Здесь нам придется все-таки немного углубиться в технические детали, потому что иначе, увы, что-либо объяснить не получится. Впрочем, те, кому оные детали неинтересны, могут данный абзац просто пропустить. Итак, классическому «одноядерному» процессору в нашем случае добавили еще один блок AS — IA-32 Architectural State. Architectural State содержит состояние регистров (общего назначения, управляющих, APIC, служебных). Фактически, AS#1 плюс единственное физическое ядро (блоки предсказания ветвлений, ALU, FPU, SIMD-блоки и пр.) представляет из себя один логический процессор (LP1), а AS#2 плюс все то же физическое ядро — второй логический процессор (LP2). У каждого LP есть свой собственный контроллер прерываний (APIC — Advanced Programmable Interrupt Controller) и набор регистров. Для корректного использования регистров двумя LP существует специальная таблица — RAT (Register Alias Table), согласно данным в которой можно установить соответствие между регистрами общего назначения физического CPU. RAT у каждого LP своя. В результате мы получили схему, при которой на одном и том же ядре могут свободно выполняться два независимых фрагмента кода т. е. де-факто — многопроцессорную систему!

Hyper-Threading: совместимость

Кроме того, возвращаясь к вещам практическим и приземленным, хотелось бы затронуть еще один немаловажный аспект: не все ОС, даже поддерживающие многопроцессорность, могут работать с таким CPU как с двумя . Связано это с таким «тонким» моментом, как изначальное определение количества процессоров при инициализации операционной системы. Intel прямо говорит, что ОС без поддержки ACPI второй логический процессор увидеть не смогут. Кроме того, BIOS системной платы также должен уметь определять наличие процессора с поддержкой Hyper-Threading и соответствующим образом «рапортовать» системе. Фактически, применительно, к примеру, к Windows, это означает, что «в пролете» у нас оказывается не только линейка Windows 9x, но и Windows NT — последняя ввиду отсутствия поддержки ACPI не сможет работать с одним новым Pentium 4 как с двумя. А вот что приятно — это то, что несмотря на заблокированную возможность работы с двумя физическими процессорами, с двумя логическими, получаемыми с помощью Hyper-Threading, сможет работать Windows XP Home Edition. А Windows XP Professional, кстати, несмотря на ограничение количества физических процессоров до двух, при двух установленных CPU с поддержкой Hyper-Threading честно «видит» четыре:).

Теперь немного о «железе». То, что новые CPU с частотой более 3 ГГц могут потребовать замены системной платы, знают, наверное, уже все — земля (а точнее — Internet) слухами полнится уже давно. К сожалению, это на самом деле так. Даже при номинальном сохранении все того же процессорного разъема Socket 478 Intel не удалось оставить в неприкосновенности потребляемую мощность и тепловыделение новых процессоров — потребляют они больше, и греются, соответственно, тоже. Можно предположить (хоть это и не подтверждено официально), что увеличение потребления по току связано не только с ростом частоты, но и с тем, что из-за ожидаемого использования «виртуальной многопроцессорности» нагрузка на ядро в среднем вырастет, следовательно, возрастет и средняя потребляемая мощность. «Старые» системные платы в некоторых случаях могут быть совместимы с новыми CPU — но только если делались «с запасом». Грубо говоря, те производители, которые делали свои PCB в соответствии с рекомендациями самой Intel относительно потребляемой Pentium 4 мощности, оказались в проигрыше по отношению к тем, кто немного «перестраховался», поставив на плату VRM с запасом и соответствующим образом ее разведя. Но и это еще не все. Кроме ОС, BIOS и электроники платы, с технологией Hyper-Threading должен быть совместим еще и чипсет . Поэтому счастливыми обладателями двух процессоров по цене одного:) смогут стать только те, чья системная плата основана на одном из новых чипсетов с поддержкой 533 МГц FSB: i850E, i845E, i845PE/GE. Несколько особняком стоит i845G — первая ревизия этого набора микросхем Hyper-Threading не поддерживает , более поздняя — уже совместима.

Ну, вот, вроде бы с теорией и совместимостью разобрались. Но не будем спешить. ОК, у нас есть два «логических» процессора, у нас есть Hyper-Threading, вау! — это круто. Но как уже было сказано выше, физически у нас процессор как был один, так и остался. Зачем же тогда нужна такая сложная «эмуляционная» технология, отбрасывая то, что можно горделиво демонстрировать Task Manager с графиками загруженности двух CPU друзьям и знакомым?

Hyper-Threading: зачем она нужна?

Против обыкновения, в этой статье мы немного больше чем обычно уделим внимания рассуждениям т. е. не технической прозе (где все в общем-то довольно однозначно трактуется и на основании одних и тех же результатов совершенно независимые люди чаще всего делают тем не менее весьма похожие выводы), а «технической лирике» — т. е. попытке понять, что же такое нам предлагает Intel и как к этому следует относиться. Я уже неоднократно писал в «Колонке редактора» на нашем сайте, и повторю здесь, что эта компания, если внимательно посмотреть, никогда не отличалась абсолютным совершенством своих продуктов, более того — вариации на те же темы от других производителей подчас получались гораздо более интересными и концептуально стройными. Однако, как оказалось, абсолютно все делать совершенным и не нужно — главное чтобы чип олицетворял собой какую-то идею, и идея эта приходилась очень вовремя и к месту. И еще — чтобы ее просто не было у других.

Так было с Pentium, когда Intel противопоставила весьма шустрому в «целочисленке» AMD Am5x86 мощный FPU. Так было с Pentium II, который получил толстую шину и быстрый кэш второго уровня, благодаря чему за ним так и не смогли угнаться все процессоры Socket 7. Так было (ну, по крайней мере, я считаю это свершившимся фактом) и с Pentium 4, который противопоставил всем остальным наличие поддержки SSE2 и быстрый рост частоты — и тоже де-факто выиграл. Сейчас Intel предлагает нам Hyper-Threading. И мы отнюдь не призываем в священной истерике биться лбом о стенку и кричать «господи помилуй», «аллах велик» или «Intel rulez forever». Нет, мы просто предлагаем задуматься — почему производитель, известный грамотностью своих инженеров (ни слова про маркетологов! :)) и громадными суммами, которые он тратит на исследования, предлагает нам эту технологию.

Объявить Hyper-Threading «очередной маркетинговой штучкой», конечно, проще простого. Однако не стоит забывать, что это технология , она требует исследований, денег на разработку, времени, сил… Не проще ли было нанять за меньшую сумму еще одну сотню PR-менеджеров или сделать еще десяток красивых рекламных роликов? Видимо, не проще. А значит, «что-то в этом есть». Вот мы сейчас и попытаемся понять даже не то, что получилось в результате, а то, чем руководствовались разработчики IAG (Intel Architecture Group), когда принимали решение (а такое решение наверняка принималось!) — разрабатывать «эту интересную мысль» дальше, или отложить в сундук для идей забавных, но бесполезных.

Как ни странно, для того чтобы понять как функционирует Hyper-Threading, вполне достаточно понимать как работает… любая многозадачная операционная система. И действительно — ну ведь исполняет же каким-то образом один процессор сразу десятки задач? Этот «секрет» всем уже давно известен — на самом деле одновременно все равно выполняется только одна (на однопроцессорной системе), просто переключение между кусками кода разных задач выполняется настолько быстро, что создается иллюзия одновременной работы большого количества приложений.

По сути, Hyper-Threading предлагает нам то же самое, но реализована аппаратно, внутри самого CPU. Есть некоторое количество различных исполняющих блоков (ALU, MMU, FPU, SIMD), и есть два «одновременно» исполняемых фрагмента кода. Специальный блок отслеживает, какие команды из каждого фрагмента необходимо выполнить в данный момент, после чего проверяет, загружены ли работой все исполняющие блоки процессора. Если один из них простаивает, и именно он может исполнить эту команду — ему она и передается. Естественно, существует и механизм принудительного «посыла» команды на выполнение — в противном случае один процесс мог бы захватить весь процессор (все исполняющие блоки) и исполнение второго участка кода (исполняемого на втором «виртуальном CPU») было бы прервано. Насколько мы поняли, данный механизм (пока?) не является интеллектуальным т. е. не способен оперировать различными приоритетами, а просто чередует команды из двух разных цепочек в порядке живой очереди т. е. просто по принципу «я твою команду исполнил — теперь уступи место другому потоку». Если, конечно, не возникает ситуации, когда команды одной цепочки по исполняющим блокам нигде не конкурируют с командами другой. В этом случае мы получаем действительно на 100% параллельное исполнение двух фрагментов кода.

Теперь давайте подумаем, чем Hyper-Threading потенциально хороша, и чем — нет. Самое очевидное следствие ее применения — повышение коэффициента полезного действия процессора. Действительно — если одна из программ использует в основном целочисленную арифметику, а вторая — выполняет вычисления с плавающей точкой, то во время исполнения первой FPU просто ничего не делает, а во время исполнения второй — наоборот, ничего не делает ALU. Казалось бы, на этом можно закончить. Однако мы рассмотрели лишь идеальный (с точки зрения применения Hyper-Threading) вариант. Давайте теперь рассмотрим другой: обе программы задействуют одни и те же блоки процессора. Понятно, что ускорить выполнение в данном случае довольно сложно — ибо физическое количество исполняющих блоков от «виртуализации» не изменилось. А вот не замедлится ли оно? Давайте разберемся. В случае с процессором без Hyper-Threading мы имеем просто «честное» поочередное выполнение двух программ на одном ядре с арбитром в виде операционной системы (которая сама представляет собой еще одну программу), и общее время их работы определяется:

  1. временем выполнения кода программы №1
  2. временем выполнения кода программы №2
  3. временными издержками на переключение между фрагментами кода программ №1 и №2

Что мы имеем в случае с Hyper-Threading? Схема становится немного другой:

  1. время выполнения программы №1 на процессоре №1 (виртуальном)
  2. время выполнения программы №2 на процессоре №2 (виртуальном)
  3. время на переключение одного физического ядра (как набора требуемых обеим программам исполняющих блоков) между двумя эмулируемыми «виртуальными CPU»

Остается признать, что и тут Intel поступает вполне логично : конкурируют между собой по быстродействию у нас только пункты за номером три, и если в первом случае действие выполняется программно-аппаратно (ОС управляет переключением между потоками, задействуя для этого функции процессора), то во втором случае мы фактически имеем полностью аппаратное решение — процессор все делает сам. Теоретически, аппаратное решение всегда оказывается быстрее. Подчеркнем — теоретически. Практикум у нас еще впереди.

Но и это еще не все. Также одним из серьезнейших… нет, не недостатков, а скорее, неприятных моментов является то, что команды, увы, не исполняются в безвоздушном пространстве, но вместо этого Pentium 4 приходится иметь дело с классическим x86-кодом, в котором активно используется прямое адресование ячеек и даже целых массивов, находящихся за пределами процессора — в ОЗУ. Да и вообще, к слову, большинство обрабатываемых данных чаще всего находится там:). Поэтому «драться» между собой наши виртуальные CPU будут не только за регистры, но и за общую для обоих процессорную шину, минуя которую данные в CPU попасть просто не могут. Однако тут есть один тонкий момент: на сегодняшний день «честные» двухпроцессорные системы на Pentium III и Xeon находятся в точно такой же ситуации ! Ибо наша старая добрая шина AGTL+, доставшаяся в наследство всем сегодняшним процессорам Intel от знаменитого Pentium Pro (в дальнейшем ее лишь подвергали модификациям, но идеологию практически не трогали) — ВСЕГДА ОДНА, сколько бы CPU ни было установлено в системе. Вот такой вот «процессорный коаксиал»:). Отойти от этой схемы на x86 попробовала только AMD со своим Athlon MP — у AMD 760MP/760MPX от каждого процессора к северному мосту чипсета идет отдельная шина. Впрочем, даже в таком «продвинутом» варианте мы все равно убегаем от проблем не очень далеко — ибо уж что-что, а шина памяти у нас точно одна — причем вот в этом случае уже везде (напоминаем, разговор идет про x86-системы).

Однако нет худа без добра, и даже из этого в общем-то не очень приятного момента Hyper-Threading может помочь извлечь какую-то пользу. Дело в том, что по идее мы должны будем наблюдать существенный прирост производительности не только в случае с несколькими задачами, использующими разные функциональные блоки процессора, но и в том случае, если задачи по-разному работают с данными, находящимися в ОЗУ. Возвращаясь к старому примеру в новом качестве — если одно приложение у нас что-то усиленно считает «внутри себя», другое же — постоянно подкачивает данные из ОЗУ, то общее время выполнения их в случае использования Hyper-Threading по идее должно уменьшиться даже если они используют одинаковые блоки исполнения инструкций — хотя бы потому, что команды на чтение данных из памяти смогут обрабатываться в то время, пока наше первое приложение будет что-то усиленно считать.

Итак, подведем итог: технология Hyper-Threading с теоретической точки зрения выглядит весьма неплохо и, мы бы сказали, «адекватно», т. е. соответствует реалиям сегодняшнего дня. Уже довольно редко можно застать пользователя с одним сиротливо открытым окном на экране — всем хочется одновременно и музыку слушать, и по Internet бродить, и диски с любимыми MP3 записывать, а может даже, и поиграть на этом фоне в какую-нибудь стрелялку или стратегию, которые, как известно, процессор «любят» ну просто со страшной силой:). С другой стороны, общеизвестно, что конкретная реализация способна иногда своей «кривизной» убить любую самую превосходную идею, и с этим мы тоже не раз встречались на практике. Поэтому закончив с теорией, перейдем к практике — тестам. Они-то и должны нам помочь ответить на второй главный вопрос: так ли хороша Hyper-Threading сейчас — и уже не в качестве идеи, а в качестве конкретной реализации этой идеи «в кремнии». Тестирование

Тестовый стенд:

  • Процессор: Intel Pentium 4 3,06 ГГц с поддержкой технологии Hyper-Threading, Socket 478
  • Материнская плата: Gigabyte 8PE667 Ultra (версия BIOS F3) на чипсете i845PE
  • Память: 512 МБ PC2700(DDR333) DDR SDRAM DIMM Samsung, CL 2
  • Видеокарта: Palit Daytona GeForce4 Ti 4600
  • Жесткий диск: IBM IC35L040AVER07-0, 7200 об/мин

Программное обеспечение:

  • OC и драйверы:
    • Windows XP Professional SP1
    • DirectX 8.1b
    • Intel Chipset Software Installation Utility 4.04.1007
    • Intel Application Accelerator 2.2.2
    • Audiodrivers 3.32
    • NVIDIA Detonator XP 40.72 (VSync=Off)
  • Тестовые приложения:
    • (с поддержкой мультипроцессорности и технологии Hyper-Threading)
    • RazorLame 1.1.5.1342 + Lame codec 3.92
    • VirtualDub 1.4.10 + DivX codec 5.02 Pro
    • WinAce 2.2
    • Discreet 3ds max 4.26
    • BAPCo & MadOnion SYSmark 2002
    • MadOnion 3DMark 2001 SE build 330
    • Gray Matter Studios & Nerve Software Return to Castle Wolfenstein v1.1
    • Croteam/GodGames Serious Sam: The Second Encounter v1.07

Вопреки обычаю, мы не будем сегодня тестировать производительность нового Pentium 4 3,06 ГГц в сопоставлении с предыдущими моделями или же с процессорами-конкурентами. Ибо это по большому счету бессмысленно. Тесты, составляющие нашу методику, не менялись уже довольно продолжительный период времени, и желающие провести необходимые сопоставления могут воспользоваться данными из предыдущих материалов , мы же сосредоточимся на основном моменте, не распыляясь на детали. А основным в этом материале, как, наверное, нетрудно догадаться, является исследование технологии Hyper-Threading и ее влияния на производительность… на производительность чего ? Не столь уж и праздный вопрос, как оказывается. Впрочем, не будем забегать вперед. Начнем с традиционных тестов, через которые мы плавно подойдем (в контексте данного материала) к основным.

Кодирование WAV в MP3 (Lame)
Кодирование VideoCD в MPEG4 (DivX)
Архивация с помощью WinAce с 4-мегабайтным словарем

Хоть сколько-нибудь явного преимущества Hyper-Threading не продемонстрировала, но надо сказать, что мы и шансов-то особых данной технологии не дали — почти все приложения «однопроцессорные», одновременно исполняемых потоков не порождают (проверено!), и, стало быть, в этих случаях мы имеем дело с обычным Pentium 4, которому чуть-чуть подняли частоту. Говорить о каких-то тенденциях на фоне таких мизерных расхождений вряд ли уместно… хотя если все же высасывать их из пальца, то они даже немного в пользу Hyper-Threading.

3ds max 4.26

Классический тест, но в то же самое время — первое из приложений в этом обзоре, которое в явном виде поддерживает многопроцессорность. Конечно, колоссальным преимущество системы с включенной поддержкой Hyper-Threading не назовешь (оно составляет порядка 3%), однако не будем забывать, что в данном случае Hyper-Threading работала далеко не в самой лучшей для себя ситуации: 3ds max реализует поддержку SMP за счет порождения потоков , причем все они используются для одной и той же цели (рендеринг сцены) и, стало быть, содержат примерно одинаковые команды, а потому и работают тоже одинаково (по одной схеме). Мы уже писали, что Hyper-Threading лучше подходит для того случая, когда параллельно исполняются разные программы, задействующие разные блоки CPU. Тем более приятно, что даже в такой ситуации технология смогла «на ровном месте» обеспечить пусть и небольшой, но прирост быстродействия. Ходят слухи, что 3ds max 5.0 дает больший выигрыш при задействовании Hyper-Threading, и учитывая рвение, с которым Intel «проталкивает» свои технологии в области ведения производителей ПО, это как минимум следует проверить. Несомненно, так мы и сделаем, но уже в более поздних материалах на эту тему.

3DMark 2001SE

Результаты в общем-то вполне закономерные, и вряд ли могут вызвать у кого-то удивление. Быть может, лучше все-таки использовать бенчмарки для 3D именно для того, для чего они предназначены — тестирования скорости видеокарт, а не процессоров? Наверное, так оно и есть. Впрочем, результаты, как известно, лишними не бывают. Несколько настораживает чуть меньший балл у системы с задействованной Hyper-Threading. Впрочем, учитывая что разница составляет около 1%, мы бы не делали из этого далеко идущих выводов.

Return to Castle Wolfenstein,
Serious Sam: The Second Encounter

Примерно аналогичная ситуация. Впрочем, мы еще не подобрались даже близко к тестам, способным хоть как-то продемонстрировать плюсы (или минусы) Hyper-Threading. Иногда (на неощутимо малую величину) задействование «псевдо-многопроцессорности» дает отрицательный результат. Однако это не те сенсации, которых мы ждем, не так ли? :) Не слишком помогает даже тестирование со звуком, который, по идее, должен обсчитываться отдельным потоком и потому давать шанс проявить себя второму логическому процессору.

SYSmark 2002 (Office Productivity и Internet Content Creation)

А вот теперь так и хочется во весь голос крикнуть: «Ну, кто сомневался в том, что Hyper-Threading реально способна повысить быстродействие на реальных задачах?!». Результат: +16—20% — действительно ошеломляет. Причем что самое интересное — ведь SYSmark пытается эмулировать именно ту схему работы, которую Intel считает самой «удачной» для технологии Hyper-Threading — запуск различных приложений и одновременная работа с ними. Причем в процессе исполнения своего скрипта, SYSmark 2002 поступает вполне грамотно с точки зрения имитации работы пользователя, «отправляя в background» некоторые приложения, которые уже получили свое «долгосрочное задание». Так, например, кодирование видео происходит на фоне исполнения прочих приложений из скрипта Internet Content Creation, а в офисном подтесте действует вездесущее антивирусное ПО и декодирование речи в текст с помощью Dragon Naturally Speaking. По сути — первый тест, в котором созданы более или менее «вольготные» условия для технологии Hyper-Threading, и она тут же показала себя с наилучшей стороны! Впрочем, мы решили не полагаться во всем на тесты, написанные не нами, и провели «для закрепления эффекта» несколько показательных собственных экспериментов. Экспериментируем с Hyper-Threading

Одновременное выполнение рендеринга в 3ds max и архивирования в WinAce

Вначале на фоне заведомо более длительного процесса архивирования была отрендерена стандартная тестовая сцена в 3ds max. Затем на фоне рендеринга специально растянутой сцены было выполнено стандартное тестовое архивирование файла в WinAce. Результат сравнивался со временем окончания последовательного выполнения тех же самых стандартных тестов. К полученным цифрам применялись два корректирующих коэффициента: для выравнивания времени исполнения заданий (мы полагаем, что эффект ускорения от параллельного выполнения двух приложений может быть корректно подсчитан только при условии одинаковой продолжительности выполняемых заданий) и для «снятия» эффекта от неравномерности выделяемых процессорных ресурсов для foreground-/background-приложений. В итоге мы «насчитали» положительный эффект ускорения на 17% от использования технологии Hyper-Threading.

Итак, впечатляющие результаты SYSmark получили подтверждение в тесте с соседством двух реальных программ. Конечно же, ускорение не двукратное, да и тесты в пару мы выбирали сами, исходя из наиболее благоприятной, по нашему мнению, ситуации для задействования Hyper-Threading. Но давайте задумаемся над этими результатами вот в каком разрезе: процессор, производительность которого мы сейчас исследуем — в общем-то, за исключением поддержки Hyper-Threading — просто давно привычный Pentium 4. Фактически, столбик «без Hyper-Threading» — это то, что мы могли бы видеть если бы эту технологию не стали переводить в десктопы . Несколько другое чувство сразу же возникает, правда? Давайте все-таки не будем жаловаться (по отечественной традиции) на то, что «все не так хорошо, как могло бы быть», а просто подумаем о том, что нам вместе с новым процессором дали еще один способ ускорить выполнение некоторых операций.

Фоновое архивирование в WinAce + проигрывание фильма
Рендеринг в 3ds max + фоновое проигрывание музыки

Методика выполнения теста совершенно тривиальна: в пару к просмотру фильма, сжатого предварительно в формат MPEG4 при помощи кодека DivX, фоном запускалось архивирование в WinAce (разумеется, в случае пропуска кадров и подтормаживания при просмотре, данный тест не имел бы практического смысла, но нареканий на качество просмотра не было). Аналогично, во время рендеринга обычной тестовой сцены в 3ds max фоном проигрывалась (через WinAmp) музыка из файла формата MP3 (и отслеживались не замеченные ни разу в итоге «заикания» звука). Обратите внимание на естественное распределение ролей «главное-фоновое» в каждой паре приложений. В качестве результата, как обычно, бралось время архивации и полного рендеринга сцены соответственно. Эффект от Hyper-Threading в цифрах: +13% и +8%.

Достаточно реальная ситуация, именно такие мы и старались воспроизвести. Вообще (и об этом будет сказано далее) Hyper-Threading не настолько очевидна, как кажется. Простой подход «в лоб» («у нас в ОС видны два процессора — давайте относиться к ним как к двум процессорам») не дает ощутимого эффекта, и возникает даже некоторое чувство обманутости. Однако, возвращаясь к вышесказанному, попробуем оценивать результаты с несколько других позиций: задачи, которые в обычной ситуации исполняются за одно время, в случае задействования Hyper-Threading, выполняются за меньшее время . Кто попробует возразить, что «нечто» хуже, чем «ничто»? В этом-то вся и суть — отнюдь не панацею нам предлагают, а «всего лишь» средство ускорить уже имеющееся процессорное ядро, кардинальных изменений не претерпевшее. Получается? Да. Ну и какие, по большому счету, могут быть еще вопросы? Конечно, до обещанных в пресс-релизе 30% в большинстве случаев оказывается далеко, однако не стоит делать вид, что в жизни случается, сопоставив пресс-релиз компании X с пресс-релизом компании Y, убедиться, что в первом обещаний меньше и они более «сбыточные». :)

Тестирование в CPU RightMark 2002B

Новая версия CPU RM поддерживает многопоточность (соответственно, и Hyper-Threading), и, естественно, мы не могли не воспользоваться возможностью протестировать новый процессор с помощью этого бенчмарка. Оговоримся, что пока это только первый «выход» CPU RM в тестах многопроцессорных систем, поэтому можно сказать что исследование было «обоюдосторонним» — мы тестировали Hyper-Threading как частный случай SMP на системе с Pentium 4 3,06 ГГц, а эта система, в свою очередь, тестировала наш бенчмарк:) на предмет валидности результатов, и, соответственно, правильной реализации в нем поддержки мультипоточности. Без преувеличения скажем, что результатами остались довольны обе стороны:). Несмотря на то, что пока CPU RM все еще «не полностью многопроцессорный» (несколько потоков создаются только в блоке рендеринга, Math Solving блок остается однопоточным), полученные нами результаты явственно свидетельсвуют о том, что поддержка SMP и Hyper-Threading присутствует, и польза от их наличия видна невооруженным глазом. Кстати, реализация многопоточности в блоке «решателя» в общем-то задача намного менее тривиальная, чем в блоке рендеринга, поэтому если у кого-то из читателей будут некие идеи по этому поводу — мы ждем ваших комментариев, идей, и предложений. Напоминаем, что проект CPU RightMark — это бенчмарк с открытыми исходными текстами, так что интересующиеся программированием могут не только воспользоваться им, но и вносить предложения по поводу усовершенствования кода.

Перед тем как перейти к диаграммам, остановимся поподробнее на методике. По подписям столбцов, легко заметить, что тестировалась производительность системы в целых двенадцати (!) вариантах. Однако ничего страшного в этом нет, и разобраться достаточно просто. Итак, изменяемыми были следующие факторы:

  1. Тесты проводились со включенной Hyper-Threading и с отключенной.
  2. Использовались установки CPU RM для количества создаваемых потоков: один, два, и четыре.
  3. Использовались установки CPU RM для используемого типа инструкций в расчетном модуле: SSE2 и «классические» x87 FPU.

Объясним последнее. Казалось бы, отказываться от использования SSE2 на Pentium 4 — полный, извините, бред (о чем мы уже неоднократно писали раньше). Однако в данном случае чисто теоретически это было неплохим шансом проверить функционирование и результативность технологии Hyper-Threading. Дело в том, что инструкции FPU использовались только в расчетном модуле , в модуле же рендеринга по-прежнему оставалась включенной поддержка SSE. Таким образом, те, кто внимательно читал теоретическую часть, наверняка уже поняли «где собака зарыта» — мы принудительно заставили разные части бенчмарка использовать разные вычислительные блоки CPU ! По идее, в случае принудительного отказа от SSE2, Math Solving блок CPU RM должен был оставлять «нетронутым» блоки исполнения SSE/SSE2 инструкций, что давало возможность на полную катушку воспользоваться ими блоку рендеринга того же CPU RM. Вот теперь самое время перейти к результатам, и посмотреть насколько правильными оказались наши предположения. Также заметим, что с целью увеличения валидности и стабильности результатов, была изменена еще одна установка: количество фреймов (по умолчанию — 300) было увеличено до 2000.

Тут, собственно, комментировать практически нечего. Как мы уже говорили выше, блок «решателя» (Math Solving) остался нетронутым, поэтому на его производительность Hyper-Threading не оказывает никакого влияния. Однако в то же время отрадно… что не вредит! Ведь мы уже знаем, что теоретически возникновение ситуаций когда «виртуальная многопроцессорность» может мешать работе программ — возможно. Однако один факт советуем крепко запомнить: посмотрите, как сильно влияет на производительность блока «решателя» отказ от использования SSE2! Мы еще вернемся к этой теме чуть позже, и в весьма неожиданном ключе…

И вот — долгожданный триумф. Легко заметить, что как только количество потоков в блоке рендеринга становится больше одного (в последнем случае использовать возможности Hyper-Threading, мягко говоря, трудновато:) — сразу же это обеспечивает данной конфигурации одно из первых мест. Также заметно, что именно два потока являются оптимальными для систем с Hyper-Threading. Правда, быть может, кто-то вспомнит скриншот Task Manager, которым мы «стращали» вас выше, поэтому сделаем оговорку — два активно работающих потока. В общем-то, это очевидно и вполне логично — раз у нас два виртуальных CPU, то наиболее правильно создать ситуацию, когда и потоков тоже будет два. Четыре — уже «перебор», потому что за каждый из виртуальных CPU начинают «драться» по несколько потоков. Однако даже в этом случае системе со включенной Hyper-Threading удалось обогнать «однопроцессорного» конкурента.

Об удачах всегда принято говорить подробно и со вкусом, и естественно, еще подробнее и вкуснее о них говорить когда они — твои собственные. Констатируем, что «эксперимент с переходом на инструкции FPU» также безусловно удался. Казалось бы, отказ от SSE2 должен был сильнейшим образом ударить по производительности (быстренько вспоминаем разгромные результаты Math Solving Speed с применением инструкций FPU на первой диаграмме этого раздела). Однако что мы видим! — во второй строчке, на самом верху, среди чемпионов — именно такая конфигурация! Причины опять-таки понятны, и это очень радует, потому что их понятность позволяет сделать вывод о предсказуемости поведения систем с поддержкой технологии Hyper-Threading. «Минусовый» результат блока Math Solving на системе с включенной Hyper-Threading «компенсировал» своим вкладом в общую производительность блок рендеринга, которому полностью отдали на откуп исполняющие блоки SSE/SSE2. Причем компенсировал настолько хорошо, что по результатам такая система оказалась в первых рядах. Остается пожалуй только еще раз повторить то, о чем неоднократно шла речь выше: в полную силу возможности Hyper-Threading проявляются в тех ситуациях, когда активно работающие программы (или потоки) используют разные исполняющие блоки CPU. В данной ситуации эта особенность проявилась особенно сильно, поскольку мы имели дело с хорошо, тщательно оптимизированным кодом CPU RM. Однако главный вывод состоит в том, что в принципе Hyper-Threading работает — значит, будет работать и в других программах. Естественно, тем лучше, чем больше их разработчики будут уделять времени оптимизации кода.

Выводы

…В очередной раз, к радости всего прогрессивного человечества, Intel выпустила новый Pentium 4, производительность которого еще выше чем у предыдущего Pentium 4, но это еще не предел, и скоро мы увидим еще более быстрый Pentium 4… М-да… Не то что бы это неправда — действительно, так и есть. Однако мы уже договорились, что не будем рассматривать в данной статье производительность вышеуказанного Pentium 4 3,06 ГГц в связке с другими процессорами по той самой причине, что… см. выше по тексту. Нас, видите ли, интересует Hyper-Threading. Вот такие мы привередливые — не важны нам предсказуемые результаты повышения еще на 200 МГц частоты работы давно знакомого и предсказуемого процессорного ядра, подавай нам «свежатинку», ранее не рассматриваемую. И как уже наверное догадались прозорливые читатели, выводы наши будут посвящены опять-таки этой самой навязшей в зубах технологии и всему что с ней связано. Почему? Наверное, потому, что все остальное вы отлично знаете сами..

И раз уж речь идет о Hyper-Threading, давайте для начала определим для себя главное: как к ней относиться? Что она из себя представляет? Не претендуя на истину в последней инстанции, сформулируем общее мнение, которое возникло у нас на основании результатов тестов: Hyper-Threading — это не SMP . «Ага!!!» — закричат поклонники альтернативы. «Мы так и знали!!!» — завопят они что есть мочи. «Hyper-Threading — это нечестный SMP!!!» — крики сии еще долго будут разноситься по бескрайним просторам Рунета… Мы же, как умудренные саксаулами аксакалы (или наоборот? :), возразим: «Ребята, а кто, собственно, обещал?». Кто произнес эту крамольную аббревиатуру? SMP, напомним — это Symmetric Multi-Processing, сиречь многопроцессорная архитектура. А у нас, пардон, процессор всего один . Да, он снабжен некой, простонародно выражаясь, «фичей», которая позволяет делать вид, что вроде бы оных процессоров два. Однако делает ли кто-то секрет из того, что на самом деле это не так? Вроде бы этого мы не заметили… Стало быть, мы имеем дело именно с «фичей», и не более того. И относиться к ней стоит именно таким образом, и никак иначе. Поэтому давайте не будем ниспровергать никем не возводимых идолов, и спокойно подумаем, имеет ли данная фича какой-то смысл.

Результаты тестов свидетельствуют, что в некоторых случаях — имеет. Фактически, то, о чем мы чисто теоретически рассуждали в первой части статьи, нашло свое практическое подтверждение — технология Hyper-Threading позволяет увеличить коэффициент полезного действия процессора в определенных ситуациях. В частности — в ситуациях, когда одновременно исполняются разнородные по характеру приложения. Зададим сами себе вопрос: «Это — плюс?». Наш ответ: «Да, это — плюс». Является ли он всеобъемлющим и глобальным? Похоже, что нет — ибо эффект от Hyper-Threading наблюдается исключительно в некоторых случаях. Однако так ли это важно если мы рассматриваем технологию в целом? Понятно, что появление CPU, способного в два раза быстрее делать все то, что делалось ранее — это громадный прорыв. Однако как говорили еще древние китайцы «упаси нас Господи жить в эпоху перемен». Intel не стал инициировать начало такой эпохи, просто добавив своему процессору возможность кое-что делать быстрее. Классический западный принцип, не очень хорошо воспринимаемый в нашем «шаролюбивом» обществе: «Вы можете получить нечто получше, если заплатите несколько больше».

Возвращаясь к практике: Hyper-Threading нельзя назвать «бумажной» технологией, ибо при определенных комбинациях она дает вполне ощутимый эффект. Добавим — даже намного больший эффект, чем иногда наблюдается при сравнении, к примеру, двух платформ с одним процессором на разных чипсетах. Однако следует четко понимать, что эффект этот наблюдается не всегда, и существенно зависит от… наверное, самым приемлемым термином будет «стиль». От стиля работы пользователя с компьютером. Причем именно здесь проявляется то, о чем мы сказали в самом начале: Hyper-Threading — это не SMP . «Классический SMP-стиль», где пользователь рассчитывает на реакцию столь же классической «честной» многопроцессорной системы, здесь не даст желаемого результата.

«Стиль Hyper-Threading» — это сочетание процессов, не побоимся этого слова, «развлекательных» или «служебных» с процессами «рабочими». Вы не получите существенного ускорения от CPU с поддержкой этой технологии в большинстве классических многопроцессорных задач, или если по привычке запускаете только одно приложение в один момент времени. Но вы скорее всего получите уменьшение времени исполнения многих фоновых задач , исполняемых в качестве «довеска» к обычной работе. Фактически, Intel просто еще раз напомнила всем нам, что операционные системы, в которых мы работаем — многозадачные . И предложила способ ускорения — но не столько одного какого-то процесса самого по себе, сколько комплекса выполняемых одновременно приложений . Это интересный подход, и, как нам кажется, достаточно востребованный. Теперь он обрел свое имя. Не мудрствуя лукаво, хочется сказать: просто хорошо, что эта оригинальная идея пришла кому-то в голову. Тем более неплохо, что он смог ее воплотить в конкретный продукт. В остальном, как и всегда — время покажет.

4 считается самой удачной по сравнению с другими модификациями производителя, ведь в течение многих лет работы она доказала право на своё существование. В данной статье читатель сможет узнать, чем же так хороши эти процессоры, узнает их технические характеристики, а тестирование и отзывы помогут потенциальному покупателю определиться с выбором на рынке компьютерных комплектующих.

Гонка за частотами

Как показывает история, поколения процессоров сменялись одно за другим благодаря гонке производителей за частотами. Естественно, внедрялись также новые технологии, но они были не на первом плане. И пользователи, и производители понимали, что настанет день, когда эффективная частота процессора будет достигнута, и это случилось после появления четвёртого поколения Intel Pentium. 4 GHz - частота работы одного ядра - стала пределом. Кристаллу для работы требовалось слишком много электроэнергии. Соответственно, и рассеиваемая мощность в виде колоссального тепловыделения ставила под сомнение работу всей системы.

Все последующие модификации а также аналоги конкурентов стали производиться в пределах 4 ГГц. Тут уже вспомнили про технологии с использованием нескольких ядер и внедрение специальных инструкций, которые способны оптимизировать работу по обработке данных в целом.

Первый блин комом

В сфере высоких технологий монополия на рынке ни к чему хорошему привести не может, в этом уже убедились многие производители электроники на собственном опыте (диски DVD-R были заменены на DVD+R, а ZIP-дисковод вообще канул в Лету). Однако компании Intel и Rambus решили всё-таки хорошо заработать и выпустили совместный многообещающий продукт. Так на рынке появился первый Pentium 4, который работал на Socket 423 и на очень высокой скорости общался с оперативной памятью Rambus. Естественно, многие пользователи пожелали стать владельцами самого быстрого компьютера в мире.

Стать монополистами на рынке двум компаниям помешало открытие двухканального режима памяти. Проведённые тестирования новинки показали колоссальный прирост производительности. Новой технологией тут же заинтересовались все производители компьютерных комплектующих. А первый процессор Pentium 4 вместе с сокетом 423 стал историей, ведь производитель не обеспечил платформу возможностью модернизации. На данный момент комплектующие под эту платформу востребованы, как оказалось, ряд государственных предприятий успели закупить сверхбыстрые компьютеры. Естественно, замена комплектующих на порядок дешевле полного апгрейда.

Шаг в правильном направлении

У многих владельцев персональных компьютеров, которые не играют в игры, а предпочитают работать с документацией и просматривать мультимедиа контент, до сих пор установлен Intel Pentium 4 (Socket 478). Миллионы тестов, проведённых профессионалами и энтузиастами, показывают, что мощности данной платформы достаточно для всех задач рядового пользователя.

Данная платформа использует две модификации ядер: Willamette и Prescott. Судя по характеристикам, отличия между двумя процессорами незначительные, в последней модификации добавлена поддержка 13 новых инструкций для оптимизации данных, получивших краткое название SSE3. Частотный диапазон работы кристаллов находится в пределах 1,4-3,4 ГГц, что, по сути, и удовлетворяет требования рынка. Производитель рискнул ввести дополнительную ветку процессоров под сокет 478, которые должны были привлечь внимание любителей игр и оверлокеров. Новая линейка получила название Intel Pentium 4 CPU Extreme Edition.

Преимущества и недостатки 478 сокета

Судя по отзывам ИТ-специалистов, процессор Intel Pentium 4, работающий на платформе 478 сокета, является до сих пор довольно востребованным. Не каждый владелец компьютера может позволить себе модернизацию, которая требует приобретения трёх базовых комплектующих (материнская плата, процессор и оперативная память). Ведь для большинства задач, для улучшения производительности всей системы достаточно установить более мощный кристалл. Благо вторичный рынок ими переполнен, ведь процессор намного долговечнее той же материнской платы.

И если производить апгрейд, то внимание нужно уделить самым мощным представителям в данной категории Extreme Edition, которые до сих пор показывают достойные результаты в тестах на производительность. Недостатком мощных процессоров под является большая рассеиваемая мощность, которая требует хорошего охлаждения. Поэтому к расходам пользователя добавится и необходимость приобретения достойного кулера.

Процессоры по низкой цене

Читатель однозначно сталкивался на рынке с моделями процессоров Intel Pentium 4, имеющих в маркировке надпись Celeron. По сути - это младшая линейка устройств, которая обладает меньшей мощностью за счёт уменьшения инструкций и отключения блоков внутренней памяти микропроцессора (кэш). Рынок Intel Celeron нацелен на пользователей, которым прежде всего важна цена компьютера, а не его производительность.

Среди пользователей бытует мнение, что младшая линейка процессоров является отбраковкой в процессе производства кристаллов Intel Pentium 4. Истоком данного предположения является ажиотаж на рынке в далёком 1999 году, когда группа энтузиастов доказала общественности, что Pentium 2 и его младшая модель Celeron являются одним и тем же процессором. Однако за прошедшие годы ситуация в корне изменилась, и производитель имеет отдельную линию по выпуску недорогого устройства для нетребовательных покупателей. К тому же нельзя забывать о конкуренте AMD, который претендует на то, чтобы вытеснить компанию Intel с рынка. Соответственно, все ценовые ниши должны быть заняты достойной продукцией.

Новый виток эволюции

Многие специалисты в области компьютерных технологий считают, что именно появление на рынке процессора Intel Pentium 4 Prescott открыло эпоху устройств с несколькими ядрами и завершило гонку за гигагерцами. С появлением новых технологий производителю пришлось перейти на сокет 775, который и помог раскрыть потенциал всех персональных компьютеров в работе с ресурсоёмкими программами и динамическими играми. По статистике, более 50% всех компьютеров на планете работают на легендарном разъёме Socket 775 от компании Intel.

Появление процессора Intel привело к ажиотажу на рынке, ведь производитель на одном ядре умудрился запустить два потока инструкций, создав прообраз двухъядерного устройства. Технология получила название Hyper-threading и на сегодня является передовым решением при производстве самых мощных кристаллов в мире. Не останавливаясь на достигнутом, компания Intel презентовала технологии Dual Core, Core 2 Duo и Core 2 Quad, которые на аппаратном уровне имели по несколько микропроцессоров на одном кристалле.

Двуликие процессоры

Если ориентироваться на критерий «цена-качество», то в фокусе однозначно окажутся процессоры с двумя ядрами. Их низкая себестоимость и отличная производительность дополняют друг друга. Микропроцессоры Intel Pentium Dual Core и Core 2 Duo являются самыми продаваемыми в мире. Их основное отличие между собой в том, что последний имеет два физических ядра, которые работают независимо друг от друга. А вот процессор Dual Core реализован в виде двух контроллеров, которые установлены на одном кристалле и их совместная работа неразрывно связана между собой.

Частотный диапазон устройств, имеющих два ядра, немного занижен и колеблется в пределах 2-2,66 ГГц. Вся проблема - в рассеиваемой мощности кристалла, который сильно греется на повышенных частотах. Примером служит вся восьмая линейка Intel Pentium D (D820-D840). Именно они получили первыми два раздельных ядра и рабочие частоты свыше 3 ГГц. Потребляемая мощность этих процессоров составляет в среднем 130 Вт (в зимнее время вполне приемлемый обогреватель комнаты для пользователей).

Перебор с четырьмя ядрами

Новинки с четырьмя ядрами Intel(R) Pentium(R) 4 явно были рассчитаны на пользователей, которые предпочитают приобретать комплектующие с большим запасом на будущее. Однако рынок программного обеспечения вдруг остановился. Разработка, тестирование и внедрение приложений производится для устройств, имеющих одно или два ядра максимум. А как же быть с системами, состоящими из 6, 8 и более микропроцессоров? Обычный маркетинговый ход, ориентированный на потенциальных покупателей, которые желают приобрести сверхмощный компьютер или ноутбук.

Как с мегапикселями на фотоаппарате - лучше не тот, где написано 20 Мп, а устройство с большей матрицей и фокусным расстоянием. А в процессорах погоду делает набор инструкций, которые обрабатывают программный код приложения и выдают результат пользователю. Соответственно, программисты должны этот самый код оптимизировать так, чтобы микропроцессор его быстро и без ошибок обрабатывал. Так как слабых компьютеров на рынке большинство, то разработчикам выгодно создавать нересурсоёмкие программы. Соответственно, большая мощность компьютера на данном этапе эволюции не нужна.

Владельцам процессора Intel Pentium 4 желающим произвести модернизацию с минимальными затратами, профессионалы рекомендуют посмотреть в сторону вторичного рынка. Но для начала нужно выяснить технические характеристики установленной в системе материнской платы. Сделать это можно на сайте производителя. Интересует раздел «поддержка процессоров». Далее в средствах массовой информации необходимо найти и, сравнив с характеристиками материнской платы, выбрать несколько достойных вариантов. Не помешает изучить отзывы владельцев и ИТ-специалистов в СМИ по выбранным устройствам. После чего можно заняться поиском необходимого процессора, бывшего в употреблении.

Для многих платформ, поддерживающих работу микропроцессоров с четырьмя ядрами, рекомендуется устанавливать Intel Core Quad 6600. Если система умеет работать только с двухъядерными кристаллами, то стоит поискать серверный вариант Intel Xeon или инструмент для оверлокера Intel Extreme Edition (естественно, под сокет 775). Их стоимость на рынке находится в пределах 800-1000 рублей, что на порядок дешевле любого апгрейда.

Рынок мобильных устройств

Помимо стационарных компьютеров, процессоры Intel Pentium 4 устанавливались также на ноутбуки. Для этого производителем была создана отдельная линейка, которая в своей маркировке имела букву «М». Характеристики мобильных процессоров были идентичны стационарным компьютерам, однако частотный диапазон явно был занижен. Так, самым мощным среди процессоров для ноутбуков считается Pentium 4M 2,66 ГГц.

Однако с развитием платформ в мобильных версиях всё так напутано, что сам производитель Intel до сих пор не предоставил дерево развития процессоров на своём официальном сайте. Используя 478-контактную платформу в ноутбуках, компания изменяла лишь технологию обработки процессорного кода. В результате, на одном сокете удалось развести целый "зоопарк" процессоров. Самым популярным, по статистике, принято считать кристалл Intel Pentium Dual Core. Дело в том, что это самое дешёвое устройство в производстве, и его рассеиваемая мощность ничтожно мала по сравнению с аналогами.

Гонка за энергосбережением

Если для компьютеров потребляемая процессором мощность не является для системы критичной, то для ноутбука ситуация кардинально меняется. Тут устройства Intel Pentium 4 были вытеснены менее энергозависимыми микропроцессорами. И если читатель познакомится с тестами мобильных процессоров, то он увидит, что по производительности старый Core 2 Quad из линейки Pentium 4 не сильно отстаёт от более современного кристалла Core i5, а вот энергопотребление последнего в 3,5 раза меньше. Естественно, такое различие сказывается на автономности работы ноутбука.

Проследив за рынком мобильных процессоров, можно обнаружить, что производитель снова вернулся к технологиям прошлого десятилетия и начинает активно устанавливать во все ноутбуки продукты Intel Atom. Только не нужно их сравнивать с маломощными процессорами, устанавливаемыми на нетбуки и планшеты. Это совершенно новые, технологичные и очень производительные системы, имеющие на борту 2 или 4 ядра и способные принять участие в тестировании приложений или игр наравне с кристаллами Core i5/i7.

В заключение

Как видно из обзора, легендарный процессор Intel Pentium 4, характеристики которого претерпели изменений за многие годы, не только имеет право на сосуществование с новыми линейками производителя, но и успешно конкурирует в сегменте «цена-качество». И если речь идёт об апгрейде компьютера, то перед совершением важного шага стоит понять, есть ли смысл менять шило на мыло. В большинстве случаев, особенно когда речь идёт о производительных играх, профессионалы рекомендуют произвести модернизацию заменой видеокарты. Также многие пользователи не знают, что слабым звеном компьютера в динамических играх является жёсткий магнитный диск. Замена его на SSD-накопитель способна увеличить производительность компьютера в несколько раз.

Относительно мобильных устройств ситуация несколько другая. Работа всей системы сильно зависима от температуры внутри корпуса ноутбука. Понятно, что мощный процессор в пиковых нагрузках приведёт к торможениям или полному отключению устройства (много негативных отзывов этот факт подтверждают). Естественно, при покупке ноутбука для игр нужно уделить внимание экономичности процессора в плане энергопотребления и достойного охлаждения всех комплектующих.