анонс новой утилиты измерения производительности с точки зрения приложений, зависимых от скорости работы памяти

Как правило, при тестировании производительности платформ акцент делается на процессорозависимые приложения. Но скорость системы зависит не только от центрального процессора. И сейчас мы даже не вспоминаем о графически насыщенных приложениях и использовании GPU для вычислений общего назначения, в которых значимую роль играет выбор видеокарты. Речь, как нетрудно догадаться, пойдет о влиянии производительности памяти, и нашей попытке количественно оценить это влияние.

Зависимость общей производительности системы от памяти имеет сложный характер, что затрудняет прямую оценку скорости памяти, то есть сравнения различных модулей. Например, память с частотой 1600 МГц имеет вдвое большую пропускную способность, чем 800-мегагерцовая. И синтетические тесты памяти прилежно выведут столбик в два раза выше. Но если вы протестируете целую систему с этими двумя видами памяти с помощью популярных тестовых приложений, на которых обычно тестируют процессоры, то и близко не получите двухкратной разницы в производительности. Интегральный индекс быстродействия может отличаться максимум на несколько десятков процентов.

Это делает синтетические тесты памяти малоинформативными с практической точки зрения. Нельзя, однако, поручиться и за то, что подход с применением реальных приложений дает нам стопроцентно достоверную картину, поскольку велика вероятность, что какие-то режимы, где производительность памяти действительно критична, остались без внимания и не были учтены.

Краткая теория

Чтобы понять специфику проблемы, рассмотрим принципиальную схему взаимодействия приложения, ЦП и подсистемы памяти. Уже давно для описания работы центрального процесса считается удачной аналогия с заводским конвейером. И движутся по этому конвейеру инструкции из программного кода, а функциональные модули процессора обрабатывают их словно станки. Тогда современные многоядерные ЦП будут подобны заводам с несколькими цехами. Например, работу технологии Hyper-Threading можно сравнить с конвейером, по которому едут вперемешку детали сразу нескольких автомобилей, и умные станки обрабатывают их одновременно, по метке на деталях определяя, к какой модели машины они относятся. Например, собирается красная и синяя машины, тогда красящий станок использует красную краску для деталей красной машины и синюю краску для синей. И поток деталей сразу для двух моделей позволяет лучше загрузить станки. А если аппарат для покраски будет иметь два распылителя, и сможет красить одновременно две детали в разные цвета, конвейер сможет работать на полную мощность вне зависимости от того, в каком порядке будут поступать детали. Наконец, последний писк моды, реализуемый в будущих процессорах AMD, в которых различные ядра ЦП будут иметь некоторые общие функциональные блоки, можно сравнить с идеей сделать часть особо громоздких и дорогих станков общей для двух цехов, чтобы сэкономить заводскую площадь и сократить капитальные затраты.

С точки зрения данной аналогии, системная память будет являться внешним миром, который поставляет на завод сырье и принимает готовый продукт, а кэш-память - это некий склад непосредственно на заводской территории. Чем больше у нас системной памяти, тем больший виртуальный мир мы можем обеспечивать выпускаемой продукцией, и чем больше частота ЦП и количество ядер, тем мощнее и производительнее наш завод. А чем больше размер кэш-памяти, то есть заводского склада, тем меньше будет обращений в системную память - запросов на поставку сырья и комплектующих.

Производительность памяти в этой аналогии будет соответствовать скорости транспортной системы по доставке сырья и отправке деталей во внешний мир. Допустим, доставка на завод осуществляется при помощи грузовиков. Тогда параметрами транспортной системы будут вместимость грузовика и скорость движения, то есть время доставки. Это хорошая аналогия, так как работа ЦП с памятью осуществляется с помощью отдельных транзакций с блоками памяти фиксированного размера, причем данные блоки расположены рядом, в одном участке памяти, а не произвольно. И для общей производительности завода важна не только скорость работы конвейера, но и оперативность подвоза компонентов и вывоза готовых изделий.

Произведение объема кузова на скорость движения, то есть количество грузов, которые можно перевезти в единицу времени, будет соответствовать пропускной способности памяти (ПСП). Но очевидно, что системы с одинаковой ПСП не обязательно равноценны. Важно значение каждого компонента. Скоростной маневренный грузовичок может оказаться лучше, чем большой, но медленный транспорт, так как необходимые данные могут лежать в различных участках памяти, расположенных далеко друг от друга, а вместимость грузовика (или объем транзакции) много меньше общего объема (памяти), и тогда даже большому грузовику придется совершить два рейса, и его вместимость не будет востребована.

Другие же программы имеют так называемый локальный доступ к памяти, то есть они читают или пишут в близко расположенные ячейки памяти - им относительно безразлична скорость случайного доступа. Это свойство программ объясняет эффект от наращивания объемов кэш-памяти в процессорах, которая, благодаря близкому расположению к ядру, в десятки раз быстрее. Даже если программа требует, например, 512 МБ общей памяти, в каждый отдельный небольшой промежуток времени (например, миллион тактов, то есть одна миллисекунда), программа может работать только с несколькими мегабайтами данных, которые успешно помещаются в кэше. И потребуется только обновлять время от времени содержимое кэша, что, в общем, происходит быстро. Но может быть и обратная ситуация: программа занимает всего 50 МБ памяти, но постоянно работает со всем этим объемом. А 50 МБ значительно превышают типичный размер кэша существующих настольных процессоров, и, условно говоря, 90% обращений к памяти (при размере кэша в 5 МБ) не кэшируются, то есть 9 из 10 обращений идут непосредственно в память, так как необходимых данных нет в кэше. И общая производительность будет почти полностью лимитирована скоростью памяти, так как процессор практически всегда будет находиться в ожидании данных.

Время доступа к памяти в случае, когда данных нет в кэше, составляет сотни тактов. И одна инструкция обращения к памяти по времени равноценна десяткам арифметических.

«Памятенезависимые» приложения

Позволим себе один раз использовать такой корявый термин для приложений, производительность в которых на практике не зависит от смены модулей на более высокочастотные и низколатентные. Откуда вообще такие приложения берутся? Как мы уже отметили, все программы имеют различные требования к памяти, в зависимости от используемого объема и характера доступа. Каким-то программам важна только общая ПСП, другие, наоборот, критичны к скорости доступа к случайным участкам памяти, которая иначе называется латентностью памяти. Но очень важно также, что степень зависимости программы от параметров памяти во многом определяется характеристиками центрального процессора - прежде всего, размером его кэша, так как при увеличении объема кэш-памяти рабочая область программы (наиболее часто используемые данные) может поместиться целиком в кэш процессора, что качественно ускорит программу и сделает её малочувствительной к характеристикам памяти.

Кроме того, важно, как часто в коде программы встречаются сами инструкции обращения к памяти. Если значительная часть вычислений происходит с регистрами, велик процент арифметических операций, то влияние скорости памяти снижается. Тем более что современные ЦП умеют изменять порядок выполнения инструкций и начинают загружать данные из памяти задолго до того, как те реально понадобятся для вычислений. Такая технология называется предвыборкой данных (prefetch). Качество реализации данной технологии также влияет на памятезависимость приложения. Теоретически, ЦП с идеальным prefetch не потребуется быстрая память, так как он не будет простаивать в ожидании данных.

Активно развиваются технологии спекулятивной предвыборки, когда процессор, даже ещё не имея точного значения адреса памяти, уже посылает запрос на чтение. Например, процессор для номера некоторой инструкции обращения к памяти запоминает последний адрес ячейки памяти, которая читалась. И когда ЦП видит, что скоро потребуется исполнить данную инструкцию, он посылает запрос на чтение данных по последнему запомненному адресу. Если повезет, то адрес чтения памяти не изменится, или изменится в пределах читаемого за одно обращение к памяти блока. Тогда латентность доступа к памяти отчасти скрадывается, поскольку параллельно с доставкой данных процессор исполняет инструкции, предшествующие чтению из памяти. Но, разумеется, такой подход не является универсальным и эффективность предвыборки сильно зависит от особенностей алгоритма программы.

Однако разработчики программ также в курсе характеристик современного поколения процессоров, и зачастую в их силах (при желании) оптимизировать объем данных таким образом, чтобы он помещался в кэш-памяти даже бюджетных процессоров. Если мы работаем с хорошо оптимизированным приложением - для примера можно вспомнить некоторые программы кодирования видео, графические или трехмерные редакторы, - у памяти, с практической точки зрения, не будет такого параметра, как производительность, будет только объем.

Еще одна причина, по которой пользователь может не обнаружить разницы при смене памяти, состоит в том, что она и так слишком быстрая для используемого процессора. Если бы сейчас все процессоры вдруг замедлились в 10 раз, то для производительности системы в большинстве программ стало бы абсолютно все равно, какой тип памяти в ней установлен - хоть DDR-400, хоть DDR3-1600. А если бы ЦП радикально ускорились, то производительность значительной части программ наоборот стала бы гораздо существеннее зависеть от характеристик памяти.

Таким образом, реальная производительность памяти есть величина относительная, и определяется в том числе и используемым процессором, а также особенностями ПО.

«Памятезависимые» приложения

А в каких пользовательских задачах производительность памяти имеет большее значение? По странной, но на самом деле имеющей глубокие основания причине - в случаях, которые сложно тестировать.

Тут сразу вспоминаются игрушки-стратегии со сложным и «медленным» искусственным интеллектом (ИИ). Ими никто не любит тестировать ЦП, так как инструменты для оценки либо отсутствуют, либо характеризуются большими погрешностями. На скорость выработки решения алгоритмом ИИ влияют множество факторов - например, иногда закладываемая в ИИ вариативность решений, чтобы сами решения выглядели более «человеческими». Соответственно, и реализация различных вариантов поведения занимает разное время.

Но это не значит, что у системы в данной задаче нет производительности, что она не определена. Просто её сложно точно вычислить, для этого потребуется собрать большое количество статистических данных, то есть провести множество испытаний. Кроме того, такие приложения сильно зависят от скорости памяти из-за использования сложной структуры данных, распределенных по оперативной памяти зачастую непредсказуемым образом, поэтому упомянутые выше оптимизации могут просто не работать или действовать неэффективно.

Достаточно сильно от производительности памяти могут зависеть и игры других жанров, пусть не со столь умным искусственным интеллектом, зато с собственными алгоритмами имитации виртуального мира, включая физическую модель. Впрочем, они на практике чаще всего упираются в производительность видеокарты, поэтому тестировать на них память также бывает не очень удобно. Кроме того, важным параметром комфортного игрового процесса в трехмерных играх от «первого лица» является минимальное значение fps: его возможное проседание в пылу жестокой битвы может иметь самые плачевные для виртуального героя последствия. А минимальный fps тоже, можно сказать, невозможно измерить. Опять же - из-за вариативного поведения ИИ, особенностей расчета «физики» и случайных системных событий, которые тоже могут приводить к проседанию. Как прикажете в таком случае анализировать полученные данные?

Тестирование скорости игр в демо-роликах имеет ограниченное применение еще и потому, что не все части игрового движка бывают задействованы для воспроизведения демки, и в реальной игре на скорость могут влиять иные факторы. Причем даже в таких наполовину искусственных условиях минимальный fps непостоянен, и его редко приводят в отчетах о тестировании. Хотя, повторимся, это наиболее важный параметр, и в тех случаях, когда идет обращение к данным, проседание fps весьма вероятно. Ведь современные игры, в силу своей сложности, разнообразия кода, включающего помимо поддержки физического движка и искусственного интеллекта также подготовку графической модели, обработку звука, передачу данных через сеть и пр., очень зависят как от объема, так и от производительности памяти. Кстати, будет заблуждением считать, что графический процессор обрабатывает сам всю графику: он только рисует треугольники, текстуры и тени, а формированием команд все равно занимается ЦП, и для сложной сцены это вычислительно емкая задача. К примеру, когда вышел Athlon 64 с интегрированным контроллером памяти, наибольший прирост в скорости по сравнению со старым Athlon был именно в играх, хотя там не использовались 64-битность, SSE2 и другие новые «фишки» Athlon 64. Именно существенное повышение эффективности работы с памятью благодаря интегрированному контроллеру сделало тогдашний новый процессор AMD чемпионом и лидером по производительности в первую очередь в играх.

Многие другие сложные приложения, прежде всего серверные, в случае которых имеет место обработка случайного потока событий, также существенно зависят от производительности подсистемы памяти. Вообще, используемое в организациях ПО, с точки зрения характера кода программы, зачастую не имеет аналогов среди популярных приложений для домашних персоналок, и поэтому весьма существенный пласт задач остается без адекватной оценки.

Ещё одним принципиальным случаем усиленной зависимости от памяти является режим многозадачности, то есть запуск нескольких ресурсоемких приложений одновременно. Вспомним снова все тот же AMD Athlon 64 с интегрированным контроллером памяти, который к моменту анонса Intel Core выпускался уже в двухъядерном варианте. Когда вышел Intel Core на новом ядре, процессоры AMD стали проигрывать везде, кроме SPEC rate - многопоточном варианте SPEC CPU, когда запускается столько копий тестовой задачи, сколько ядер в системе. Новое интеловское ядро, обладая большей вычислительной мощностью, тупо затыкалось в этом тесте в производительность памяти, и даже большой кэш и широкая шина памяти не помогали.

Но почему это не проявлялось в отдельных пользовательских задачах, в том числе многопоточных? Главной причиной было то, что большинство пользовательских приложений, которые в принципе хорошо поддерживают многоядерность, всячески оптимизированы. Вспомним в очередной раз пакеты для работы с видео и графикой, которые больше всех получают прирост от многопоточности - всё это оптимизированные приложения. К тому же объем используемой памяти меньше, когда код параллелится внутри программы - по сравнению с вариантом, когда запускаются несколько копий одной задачи, а тем более - разные приложения.

А вот если запустить на ПК сразу несколько различных приложений, нагрузка на память возрастет многократно. Это произойдет по двум причинам: во-первых, кэш-память будет поделена между несколькими задачами, то есть каждой достанется только часть. В современных ЦП кэш L2 или L3 - общий для всех ядер, и если одна программа использует много потоков, то они все могут выполняться на своем ядре и работать с общим массивом данных в L3-кэше, а если программа однопоточна, то ей достается весь объем L3 целиком. Но если потоки принадлежат различным задачам, объем кэша будет вынужденно делиться между ними.

Вторая причина заключается в том, что большее количество потоков создаст больше запросов на чтение-запись памяти. Возвращаясь к аналогии с заводом, понятно, что если на заводе работают все цеха на полную мощность, то сырья потребуется больше. А если они делают различные машины, то заводской склад будет переполнен различными деталями, и конвейер каждого цеха не сможет воспользоваться деталями, предназначенными для другого цеха, так как они от разных моделей.

Вообще, проблемы с ограниченной производительностью памяти - главная причина низкой масштабируемости многоядерных систем (после, собственно, приципиальных ограничений возможности распараллеливания алгоритмов).

Типичным примером такой ситуации на ПК будет одновременный запуск игры, «скайпа», антивируса и программы кодирования видеофайла. Пусть не типичная, но совсем не фантастическая ситуация, в которой очень сложно корректно измерить скорость работы, так как на результат влияют действия планировщика в составе ОС, который при каждом замере может по-иному распределять задачи и потоки по разным ядрам и давать им различные приоритеты, временны́е интервалы и делать это в разной последовательности. И опять-таки, наиболее важным параметром будет пресловутая плавность работы - характеристика, по аналогии с минимальным fps в играх, которую в данном случае измерить еще сложнее. Что толку от запуска игры или какой-то другой программы одновременно с кодированием видеофайла, если поиграть нормально не удастся из-за рывков изображения? Пусть даже видеофайл быстро сконвертируется, поскольку многоядерный процессор в данном случае может быть и недогружен. Здесь нагрузка на систему памяти будет гораздо больше, чем при исполнении каждой из перечисленных задач по отдельности.

В случае использования ПК как рабочей станции, ситуация одновременного исполнения нескольких приложений даже более типична, чем для домашнего ПК, и сама скорость работы ещё более важна.

Проблемы тестирования

Сразу целая группа факторов снижает чувствительность ЦП-ориентированных тестов к скорости памяти. Очень чувствительные к памяти программы представляют собой плохие тесты ЦП - в том смысле, что они слабо реагируют на модель ЦП. Такие программы могут различать процессоры с контроллером памяти, снижающим латентность доступа к памяти, и без оного, но при этом в пределах одного семейства почти не реагировать на частоту процессора, показывая сходные результаты при работе на частоте 2500 и 3000 МГц. Часто такие приложения отбраковываются как тесты ЦП, ибо тестеру просто непонятно, что лимитирует их производительность, и кажется, что дело в «чудачествах» самой программы. Будет удивительно, если все процессоры (и AMD, и Intel) покажут в тесте одинаковый результат, но такое вполне возможно для приложения, очень сильно зависимого от памяти.

Чтобы избежать упреков в необъективности и вопросов, почему выбрана та или иная программа, в тесты стараются включать только наиболее популярные приложения, которыми все пользуются. Но такая выборка не совсем репрезентативна: наиболее популярные приложения из-за своей массовости часто очень хорошо оптимизированы, а оптимизация программы начинается с оптимизации её работы с памятью - она важнее, например, чем оптимизация под SSE1-2-3-4. Но совсем не все на свете программы так хорошо оптимизируются; попросту на все программы не хватит программистов, которые умеют писать быстрый код. Опять возвращаясь к популярным программам кодирования, многие из них были написаны при непосредственном активном участии инженеров фирм-изготовителей ЦП. Как и некоторые другие популярные ресурсоемкие программы, в частности медленные фильтры двухмерных графических редакторов и движки рендеринга студий трехмерного моделирования.

В свое время было популярно сравнивать компьютерные программы с дорогами. Эта аналогия потребовалась, чтобы объяснить, почему на некоторых программах быстрее работает Pentium 4, а на некоторых Athlon. Интеловский процессор не любил ветвления и быстрее «ехал» по прямым дорогам. Это очень упрощенная аналогия, но она удивительно хорошо передает суть. Особенно интересно, когда две точки на карте соединяют две дороги - «оптимизированная» прямая качественная дорога и «неоптимизированная» кривая ухабистая. В зависимости от выбора одной из дорог, ведущих к цели, выигрывает тот или иной процессор, хотя в каждом случае они делают одно и тоже. То есть на неоптимизированном коде выигрывает Athlon, а при простой оптимизации приложения выигрывает Pentium 4 - и сейчас мы даже не говорим о специальной оптимизации под архитектуру Netburst: в таком случае Pentium 4 мог бы посоревноваться даже с Сore. Другое дело, что хорошие «оптимизированные» дороги строить дорого и долго, и это обстоятельство во многом предопределило печальную участь Netburst.

Но если мы отойдем от популярных наезженных трасс, то окажемся в лесу - там вообще нет никаких дорог. И немало приложений написаны безо всякой оптимизации, что почти неминуемо влечет сильную зависимость от скорости памяти в случае, если объем рабочих данных превышает размер кэша ЦП. К тому же множество программ пишутся на языках программирования, которые в принципе не поддерживают оптимизацию.

Специальный тест памяти

Для того чтобы корректно оценить влияние скорости памяти на производительность системы в случае, когда память имеет значение (для упомянутых «памятезависимых» приложений, мультизадачности и т. п.), исходя из всех вышеперечисленных обстоятельств и решено было создать специальный тест памяти, который по структуре кода представляет собой некое обобщенное сложное, зависимое от памяти приложение и имеет режим запуска нескольких программ.

Какие плюсы есть у такого подхода? Их очень много. В отличие от «натуральных» программ, возможен контроль над объемом используемой памяти, контроль над её распределением, контроль над количеством потоков. Специальное контролируемое выделение памяти позволяет нивелировать влияние особенностей менеджера памяти программы и операционной системы на производительность, чтобы результаты были не зашумлены, и можно было корректно и быстро тестировать. Точность измерения позволяет производить тест за относительно небольшое время и оценить большее количество конфигураций.

Тест основан на измерении скорости работы алгоритмов из типичных для сложных приложений программных конструкций, работающих с нелокальными структурами данных. То есть данные распределены в памяти достаточно хаотично, а не составляют один небольшой блок, и доступ в память не является последовательным.

В качестве модельной задачи была взята модификация теста Astar из SPEC CPU 2006 Int (кстати, предложенный для включения в этот пакет автором статьи; для теста памяти использован адаптированный для графов алгоритм) и задача сортировки данных с помощью различных алгоритмов. Программа Astar имеет сложный алгоритм с комплексным доступом к памяти, а алгоритмы сортировки числового массива - базовая задача программирования, использующаяся во множестве приложений; она включена, в том числе, для дополнительного подтверждения результатов сложного теста данными производительности простой, но распространенной и классической задачи.

Интересно, что существует несколько алгоритмов сортировки, но они отличаются по типу шаблона доступа к памяти. В некоторых доступ к памяти в целом локален, а другие используют сложные структуры данных (например, бинарные деревья), и доступ к памяти хаотичен. Интересно сравнить, насколько параметры памяти влияют при различном типе доступа - при том, что обрабатывается одинаковый размер данных и количество операций не сильно отличается.

Согласно исследованиям набора тестов SPEC CPU 2006, тест Astar - один из нескольких, в наибольшей мере коррелирующих с общим результатом пакета на x86-совместимых процессорах. Но в нашем тесте памяти объем используемых программой данных был увеличен, так как со времени выпуска теста SPEC CPU 2006 типичный объем памяти возрос. Также программа приобрела внутреннюю многопоточность.

Программа Astar реализует алгоритм нахождения пути на карте с помощью одноименного алгоритма. Сама по себе задача типична для компьютерных игр, прежде всего стратегий. Но используемые программные конструкции, в частности множественное применение указателей, также типичны для сложных приложений - например, серверного кода, баз данных или просто кода компьютерной игры, не обязательно искусственного интеллекта.

Программа осуществляет операции с графом, соединяющим пункты карты. То есть каждый элемент содержит ссылки на соседние, они как бы соединены дорогами. Есть два подтеста: в одном граф строится на основе двухмерной матрицы, то есть плоской карты, а во втором - на основе трехмерной матрицы, которая представляет собой некий сложный массив данных. Структура данных аналогична так называемым спискам - популярному способу организации данных в программах с динамическим созданием объектов. Такой тип адресации в целом характерен для объектно-ориентированного ПО. В частности, это практически все финансовые, бухгалтерские, экспертные приложения. И характер их обращений к памяти разительно контрастирует с типом доступа у оптимизированных на низком уровне вычислительных программ, вроде программ видеокодирования.

Каждый из подтестов имеет два варианта реализации многопоточности. В каждом из вариантов запускается N потоков, но в одном каждая из нитей осуществляет поиск пути на собственной карте, а в другом все нити ищут пути одновременно на одной карте. Так получаются несколько различных шаблонов доступа, что делает тест более показательным. Объем используемой памяти по умолчанию в обоих вариантах одинаков.

Таким образом, в первой версии теста получается 6 подтестов:

  • Поиск пути на 2D-матрице, общая карта
  • Поиск пути на 2D-матрице, отдельная карта для каждого потока
  • Поиск пути на 3D-матрице, общая карта
  • Поиск пути на 3D-матрице, отдельная карта для каждого потока
  • Сортировка массива с использованием алгоритма quicksort (локальный доступ к памяти)
  • Сортировка массива с использованием алгоритма heapsort (сложный доступ к памяти)

Результаты теста

Результаты теста отражают время нахождения заданного количества путей и время сортировки массива, то есть меньшее значение соответствует лучшему результату. В первую очередь качественно оценивается: реагирует ли в принципе данный процессор на заданной частоте на изменение частоты памяти или её настройки, частоту шины, тайминги и т. п. То есть отличаются ли результаты теста на данной системе при использовании различных типов памяти, или процессору хватает минимальной скорости.

Количественные результаты в процентах относительно конфигурации по умолчанию дают оценку прироста или падения скорости работы памятезависимых приложений или мультизадачной конфигурации при использовании различных типов памяти.

Тест сам по себе не предназначен для точного сравнения различных моделей ЦП, так как из-за того, что организация кэшей и алгоритмы предвыборки данных могут у них существенно отличаться, тест может отчасти благоволить определенным моделям. Но качественная оценка семейств ЦП между собой вполне возможна. А память производства различных компаний устроена одинаково, поэтому здесь субъективная составляющая исключена.

Также тест может быть использован для оценки масштабируемости процессоров по частоте при разгоне или внутри модельного ряда. Он позволяет понять, с какой частоты процессор начинает «затыкаться» в память. Часто процессор формально разгоняется сильно, и синтетические тесты, основанные на выполнении простых арифметических операций, показывают соответствующий изменению частоты прирост, но в памятезависимом приложении прироста может и не быть вообще из-за отсутствия соответствующего прироста в скорости памяти. Другая причина заключается в том, что ядро ЦП теоретически может потреблять больше энергии в случае сложного приложения и начнет либо сбоить, либо само снижать частоту, что не всегда возможно выявить в простых арифметических тестах.

Заключение

Если бы платформы и сокеты не менялись столь часто, то всегда можно было бы рекомендовать покупать самую быструю память, так как после апгрейда на новый более мощный и быстрый процессор возрастут и требования к памяти. Однако оптимальной стратегией все же является покупка сбалансированной конфигурации, поскольку сама память тоже прогрессирует, пусть и не так быстро, но ко времени смены процессора, вполне возможно, потребуется обновить и память. Поэтому тестирование производительности подсистемы памяти в сочетании с разными процессорами, в том числе в режиме разгона, остается актуальной и даже насущной задачей, которая позволит выбрать оптимальную связку, не переплачивая за лишние мегагерцы.

На самом деле, проблема ускорения доступа к данным - краеугольный камень современного процессоростроения. Узкое место здесь будет всегда, если только, конечно, сам процессор не будет состоять полностью из кэш-памяти, что, кстати, недалеко от истины - львиную долю площади кристаллов современных ЦП занимает как раз кэш-память разных уровней. (В частности, Intel заработал свои рекордные миллиарды, в том числе, благодаря тому, что в свое время разработал метод более плотного размещения кэшей на кристалле, то есть на единицу площади кристалла помещается больше ячеек кэша и больше байт кэш-памяти.) Однако всегда будут существовать приложения, которые либо невозможно оптимизировать таким образом, чтобы данные умещались в кэш-памяти, либо этим просто некому заниматься.

Поэтому быстрая память зачастую является столь же практичным выбором, как покупка внедорожника для человека, который хочет иметь возможность с комфортом передвигаться как по асфальту, так и по дорогам с «неоптимизированным» покрытием.

Производительность видеопамяти. Как свидетельствует практика, видеопамять очень часто является слабым местом графических плат. И дело в первую очередь не в ее объеме, а в пропускной способности, определяющей скорость доступа к данным, которые в ней хранятся. Пропускная способность зависит от двух показателей – частоты (скорость тактовых колебаний) и ширины (битности) шины памяти - количества данных, передаваемых за один такт. Например, некая видеопамять, имея ширину шины 256 бит, работает на частоте 1000 МГц. Это значит, что за 1 секунду она совершает 1000 тактов, передавая за каждый такт 256 бит информации (1000Х256=256 000 бит/с). Другая память, работает на частоте 1800 МГц, но при этом имеет шину 128 бит (128Х1800=230400 бит/с). Как видно в примере, память со значительно большей частотой является менее продуктивной в связи с узкой шиной. Это, конечно, чисто теоретический пример, но он демонстрирует реальное положение вещей.

Тип видеопамяти (GDDR2, GDDR3, GDDR4, GDDR5 и др.) указывает на то, к какому поколению принадлежит память графической карты. Каждое следующее поколение является совершеннее предыдущего и обеспечивает более высокую частоту работы. Но как видно из предыдущего примера, память нового поколения с узкой шиной по своей реальной пропускной способности может оказаться хуже памяти предыдущего поколения с широкой шиной.

Объем видеопамяти также влияет на производительность графической платы, но только до определенного предела (когда он является слабым местом). Гораздо выгоднее приобрести карту с памятью GDDR3 - 256 бит и объемом 512 MБ чем с памятью GDDR3 - 128 бит и объемом 1 ГБ. На самом деле графической плате с низкой пропускной способностью объем памяти в 1 ГБ вряд ли когда-нибудь понадобится. Такие карты ориентированы не на достижение максимальной производительности. Они являются больше продуктом маркетинговых хитростей производителей, рассчитанных на неопытных покупателей, оценивающих графические ускорители исключительно по размеру памяти. Поэтому, выбирая видеокарту, нужно оценивать сбалансированность соотношения частоты, битности и объема видеопамяти. Эти показатели обычно указываются в каталогах и ценниках магазинов.

Характеристики графического ядра. Тактовая частота графического процессора является важной, но не самой главной его характеристикой. Графическое ядро со сравнительно невысокой частотой нередко оказывается очень производительным. Все зависит от архитектуры графического ядра, количества и качества входимых в его состав унифицированных шейдерных блоков (чем больше, тем лучше) и других элементов, которыми определяется пиксельная и текстурная скорости заполнения (филрейт, fill rate) видеокарты (чем они выше, тем лучше). Эти показатели редко указываются на ценниках и в каталогах. Поэтому перед выбором видеокарты из нескольких возможных вариантов, желательно на официальном сайте их производителей (или на других специализированных сайтах) поинтересоваться реальным положением вещей и выбрать вариант с самыми высокими показателями. На практике, чем новее линейка видеокарт, к которой принадлежит графический ускоритель, тем, как правило, он мощнее. Исключение составляют «младшие» модели линейки. Не редко они оказываются менее производительными, нежели «старшие» представители предыдущей линейки. Например, GeForce GTS450 будет существенно уступать GeForce GTX280. Модели новой линейки часто поддерживают новые версии DirectX и OpenAL, что обеспечивает более «продвинутую» графику в компьютерных играх и других приложениях, их использующих. Но если мощности карты окажется недостаточно, практической выгоды от этого не будет. На самом деле, GeForce GTX280 (с поддержкой DirectX10) – вариант гораздо предпочтительнее GeForce GTS450 (DirectX11). Один из косвенных признаков невысокой производительности видеокарты – отсутствие разъема для подключения дополнительного питания непосредственно от блока питания. Шина PCIE материнской платы, к которой подсоединяется графическая плата, не может обеспечить достаточное питание. Современные технологии не позволяют создавать игровые видеокарты с настолько низким уровнем потребления электроэнергии.

Система охлаждения – элемент, от которого во многом зависит комфорт использования графического ускорителя. При выборе лучше отдать предпочтение изделиям, выполненным с применением вакуумных термотрубок (видны при визуальном осмотре). Такие системы на деле оказываются более эффективными и создают намного меньше шума. Кроме того, эффективное охлаждение предоставляет возможность лучше «разогнать» видеокарту, добившись при необходимости более высоких показателей ее производительности. Высокоэффективную систему охлаждения для графической платы можно приобрести отдельно, заменив штатную. Но стоит такая система как правило не менее 40 дол. США (а то и гораздо дороже). Поэтому выгоднее покупать видеокарты с эффективной штатной системой охлаждения (пусть они и стоят на 10-20 дол. США дороже аналогов без оной).

Взаимодействие нескольких графических плат при обработке одного изображения можно построить по следующим алгоритмам:

  • когда изображение виртуально разбивается на несколько частей, каждая из которых обрабатывается отдельной картой;
  • покадровая разбивка изображение (когда, например, одна карта обрабатывает только четные кадры, другая - нечетные);
  • когда одна и та же картинка генерируется на всех графических платах, но с разными шаблонами сглаживания. Полученные результаты смешиваются, накладываясь друг на друга, чем достигается более высокая четкость, детализированность и сглаживание конечного изображения.

Главный недостаток систем на базе двух (или более) видеокарт – их высокое энергопотребление и дороговизна. При этом, производительность видеоподсистемы на практике увеличивается не в два или более раз. В лучшем случае удается добиться прироста в 50-60% от фактической мощности дополнительных графических карт.

Самые основные параметры, которые влияют на скорость работы компьютера – аппаратные . Именно от того, какое железо установлено на ПК зависит как он будет работать.

Процессор

Его можно назвать сердцем компьютера. Многие просто уверенны, что основной параметр, который влияет на скорость работы ПК – тактовая частота и это правильно, но не полностью.

Конечно, количество Ггц важно, но и процессора, также играет немаловажную роль. Не стоит сильно углубляться в подробности, упростим: чем выше частота и больше ядер – тем быстрее ваш компьютер.

Оперативная память

Опять же, чем больше гигабайт этой памяти тем лучше. Оперативная память или сокращенно ОЗУ – временная память, куда записываются данные программ для быстрого доступа . Однако, после выключения ПК все они стираются, то есть, она является непостоянной – динамической .

И тут имеются свои нюансы. Большинство в погоне за количеством памяти ставят кучу планок разных производителей и с разными параметрами, тем самым не получают нужного эффекта. Чтобы прирост производительности был максимальный , нужно ставить планки с одинаковыми характеристиками.

Данная память также обладает тактовой частотой, и чем она большем, тем лучше.

Видеоадаптер

Он может быть дискретный и встроенный . Встроенный находится на материнской плате и его характеристики весьма скудны. Их хватает лишь для обычной офисной работы.

Если вы планируете играть в современные игры, пользоваться программами, которые обрабатывают графику, то вам нужна дискретная видеокарта . Тем самым вы поднимите производительность вашего ПК. Это отдельная плата, которую нужно вставлять в специальный разъем, который находится на материнской плате.

Материнская плата

Она является самой большой платой в блоке. От нее напрямую зависит производительность всего компьютера, так как все его компоненты располагаются на ней или подключаются именно к ней.

Жесткий диск

Это запоминающее устройство, где мы храним все свои файлы, установленные игры и программы. Они бывают двух видов: HDD и SSD . Вторые работают намного быстрее , потребляют меньше энергии и они тихие. У первых, также, есть параметры влияющие на производительность ПК – скорость вращения и объем. И опять, чем они выше тем лучше.

Блок питания

Он должен снабжать энергией все компоненты ПК в достаточном объеме иначе производительность в разы снизится.

Программные параметры

Также, на скорость работы компьютера влияют:

  • Состояние установленной операционной системы.
  • Версия ОС.

Установленная ОС и программное обеспечение должны быть правильно настроенными и не содержать вирусов, тогда производительность будет отличной.

Конечно, время от времени нужно переустанавливать систему и все программное обеспечение, дабы компьютер работал быстрее. Также, нужно следить за версиями ПО, ведь старые могут работать медленно из-за содержащихся в них ошибках. Нужно использовать утилиты, очищающие систему от мусора и повышающие ее производительность.

Развенчиваем мифы о производительности видеокарт | Определяем понятие производительности

Если вы автолюбитель, то наверняка не раз спорили со своими друзьями о возможностях двух спорткаров. У одной из машин может быть больше лошадиных сил, более высокая скорость, меньший вес и лучшее управление. Но очень часто споры ограничиваются сравнением скорости прохождения круга Нюрнбургринг (Nurburgring) и всегда заканчиваются тем, что кто-то из компании портит всё веселье, напоминая, что никто из спорящих всё равно не сможет себе позволить обсуждаемые машины.

Подобную аналогию можно провести с дорогими видеокартами. Мы имеем среднюю частоту кадров, колебание времени подачи кадра, шумовыделение системы охлаждения и цену, которая в некоторых случаях может вдвое превышать стоимость современных игровых консолей. А для большей убедительности в конструкции некоторых современных видеокарт используются алюминиевые и магниевые сплавы – практически как в гоночных автомобилях. Увы, имеются и отличия. Несмотря на все попытки впечатлить девушку новым графическим процессором, будьте уверены, что спорткары ей нравятся больше.

Каков же эквивалент скорости прохождения круга для видеокарты? Какой фактор отличает победителей и проигравших при равной стоимости? Это явно не средняя частота кадров, и доказательством тому служит наличие колебаний времени кадра, разрывы, притормаживания и гудящие как реактивный двигатель вентиляторы. Кроме того, есть и другие технические характеристики: скорость прорисовки текстур, производительность вычислений, пропускная способность памяти. Какое значение имеют эти показатели? Придётся ли играть в наушниках из-за невыносимого шума вентиляторов? Как учесть разгонный потенциал при оценке графического адаптера?

Прежде чем углубиться в мифы о современных видеокартах, сначала необходимо разобраться, что же такое производительность.

Производительность – это комплекс показателей, а не один параметр

Дискуссии о производительности GPU часто сводятся к обобщённому понятию частоты кадров, или показателю FPS. На практике в понятие производительности видеокарты входит гораздо больше параметров, чем только частота, с которой визуализируются кадры. Их проще рассматривать в рамках комплекса, а не одного значения. Комплекс имеет четыре основных аспекта: скорость (частота кадров, задержка кадра и задержка ввода), качество картинки (разрешение и качество изображения), тишина (акустическая эффективность, учитывающая энергопотребление и конструкцию кулера) и, конечно, доступность в отношении стоимости.

Есть и другие факторы, влияющие на ценность видеокарты: например, игры, идущие в комплекте, или эксклюзивные технологии, используемые определённым производителем. Мы их рассмотрим кратко. Хотя на самом деле значение поддержки CUDA, Mantle и ShadowPlay в значительной степени зависит от потребностей конкретного пользователя.

Показанный выше график иллюстрирует позицию GeForce GTX 690 относительно ряда факторов, которые мы описали. В штатной конфигурации графический ускоритель в тестовой системе (её описание приводится в отдельном разделе) достигает показателя 71,5 FPS в тесте Unigine Valley 1.0 в режиме ExtremeHD. При этом карта генерирует ощутимый, но не беспокоящий шум на уровне 42,5 дБ (A). Если вы готовы мириться с шумом на уровне 45,5 дБ(A), то смело можете разгонять чип до достижения стабильной частоты 81,5 FPS в этом же режиме. Понижение разрешения или уровня сглаживания (который влияет на качество) приводит к существенному приросту частоты кадров, при неизменных оставшихся факторах (включая и без того высокую цену в $1000).

В целях обеспечения более контролируемого процесса тестирования необходимо определить эталон производительности видеокарты.


MSI Afterburner и EVGA PrecisionX являются бесплатными утилитами, позволяющими использовать ручную настройку скорости вращения вентилятора и, как следствие, регулировку уровня шумовыделения.

Для сегодняшней статьи мы определили производительность как количество кадров в секунду, которое видеокарта может выводить на выбранном разрешении в пределах конкретного приложения (и при выполнении следующих условий):

  • Настройки качества выставлены на максимальные значения (как правило, Ultra или Extreme).
  • Разрешение выставлено на постоянный уровень (обычно 1920x1080, 2560x1440, 3840x2160 или 5760x1080 пикселей в конфигурации из трёх мониторов).
  • Драйверы настроены на штатные параметры производителя (как в общем, так и для конкретного приложения).
  • Видеокарта работает в закрытом корпусе при уровне шума 40 дБ(A), который измеряется на расстоянии 90 см от корпуса (в идеале, тестируется в рамках эталонной платформы, которая обновляется ежегодно).
  • Видеокарта работает при окружающей температуре 20 °C и давлении в одну атмосферу (это важно, поскольку это напрямую влияет на срабатывание теплового троттлинга).
  • Ядро и память работают при температурах вплоть до теплового троттлинга так, чтобы частота ядра/температура под нагрузкой оставались стабильными или изменялись в очень узком диапазоне, при сохранении постоянного уровня шума 40 дБ(A) (и, соответственно, скорости вращения вентилятора)..
  • Колебания времени кадра 95-го перцентиля не превышают 8 мс, что равняется половине времени кадра, на стандартном дисплее с частотой обновления 60 Гц.
  • Карта работает при 100%-ой загрузке GPU или примерно на этом уровне (это важно для демонстрации отсутствия "узких мест" в платформе; если таковые имеются, загрузка GPU будет ниже 100%, и результаты теста потеряют смысл).
  • Показатели среднего значения FPS и колебания времени подачи кадров получены не менее чем в результате трёх прогонов для каждого замера, при этом каждый прогон длится не менее одной минуты, а отдельные образцы не должны иметь отклонения более 5% от среднего значения (в идеале, мы хотим опробовать различные карты одновременно, особенно если есть подозрения в наличии существенных расхождений у продуктов от одного производителя).
  • Частота кадров одной карты измеряется с помощью Fraps или встроенных счётчиков. FCAT используется для нескольких карт в связке SLI/CrossFire.

Как вы уже поняли, эталонный уровень производительности зависит как от приложения, так и от разрешения. Но он определён таким образом, который позволяет независимо провести повтор и проверку тестов. В этом смысле данный подход действительно научный. На самом деле мы заинтересованы в том, чтобы производители и энтузиасты повторили тесты и сообщили нам о любых расхождениях. Только так можно обеспечить целостность нашей работы.

Данное определение производительности не учитывает разгон или диапазон вариантов поведения конкретного GPU в различных видеокартах. К счастью, мы заметили данную проблему лишь в нескольких случаях. Современные механизмы теплового троттлинга спроектированы для извлечения максимальной частоты кадров в большинстве возможных сценариев, поэтому видеокарты работают очень близко к своим максимальным возможностям. Причём предел часто достигается ещё до того, как разгон обеспечивает реальное преимущество в скорости.

В данном материале мы будет широко использовать бенчмарк Unigine Valley 1.0. Он использует несколько особенностей DirectX 11 и позволяет проводить легко воспроизводимые тесты. Кроме того, он не опирается на физику (и, как следствие, CPU) так, как это делает 3DMark (по крайней мере, в общих и комбинированных тестах).

Чтоб мы собираемся делать?

С определением производительности видеокарт мы уже разобрались. Далее мы рассмотрим методологию, вертикальную синхронизацию, шум и производительность, скорректированную по уровню шума видеокарты, а также количество видеопамяти, которое действительно необходимо для работы. Во второй части мы рассмотрим техники сглаживания, влияние дисплея, различные конфигурации линий PCI Express и ценность ваших вложений в приобретение видеокарты.

Пришло время ознакомиться с тестовой конфигурацией. В контексте данной статьи на этот раздел следует обратить особое внимание, поскольку он содержит важную информацию о самих тестах.

Развенчиваем мифы о производительности видеокарт | Как мы тестируем

Две системы, две цели

Все тесты мы проводили на двух разных стендах. Один стенд оснащается старым процессором Intel Core i7-950 , а другой - современным чипом Intel Core i7-4770K .

Тестовая система 1
Корпус Corsair Obsidian Series 800D
Процессор Intel Core i7-950 (Bloomfield), разгон до 3,6 ГГц, Hyper-Threading и энергосбережение выкл. Башня
Кулер CPU CoolIT Systems ACO-R120 ALC, Tuniq TX-4 TIM, вентилятор Scythe GentleTyphoon 1850 RPM
Системная плата Asus Rampage III Formula Intel LGA 1366, Intel X58 Chipset, BIOS: 903
Сеть Cisco-Linksys WMP600N (Ralink RT286)
Оперативная память Corsair CMX6GX3M3A1600C9, 3 x 2 Гбайт, 1600 MT/с, CL 9
Накопитель Samsung 840 Pro SSD 256 Гбайт SATA 6Гбит/с
Видеокарты

Звуковая карта Asus Xonar Essence STX
Блок питания Corsair AX850, 850 W
Системное ПО и драйверы
Операционная система Windows 7 Enterprise x64, Aero выкл. (см. примечание ниже)
Windows 8.1 Pro x64 (только для эталона)
DirectX DirectX 11
Видеодрайверы AMD Catalyst 13.11 Beta 9.5
Nvidia GeForce 331.82 WHQL

Тестовая система 2
Корпус Cooler Master HAF XB, гибридны форма для настольного ПК/тестового стенда
Процессор Intel Core i7-4770k (Haswell), разгон до 4,6 ГГц, Hyper-Threading и энергосбережение выкл.
Кулер CPU Xigmatek Aegir SD128264, Xigmatek TIM, вентилятор Xigmatek 120 мм
Системная плата ASRock Extreme6/ac Intel LGA 1150, Intel Z87 Chipset, BIOS: 2.20
Сеть mini-PCIe карта Wi-Fi 802.11ac
Оперативная память G.Skill F3-2133C9D-8GAB, 2 x 4 GB, 2133 MT/c, CL 9
Накопитель Samsung 840 Pro SSD 128 Гбайт SATA 6Гбит/с
Видеокарты AMD Radeon R9 290X 4 Гбайт (образец для прессы)
Nvidia GeForce GTX 690 4 Гбайт (розничный образец)
Nvidia GeForce GTX Titan 6 Гбайт (образец для прессы)
Звуковая карта Встроенная Realtek ALC1150
Блок питания Cooler Master V1000, 1000 W
Системное ПО и драйверы
Операционная система Windows 8.1 Pro x64
DirectX DirectX 11
Видеодрайверы AMD Catalyst 13.11 Beta 9.5
Nvidia GeForce 332.21 WHQL

Первая тестовая система нужна нам для получения повторяемых результатов в реальных окружениях. Поэтому мы собрали относительно старую, но всё же мощную систему на базе платформы LGA 1366 в большом корпусе формата "полноразмерная башня".

Вторая тестовая система должна отвечать более специфическим требованиям:

  • Поддержка PCIe 3.0 с ограниченным числом линий (CPU Haswell для LGA 1150 предлагает только 16 линий)
  • Отсутствие моста PLX
  • Поддержка трёх карт в CrossFire в конфигурации x8/x4/x4 или двух в SLI в x8/x8

ASRock прислала нам материнскую плату Z87 Extreme6/ac, которая подходит под наши требования. Ранее мы уже тестировали данную модель (только без модуля Wi-Fi) в статье "Тест пяти материнских плат на чипсете Z87 стоимостью менее $220" , в которой она получила нашу награду Smart Buy. Образец, который пришёл к нам в лабораторию, оказался прост в настройке, и мы без проблем разогнали наш Intel Core i7-4770K до 4,6 ГГц.

UEFI платы позволяет настроить скорость передачи данных PCI Express для каждого слота, благодаря чему можно протестировать первое, второе и третье поколение PCIe на одной материнской плате. Результаты этих тестов будут опубликованы во второй части данного материала.

Компания Cooler Master предоставила корпус и блок питания для второй тестовой системы. Необычный корпус HAF XB, который также получил награду Smart Buy в статье "Обзор и тестирование корпуса Cooler Master HAF XB" , обеспечивает необходимое пространство для свободного доступа к комплектующим. Корпус имеет множество вентиляционных отверстий, поэтому компоненты внутри могут быть довольно шумными, если система охлаждения подобрана неправильно. Однако эта модель может похвастаться хорошей циркуляцией воздуха, особенно если установить все опциональные вентиляторы.

Модульный блок питания V1000 позволяет установить в корпус три высокопроизводительные видеокарты и при этом сохранить аккуратный вид кабельной проводки.

Сравниваем тестовую систему № 1 с системой № 2

Поразительно насколько близки эти системы по производительности, если не обращать внимания на архитектуру, а сконцентрироваться на частоте кадров. Вот их сравнение в 3DMark Firestrike .

Как видите, производительность обеих систем в графических тестах, по сути, равна, даже несмотря на то, что вторая система оснащена более быстрой памятью (DDR3-2133 против DDR3-1800, причём у Nehalem трёхканальная архитектура, а у Haswell - двухканальная). Только в тестах хост-процессора Intel Core i7-4770K демонстрирует своё преимущество.

Основное преимущество второй системы заключается в большем запасе для разгона. Intel Core i7-4770K на воздушном охлаждении смог удержать стабильную частоту 4,6 ГГц, а Intel Core i7-950 не смог превысить 4 ГГц с водяным охлаждением.

Также стоит обратить внимание на то, что первая тестовая система тестируется под операционной системой Windows 7x64 вместо Windows 8.1 . На это есть три причины:

  • Во-первых, менеджер виртуального рабочего стола Windows (Windows Aero или wdm.exe) использует значительный объём видеопамяти. При разрешении 2160p Windows 7 берёт на себя 200 Мбайт, Windows 8.1 – 300 Мбайт, дополнительно к 123 Мбайт зарезервированных Windows. В Windows 8.1 отключить эту опцию без значительных побочных эффектов невозможно, однако в Windows 7 проблема решается переходом к базовой теме. 400 Мбайт – это 20% от общего объёма видеопамяти карты, составляющего 2 Гбайт.
  • При активации базовых (упрощённых) тем потребление памяти в Windows 7 стабилизируется. Она всегда забирает себе 99 Мбайт при разрешении 1080p и 123 Мбайт при 2160p с видеокартой GeForce GTX 690 . Это позволяет обеспечить максимальную повторяемость тестов. Для сравнения: Aero забирает около 200 Мбайт и +/- 40 Мбайт.
  • С драйвером Nvidia 331.82 WHQL существует баг при активации Windows Aero в разрешении 2160p. Он появляется только тогда, когда Aero включается на дисплее, в котором изображение 4K реализуется двумя плитками и проявляется в пониженной нагрузке на GPU при тестировании (она скачет в диапазоне 60-80% вместо 100%), что сказывается на потери производительности до 15%. Мы уже уведомили Nvidia о нашей находке.

На обычных скриншотах и игровом видео невозможно показать эффекты гоустинга и разрывов. Поэтому мы использовали высокоскоростную видеокамеру для захвата реального изображения на экране.

Температура в корпусе измеряется встроенным температурным датчиком Samsung 840 Pro. Температура окружающей среды составляет 20-22 °C. Фоновый уровень шума для всех акустических тестов составил 33,7 дБ(A) +/- 0,5 дБ(A).

Конфигурация тестов
Игры
The Elder Scrolls V: Skyrim Версия 1.9.32.0.8, собственный тест THG, 25 секунд, HWiNFO64
Hitman: Absolution Версия 1.0.447.0, встроенный бенчмарк, HWiNFO64
Total War: Rome 2 Патч 7, встроенный бенчмарк "Forest", HWiNFO64
BioShock Infinite Патч 11, Версия 1.0.1593882, встроенный бенчмарк, HWiNFO64
Синтетические тесты
Ungine Valley Версия 1.0, ExtremeHD Preset, HWiNFO64
3DMark Fire Strike Версия 1.1

Для измерения потребления видеопамяти можно использовать множество инструментов. Мы остановили свой выбор на HWiNFO64, который получил высокие оценки у сообщества энтузиастов. Такой же результат можно получить с помощью MSI Afterburner, EVGA Precision X или RivaTuner Statistics Server.

Развенчиваем мифы о производительности видеокарт | Включать или не включать V-Sync – вот в чём вопрос

При оценке видеокарт первым параметром, который хочется сравнить, является быстродействие. Насколько самые современные и самые быстрые решения обгоняют предыдущие продукты? Всемирная сеть пестрит данными тестирований, проведёнными тысячами онлайн-ресурсов, которые пытаются ответить на этот вопрос.

Итак, давайте начнём с изучения быстродействия и факторов, которые стоит учесть, если вы действительно желаете узнать, насколько быстра конкретная видеокарта.

Миф: частота кадров – это индикатор уровня графической производительности

Начнём с фактора, который нашим читателям, скорее всего, уже известен, но многие по-прежнему имеют неправильное представление о нём. Здравый смысл подсказывает, что пригодной для игры считается частота кадров 30 FPS и выше. Некоторые люди считают, что и меньшие значения сойдут для нормального геймплея, другие настаивают, что даже 30 FPS – это слишком мало.

Однако в спорах не всегда очевидно, что FPS – это просто частота, за которой кроются некоторые сложные материи. Во-первых, в фильмах частота постоянная, а в играх она изменяется, и, как следствие, выражается средним значением. Колебания частоты являются побочным продуктом мощи видеокарты, требуемой для обработки сцены, и с изменением контента на экране изменяется частота кадров.

Всё просто: качество игрового опыта важнее, чем высокий показатель средней частоты кадров. Стабильность подачи кадров – ещё один крайне важный фактор. Представьте себе поездку по шоссе с постоянной скоростью 100 км/ч и ту же поездку со средней скоростью 100 км/ч, при которой много времени уходит на переключение передач и торможение. В назначенное место вы приедете в одно время, но вот впечатления от поездки будут сильно различаться.

Так что давайте на время отложим вопрос "Какой уровень производительности будет достаточным?" в сторону. Мы вернёмся к нему после того, как обсудим другие важные темы.

Представляем вертикальную синхронизацию (V-sync)

Мифы: Необязательно иметь частоту кадров выше 30 FPS, поскольку человеческий глаз не видит разницу. Значения выше 60 FPS на мониторе с частотой обновления 60 Гц необязательны, поскольку картинка уже отображается 60 раз в секунду. V-sync всегда нужно включать. V-sync всегда нужно выключать.

Как на самом деле отображаются визуализированные кадры? Почти все ЖК-мониторы работают таким образом, что изображение на экране обновляется фиксированное количество раз в секунду, как правило, 60. Хотя есть модели способные обновлять картинку на частоте 120 и 144 Гц. Данный механизм называется частота обновления и измеряется в герцах.

Расхождение между меняющейся частотой кадров видеокарты и фиксированной частотой обновления монитора может стать проблемой. Когда частота кадров выше частоты обновления, за одно сканирование могут отображаться несколько кадров, что приводит к артефакту под названием "разрыв экрана". На изображении выше цветные полосы подчёркивают отдельные кадры из видеокарты, которые по готовности вывелись на экран. Это может сильно раздражать, особенно в активных шутерах от первого лица.

На изображении ниже показан ещё один артефакт, часто появляющийся на экране, но трудно фиксируемый. Поскольку данный артефакт связан с работой дисплея, на скриншотах его не видно, а вот невооружённым глазом он хорошо заметен. Чтобы его поймать, нужна высокоскоростная видеокамера. Утилита FCAT, которую мы использовали для захвата кадра в Battlefield 4 , показывает разрыв, но не эффект гоустинга.

Разрыв экрана очевиден на обоих изображениях из BioShock Infinite. Однако на панели Sharp с частотой обновления 60 Гц он проявляется гораздо явнее, чем на мониторе Asus с частотой обновления 120 Гц, поскольку частота обновления экрана VG236HE вдвое выше. Данный артефакт является самым явным свидетельством того, что в игре не включена вертикальная синхронизация, или V-sync.

Второй проблемой на изображении BioShock является эффект гоустинга, который хорошо заметен в нижней части левого изображения. Этот артефакт связан с задержкой вывода изображения на экран. Если коротко: отдельные пиксели недостаточно быстро меняют цвет, и так появляется данный тип послесвечения. Этот эффект в игре проявляется гораздо ярче, чем показано на изображении. Время отклика от серого к серому у панели Sharp слева составляет 8 мс, и при быстрых движениях изображение кажется размытым.

Вернёмся к разрывам. Вышеупомянутая вертикальная синхронизация – это довольно старое решение проблемы. Оно заключается в синхронизации частоты, на которой видеокарта подаёт кадры, с частотой обновления монитора. Поскольку несколько кадров одновременно больше не появляется, разрывов тоже не наблюдается. Но если на максимальных графических настройках вашей любимой игры частота кадров упадёт ниже 60 FPS (или ниже значения частоты обновления вашей панели), то эффективная частота кадров будет скакать между кратными значениями частоты обновления, как показано ниже. Это ещё один артефакт под названием притормаживание.

Один из старейших споров в интернете касается вертикальной синхронизации. Кто-то настаивает, что технологию всегда нужно включать, кто-то уверен, что её всегда нужно выключать, а кто-то выбирает настройки в зависимости от конкретной игры.

Так включать или не включать V-sync?

Предположим, вы принадлежите к большинству и используете обычный дисплей с частотой обновления 60 Гц:

  • Если вы играете в шутеры от первого лица и/или у вас наблюдаются проблемы с воспринимаемой задержкой ввода, и/или ваша система не может постоянно поддерживать минимум 60 FPS в игре, и/или вы тестируете видеокарту, то вертикальную синхронизацию нужно выключать.
  • Если ни один из вышеперечисленных факторов вас не касается, и вы наблюдаете заметные разрывы экрана, то вертикальную синхронизацию нужно включить.
  • Если вы не уверены, лучше оставить V-sync выключенной.
Если вы используете игровой дисплей с частотой обновления 120/144 Гц (если у вас есть один из таких дисплеев, вполне вероятно, что вы купили его как раз из-за высокой частоты обновления):
  • Включать вертикальную синхронизацию следует только в старых играх, в которых геймплей проходит на частоте кадров выше 120 FPS, и вы постоянно сталкиваетесь с разрывами экрана.

Обратите внимание, что в некоторых случаях эффект снижения частоты кадров из-за V-sync не проявляется. Такие приложения поддерживают тройную буферизацию, хотя данное решение не очень распространено. Также в некоторых играх (например, The Elder Scrolls V: Skyrim), V-sync активирована по умолчанию. Принудительное отключение посредством модификации некоторых файлов приводит к проблемам с игровым движком. В таких случаях лучше оставить вертикальную синхронизацию включённой.

G-Sync, FreeSync и будущее

К счастью, даже на самых слабых компьютерах задержка ввода не будет превышать 200 мс. Поэтому наибольшее влияние на результаты игры имеет ваша собственная реакция.

Однако с ростом различий в задержке ввода их влияние на геймплей растёт. Представьте себе профессионального геймера, чью реакцию можно сравнить с реакцией лучших пилотов, то есть 150 мс. Задержка ввода на 50 мс означает, что человек будет реагировать на 30% медленнее (это четыре кадра на дисплее с частой обновления 60 Гц) своего оппонента. На профессиональном уровне это весьма заметная разница.

Для простых смертных (включая наших редакторов, показавших результат 200 мс в визуальном тесте) и для тех, кому больше нравится играть в Civilization V, а не в Counter Strike 1.6, всё немного иначе. Вполне вероятно, вы вообще можете игнорировать задержку ввода.

Вот некоторые факторы, которые могут ухудшить показатель задержки ввода при прочих равных условиях:

  • Игра на HDTV (особенно если отключён режим игры) или игра на ЖК-дисплее со средствами обработки видео, которые нельзя отключить. Упорядоченный список показателей задержек ввода различных дисплеев можно найти в базе данных DisplayLag .
  • Игра на ЖК-дисплеях, использующих панели IPS с более высоким временем отклика (обычно 5-7 мс G2G), вместо панелей TN+Film (1-2 мс GTG) или ЭЛТ-дисплеев (самые быстрые из доступных).
  • Игра на дисплеях с низкой частотой обновления. Новые игровые дисплеи поддерживают 120 или 144 Гц.
  • Игра при низкой частоте кадров (30 FPS – это один кадр каждые 33 мс; 144 FPS – один кадр каждые 7 мс).
  • Использование USB-мышки с низкой частотой опроса. Время цикла на частоте 125 Гц составляет около 6 мс, что в среднем даёт задержку ввода около 3 мс. В то же время, частота опроса игровой мыши может доходить до 1000 Гц, при этом задержка ввода в среднем составит 0,5 мс.
  • Использование клавиатуры низкого качества (как правило, задержка ввода клавиатуры составляет 16 мс, но в дешёвых моделях может быть и выше).
  • Активация V-sync, особенно в сочетании с тройной буферизацией (существует миф, что Direct3D не включает тройную буферизацию. На самом деле, Direct3D учитывает опцию нескольких фоновых буферов, но немногие игры её используют). Если вы технически подкованы, можете ознакомиться с рецензией Microsoft (англ.) по этому поводу.
  • Игра с высоким временем предварительной визуализации. По умолчанию очередь в Direct3D составляет три кадра или 48 мс при частоте 60 Гц. Это значение может увеличиваться до 20 кадров для большей "плавности" и понижаться до одного кадра для повышения отзывчивости за счёт повышения колебаний времени кадра и, в некоторых случаях, общей потери в показателях FPS. Нулевого параметра не существует. Ноль просто сбрасывает настройки на исходное значение, равное трём кадрам. Если вы технически подкованы, можете ознакомиться с рецензией Microsoft (англ.) по этому поводу.
  • Высокая задержка интернет-соединения. Хотя это не совсем относится к определению задержки ввода, оно всё же заметно на неё влияет.

Факторы, которые не влияют на задержку ввода:

  • Использование клавиатуры с разъёмом PS/2 или USB (смотрите дополнительную страницу в нашем обзоре "Five Mechanical-Switch Keyboards: Only The Best For Your Hands" (англ.)).
  • Использование проводного или беспроводного сетевого соединения (проверьте пинг вашего маршрутизатора, если не верите; пинг не должен превышать 1 мс).
  • Использование SLI или CrossFire. Более длинные очереди визуализации, необходимые для реализации этих технологий, компенсируются более высокой пропускной способностью.

Вывод: задержка ввода важна только для "быстрых" игр и действительно играет значимую роль на профессиональном уровне.

На задержку ввода влияют не только технология дисплея и видеокарта. Железо, настройки железа, дисплей, настройки дисплея и настройки приложения – всё это вносит свою лепту в данный показатель.

Развенчиваем мифы о производительности видеокарт | Мифы о видеопамяти

Видеопамять отвечает за разрешение и настройки качества, но не увеличивает скорость

Производители часто используют видеопамять в качестве маркетингового инструмента. Поскольку геймеров убедили, что больше – значит лучше, мы часто видим видеокарты начального уровня, объём оперативной памяти у которых значительно больше, чем нужно на самом деле. Но энтузиасты знают, что самое важное – это баланс, причём во всех комплектующих ПК.

В широком смысле видеопамять относится к дискретному GPU и задачам, которые он обрабатывает, независимо от системной памяти, установленной в материнскую плату. На видеокартах используются несколько технологий оперативной памяти, самые популярные из которых – это DDR3 и GDDR5 SDRAM.

Миф: видеокарты с 2 Гбайт памяти быстрее моделей с 1 Гбайт

Не удивительно, что производители оснащают недорогие графические ускорители большим объёмом памяти (и получают более высокую прибыль), поскольку многие люди верят, что больший объём памяти прибавит скорости. Давайте разберёмся в этом вопросе. Объём видеопамяти видеокарты не влияет на её быстродействие, если вы не выбираете игровые настройки, которые используют весь доступный объём памяти.

Но для чего тогда нужна дополнительная видеопамять? Чтобы ответить на этот вопрос, необходимо выяснить для чего она используется. Список упрощённый, но полезный:

  • Прорисовка текстур.
  • Поддержка буфера кадров.
  • Поддержка буфера глубины ("Z Buffer").
  • Поддержка других ресурсов, которые требуются для визуализации кадра (карты теней и др.).

Конечно, размер текстур, которые загружаются в память, зависит от игры и настроек детализации. Например, пакет текстур высокого разрешения в Skyrim включает 3 Гбайт текстур. Большинство игр динамически загружают и выгружают текстуры при необходимости, однако не все текстуры должны находиться в видеопамяти. А вот текстуры, которые должны визуализироваться в конкретной сцене, должны быть в памяти.

Фрейм-буфер используется для хранения изображения в том виде, в котором оно визуализируется перед тем или во время того, как отправляется на экран. Таким образом, необходимый объём видеопамяти зависит от выходного разрешения (изображение в разрешении 1920x1080 пикселей по 32 бита на пиксель "весит" около 8,3 Мбайт, а 4K-изображение в разрешении 3840x2160 пикселей по 32 бита на пиксель – уже около 33,2 Мбайт) и количества буферов (минимум два, реже три и больше).

Особые режимы сглаживания (FSAA, MSAA, CSAA, CFAA, но не FXAA или MLAA) эффективно повышают количество пикселей, которые должны быть визуализированы, и пропорционально увеличивают общий объём требуемой видеопамяти. Сглаживание на базе рендеринга оказывает особенно больше влияние на потребление памяти, которое возрастает с ростом размера выборки (2x, 4x, 8x и т.д.). Дополнительные буферы также занимают видеопамять.

Таким образом, видеокарта с большим объёмом графической памяти позволяет:

  1. Играть на более высоких разрешениях.
  2. Играть на более высоких параметрах качества текстур.
  3. Играть при более высоких уровнях сглаживания.

Теперь разрушаем миф.

Миф: вам нужно 1, 2, 3, 4 или 6 Гбайт видеопамяти для игр на (вставьте родное разрешение вашего дисплея).

Самый важный фактор, который нужно учесть при выборе объёма оперативной памяти, - это разрешение, на котором вы будете играть. Естественно, более высокое разрешение требует больше памяти. Вторым важным фактором является использование упомянутых выше технологий сглаживания. Другие графические параметры имеют меньшее значение в отношении объёма требуемой памяти.

Прежде чем мы перейдём к самим измерениям, позвольте вас предупредить. Есть особый тип видеокарт класса high-end с двумя GPU (AMD Radeon HD 6990 и Radeon HD 7990 , а также Nvidia GeForce GTX 590 и GeForce GTX 690 ), которые оснащаются определённым количеством памяти. Но в результате использования конфигурации из двух GPU данные, по сути, дублируются, разделяя эффективный объём памяти надвое. Например, GeForce GTX 690 с 4 Гбайт ведёт себя, как две карты по 2 Гбайт в SLI. Более того, когда вы добавляет вторую карту в конфигурацию CrossFire или SLI, видеопамять массива не удваивается. Каждая карта оставляет за собой только свой объём памяти.

Эти тесты мы проводили на Windows 7 x64 с отключённой темой Aero. Если вы используете Aero (или Windows 8/8.1, у которой Aero нет), то к показателям можно добавить около 300 Мбайт.

Как видно из последнего опроса на Steam , большинство геймеров (около половины) использует видеокарты с 1 Гбайт видеопамяти, около 20% имеют модели с 2 Гбайт, и небольшое количество пользователей (менее 2%) работают с графическими адаптерами, имеющими 3 Гбайт видеопамяти и более.

Мы протестировали Skyrim с официальным пакетом текстур высокого качества. Как видите, 1 Гбайт памяти едва хватает, чтобы играть при разрешении 1080p без сглаживания или с использованием MLAA/FXAA. 2 Гбайт позволяют запускать игру на разрешении 1920x1080 точек с максимальной детализацией и на 2160p с пониженным уровнем сглаживания. Чтобы активировать максимальные настройки и сглаживание 8xMSAA, даже 2 Гбайт недостаточно.

Bethesda Creation Engine – уникальная составляющая данного пакета бенчмарков. Она не всегда ограничивается скоростью GPU, но зачастую упирается в возможности платформы. Но в этих тестах мы впервые увидели, как Skyrim на максимальных настройках достигает предела возможностей видеопамяти графического адаптера.

Также стоит отметить, что активация FXAA не потребляет дополнительную память. Поэтому есть неплохой компромисс, когда использование MSAA не возможно.

Развенчиваем мифы о производительности видеокарт | Дополнительные измерения видеопамяти

Графический движок Glacier 2 от Io Interactive, на который опирается игра Hitman: Absolution, очень прожорлив на память и в наших тестах уступает только движку Warscape от Creative Assembly (Total War: Rome II) при максимальных настройках детализации.

В Hitman: Absolution видеокарты с 1 Гбайт видеопамяти недостаточно для игры на настройках ультракачества в разрешении 1080p. Модель с 2 Гбайт позволит включить 4xAA в разрешении 1080p или играть без MSAA в 2160p.

Чтобы включить 8xMSAA в разрешении 1080p, требуется 3 Гбайт видеопамяти, а 8xMSAA в разрешении 2160p точек сможет вытянуть видеокарта не слабее GeForce GTX Titan с 6 Гбайт памяти.

Здесь активация FXAA тоже не использует дополнительную память.

Примечание: новый тест Ungine Valley 1.0 не поддерживает MLAA/FXAA автоматически. Таким образом, результаты потребления памяти с MLAA/FXAA получены принудительно с помощью CCC/NVCP.

Данные показывают, что тест Valley хорошо проходит на карте с 2 Гбайт памяти в разрешении 1080p (по крайней мере, в отношении видеопамяти). Можно даже использовать карту с 1 Гбайт с активным 4xMSAA, хотя не во всех играх это будет возможно. Тем не менее, в разрешении 2160p бенчмарк показывает высокие результаты на карте с 2 Гбайт, если не включать сглаживание или эффекты постобработки. Порог в 2 Гбайт достигается при активации 4xMSAA.

Ultra HD с 8xMSAA требует до 3 Гбайт видеопамяти. Это значит, что на таких настройках бенчмарк будет пройден только на GeForce GTX Titan или на одной из моделей AMD с памятью 4 Гбайт и чипом Hawaii.

Total War: Rome II использует обновлённый движок Warscape от Creative Assembly. На данный момент он не поддерживает SLI (но CrossFire работает). Также он не поддерживает любые формы MSAA. Из всех форм сглаживания может использоваться только MLAA от AMD, которая является одной из техник постобработки наподобие SMAA и FXAA.

Интересной особенностью данного движка является возможность понижать качество изображения исходя из доступной видеопамяти. Игра может поддерживать приемлемый уровень скорости с минимальным вовлечением пользователя. Но отсутствие поддержки SLI убивает игру на видеокарте Nvidia в разрешении 3840x2160 пикселей. По крайней мере, на данный момент в эту игру лучше играть на карте AMD, если вы выбираете 4K-разрешение.

Без MLAA встроенный в игру бенчмарк "forest" на установке Extreme использует 1848 Мбайт доступной видеопамяти. Предел GeForce GTX 690 в 2 Гбайт превышается при активации MLAA в разрешении 2160p точек. На разрешении 1920x1080 пикселей использование памяти находится в диапазоне 1400 Мбайт.

Обратите внимание, что технология AMD (MLAA) работает на железе Nvidia. Поскольку FXAA и MLAA являются техниками постобработки, технически нет причин, почему они не могут функционировать на аппаратном обеспечении другого производителя. Либо Creative Assembly тайно переключается на FXAA (несмотря на то, что говорит файл конфигурации), либо маркетологи AMD не приняли этот факт во внимание.

Чтобы играть в Total War: Rome II в разрешении 1080p на графических параметрах Extreme, вам понадобится видеокарта на 2 Гбайт, а для плавной игры на 2160p потребуется массив CrossFire на более чем 3 Гбайт. Если в вашей карте есть только 1 Гбайт видеопамяти, то вы всё же сможете поиграть в новый Total War, но только на разрешении 1080p и пониженных настройках качества.

Что происходит, когда видеопамять полностью задействована? Если коротко, то данные переносятся на системную память через шину PCI Express. На практике, это означает, что производительность значительно снижается, особенно когда текстуры были загружены. Вряд ли вам захочется с этим сталкиваться, поскольку в игру из-за постоянных притормаживаний играть будет практически невозможно.

Так сколько же видеопамяти нужно?

Если у вас видеокарта с 1 Гбайт видеопамяти и монитор с разрешением 1080p, то об апгрейде на данный момент можно и не задумываться. Тем не менее, карта на 2 Гбайт позволит устанавливать более высокие настройки сглаживания в большинстве игр, так что считайте это минимальной отправной точкой, если хотите наслаждаться современными играми в разрешении 1920x1080 точек.

Если вы планируете использовать разрешения 1440p, 1600p, 2160p или конфигурации из нескольких мониторов, то лучше рассматривать модели с объёмом памяти выше 2 Гбайт, особенно если хотите включать MSAA. Лучше рассматривать к покупке модели на 3 Гбайт (или несколько карт с более 3 Гбайт памяти в SLI/CrossFire).

Конечно, как мы уже говорили, важно соблюдать баланс. Слабый GPU, подкреплённый 4 Гбайт памяти GDDR5 (вместо 2 Гбайт) вряд ли позволит играть на высоких разрешениях только благодаря наличию большого объёма памяти. Именно поэтому в обзорах видеокарт мы тестируем несколько игр, несколько разрешений и несколько настроек детализации. Ведь прежде чем делать какие-либо рекомендации, необходимо выявить все возможные недочёты.

Развенчиваем мифы о производительности видеокарт | Терморегулирование в современных видеокартах

Современные видеокарты AMD и Nvidia используют защитные механизмы для увеличения скорости вращения вентилятора и, в конечном итоге, понижения тактовых частот и напряжения, если чип перегревается. Данная технология не всегда работает во благо стабильности вашей системы (особенно при разгоне). Она предназначена для защиты оборудования от повреждений. Поэтому нередко карты со слишком высокими регулировками параметров дают сбой и требуют сброса.

Немало споров ходит о максимальной температуре для GPU. Однако более высокие температуры, если они переносятся оборудованием, более предпочтительны, поскольку свидетельствуют о повышенном рассеивании тепла в целом (благодаря разнице с окружающей температурой, количество тепла, которое можно передать, выше). По крайней мере, с технической точки зрения, разочарование AMD касательно реакции на тепловой потолок GPU Hawaii понятно. Пока не существует долгосрочных исследований, чтобы можно было говорить о жизнеспособности данных температурных установок. Исходя из личного опыта относительно стабильности устройств, мы предпочли бы полагаться на характеристики производителя.

С другой стороны, хорошо известно, что кремниевые транзисторы лучше работают при меньших температурах. Это основная причина, по которой оверклокеры используют кулеры с жидким азотом для максимального охлаждения чипов. Как правило, более низкие температуры помогают обеспечить больший запас для разгона.

Самыми прожорливыми видеокартами в мире являются Radeon HD 7990 (TDP 375 Вт) и GeForce GTX 690 (TDP 300 Вт). Обе модели оснащаются двумя графическими процессорами. Карты с одним GPU потребляют гораздо меньше энергии, хотя видеокарты серии Radeon R9 290 приближаются к уровню 300 Вт. В любом случае, это высокий уровень тепловыделения.

Значения указаны в описании систем охлаждения, поэтому сегодня мы не будем в них углубляться. Нас больше интересует, что происходит, когда на современные GPU подаётся нагрузка.

  1. Вы запускаете интенсивную задачу, такую как 3D-игра или биткоин-майнинг.
  2. Тактовая частота видеокарты повышается до номинальных или boost-значений. Карта начинает нагреваться из-за повышенного потребления тока.
  3. Скорость вращения вентиляторов постепенно возрастает до точки, обозначенной в прошивке. Как правило, рост останавливается, когда уровень шума достигает 50 дБ(A).
  4. Если запрограммированной скорости вентилятора недостаточно для удержания температуры GPU ниже определённого уровня, тактовая частота начинает понижаться, пока температура не упадёт до указанного порога.
  5. Карта должна стабильно работать в относительно узком диапазоне частот и температур, пока подача нагрузки не прекратится.

Нетрудно представить, что момент, по достижении которого активируется тепловой троттлинг, зависит от множества факторов, включая тип нагрузки, воздухообмен в корпусе, окружающую температуру воздуха и даже давление окружающего воздуха. Вот почему видеокарты включают троттлинг в разное время. Точка включения теплового троттлинга может использоваться для определения эталонного уровня производительности. И если мы выставляем скорость вращения вентилятора (и, соответственно, уровень шума) вручную, мы можем создать точку измерения в зависимости от шума. Какой в этом смысл? Давайте выясним...

Развенчиваем мифы о производительности видеокарт | Тестируем производительность на постоянном уровне шума 40 дБ(A)

Почему 40 дБ(A)?

Во-первых, обратите внимание на A в скобках. Она означает "с учётом коррекции "A". То есть уровни звукового давления корректируются по кривой, имитирующей чувствительность человеческого уха к уровням шума на различных частотах.

Сорок децибел считаются средним значением для фонового шума в обычном тихом помещении. В студиях звукозаписи это значение находится в районе 30 дБ, а 50 дБ соответствуют тихой улице или разговору двух человек в комнате. Ноль – это минимальный порог для человеческого слуха, хотя очень редко можно услышать звуки в диапазоне 0-5 дБ, если вам больше пяти лет. Шкала децибел логарифмическая, а не линейная. Таким образом, 50 дБ звучат вдвое громче, чем 40, которые, в свою очередь, вдвое громче 30.

Уровень шума ПК, работающего при 40 дБ(A), должен смешиваться с фоновым шумом дома или квартиры. Как правило, его не должно быть слышно.

Любопытный факт Любопытный факт: в самой тихой в мире комнате уровень фонового шума составляет -9 дБ. Если провести в ней менее часа в темноте, то из-за сенсорной депривации (ограничение сенсорной информации) могут начаться галлюцинации. Как удержать постоянный уровень шума 40 дБ(A)?

На акустический профиль видеокарты влияют несколько факторов, одним из которых является скорость вентилятора. Не все вентиляторы производят одинаковое количество шума при одинаковой скорости вращения, но каждый вентилятор сам по себе должен шуметь на одном уровне при постоянной скорости вращения.

Итак, измеряя уровень шума напрямую с помощью измерителя SPL на расстоянии 90 см, мы вручную выставили профиль вентилятора так, чтобы звуковое давление не превышало 40 дБ(A).

Видеокарта Настройка вентилятора % Скорость вращения вентилятора, об/мин дБ(A) ±0,5
Radeon R9 290X 41 2160 40
GeForce GTX 690 61 2160 GeForce GTX 690 . С другой стороны, GeForce GTX Titan использует другой акустический профиль, достигая 40 дБ(A) при более высокой скорости вращения 2780 об./мин. При этом настройка вентилятора (65%) близка к GeForce GTX 690 (61%).

Данная таблица иллюстрирует профили вентилятора наряду с разнообразием предустановок. Разогнанные карты под нагрузкой могу быть очень шумными: мы получили значение 47 дБ(A). При обработке типичной задачи тише всех оказалась карта GeForce GTX Titan (38,3 дБ(A)), а самой громкой - GeForce GTX 690 (42,5 дБ(A)).

Развенчиваем мифы о производительности видеокарт | Может ли разгон повредить производительности на уровне 40 дБ(A)?

Миф: Разгон всегда даёт прирост производительности

Если настроить конкретный профиль вентилятора и позволить картам снижать частоту до стабильного уровня, то мы получим интересные и повторяемые тесты.


Видеокарта Окр. тем-ра (°C) Настройка вен-ра, % Скорость вращения вен-ра, об/мин дБ(A) ±0,5 Час-та GPU1, МГц Час-та GPU2, МГц Час-та памяти, МГц FPS
Radeon R9 290X 30 41 2160 40 870-890 нет 1250 55,5
Radeon R9 290X разгон 28 41 2160 40 831-895 нет 1375 55,5
GeForce GTX 690 42 61 2160 40 967-1006 1032 1503 73,1
GeForce GTX 690 разгон 43 61 2160 40 575-1150 1124 1801 71,6
GeForce GTX Titan 30 65 2780 40 915-941 нет 1503 62 Radeon R9 290X Radeon R9 290X позади в более стандартных тестах.

Также любопытно более резкое повышение окружающей температуры в корпусе при использовании GeForce GTX 690 (12-14 °C). Оно связано с осевым вентилятором, который расположен по центру видеокарты. Он выдувает воздух внутрь корпуса, ограничивая тепловой запас. В большинстве обычных корпусов мы ожидаем похожую картину. Таким образом, вам предстоит самостоятельно решиться на повышение шумовыделения для повышения производительности (или наоборот) основываясь на собственных предпочтениях.

Подробно разобравшись с вертикальной синхронизацией, задержкой ввода, видеопамятью и протестировав конкретный акустический профиль, мы можем вернуться к работе над второй частью статьи, которая уже включает исследование скорости передачи данных PCIe, размеры экрана, подробное изучение эксклюзивных технологий различных производителей и анализ цен.

При любом производстве продукции одной из главных целей, которую преследует руководство компании, является получение результата. Вопрос только в том, сколько сил и ресурсов потребуется в процессе работы для достижения главной цели. Для определения эффективности работы предприятия было введено понятие «производительность труда», которое является показателем плодотворности персонала. Работа, которую может сделать один человек за единицу времени условно называют «выработкой».

Для каждого предприятия очень важно получить высокий результат и при этом как можно меньше потратить ресурсов на производство (сюда входит плата за электроэнергию, арендная плата и т.п.).

Важнейшей задачей на любом предприятии, которое занимается изготовлением товаров или предоставлением услуг, является повышение производительности. При этом существует ряд мер, которые принято соблюдать для снижения количества затрат, необходимых для рабочего процесса. Таким образом, за период развития предприятия производительность труда может меняться.

Как правило, классифицируют несколько групп факторов, которые могут оказывать влияние на изменение, а именно рост показателей производства. В первую очередь это экономико-географический фактор, который включает в себя наличие свободных ресурсов рабочей силы, воды, электроэнергии, строительных материалов, а также расстояние до коммуникаций, рельеф местности и т.п. Не менее важным является значение ускорения НТП, способствующего внедрению новых поколений современной техники и использованию прогрессивных технологий и автоматизированных систем. Также можно считать, что производительность труда зависит и от фактора структурных сдвигов, под которым подразумевают изменение доли комплектующих изделий и покупных полуфабрикатов, а также структуры производства и удельного веса отдельных видов продукции.

Огромное значение все же остается за социальным (человеческим) моментом, ведь именно забота о социальных благах лежит в основе повышения производительности труда. Сюда относят: беспокойство о физическом здоровье человека, уровне его интеллектуального развития, профессионализма и т.д.

Факторы роста производительности труда являются важнейшей составляющей всего рабочего процесса, ведь именно они влияют на темпы развития любого предприятия и, соответственно, способствуют увеличению прибыли.

Также стоит отметить организационный момент, который определяет уровень производства и управления труда. К нему можно отнести совершенствование организации управления предприятием, улучшение кадровой, материальной и технической подготовки.

Говоря о производительности, невозможно обойти вниманием интенсивность труда. Это понятие является отражением показателя количества затрачиваемой работником умственной и физической энергии за определенный отрезок рабочего времени.

Очень важно определить оптимальную для данного рабочего процесса интенсивность, ведь чрезмерная активность может привести к неизбежным потерям производительности. Как правило, это происходит в результате человеческого переутомления, возникновения профзаболеваний, травматизма и т.д.

Стоит отметить, что были выделены основные показатели, которые определяют интенсивность труда. В первую очередь это загруженность человека рабочей деятельностью. Это позволяет определить напряженность рабочего процесса и, соответственно, целесообразность затрат. Одновременно с этим принято рассчитывать темп работы, то есть частоту действий относительно единицы времени. С учётом этих факторов на предприятии, как правило, существуют определенные нормативы, исходя из показателей которых, устанавливается производственный план работы.

Факторы производительности труда являются предметом пристального внимания работников науки, практики, поскольку они выступают в качестве первопричины, определяющих его уровень и динамику. Исследуемые в анализе факторы могут быть классифицированы по разным признакам. Наиболее подробную классификацию представим в таблице 1

Таблица 1

Классификация факторов, влияющих на производительность труда

Классификационный признак

Группы факторов

По своей природе

Природно-климатические

Социально-экономические

Производственно-экономические

По степени воздействия на результат

Основные

Второстепенные

По отношению к объекту исследования

Внутренние

По зависимости от коллектива

Объективные

Субъективные

По степени распространенности

Специфические

По времени действия

Постоянные

Переменные

По характеру действия

Экстенсивные

Интенсивные

По свойствам отражаемых явлений

Количественные

Качественные

По своему составу

По уровню соподчиненности (иерархии)

Первого порядка

Второго порядка и т.д.

По возможности измерения влияния

Измеряемые

Неизмеряемые

По своей природе факторы подразделяются на природно-климатические, социально-экономические и производственно-экономические.

Природно-климатические факторы оказывают большое влияние на результаты деятельности в сельском хозяйстве, в добывающей промышленности, лесном хозяйстве и других отраслях. Учет их влияния позволяет точнее оценить результаты работы субъектов хозяйствования. К социально-экономическим факторам относятся жилищные условия работников, организация культурно-массовой, спортивной и оздоровительной работы на предприятии, общий уровень культуры и образования кадров и др. Они способствуют более полному использованию производственных ресурсов предприятия и повышению эффективности его работы. Производственно-экономические факторы определяют полноту и эффективность использования производственных ресурсов предприятия и конечные результаты его деятельности. По степени воздействия на результаты хозяйственной деятельности факторы делятся на основные и второстепенные. К основным относятся факторы, которые оказывают решающее воздействие на результативный показатель. Второстепенными считаются те, которые не оказывают решающего воздействия на результаты хозяй­ственной деятельности в сложившихся условиях. Здесь необходимо заметить, что один и тот же фактор в зависимости от обстоятельств может быть и основным, и второстепенным. Умение выделить из разнообразия факторов главные, определяющие обеспечивает пра­вильность выводов по результатам анализа.

По отношению к объекту исследования факторы классифицируются на внутренние и внешние, т.е. зависящие и не зависящие от деятельности данного предприятия. Основное внимание при анализе должно уделяться исследованию внутренних факторов, на которые предприятие может воздействовать.

Вместе с тем во многих случаях при развитых производственных связях и отношениях на результаты работы каждого предприятия в значительной степени оказывает влияние деятельность других предприятий, например равномерность и своевременность поставок сырья, материалов, их качество, стоимость, конъюнктура рынка, инфляционные процессы и др. Эти факторы являются внешними. Они не характеризуют усилия данного коллектива, но их исследование позволяет точнее определить степень воздействия внутренних причин и тем самым более полно выявить внутренние резервы производства.

Для правильной оценки деятельности предприятий факторы необходимо подразделять еще на объективные и субъективные. Объективные факторы, например стихийное бедствие, не зависят от воли и желания людей. В отличие от объективных субъективные причины зависят от деятельности юридических и физических лиц.

По степени распространенности факторы делятся на общие и специфические. К общим относятся факторы, которые действуют во всех отраслях экономики. Специфическими являются те, которые действуют в условиях отдельной отрасли экономики или предприятия. Такое деление факторов позволяет полнее учесть особенности отдель­ных предприятий, отраслей производства и более точно оценить их деятельность.

По продолжительности воздействия на результаты деятельности различают факторы постоянные и переменные. Постоянные факторы оказывают влияние на изучаемое явление беспрерывно на протяже­нии всего времени. Воздействие же переменных факторов проявляется периодически, например освоение новой техники, новых видов продукции, новой технологии производства и т.д.

Большое значение для оценки деятельности предприятий имеет деление факторов по характеру их действия на интенсивные и экстенсивные. К экстенсивным относятся факторы, которые связаны с количественным, а не с качественным приростом результативного показателя, например увеличение объема производства продукции путем расширения посевной площади, увеличения поголовья животных, численности рабочих и т.д. Интенсивные факторы характеризуют степень усилий, напряженности труда в процессе производства, например повышение урожайности сельскохозяйственных культур, продуктивности скота, уровня производительности труда.

Если при анализе ставится цель измерить влияние каждого фактора на результаты хозяйственной деятельности, то их разделяют на количественные и качественные, простые и сложные, измеряемые и неизмеряемые.

Количественными считаются факторы, которые выражают количественную определенность явлений (количество рабочих, оборудования, сырья и т.д.). Качественные факторы определяют внутренние качества, признаки и особенности изучаемых объектов (производительность труда, качество продукции, плодородие почвы и т.д.).

Большинство изучаемых факторов по своему составу являются сложными, состоят из нескольких элементов. Однако, есть и такие, которые не раскладываются на составные части. В зависимости от состава факторы делятся на сложные (комплексные) и простые (элементные). Примером сложного фактора является производительность труда, а простого - количество рабочих дней в отчетном периоде.

Как уже указывалось, одни факторы оказывают непосредственное влияние на результативный показатель, другие - косвенное. По уровню соподчиненности (иерархии) различают факторы первого, второго, третьего и т.д. уровней подчинения. К факторам первого уровня относятся те, которые непосредственно влияют на результативный показатель. Факторы, которые определяют результативный показатель косвенно, при помощи факторов первого уровня, называются факторами второго уровня и т.д. Например, относительно валовой продукции факторами первого уровня являются среднегодовая численность рабочих и среднегодовая выработка продукции одним рабочим. Количество отработанных дней одним рабочим и среднедневная выработка - это факторы второго уровня. К факторам же третьего уровня относятся продолжительность рабочего дня и среднечасовая выработка.

Основа ведения любого бизнеса – это рациональное и эффективное использование имеющихся ресурсов, в том числе и труда. Вполне логично, что менеджмент стремится увеличить объем выпускаемой продукции без дополнительных затрат на наем работников. Эксперты выделяют несколько факторов, которые позволяют улучшить производительность:

    Управленческий стиль (главная задача руководителя – мотивировать персонал, создать организационную культуру, в которой ценится активность и трудолюбие).

    Инвестиции в технические инновации (покупка нового оборудования, соответствующего запросам времени, позволяет значительно сократить временные затраты каждого работника).

    Тренинги и семинары по повышению квалификации (знание специфики производства позволяет персоналу участвовать в совершенствовании производственного процесса).