Знакомимся с графическим процессором GP104. NVIDIA: Новые GPU на базе архитектуры Pascal на подходе карты на архитектуре pascal

Программы

Видеокарта GeForce GTX 1080 Ti обладает 11Гб памяти GDDR5X, частотой графического процессора в 1583 МГц (с возможность разгона до 2000 МГц при штатной системе охлаждения), частотой памяти в 11 ГГц QDR, а также производительностью на 35% лучшей, чем у GeForce GTX 1080. И это при сниженной цене в 699$.

Новая видеокарта смещает GeForce GTX 1080 с позиции флагмана в линейке GeForce и становится самой быстрой графической картой, существующей на сегодняшний день, а также самой мощной картой на архитектуре Pascal.

Самая мощная игровая карта NVIDIA GeForce GTX 1080 Ti

NVIDIA GeForce GTX 1080 Ti является мечтой геймеров , которые смогут наконец наслаждаться последними играми класса ААА, играть в шлемах виртуальной реальности на высоком разрешении, наслаждаясь четкостью и точностью графики.

GTX 1080 Ti разрабатывалась как первая полноценная видеокарта для игр в 4K. Она оснащена самым новым и технологичным железом, которым не может похвастать ни одна другая видеокарта на сегодняшний день.

Вот официальная презентация NVIDIA GeForce GTX 1080 Ti

«Пришло время для чего-то нового. Того, что на 35% быстрее GTX 1080. Того, что быстрее Titan X. Давайте назовем это максимальной…

Год от года видеоигры становились все прекраснее, так что мы представляем топовый продукт нового поколения, чтобы вы могли наслаждаться играми нового поколения.»

Джен-Ксун

Характеристики NVIDIA GeForce GTX 1080 Ti

NVIDIA не поскупилась на начинку для своей новой и сверхмощной видеокарты.

Она оснащена тем же графическим процессором Pascal GP102 GPU, что и Titan X (P), но превосходит последнюю по всем показателям.

Процессор оснащен 12 млрд транзисторов и обладает шестью кластерами для обработки графики, два из которых блокированы. Это дает в общей сложности 28 мультипотоковых процессоров по 128 ядер каждый.

Таким образом, видеокарта GeForce GTX 1080 Ti обладает 3584 ядрами CUDA, 224 блоками отображения текстур и 88 ROP (блоки, отвечающие за z-буферизацию, сглаживание, запись финального изображения в кадровый буфер видеопамяти).

Диапазон разгона начинается от 1582 МГц до 2ГГц. Архитектура Паскаль создавалась преимущественно для разгона в референсе и более экстримального разгона в нестандартных моделях.

Видеокарта GeForce GTX 1080 Ti также обладает 11 Гб памяти GDDR5X , работающую через 352-битную шину . Флагман также оснащен самым быстрым решением G5X на сегодняшний день.

С новой системой сжатия и плиточного кэширования, пропускная способность видеокарты GTX 1080 Ti может быть увеличена до 1200 Гб/с, что превосходит достижения технологии AMD HBM2.

Спецификация NVIDIA GeForce GTX 1080 Ti:

Характеристики GTX TItan X Pascal GTX 1080 Ti GTX 1080
Техпроцесс 16 нм 16нм 16 нм
Транзисторов 12 млрд 12 млрд 7.2 млрд
Площадь кристалла 471мм² 471мм² 314мм²
Память 12 Гб GDDR5X 11 Гб GDDR5X 8 Гб GDDR5X
Скорость памяти 10 Гб/с 11 Гб/с 11 Гб/с
Интерфейс памяти 384-бит 352-бит 256-бит
Пропускная способность 480GB/s 484 GB/s 320GB/s
Ядер CUDA 3584 3584 2560
Базовая частота 1417 1607
Частота при разгоне 1530МГц 1583 МГц 1730 МГц
Вычислительная мощность 11 терафлопс 11.5 терафлопс 9 терафлопс
Тепловая мощность 250Вт 250Вт 180Вт
Цена 1200$ 699 US$ 499$

Охлаждение видеокарты NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders оснащена новым решением распределения воздушного потока, который позволяет лучше охлаждать плату, а также длает это тише, чем предыдущие дизайнерские решения. Все это дает возможности сильнее разгонять видеокарту и достигать еще большей скорости. Кроме того, эффективность охлаждения улучшена за счет 7-фазной схемы питания на 14 dualFET-транзисторах высокой эффективности.

GeForce GTX 1080 Ti поставляется с последним NVTTM-дизайном, который представляет новую Vapor-камеру охлаждения, в которой в два раза большая площадь охлаждения, чем у Titan X (P). Этот новый тепловой дизайн помогает добиваться оптимального охлаждения и позволяет ускорить графический процессор видеокарты выше предусмотренных спецификацией показателей с технологией GPU Boost 3.0.

NVIDIA GeForce GTX 1080 Ti — мечта оверклокера

Итак, что нам делать с этой впечатляющей мощностью видеокарты? Ответ очевиден — разгонять до предела. Во время эвента, NVIDIA продемонстрировала выдающийся разгонный потенциал их видеокарты GTX 1080 Ti. Напомним, что им удалось достичь частоты процессора в 2,03ГГц на блокированных 60 FPS.

На прошлой неделе Дженсен Хуанг (Jen-Hsun Huang) вышел на сцену и официально представил видеокарты Nvidia GeForce GTX 1070 и GTX 1080 . Помимо презентации самих ускорителей и их разгонного потенциала, демонстрировались новые технологии, примененные в архитектуре Pascal . Именно им и посвящен этот материал. Конечно, будут рассмотрены не все новшества. О некоторых новых и/или обновленных технологиях будет рассказано в обзоре GTX 1080, который появится уже в совсем скором времени.

Pascal и GPU GP 104

Первое и самое важное изменение в Pascal – уход от 28-нм техпроцесса, который использовался в потребительских видеокартах с момента выхода GeForce GTX 600-серии, с марта 2012 года. Архитектура Pascal основывается на новом 16-нм FinFET техпроцессе производства TSMC, и с переходом на более тонкую литографию приходят впечатляющие улучшения в области энергопотребления и масштабирования производительности.

Но прежде всего более тонкий техпроцесс, зачастую, позволяет нарастить частоту. В «стоке» видеокарта работает более чем при 1700 МГц. Также, судя по многочисленным обзорам, GTX 1080 способен разгоняться до 2100+ МГц, а это референс, еще и серьезно ограниченный по питанию.

Стоит отметить, что не только уменьшение техпроцесса позволило так поднять частоту. По словам Иона Альбена (Jonah Alben) – старшего вице-президента подразделения GPU Engeneering, после перехода на 16-нм FinFET техпроцесс новые графические процессоры могли работать на частоте около 1325 МГц, и команда Nvidia долгое время работала над наращиванием частот. Итогом работы стала GTX 1080, которая функционирует при 1733 МГц.

Как же удалось добиться такого уровня улучшения тактовой частоты и производительности относительно архитектуры Maxwell? Pascal сочетает в себе несколько интересных нововведений, позволяющих существенно увеличить эффективность.

Оптимизации позволили не только увеличить тактовую частоту, но и эффективность CUDA-ядер GPU GP104 относительно предшественника – GM204. Доказательство тому – прирост производительности в 70% (относительно GTX 980) и это еще на не до конца доведенных до ума драйверах.

Одно из изменений можно рассмотреть на блок-схеме, которая представлена выше. Теперь в одном кластере GPC заместь четырех SM-s (simultaneous multiprocessor) блоков их пять.

PolyMorph Engine 4.0

Существенное дополнение в самом кристалле GPU лишь одно – добавление нового модуля к PolyMorph Engine. Добавился синхронный блок мультипроекцирования. Новый блок находится в самом конце тракта обработки кадра и создает несколько схем проекции из одного потока геометрии.

Если не вдаваться в подробности, а там все очень сложно, то новый блок берет обработку геометрии на себя, не всю, но существенную часть. Таким образом нагрузка на другие блоки графического процессора уменьшается. Помимо этого, PolyMorph помогает формировать картинку под корректными углами на мультимониторных конфигурациях, но об этом позже.

Согласно недавно опубликованным неофициальным данным, семейство графических процессоров на базе архитектуры Pascal может стать одним из наиболее полных модельных рядов компании NVIDIA в последние годы. Буквально за несколько месяцев фирма представила четыре GPU на основе Pascal и при этом не собирается останавливаться на достигнутом. По словам главы компании, далеко не все микросхемы Pascal, не говоря уже о реальных продуктах, были представлены. Судя по всему, в ближайшее время нас ждут новые анонсы.

NVIDIA Pascal: восемь продуктов за четыре месяца

Начиная с апреля этого года NVIDIA представила четыре микросхемы на основе Pascal: GP100 c 16 Гбайт памяти HBM2, GP102 c поддержкой GDDR5X, GP104 и GP106. При этом компания анонсировала восемь продуктов на основе указанных GPU (если не считать за отдельные продукты разного рода специальные редакции указанных ниже, а также специализированные устройства типа DGX-1): GeForce GTX 1080/1070 (GP104), GeForce GTX 1060 (GP106), TITAN X (GP102 + 12 Гбайт GDDR5X), Quadro P5000 (GP104GL + 16 Гбайт GDDR5X), Quadro P6000 (GP102GL + 24 Гбайт GDDR5X), Tesla P100 SXM и Tesla P100 PCIe (обе на базе GP100 + 16 Гбайт HBM2).

Хотя четыре GPU и восемь продуктов за четыре месяца это весьма выдающееся достижение, заметно, что компания не представила ни одного нового решения для ноутбуков, а также ни одной новой графической карты дешевле $250. По словам главы NVIDIA, компания готовит новые GPU на базе Pascal, они уже существуют в кремнии, но на рынок выйдут лишь через некоторое время.

NVIDIA: Все Pascal готовы, но не все представлены

«Мы спроектировали, верифицировали и начали производство всех GPU на базе архитектуры Pascal », — сказал Дженсен Хуанг (Jen-Hsun Huang), исполнительный директор NVIDIA, в ходе телеконференции с инвесторами и финансовыми аналитиками. «Однако мы пока не представили все эти графические процессоры».

Новые конфигурации

Впрочем, интерес для любителей игр и энтузиастов производительности представляют не столько GP107, GP108 и внутреннее строение GP102, сколько тот факт, что каждая микросхема Pascal будет существовать по меньшей мере в двух базовых конфигурациях (с точки зрения идентификатора PCIe ID, который использует драйвер NVIDIA). Это открывает возможности для создания массы новых продуктов на базе микросхем GP100, GP102, GP104 и GP106.

Так, GP104 существует в конфигурации GP104-A и GP104-B, а также в виде версий с включённым ускорением для профессиональных приложений — GP104GL-A и GP104GL-B. Мы не знаем, чему именно соответствуют литеры «A» и «B», но можем предположить, что «A» обозначает микросхему в максимальной конфигурации. Таким образом, GP104-A может соответствовать GeForce GTX 1080, а GP104-B — GeForce GTX 1070.

Принимая во внимание, что микросхемы GP102 и GP106 также существуют в двух конфигурациях (во всяком случае, об этом говорят база данных AIDA64 и драйверы NVIDIA), но при этом на их базе имеется лишь по одному продукту (GeForce GTX 1060 и TITAN X), мы вполне можем ожидать появления новых решений на их основе. Будут ли эти карты быстрее или медленнее имеющихся — покажет время. Во всяком случае, GP102 может масштабироваться как «вверх» (до 3840 потоковых процессоров), так и «вниз». При этом, разумеется, нельзя исключать гипотетической возможности появления третьей версии GP102-С, в случае, если она понадобится NVIDIA.

Так или иначе, очевидно, что NVIDIA планирует расширять семейство графических карт на базе Pascal. Хотя ближайшие планы явно должны включать в себя мобильные и массовые GPU, очень вероятно, что в будущем нас ждут новые решения для высокопроизводительных игровых ПК.

Обзор Nvidia GeForce GTX 1080 Pascal | Знакомимся с графическим процессором GP104

В преддверии выставки Computex Nvidia решила представить свою долгожданную новинку - адаптированную для геймеров архитектуру Pascal. В новых видеокартах GeForce GTX 1080 и 1070 производитель устанавливает графический процессор GP104. Сегодня, мы рассмотрим старшую модель, а младшая должна оказаться в наших руках в начале июня.

Архитектура Pascal обещает более быструю и более эффективную работу, больше вычислительных модулей, уменьшенную площадь кристалла и более быструю память с модернизированным контроллером. Она лучше подходит для виртуальной реальности, игр в 4K и других задач, требующих высокой производительности.

Как всегда, мы постараемся разобраться в обещаниях производителя и проверить их на практике. Начнем.

Изменит ли GeForce GTX 1080 расстановку сил в сегменте High-End?

Nvidia GeForce GTX 1080 – наиболее быстрая из двух игровых видеокарт, анонсированных в начале месяца. Обе используют графический процессор GP104, который, кстати, является уже вторым GPU с микроархитектурой Pascal (первым был GP100, появившийся на GTC в апреле). CEO Nvidia Жэнь-Сунь Хуань подразнивал энтузиастов, когда представлял новинку широкой общественности, утверждая, что GeForce GTX 1080 обгонит две 980 в SLI.

Также он отметил, что GTX 1080 при большей производительности имеет меньшее энергопотребление, чем 900-я серия. Она вдвое производительнее и втрое эффективнее бывшего флагмана GeForce Titan X, но если всмотреться в сопутствующие графики и диаграммы, то выясняется, что такая внушительная разница проявляется в определенных задачах, связанных с виртуальной реальностью. Но даже если эти обещания подтвердятся лишь частично, нас все равно ждут весьма интересные времена в плане развития high-end игр на ПК.

Виртуальная реальность начинает понемногу набирать обороты, но высокие аппаратные требования для графической подсистемы создают существенный барьер для доступа к этим технологиям. Кроме того, большинство доступных сегодня игр не умеют использовать преимущества многопроцессорного рендеринга. То есть, вы, как правило, ограничены возможностями одного быстрого видеоадаптера с одним GPU. GTX 1080 способна превзойти по скорости работы две 980-х и не должна испытывать затруднений в современных VR-играх, нивелируя потребность в многопроцессорных конфигурациях в будущем.

Не меньшими темпами прогрессирует экосистема 4K. Интерфейсы с повышенной пропускной способностью, такие как HDMI 2.0b и DisplayPort 1.3/1.4 должны открыть дверь для 4K мониторов со 120 Гц панелями и поддержкой динамической частоты обновления экрана уже к концу этого года. Хотя предыдущие поколения топовых графических процессоров AMD и Nvidia позиционировались как решения для игр в 4K, пользователям приходилось идти на компромиссы по качеству, чтобы поддерживать приемлемую частоту кадров. GeForce Nvidia GTX 1080 может стать первым графическим адаптером, скорости которого будет достаточно для поддержания высокой частоты кадров в разрешении 3840x2160 точек с максимальными настройками детализации графики.

Какова ситуация с конфигурациями из нескольких мониторов? Многие геймеры готовы устанавливать по три монитора с разрешением 1920x1080, но при условии, что графическая система справится с нагрузкой, ведь в этом случае карте приходится отрисовывать полмиллиона пикселей, поскольку разрешение составляет 7680x1440. Есть даже энтузиасты, готовые взять три 4K-дисплея с совокупным разрешением 11520x2160 точек.

Последний вариант слишком экзотичный даже для новой геймерской флагманской видеокарты. Тем не менее, процессор Nvidia GP104 оснащен технологией, которая обещает улучшить впечатления от типичных для новой модели задач, то есть 4K и Surround. Но прежде, чем мы перейдем к новым технологиям, давайте поближе познакомимся с процессором GP104 и лежащей в его основе архитектурой Pascal.

Из чего состоит GP104?

С начала 2012 года AMD и Nvidia используют 28-нанометровый техпроцесс. Перейдя на него, обе компании сделали существенный рывок вперед, представив нам видеокарты Radeon HD 7970 и GeForce GTX 680. Тем не менее, за последующие четыре года им пришлось сильно изворачиваться, чтобы вытянуть больше производительности из существующей технологии. Достижения видеокарты Radeon R9 Fury X и GeForce GTX 980 Ti - это настоящее чудо, учитывая их сложность. Первым чипом, созданным Nvidia по техпроцессу 28 нм, был GK104, состоявший из 3,5 миллиардов транзисторов. GM200, который устанавливается в GeForce GTX 980 Ti и Titan X, имеет уже восемь миллиардов транзисторов.

Переход на 16 нм технологию TSMC FinFET Plus позволил инженерам Nvidia реализовать новые идеи. Согласно техническим данным чипы 16FF+ на 65% быстрее, могут иметь вдвое большую плотность, чем 28HPM, либо потреблять на 70 меньше энергии. При создании своих GPU Nvidia использует оптимальную комбинацию этих достоинств. TSMC утверждает, что в основу были положены инженерные наработки существующего процесса 20 нм, но вместо плоских транзисторов использовала транзисторы FinFET. В компании говорят, что такой подход снижает количество брака, и повышает выход рабочих пластин. Также утверждается, что 20-нанометрвого техпроцесса с быстрыми транзисторами у компании не было. Повторимся, мир компьютерной графики более четырех лет "сидит" на техпроцессе 28 нм.

Блок-схема процессора GP104

Преемник GM204 состоит из 7,2 миллиардов транзисторов, размещенных на площади 314 мм2. Для сравнения площадь кристалла GM204 составляет 398 мм2 при 5,2 миллиардах транзисторов. В полной версии один GPU GP104 имеет четыре кластера обработки графики (Graphics Processing Clusters - GPC). Каждый GPC включает пять кластеров обработки потоков/текстур (Thread/Texture Processing Clusters - TPC) и блок растеризации. TPC сочетает в себе один потоковый мультипроцессор (Streaming Multiprocessor SM) и движок PolyMorph. SM объединяет 128 ядер CUDA одинарной точности, 256 Кбайт регистровой памяти, 96 Кбайт общей памяти, 48 Кбайт кэша L1/текстур и восемь текстурных блоков. Четвертое поколение движка PolyMorph включает новый блок логики, который находится в конце конвейера геометрии перед блоком растеризации, он управляет функцией мультипроекции Simultaneous Multi-Projection (об этом чуть ниже). В общем итоге мы получаем 20 SM, 2560 ядер CUDA и 160 блоков обработки текстур.

Один потоковый мультипроцессор (SM) в GP104

Бек-энд графического процессора включает восемь 32-битных контроллеров памяти (суммарная ширина канала 256-бит), восемь блоков растеризации и 256 Кбайт кэша L2 для каждого блока. В итоге мы имеем 64 ROP и 2 Мбайт разделенной кэш-памяти L2. Хотя на блок-схеме процессора Nvidia GM204 было показано четыре 64-битных контроллера и 16 ROP, они были сгруппированы и с функциональной точки зрения эквивалентны.

Некоторые структурные элементы GP104 похожи на GM204, ведь новый GPU был создан из "строительных блоков" своего предшественника. В этом нет ничего плохого. Если вы помните, в архитектуре Maxwell компания сделала ставку на энергоэффективность и не стала перетряхивать блоки, которые являлись сильной стороной Kepler. Аналогичную картину мы видим и здесь.

Добавление четырех SM не может заметно повлиять на производительность. Однако у GP104 есть несколько козырей в рукаве. Первый козырь – существенно более высокие тактовые частоты. Базовая тактовая частота GPU составляет 1607 МГц. В спецификациях GM204, для сравнения, указано 1126 МГц. Максимальная частота GPU Boost достигает 1733 МГц, но мы довели наш образец до 2100 МГц, используя бета-версию утилиты EVGA PrecisionX. Откуда такой запас для разгона? По словам Джона Албина, старшего вице-президента отдела разработки GPU, его команда знала, что техпроцесс TSMC 16FF+ повлияет на работу архитектуры чипа, поэтому они сосредоточили силы на оптимизации таймингов в микросхеме, чтобы убрать узкие места, препятствующие достижению более высоких тактовых частот. В результате скорость вычислений одинарной точности GP104 достигла 8228 GFLOPs (на базовой частоте) по сравнению с потолком в 4612 GFLOPs у GeForce GTX 980. Скорость закраски текселей подскочила с 155,6 Гтекс/с у 980-й (с GPU Boost) до 277,3 Гтекс /с.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
SM 20 16
Количество ядер CUDA 2560 2048
Базовая частота GPU, МГц 1607 1126
Частота GPU в режиме Boost, МГц 1733 1216
Скорость вычислений, GFLOPs (при базовой частоте) 8228 4612
Количество блоков текстурирования 160 128
Скороть заполнения текселей, Гтекс/с 277,3 155,6
Скорость передачи данных памяти, Гбит/с 10 7
Пропускная способность памяти, Гбайт/с 320 224
Количество блоков растеризации 64 64
Объем кэша L2, Мбайт 2 2
Тепловой пакет, Вт 180 165
Количество транзисторов 7,2 млрд. 5,2 млрд.
Площадь кристалла, мм2 314 398 мм
Техпроцесс, нм 16 28

Бэк-энд по-прежнему включает 64 блоков ROP и 256-разрядную шину памяти, но чтобы увеличить доступную пропускную способность Nvidia внедрила память GDDR5X. Компания приложила много усилий для раскрутки нового типа памяти, особенно на фоне памяти HBM, которая используется в разных видеокартах AMD и HBM2, которую Nvidia устанавливает в Tesla P100. Складывается ощущение, что на рынке сейчас имеется нехватка памяти HBM2, при этом компания не готова принять ограничения HBM (четыре стека по 1 Гбайт, либо трудности, связанные с реализацией восьми стеков по 1 Гбайт). Таким образом, мы получили видеопамять GDDR5X, поставки которой, судя по всему, тоже ограничены, поскольку GeForce GTX 1070 уже использует обычную GDDR5. Но это не перекрывает достоинств нового решения. Память GDDR5 в GeForce GTX 980 имела скорость передачи данных 7 Гбит/с. Это обеспечивало 224 Гбайт/с пропускной способности через 256-разрядную шину. GDDR5X стартует с 10 Гбит/с, повышая пропускную способность до 320 Гбайт/с (увеличение на ~43%). По словам Nvidia прирост достигается благодаря модернизированной схеме ввода-вывода, причем без повышения энергопотребления.

Архитектура Maxwell стала более эффективно использовать пропускную способность путем оптимизации кэша и алгоритмов сжатия, тем же путем идет и Pascal с новыми методами сжатия без потерь, чтобы более экономно использовать доступную ширину канала подсистемы памяти. Алгоритм дельта-компрессии цветов пытается достигнуть выигрыша 2:1, причем этот режим был улучшен с целью более частого применения. Также есть новый режим 4:1, который применяется в тех случаях, когда различия на пиксель очень небольшие. Наконец, в Pascal представлен еще один новый алгоритм 8:1, который применяет сжатие 4:1 к блокам 2х2, разница между которыми обрабатывается по алгоритму 2:1.



Разницу не трудно проиллюстрировать. На первом изображении показан несжатый снимок экрана из игры Project CARS. На следующем снимке показаны элементы, которые может сжать карта на архитектуре Maxwell, они закрашены фиолетовым. На третьем снимке видно, что Pascal сжимает сцену еще больше. Согласно данным Nvidia, эта разница преобразуется примерно в 20%-ое сокращение информации в байтах, которую необходимо выбрать из памяти для каждого кадра.

Мы переходим к еще одной особенности GeForce GTX 1080, которая сделала эту модель первой в своем роде - поддержке памяти GDDR5X. В этом качестве GTX 1080 какое-то время будет единственным продуктом на рынке, поскольку уже известно, что GeForce GTX 1070 будет укомплектован стандартными чипами GDDR5. В сочетании с новыми алгоритмами компрессии цвета (об этом также чуть позже) высокая ПСП (пропускная способность памяти) позволит GP104 более эффективно распоряжаться имеющимися вычислительными ресурсами, чем это могли себе позволить продукты на базе чипов GM104 и GM200.

JEDEC выпустила финальные спецификации нового стандарта лишь в январе текущего года, а единственным производителем GDDR5X на данный момент является компания Micron. На 3DNews не было отдельного материала, посвященного этой технологии, поэтому мы кратко опишем те нововведения, которые приносит GDDR5X, в данном обзоре.

Протокол GDDR5X имеет много общего с GDDR5 (хотя электрически и физически те и другие чипы различаются) - в отличие от памяти HBM, которая представляет собой принципиально другой тип, что делает делает практически неосуществимым сосуществование с интерфейсом GDDR5(X) в одном GPU. По этой причине GDDR5X называется именно так, а не, к примеру, GDDR6.

Одно из ключевых различий между GDDR5X и GDDR5 состоит в возможности передачи четырех бит данных на одном цикле сигнала (QDR - Quad Data Rate) в противоположность двум битам (DDR - Double Data Rate), как это было во всех предшествующих модификациях памяти DDR SDRAM. Физические же частоты ядер памяти и интерфейса передачи данных располагаются приблизительно в том же диапазоне, что у чипов GDDR5.

А чтобы насытить данными возросшую пропускную способность чипов, в GDDR5X применяется увеличенная с 8n до 16n предвыборка данных (prefetch). При 32-битном интерфейсе отдельного чипа это означает, что контроллер за один цикл доступа к памяти выбирает уже не 32, а 64 байта данных. В итоге результирующая пропускная способность интерфейса достигает 10-14 Гбит/с на контакт при частоте CK (command clock) 1250-1750 МГц - именно эту частоту показывают утилиты для мониторинга и разгона видеокарт - такие, как GPU-Z. По крайней мере, сейчас в стандарт заложены такие показатели, но в будущем Micron планирует достигнуть чисел вплоть до 16 Гбит/с.

Следующее преимущество GDDR5X состоит в увеличенном объеме чипа - с 8 до 16 Гбит. GeForce GTX 1080 комплектуется восемью чипами по 8 Гбит, но в дальнейшем производители графических карт смогут удвоить объем RAM по мере появления более емких микросхем. Как и GDDR5, GDDR5X допускает использование двух чипов на одном 32-битном контроллере в так называемом clamshell mode, что в результате дает возможность адресовать 32 Гбайт памяти на 256-битной шине GP104. Кроме того, стандарт GDDR5X помимо равных степени двойки описывает объемы чипа в 6 и 12 Гбит, что позволит варьировать общий объем набортной памяти видеокарт более «дробно» - например, оснастить карту с 384-битной шиной RAM чипами на суммарные 9 Гбайт.

Вопреки ожиданиям, которые сопровождали первую информацию о GDDR5X, появившуюся в открытом доступе, энергопотребление нового типа памяти сравнимо с таковым у GDDR5 либо лишь немного превышает последнее. Чтобы компенсировать возросшую мощность на высоких значениях пропускной способности, создатели стандарта снизили питающее напряжение ядер с 1,5 В, стандартных для GDDR5, до 1,35 В. Кроме того, стандарт в качестве обязательной меры вводит управление частотой чипов в зависимости от показателей температурного датчика. Пока неизвестно, насколько новая память в действительности зависима от качества теплоотвода, но не исключено, что мы теперь чаще будем видеть на видеокартах системы охлаждения, обслуживающие не только GPU, но и чипы RAM, в то время как производители карт на базе GDDR5 в массе своей пренебрегают этой возможностью.

Может возникнуть впечатление, что переход с GDDR5 на GDDR5X был несложной задачей для NVIDIA в силу родства данных технологий. К тому же, GeForce GTX 1080 комплектуется памятью с наименьшей пропускной способностью, определенной стандартом - 10 Гбит/с на контакт. Однако практическая реализация нового интерфейса сопряжена с рядом инженерных трудностей. Передача данных на столь высоких частотах потребовала тщательной разработки топологии шины данных на плате с целью минимизировать наводки и затухание сигнала в проводниках.

Результирующая пропускная способность 256-битной шины в GeForce GTX 1080 составляет 320 Гбайт/с, что несущественно меньше скорости 336 Гбайт/с, которой характеризуется GeForce GTX 980 Ti (TITAN X) с его 384-битной шиной GDDR5 при 7 Гбит/с на контакт.

Теперь PolyMorph Engine может создавать одновременно вплоть до 16 проекций (viewport’ов), размещенных произвольным образом, и сфокусированных на одной или двух точках, сдвинутых по горизонтальной оси относительно друг друга. Данные преобразования выполняются исключительно в «железе», и не вызывают снижения производительности как такового.

У этой технологии есть два вполне предсказуемых применения. Первое - это шлемы VR. За счет двух центров проекции Pascal может создавать стерео-изображение за один проход (впрочем, речь идет только о геометрии - GPU по-прежнему придется совершить вдвое больше работы, чтобы выполнить растеризацию текстур в двух кадрах).

Кроме того, SMP позволяет на уровне геометрии выполнять компенсацию искажения картинки, которую вносят линзы шлема. Для этого изображения для каждого глаза формируется четырьмя отдельными проекциями, которые затем склеиваются в плоскость с применением фильтра пост-обработки. Таким образом не только достигается геометрическая точность итогового изображения, но и снимается необходимость в обработке 1/3 пикселов, которые в противном случае все равно были бы потеряны при финальной коррекции стандартной плоской проекции под кривизну линз.

Единственная оптимизация для VR, которой обладал Maxwell, состояла в том, что периферические зоны изображения, которые компрессируются наиболее сильно для вывода через линзы, могли рендериться с пониженным разрешением, что давало экономию пропускной способности лишь на 10-15%.

Следующая область, в которой востребована функция SMP, - это мультимониторные конфигурации. Без SMP изображение на нескольких состыкованных дисплеях представляет собой плоскость с точки зрения GPU, и выглядит геометрически корректно при условии, что экраны перед зрителем выстроены в линию, но стыковка под углом уже не выглядит корректно - как если бы вы просто согнули в нескольких местах большую фотографию. Не говоря уже о том, что в любом случае зритель видит именно плоское изображение, а не окно в виртуальный мир: если повернуть голову к боковому экрану, объекты в нем останутся растянутыми, так как виртуальная камера по-прежнему смотрит в центральную точку.

С помощью SMP драйвер видеокарты может получить информацию о физическом расположении нескольких экранов с тем, чтобы проецировать изображение для каждого из них через собственный viewport, что в конечном счете функционально приближает мультимониторную сборку к полноценному «окну».

Вкратце, задача тройной буферизации в том, чтобы отделить процесс рендеринга новых кадров в конвейере GPU от сканирования изображения из кадрового буфера за счет того, что видеокарта может создавать новые кадры со сколь угодно высокой частотой, записывая их в два сменяющихся кадровых буфера. При этом содержимое самого последнего кадра с частотой, кратной частоте обновления экрана, копируется в третий буфер, откуда монитор может его забрать без разрывов картинки. Таким образом, кадр, который попадает на экран, в момент начала сканирования всегда содержит последнюю информацию, которую произвел GPU.

Тройная буферизация наиболее полезна для мониторов с частотой обновления экрана 50-60 Гц. При частотах 120-144 Гц, как мы уже писали в статье, посвященной G-Sync, включение вертикальной синхронизации уже, в принципе, увеличивает латентность несущественно, но Fast Sync уберет ее до минимума.

Если вы задаетесь вопросом, как Fast Sync соотносится с G-Sync (и ее аналогом Free Sync от AMD - но это чисто теоретический вопрос, т.к. NVIDIA поддерживает только свой вариант), то G-Sync снижает латентность в ситуации, когда GPU не успевает произвести новый кадр к моменту начала сканирования, а Fast Sync - напротив, снижает латентность, когда частота обновления кадров в конвейере рендеринга выше частоты обновления экрана. К тому же, эти технологии могут работать совместно.

GeForce GTX 1080 Founder’s Edition: конструкция

Этим пышным именем теперь называется референсная версия GeForce GTX 1080. Начиная с GeForce GTX 690 NVIDIA уделяет большое внимание тому, в какой форме их новые продукты выходят на рынок. Референсные образцы современных видеокарт под маркой GeForce далеки от своих невзрачных предшественников, оснащавшихся сравнительно неэффективными и шумными системами охлаждения.

GeForce GTX 1080 Founder’s Edition вобрал в себя лучшие черты дизайна видеокарт Kepler и Maxwell: алюминиевый кожух турбины, крыльчатка кулера, изготовленная из малошумного материала, и массивная алюминиевая рама, придающая жесткость конструкции и снимающая тепло с микросхем RAM.


В составе GTX 1080 присутствуют одновременно два компонента, которые периодически то появляются, то пропадают из референсных видеокарт NVIDIA - радиатор GPU с испарительной камерой и задняя пластина. Последняя частично демонтируется без отвертки, дабы обеспечить приток воздуха кулеру соседней видеокарты в режиме SLI.

Помимо своей представительской функции, референсный образец видеокарты нужен для того, чтобы конечные производители видеокарт могли закупать его - в данном случае у NVIDIA - и удовлетворять спрос, пока не будут готовы устройства оригинального дизайна на том же GPU. Но в этот раз NVIDIA планирует сохранять референсную версию в продаже на протяжении всего срока жизни модели и распространять, среди прочего, через свой официальный сайт. Так мотивирована на $100 более высокая цена GTX 1080 FE по сравнению с рекомендованными для всех остальных $599. В конце концов, Founder’s Edition не выглядит и не является дешевым продуктом.

В то же время, видеокарта имеет референсные частоты, ниже которых, как обычно, не опустится ни один производитель карт оригинального дизайна. Не идет речи и о каком-либо отборе GPU для GTX 1080 FE по разгонному потенциалу. Стало быть, во всей массе реализаций GeForce GTX 1080 могут оказаться и более дорогие. Но какое-то время Founder’s Edition будет преобладающей и даже единственной версией флагманского Pascal, что автоматически повышает его розничные цены на $100 сверх «рекомендации» NVIDIA.