Что значит приставка TI в видеокартах Nvidia - TurboComputer.ru
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд (пока оценок нет)
Загрузка...

Что значит приставка TI в видеокартах Nvidia

Твой Сетевичок

Все о локальных сетях и сетевом оборудовании

GTX 1660 или GTX 1660 Ti: сравниваем крутые видеокарты Nv >

Сегодня на рынке представлены десятки различных моделей видеокарт. Даже в рамках линейки одного производителя среди них имеется огромный выбор. И порой обычному пользователю трудно понять, какая из них лучше. Поговорим об эффективности двух новинок NVIDIA GeForce: GTX 1660 и GTX 1660 Ti.

Сравнение видеокарт NV >Если пользователь хочет купить видеокарту и остановился на модели GTX 1660, то его внимание наверняка привлечёт карточка с таинственными буквами Ti после номера модели. Чем же отличается эта модель? Буквы Ti обозначают более мощную версию видеокарты. Притом эта мощность достигнута не разгоном, а большим числом исполнительных блоков или ядер. Кроме того, у видеокарты может быть более эффективный графический чип. Всё это означает, что Ti это более эффективная, но и более дорогая версия обычной видеокарты той же модели.

Теперь, когда мы определили это, попробуем разобраться, чем именно отличаются модели GTX 1660 и GTX 1660 Ti в плане технических характеристик.

Процессор видеокарты

бе видеокарты используют графический процессор Turing TU116. Turing TU116–400 у Ti версии и Turing TU116–300 у обычной. Но количество ядер в этом процессоре у них отличается. Более мощная GeForce GTX 1660 Ti имеет в процессоре 1536 ядер, в то время как более слабая модель содержит в процессоре 1280 ядер CUDA. Это влияет на число одновременных процессов, с которыми может взаимодействовать процессор видеокарты. Следовательно, GeForce GTX 1660 Ti будет эффективнее работать в большинстве игр и быстрее обрабатывать множественные эффекты (например, частицы);

Обе видеокарты работают на основе процессора Turing TU116

Пропускная способность карты

Пропускная способность памяти видеокарты напрямую зависит от шины её памяти. У GeForce GTX 1660 Ti, как и у обычной GeForce GTX 1660, память подключена через 192-битную шину. Сама по себе шина — это канал, через который память связана с графическим процессором. Следовательно, от неё зависит то, насколько быстро информация будет передаваться из оперативной памяти к процессору. Хорошая пропускная способность шины нужна в требовательных играх с продвинутой технологией сглаживания. При помощи битности шины можно определить, насколько пропускная способность хороша. И значение в 192-бита, можно охарактеризовать как «выше среднего». Такое значение хоть и не дотягивает до топовых (256 и 384 бита), но сильно превосходит показатели бюджетных видеокарт (128 бит).

Частота карты

Тактовая частота GeForce GTX 1660 Ti имеет значение чуть ниже, чем у обычной версии видеокарты. Она равняется 1500 в стоковом виде, в то время как частота обычной GeForce GTX 1660 равна 1530. Эта частота напрямую влияет на производительность графического процессора и количество операций, которые он может выполнять в секунду. Правда, разница между частотами этих видеокарт не так уж велика, поэтому и различие будет несущественным. Если упрощать, то тактовая частота лишь усиливает эффективность работы самого графического процессора видеокарты, так что учитывать её стоит лишь в совокупности с количеством ядер самого процессора.

Оперативная память

Количество оперативной памяти (видеопамяти) GeForce GTX 1660 Ti составляет 6 гигабайт, точно так же как и у GTX 1660. В итоге показатель оперативной памяти отличается лишь её типом и частотой — в более дорогой GeForce GTX 1660 Ti используется тип памяти GDDR6 с эффективной частотой 6000 МГц, а в GeForce GTX 1660 — GDDR5 с частотой 4000 МГц. Ну а влияет видеопамять в играх, например, на подгрузку текстур в высоком разрешении. Но рассчитывать лишь на объём тут не стоит — он будет работать лишь вкупе с хорошей пропускной способностью шины. Кроме того, у обычной GTX 1660 имеется бюджетная версия с 3 гигабайтами памяти, но она существенно уступает в производительности;

Энергопотребление

Довольно важный параметр, ведь вам нужно быть уверенным, что вашего блока питания будет достаточно для её работы. Обе видеокарты имеют одинаковое требования к мощности блока питания — 450 Вт. Реальное потребление при этом равняется 120 Вт.

Потенциал разгона

Видеокарту можно разогнать и тем самым значительно повысить её производительность. Это часто делают для майнинга, нередко и для игр. Разгон видеокарты осуществляется повышением её частоты. И вот тут кроется интересный момент — потенциал для разгона более слабой GeForce GTX 1660 — выше, её частоту можно повысить до 1785 МГц. Частота видеокарты GeForce GTX 1660 Ti может быть повышена лишь до 1770 МГц. Разумеется, такая разница не очень существенна и Ti версия всё ещё будет производительнее по другим параметрам. Но тот факт, что более слабая видеокарта может быть так улучшена по частоте, всё же делает её использование гораздо целесообразнее, и этот фактор обязательно стоит учитывать;

Число текстурных блоков

Текстурные блоки работают исключительно над текстурными данными, обработка которых необходима для построения сцены. Нагрузка на эти блоки в современных играх весьма велика, поэтому не стоит недооценивать текущий показатель. Кроме того, он будет полезен при рендере изображения в графическом или видео редакторе. У видеокарты GeForce GTX 1660 Ti этот показатель равняется 96, а в менее мощной GeForce GTX 1660 всего лишь 80.

Нагрев видеокарты не меняется от наличия приставки Ti, так как система охлаждения полностью зависит от конкретного производителя карты, а не её модели. Следовательно, вы можете приобрести видеокарту GTX 1660 Ti, которая будет нагреваться меньше, чем GTX 1660, и наоборот.

Охлаждение зависит от конкректного производителя видеокарты

Стоимость GTX 1660 и GTX 1660 Ti

Учитывая разницу в производительности, разница в стоимости видеокарт тоже присутствует. Карточка GeForce GTX 1660 с 6 гигабайтами памяти обойдётся вам примерно в 18 тысяч рублей, а стоимость GeForce GTX 1660 Ti с тем же количеством памяти имеет стоимость около 23 тысяч рублей. Само собой, разница может показаться существенной, но она вполне соответствует приросту производительности в играх, о чём мы поговорим дальше.

Видео: сравнение видеокарты Nvidia GeForce GTX 1660 GTX 1660 Ti

Таблица: сравнение GTX 1660, GTX 1660 Ti и Pascal GeForce GTX 1060

ХарактеристикиNVIDIA GeForce GTX 1660NVIDIA GeForce GTX 1660 TiPascal GeForce GTX 1060
Количество ядер процессора128015361152
Пропускная способность шины192192192
Частота карты (в стоковом виде/разгоне)1530/17851500/17701506/1708
Видеопамять666
Энергопотребление карты /требование к БП (Вт)120/450120/450120/400
Число текстурных блоков809672
Стоимость видеокарты (в рублях)180002300012500

Рекомендации по выбору видеокарты

Выбор видеокарты всегда должен опираться лишь на ваши цели, и выбор между NVIDIA GeForce GTX 1660 и GTX 1660 Ti не является исключением. Для различных целей подходят разные карты. Поэтому для подведения итогов нам потребуется последовательно рассмотреть две основные задачи, которые требуются от видеокарт — производительность в играх и в тяжёлых программах.

Для современных игр

Современные игры требуют обрабатывать текстуры высокого разрешения, сглаживание, большое количество частиц. Это означает, что нас волнуют такие показатели видеокарты, как частота процессора, видеопамять и количество текстурных блоков. Исходя из этого, можно прийти к следующим выводам:

  • если вы хотите спокойно играть в современные игры в FullHD разрешении на максимальных настройках графики, то вам стоит брать видеокарту GeForce GTX 1660 Ti. Вы не будете испытывать проблем с производительностью или стабильностью частоты кадров. По результатам сравнения в новых играх, частота кадров (по сравнению с обычной версией видеокарты) на максимальных настройках может быть выше на 15–40%, в зависимости от того, как много вычислительных процессов ложится именно на процессор видеокарты;
  • карта GeForce GTX 1660 Ti будет лучшим выбором и для стримеров;
  • если вас интересуют более старые игры или вы готовы довольствоваться не максимальными настройками графики, то вас вполне устроит и видеокарта GeForce GTX 1660. Да, вы не сможете использовать трассировку лучей без существенного падения производительности в игре, но в остальном она сможет предоставить вам качественное изображение. К тому же обойдётся значительно дешевле;

RTX требует большой производительности и сильно снижает частоту кадров на слабых видеокартах

Как мы видим, GeForce GTX 1660 уступает для игр во всём, кроме потенциала для разгона. Но это всё ещё более доступное решение, которое позволит вам ознакомиться со всеми современными проектами.

Для работы

Порой для работы тоже может потребоваться довольно мощная видеокарта. Речь идёт про обработку изображения, видео или трёхмерных моделей. Тут тоже будет важно количество видеопамяти и текстурных блоков видеокарты. Но выводы тут будут несколько иными:

    GeForce GTX 1660 Ti отлично подойдёт для работы в подобных программах — рендер изображения или видео будет происходит довольно быстро;

Рендер трёхмерного изображение требует больших мощностей от видеокарты

В итоге обе этих видеокарты можно назвать подходящими для работы в графических программах и разница будет лишь в скорости обработки данных. Учитывая разницу в стоимости — видеокарта уровня GeForce GTX 1660 Ti понадобится лишь при больших объёмах подобный работы, например, при разработке видеоигр. В остальных случаях обычной GeForce GTX 1660 будет достаточно.

Выбор видеокарты обходится вам в немаленькую сумму, поэтому и совершать его надо вдумчиво. В этой статье вы найдёте необходимую для этого выбора информацию и сможете принять взвешенное решение. Главное, ориентируйтесь на свои цели, а не только на сухие цифры, и тогда не пожалеете о сделанном решении.

Линейки и маркировка видеокарт NV > Опубликовал Mr.Geekman 2 марта 2016 года &nbsp &nbsp &nbsp

1000

Но в эту таблицу надо внести несколько поправок:

Исключения из маркировки

МоделиМикроархитектура
605Fermi
610Fermi
620Fermi
630*Fermi
640*Fermi
645Fermi
730*Fermi
750Maxwell
750 TiMaxwell
640M LE*Fermi
670MFermi
675MFermi
710MFermi
720MFermi
820MFermi
870MKepler
880MKepler
920MKepler

* — означает, что исключение существует для некоторых модификаций этих видеокарт.

  • GT – это буквенное сочетание отражает видеокарты низкого уровня производительности, их нельзя рассматривать как игровые.
  • GTX – этим индексом обозначаются видеоадаптеры среднего и высокого уровня, которые хорошо подходят для игр.
  • M – мобильная видеокарта (они сильно слабее своих братьев без этой буквы)
  • X – маркировка более производительной видеокарты у мобильных решений
  • LE – так обозначается версия карты с более низкой тактовой частотой у мобильных адаптеров
  • Ti – обозначение более производительной версии у десктопных карт

Стоит отметить, что более производительная версия отличается не только разгоном, но и компонентами ядра (унифицированные шейдерные блоки, блоки текстурирования, блоки растеризации).

Возможно, начиная с поколения Pascal мобильные видеокарты перестанут оснащаться буквой M, так как используют почти те же чипы.

Следующие после поколения цифры указывают на положение модели в линейке.

Интересный факт: 90 означает 2 чипа 80 в режиме SLI (работают в паре).

TITAN

Это подлинейка GeForce, ведь они имеют индекс GTX. Для начала надо разобраться с позиционированием данной линейки. Это самые быстрые и дорогие видеокарты на данный момент. Но эта цена действительно слишком высока для такого уровня производительности. Все дело в том, что так же они позиционируются, как мощные профессиональные видеокарты для математических вычислений и вычислений FP 64 (вычисления с плавающей запятой двойной точности). Это своего рода внедорожник в мире видеокарт – и работать можно и играть. Исключением является Titan X, который не хватает с неба звезд в FP 64 – вычислениях и по сути является просто очень дорогой видеокартой с огромным набором видеопамяти.

В этой линейке на начало 2016 года есть только 5 видеокарт и почти все в референсном дизайне (версии от сторонних производителей).

TITAN, TITAN Black Edition и TITAN Z принадлежат Kepler, TITAN X – Maxwell, еще есть TITAN X в Pascal (отличия в приставках: у первого полное название NVIDIA GeForce GTX TITAN X, а у второго просто NVIDIA TITAN X).

Про все модели можете прочесть на сайте NVIDIA.

Quadro

Это семейство предназначено для профессионального использования. Эти карты очень хорошо подойдут для сложных 3D-приложений и вычислительных симуляций. На этих картах производится рендеринг настоящих фильмов со спецэффектами. Эти карты не подходят для игр. Даже самые дорогие решения будут проигрывать средним игровым видеокартам GeForce. Все дело в том, что эти видеоадаптеры рассчитаны на вычисления с плавающей запятой двойной точности (FP 64), а играм достаточно и одинарной (FP 32). А вот в этих более точных вычислениях и приложениях, использующих OpenGL драйвера превосходство Quadro просто колоссально, ведь даже дешевые Quadro (хотя не такие уж они и дешевые) уделывают самые мощные игровые видеокарты (за исключением некоторых Titan). Если же в приложении никакой конкретной оптимизации под возможности Quadro карт нет, то тут результат решается количеством потоковых процессоров и пропускной способностью памяти, в чем у игровых видеокарт полный порядок.

Мы не будем затрагивать карты до микроархитектуры Fermi.

Первая буква означает микроархитектуру чипа:

  • ее нет – Fermi
  • K – Kepler
  • M – Maxwell

Буквенные индексы есть и в конце названия модели:

  • M – обозначение мобильной видеокарты
  • D – другой набор выходов. В случае с K2000 вместо двух портов DisplayPort и одного DL-DVI в D-версии стоят два выхода DL-DVI и один mini-DisplayPort.

Цифры же указывают на положение модели видеокарты в линейке (больше — лучше).

Tesla

Давно известно, что видеокарты (GPU) гораздо быстрее делают математические вычисления, нежели процессоры (CPU). Все дело в том, что в этих операциях большое значение играют количество ядер и параллельность расчетов. В видеочипах ядер намного больше, чем в CPU. Если брать CUDA, то в одной видеокарте их может быть до 3072 штук! Эта особенность связана с ролью видеокарты в компьютере – ей надо делать множество простых действий параллельно и за очень короткое время. Tesla – это семейство, созданное специально для ускорения математических вычислений. Такие карты хорошо справляются с как с FP 32, так и с FP 64 расчетами. Их используют в научных центрах и на серверах, ведь на единицу потребленной энергии они сделают больше полезной работы, нежели процессор. Интересный факт: в картах этой линейки нет видеовыходов.Первая буква означает поколение

Цифры являются указателем на положение чипа в линейке (больше — лучше). Здесь мы не будем разбирать буквенные индексы и подробности маркировки. Наша цель – ознакомить вас с этим семейством и рассказать о нем пару слов. Информации про все семейство достаточно мало из-за применения лишь в узких областях и сложности в приобретении.

Интересный факт: Есть такая видеокарта NVIDIA Quadro M6000 с 24 ГБ видеопамяти!

Это семейство создано для корпоративного сегмента. Раньше оно было частью семейства Quadro и обозначалось также буквами «NVS». Эти видеочипы созданы для бизнес-приложений (финансовых, корпоративных, ECAD), многомониторных решений. Например, их используют для цифровых информационных панелей. Их особенностями являются большое количество портов для подключения дисплеев в некоторых моделях и очень низкая общая стоимость поддержки (ТСО). Производительностью они не блещут и в них используется не такая быстрая DDR3 память. Тепловыделение не превышает 70 Вт. Для сравнения, в самой мощной модели NVIDIA NVS 810 всего 512 ядер CUDA, TDP 68 Вт и 4 ГБ DDR3 памяти, но целых 8 выходов Mini DisplayPort 1.2.

Всю информацию об актуальных моделях можете узнать здесь.

Tegra

Семейство систем на кристалле (SoC) для мобильных устройств (про SoC на нашем сайте есть хорошая статья). В рамках него были представлены первые двухъядерные и четырехъядерные решения. Во времена своего выхода являются топовыми решениями в плане графики, но и в процессорной части дела обстоят довольно хорошо. На данный момент у них есть свои разработки ядер Denver, вместо «классических» Cortex. Есть две версии Tegra K1:

  • 2 ядра Denver
  • 4 ядра Cortex-A15

Tegra K1 был построен на микроархитектуре Kepler, а Tegra X1 на Maxwell. Как ни странно, но Tegra X1 использует 4 ядра Cortex-A-53 и 4 ядра Cortex-A-57 (технология big.LITTLE). Преимуществом является то, что есть эксклюзивные проекты и портированные компьютерные игры, сделанные только под устройства на базе Tegra, ввиду их мощности и связей компании. У Nvidia так же есть свои планшеты и портативные косоли, где реализованы некоторые интересные технологии. Например, трансляция игр с ПК на экран своего мобильного устройства на базе Tegra. Устройства на базе Tegra являются хорошим подспорьем для мобильного гейминга.

Интересные факты:

Tegra 2 стал первым 2-х ядерным чипом для мобильных устройств.

Tegra 3 повторил успех предыдущего чипа, но уже с 4 ядрами.

Tegra K1 перешел на микроархитектуру графического ядра Kepler и 28 нм техпроцесс и вплотную приблизился в производительности к PS3 и XBOX 360.

Tegra X1 применяет технологию big.LITTLE, перешел на микроархитектуру Maxwell и 20 нм техпроцесс. Стал первым первой системой на кристалле, достигшей производительности в 1 терафлопс в FP 16 вычислениях с плавающей запятой. На демонстрирование демки Unreal Engine 4 «Elemental» он тратил 10 Вт, Xbox One – 100 Вт, а топовый ПК 2012 года – 300 Вт. Это не означает, что он может сравниться с топовым ПК 2012 года, а лишь демонстрирует огромный рост эффективности видеочипов.

Про другие интересные факты о GPU можно узнать по ссылке.

Заключение

Надеемся, что наша статья была вам понятна и интересна, а также помогла разобраться в линейках и маркировках видеокарт от NVIDIA. Если возникли вопросы и несостыковки, то сначала загляните в Введение, если проблема не разрешилась и вопросы остались, то милости просим в комментарии!

Краткая история компании NVIDIA в видеокартах GeForce серий GT, GTX и RTX

Краткая история компании NVIDIA в видеокартах GeForce серий GT, GTX и RTX

реклама

Компания была основана в 1993 году. На III квартал 2018 года NVIDIA была крупнейшим в мире производителем PC-совместимой дискретной графики с долей 74,3% (статистика включает все графические процессоры, доступные для прямой покупки конечными пользователями — GeForce, Quadro и ускорители вычислений на базе GPU Tesla). По состоянию на январь 2018 года численность сотрудников превышала 11,5 тысяч человек. Штаб-квартира компании находится в городе Санта-Клара, штат Калифорния (США).

реклама

Желаю всем приятного просмотра!

реклама

реклама

NV 1. Первый графический 3D-ускоритель от NVIDIA, выпущен в 1995 году.

реклама

Riva 128/128ZX. В 1997 году компанией был выпущен второй графический чип, основанный на 350-нм техпроцессе, сыскавший звание “народного”.

Название RIVA является акронимом Real-time Interactive Video and Animation, а цифра 128 указывает на разрядность шины. Главной “фишкой” GPU является технология рендеринга, основанной на квадратическом маппинге текстур, который не поддерживался в Direct3D.

В 1998 году была выпущена Riva TNT – комбинированный 2D/3D ускоритель

Суффикс TNT означал, что чип способен работать с двумя текселями одновременно, а TNT сокращение от TwiN Texel. Для справки: Тексель это минимальная единица текстуры 3D объекта, а пиксель наименьшая единица текстуры 2D объекта.

Riva TNT2
В начале 1999 года компания NVIDIA начала производство графического процессора пятого поколения.

Riva TNT2 была доработанным вариантом TNT: добавлена поддержка AGP интерфейса, техпроцесс уменьшился до 250-нм, а частота чипа выросла с 90 до 150 мегагерц.

GeForce 256
Всё в том же 1999 году появился первый GPU из линейки GeForce.

Название GeForce появилось в результате конкурса, который проводился компанией. Главной фишкой GeForce 256 являлось наличие встроенного геометрического процессора, а также появился аппаратный блок трансформации и освещения (T&L). Кроме того именно с GeForce 256 началось использование самой быстрой на тот момент памяти DDR.

GeForce 2
В 2000 году на свет появился новый графический процессор, ядро которого было самым совершенным и производительным на то время.

Всего на базе GeForce 2 появилось более десятка модификаций, отличавшихся друг от друга разными частотами и шириной шины памяти. Именно в линейке GeForce 2 появились первые вариации для старшего модельного ряда, обозначенные суффиксом Ti – Titanium. Основу бюджетной линейки составляли карты с приставкой MX. К слову, в основу первого чипсета для материнских плат nForce легли именно GeForce 2 MX.

Следуя своему 6-месячному циклу, уже в 2001 году, компанией было представлено новое поколение графических процессоров – GeForce 3.

Следует отметить, что в отличие от GeForce 2, у GeForce 3 не было GPU начального уровня, все вариации обладали высокими на тот момент частотами, 256-битной шириной шины памяти, а также 128 битной DDR памятью. Тогда же появился шейдерный движок nfiniteFX.

GeForce 4
В 2002 году появилось четвертое поколение видеокарт GeForce, под этим именем выпускалось две линейки карт, Ti – высокопроизводительные, и бюджетные с приставкой MX.

И если старшая линейка GF4 продолжала развивать архитектуру GeForce 3, то бюджетная линейка ограничилась архитектурой GeForce 2. Ядро бюджетной модели GeForce 4 MX легло в основу чипсета nForce 2.

GeForce FX. Пятое поколение процессоров GeForce появилось в 2003 году.

Приставке FX карты обязаны новой версии шейдеров Shader Model 2.0, на тот момент продвигавшими графику на новый кинематографический уровень.

GeForce 6. В 2004 году появилось шестое поколение микропроцессоров от компании NVIDIA.

Примечательной особенностью GeForce 6 являлась обработка видео PureVideo, наличие технологии SLI, а также поддержка Shader Model 3.0.

GeForce 7
Седьмое поколение графических процессоров NVIDIA появилось в 2005 году.

Линейка GeForce 7 не привнесла каких-либо революционных нововведений, однако вполне успешно продолжила развивать заложенные технологии в GeForce 6. Например, за счет изменений в поточно-конвейерной архитектуре удалось добиться повышения производительности в полтора раза, при том же количестве потоковых конвейеров.

GeForce 8
В 2006 году состоялся выпуск восьмой серии графических акселераторов GeForce.

Эта серия имела унифицированную шейдерную архитектуру, благодаря которой изменилось представление о специализированном графическом конвейере. Например, унифицированные процессоры могли проводить как геометрические, так и пиксельные, вершинные и даже физические рассчеты. Также GeForce 8 дал свет программно-аппаратной архитектуре параллельных вычислений, которая называется CUDA (Compute Unified Device Architecture).

В 2008 году появилось девятое поколение графических процессоров GeForce 9.

Новый графический чип использовал доработанную архитектуру Tesla, заложенную в предыдущей модели карт GeForce 8. Следует отметить, что эта архитектура послужила базой для карт серий: GeForce 8, GeForce 9, GeForce 100, GeForce 200 и даже GeForce 300, настолько успешной на тот момент оказалась Tesla. Относительно GeForce 9 примечательной особенностью было очередное уменьшение техпроцесса до 65нм, а позднее и до 55нм, что положительно сказалось на габаритах печатных плат, а также на энергоэффективности конечного решения.

GeForce 100
В 2009 году появилось десятое поколение графических процессоров семейства GeForce.

Самой младшей в линейке являлись карты сотой серии, о которых мало кто слышал у нас, по причине нацеленности карт на ОЕМ-рынок. Относительно технических характеристик, то G150 были урезаны вдвое относительно GTX9800, GT130 были немногим лучше GeForce 9600GSO, а G100 являлась картой начального уровня и уступала в возможностях GT9400.

GeForce 200
Всё в том же 2009 году на рынке появилось логическое продолжение карт 9 серии в лице GeForce 200.

Первыми свет увидели GTX 280 и GTX 250, которые поддерживали технологию CUDA версии 2.0, PhysX а также улучшенную PureVideo с поддержкой декодирования видео в формате H.264, VC-1 и MPEG-2. Кроме того картами поддерживался DirectX 10 и Shader Model 4.0. Позже вышедшие 210/G210, GT 220 и GT240 получили поддержку DirectX 10.1 и Shader Model 4.1

GeForce 400
В 2010 году появилось новое поколение графических процессоров, основанное на архитектуре NVIDIA Fermi, первом ускорителе в арсенале компании с поддержкой DirectX 11.

Примечательной особенностью чипа является поддержка технологий DirectCompute и OpenCL, позволяющих проводить вычисления компьютерной графики при помощи графического процессора. Также появилась поддержка Shader Model 5.0

GeForce 500
В 2010 году компания продолжила развивать архитектуру Fermi.

Графический процессор получил поддержку технологий: 3D Vision Surround, CUDA, PhysX, а также 3-Way SLI. Карты на базе GTX 590 получили поддержку NVIDIA Quad SLI. Следует отметить, что улучшения коснулись не только новых технологий, но и была проведена работа по повышению общей производительности, а также по снижению энергопотребления, по сравнению с картами предыдущего поколения.

GeForce 600
В 2012 году, спустя два года после своего анонса, миру были представлены первые графические процессоры на основе новой архитектуры Kepler.

Новая архитектура подразумевала под собой не только ряд нововведений, среди которых есть технология GPU Boost, динамически управляющая частотой чипа, но и поддержка Nvidia TXAA. Однако самой главной особенностью 600 серии является переход на 28нм техпроцесс, что благоприятно сказывается на эргономичности и энерегоэффективности конечных решений. К слову, карты 600 серии получили поддержку не только DirectX 11.0, но и частично еще не вышедшей DirectX 12

GeForce 700
В 2013 году появились карты семейства GeForce 700, которые были представлены как на базе предыдущей архитектуры Kepler, так и новейшего Maxwell.

Следует отметить, что первыми ласточками в 700 серии стали карты GeForce GTX Titan и GTX 780 – флагманские карты, демонстрирующие всю мощь архитектуры Kepler. В 2014 году начали выходить карты GeForce GTX 750 и GTX 750 Ti на основе архитектуры Maxwell. Основной фишкой архитектуры можно назвать как динамическое разрешение для сглаживания неровностей без ущерба производительности, так и развитие технологии CUDA. Совместимость с DirectX 12 является немаловажным фактором как для геймеров, так и для разработчиков.

GeForce 900
Новейшая линейка видеокарт 900 серии основана на архитектуре Maxwell.

На данном этапе на рынке представлены две карты высшего ценового диапазона, относящихся к 900 серии – это GTX 970 и 980, а также среднего ценового диапазона GTX 960. Энергоэффективность на ватт у карт существенно возросла в отношении предшествующей линейки карт, а также снизилась теплоотдача, что выгодно сказалось на температурных режимах.

GeForce GTX 10 – Совершенство для игр

8 июля 2016 года была представлена видеокарта среднего ценового диапазона GeForce GTX 1060, сопоставимая по производительности с GeForce GTX 980, но потребляющая намного меньше энергии.

22 июля 2016 года компания NVIDIA представила профессиональную видеокарту NVIDIA TITAN X (Pascal) (не путать с видеокартой предыдущего поколения GeForce GTX Titan X (GM200), однако она не относится к игровой серии видеокарт, несмотря на то, что она основана на новом флагманском чипе GP102. Однако по обещаниям компании в дальнейшем должен выйти игровой аналог новинки.

1 марта 2017 года в ходе мероприятия GDC 2017 компания NVIDIA представила видеокарту GeForce GTX 1080 Ti, которую глава компании назвал самым мощным игровым графическим ускорителем в мире. По словам NVIDIA, новинка на 35 % производительнее GeForce GTX 1080 и обходит даже Titan X Pascal.

GeForce RTX 20 Series — семейство графических процессоров NVIDIA, представленное 20 августа 2018 в рамках конференции Gamescom. Чипы семейства GeForce RTX 20 основаны на новой архитектуре Turing, названной в честь английского математика, логика и криптографа Алана Тьюринга. Заявлено увеличение производительности до 6 раз в области трассировки лучей по сравнению с графическими процессорами предыдущего поколения. В продаже с 20 сентября 2018 года.

Серия GeForce RTX 20 поддерживает трассировку лучей в реальном времени, которая реализована с помощью новых RT-ядер. Для увеличения детализации изображения используются решения на базе искусственного интеллекта

Ещё больше интересного материала, качественного косплея и превосходных артов вы сможете найти здесь!

А какой была ваша первая видеокарта?

Обзор Inno3D GTX 560 Ti Overclock. Заводской разгон нового решения от NV > 2011-01-28 , Автор – FireAID ; Продукт – Inno3D GTX 560 Ti Overclock ; [18274]

Введение
Производитель видеокарт Inno3D относительно недавно сообщила о начале выпуска модифицированной линейки видеокарт на базе GeForce GTX 560 Ti. Данная линейка видеокарт является новинкой на отечественном рынке, поэтому должна заинтересовать потенциальных покупателей сегодняшнего и завтрашнего дня.

Ключевой особенностью видеокарты Inno3D GeForce GTX 560 Ti Overclock является заводской разгон, который позволяет ускорить работу видеокарты во всех режимах работы.

Видеокарта Inno3D GeForce GTX 560 Ti Overclock относится к новой продуктовой линейке компании NVIDIA – GeForce GTX 500, которая была впервые представлена двумя топовыми продуктами линейки – GeForce GTX 570/580. По сути дела, данные видеокарты оказались улучшенными вариантами топовых видеокарт предыдущих серий – GeForce GTX 470/480, ядра которых изначально имели заблокированные блоки в своей архитектуре. Абсолютно новым решением в среднем ценовом сегменте стала видеокарта NVIDIA GeForce GTX 560 Ti, которая получилась благодаря глубокой переработке графического ядра видеокарт NVIDIA GeForce GTX 460. Видеокарты NVIDIA GeForce GTX 560 Ti основывается на графическом ядре GF114, а видеокарты предыдущего поколения трудились на ядре GF104. Приставка “Ti” в названии видеокарты означает, что в ближайшем будущем мы увидим новые продукты без данной приставки.
Насколько новым видеокартам NVIDIA GeForce GTX 560 Ti удастся повторить успех видеокарт предыдущего поколения – GeForce GTX 460, – пока не ясно. Прошлое поколение видеокарт получило широкую популярность благодаря умеренной стоимости в сочетании с высокопроизводительной графикой. Немаловажное значение в успешном продвижении продукта на рынке имеет широкий выбор различных конкурирующих продуктов от производителей, которые обладают либо модифицированной системой охлаждения, либо заводским разгоном.

Анонс новых видеокарт NVIDIA GeForce GTX 560 Ti состоялся в январе текущего 2011 года и пока не известно, сможет ли новая модель повторить успех решения предыдущего поколения. Примечательно, что все предыдущие видеокарты с пометкой Ti – Titanium пользовались высоким спросом со стороны пользователей, – GeForce 2 Ti, GeForce3 Ti и GeForce 4 Ti.

Говоря о различиях ядер видеокарт GeForce GTX 460 и GeForce GTX 560 Ti следует отметить, что ядро GF104 изначально являлось урезанным решением, окончательную причину которого никто не комментировал. Все видеокарты на графических ядрах GF104 неплохо разгонялись, а это говорит о том, что производитель не выставил максимально возможные частоты работы видеокарты. Подобное обстоятельство приводило к тому, что удачно разгоняемый экземпляр видеокарты GeForce GTX 460 по уровню производительности смело мог соперничать с графическими решениями более высокого ценового диапазона, – NVIDIA GeForce GTX 470.

Имеется ли аналогичный шанс быстро завоевать популярность у видеокарт NVIDIA GeForce GTX 560 Ti основанных на графическом ядре GF114? На самом деле, это врятли так. Новое графическое ядро не имеет отключенных вычислительных блоков, поэтому ядро можно считать законченным продуктом, оно трудится на достаточно высоких графических частотах и врятли имеет существенный запас по уроню разгонного потенциала.

Новое графическое ядро GF114 основано на технологии “Fermi”, на которой основаны все предыдущее поколение графических продуктов – NVIDIA GeForce GTX 400. Поэтому мы считаем излишним дублировать информацию об архитектуре построения данного графического ядра, – ничего кроме количества блоков не изменилось. Комплектация

Видеокарта поставляется в коробке с изображением системы охлаждения видеокарты. На лицевой стороне коробки производителем отмечаются особенности комплектации устройства и модель продукта, с указанием ширины шины, типа и объема видеопамяти.

В комплект поставки входит:
– видеокарта,
– инструкция,
– диск с драйверами,
– ваучер для 3Dmark11,
– ваучер для Trial версии StarCraft 2,
– переходник питания,
– переходник DVI-to-VGA.
Из представленных данных видно, что комплект поставки видеокарты не блещет какими-либо изысками. Зачем класть ваучер для переписывания Trial версии игры StarCraft 2 – не совсем ясно, особенно для отечественных пользователей, которые получают все новинки с уже давно проверенных мест. Внешний осмотр видеокарты

При внешнем осмотре видеокарты выявляется, что ее система охлаждения ничем не отличается от референсных продуктов. На кожух системы охлаждения нанесена модель устройства, ключевые архитектурные особенности графического продукта.
Среди поддерживаемых видеокартой технологий следует выделить:
NVIDIA PhysX, пожалуй, это та технология, которую не успела перехватить компания AMD. Данная технология не поддерживается графическими решениями последнего. По официальным данным производителя в новой линейке видеокарт произведено усиление данного физического блока,

Microsoft DirectX 11, которая является стандартом для всех видеокарт выпущенных в текущем и прошлом году,

Технология NVIDIA CUDA, которая позволяет использовать вычислительные возможности видеокарты в тандеме с центральным процессором,

NVIDIA SLI, видеокарта обладает возможностью объединения в единый тандем до двух видеокарт при наличии соответствующей возможности у материнской платы,

NVIDIA 3D Vision. Это пожалуй та технология, которая сделала популярной видеокарты предыдущего семейства. Связано это с тем, что технология NVIDIA 3D Vision была представлена ранее, чем альтернативное решение от компании AMD H3HD.

После снятия кожуха системы охлаждения становится окончательно ясно, что она построена на базе референсного решения. Три медные тепловые трубки отводят тепло на алюминиевый радиатор, который в свою очередь охлаждается 80 мм вентилятором охлаждения от NVIDIA.

Видеокарта имеет небольшие габариты и распаяна на заводах NVIDIA на небольших по размеру платах синего цвета. Хочется попросить обратить внимание на наличие лишь одного коннектора для SLI мостиков. Аналогичная тенденция наблюдается и в сегменте графических продуктов от AMD, – у видеокарт среднего и низкого ценового диапазона был оставлен лишь одни CrossFire или SLI мостик.

Видеокарта потребляет порядка 170 ватт электричества, что требует подключения двух дополнительных коннекторов питания видеокарты. Это все делается для обеспечения полной совместимости с графическими слотами предыдущего поколения – с интерфейсом PCI-Exp 1.1, 1.4.

Видеокарта оснащена тремя портами для вывода изображения. В первую очередь, это два DVI-I слота для изображений и порт HDMI 1.4a, который поддерживает все необходимые стандарты передачи звука и видеофайлов.Спецификации

1. Графическое ядро: GF114
2. Частота графического ядра: 822 МГц;
3. Частота универсальных процессоров: 1644 МГц;
4. Частота работы видеопамяти 1002 Мгц,
5. Количество графических универсальных процессоров: 384;
6. Количество текстурных блоков – 64, блоков блендинга – 32;
7. Объем памяти 1024 МБ;
8. Тип памяти GDDR5,
9. 256-битная шина памяти;
10. Один SLI-разъем;
11. Поддержка HDCP, HDMI, DisplayPort;
12. Энергопотребление до 170 Вт
13. Двухслотовое исполнение.

Участник нашего тестирования Inno3D GTX 560 Ti Overclock трудится на более высоких частотах, нежели представленные референсные значения. Производитель произвел разгон видеокарты до 950 МГц по ядру, 1075 Мгц по видеопамяти.
По ценовому диапазону видеокарта тесно вписывается к стоимости видеокарт GeForce GTX 470. Это наводит на мысль о том, что новый продукт от компании NVIDIA позиционируется конкурентом не видеокартам GeForce GTX 460, а он нацелен на более дорогостоящий продукт – GeForce GTX 470.
Видеокарта изготовлена по 40 нм технологическому процессу, разработки в рамках которой не заканчиваются и по сей день. Видеокарта имеет 256 битную шину памяти, которой вполне хватает для графических продуктов среднего ценового диапазона. Тем не менее, следует отметить, что видеокарта оснащена всего 1 Гб видеопамяти, поэтому о широких возможностях игры на нескольких мониторах при использовании данной видеокарты мы врятли увидим. Данного объема видеопамяти вполне хватает для обеспечения стабильной работы видеокарт среднего ценового диапазона. Тестовая конфигурация
Видеокарта Inno3D GTX 560 Ti Overclock для проведения тестирований была установлена в системный блок следующей конфигурации:
1. Процессор Intel Core i7 920.
2. Материнская плата ASUS P6T.
3. 2×3 Gb Samsung Original DDR3-1600
4. XFX Radeon HD 6870 Black Edition
5. WD 1 TB WD1001FALS Caviar Black SATAII
6. Корпус Thermaltake Mambo.
7. Плата ASRock USB 3.0 PCI-Exp x1 на два порта.
8. В комнате 27 градусов.
9. Система собрана в закрытый корпус.

На базе данной конфигурации тестировались все представленные далее в обзоре графические решения.

1. Температурный режим работы видеокарты.

Следует отметить, что, несмотря на заводской разгон, видеокарта Inno3D GTX 560 Ti Overclock оснащена оригинальной системой охлаждения, которая продемонстрировала себя с не лучшей стороны. Высокая температура в нагрузке не позволяет нам произвести полноценный разгон видеокарты. На фоне продуктов AMD мы видим лишь отрицательную методику, которая видна в виде высоких уровней температуры видеокарты у пациента.

2. Разгон видеокарты
Видеокарта имеет изначальный заводской разгон до 950 Мгц по ядру и 1075 Мгц по видеопамяти. Изначальный высокий уровень заводского разгона позволил нам отказаться от домашнего разгона. Тем не менее, отметку в 985 Мгц по ядру мы взяли достаточно спокойно.
3. Оценка уровня производительности видеокарты в игре Crysis Warhead.
Достаточно популярная игра, которая является объективным критерием уровня производительности видеокарты на сегодняшний день.

Из представленных результатов тестирования видно, что видеокарта с заводским разгоном Inno3D GTX 560 Ti Overclock демонстрирует чудесные уровни производительности. Данная видеокарта по уровню производительности виртуозно обходит таких гигантов прошлого, как GeForce GTX 470/480.

4. Тестирование видеокарты в игре Resident Evil 5

При тестировании видеокарты во втором игровом тесте мы отмечаем резкий прирост производительности графической подсистемы системного блока. Тестируемая видеокарта Inno3D GTX 560 Ti Overclock снова вырывается в лидеры, оставив более дорогих конкурентов позади. На момент написания статьи за один экемпляр NVIDIA GeForce GTX 560 Ti просили 9900 рублей.

5. Тестирование видеокарты в игре Far Cry 2.

Третий игровой тест демонстрирует более правдивые для данной видеокарты результаты. В данном синтетическом тесте видеокарта не смогла догнать топовое решение предыдущего поколения – GeForce GTX 480. При этом наблюдается четкое преимущество относительно всех других существующих пациентов.

6. Тестирование видеокарты в синтетическом тесте 3Dmark Vantage.

Синтетический тест из комплекта поставки мы не использовали, так как она требует регистрации. Мы использовали синтетический тест Futuremark 3Dmark Vantege, который с успехом умеет тестировать как DirectX 10, так и DirectX 11 решения. Заключение
Новый графический продукт Inno3D GTX 560 Ti Overclock не является лишь доработанным решением. По сравнению с видеокартами предыдущего поколения – GeForce GTX 460/470 отмечается заметный шаг вперед. Графическое ядро видеокарты обладает всеми преимуществами архитектуры Fermi, трудится на высоких частотах, что позволяет говорить о заметном преимуществе данного решения относительно конкурирующих продуктов.
Среди продуктовой линейки компании AMD прямым конкурентом является решение AMD Radeon HD 6870, которое во всех тестах демонстрировало 10-12% отставание от тестируемого решения. Поэтому преимущество видеокарты Inno3D GTX 560 Ti Overclock над решением AMD Radeon HD 6870 кажется нам более чем существенным.
Недостатком видеокарты Inno3D GTX 560 Ti Overclock является ее стоимость в нашей стране. На сегодняшний день данной видеокарты либо нет на рынке, либо она есть у многих по завышенным ценам на 30-40% от рекомендованной производителем стоимости.

Чем RTX видеокарты отличаются от GTX и что лучше

На выставке Gamescom, летом 2018 года, компания NV >

Что такое RTX

RTX – это новая серия видеокарт от компании NVIDIA, которая пришла на замену старой серии GTX. Видеокарты RTX построены на базе новой микроархитектуры Turing, которая включает в себя отдельные модули для аппаратной трассировки лучей в реальном времени (RT-ядра) и работы с искусственным интеллектом и глубинным обучением (тензорные ядра).

На данный момент серии RTX и GTX выпускаются параллельно. Сейчас к серии RTX относятся видеокарты среднего и высшего ценового диапазона, это:

  • GeForce RTX 2060 / 2060 Super;
  • GeForce 2070 / 2070 Super;
  • GeForce 2080 / 2080 Super / 2080 Ti;
  • TITAN RTX;

А к серии GTX относятся бюджетные видеокарты, это:

  • GeForce GTX 1650 / 1650 Super;
  • GeForce 1660 / 1660 Super / 1660 Ti;

В дальнейшем, скорее всего, компания NV >

Чем RTX отличается от GTX

Линейка видеокарт NVIDIA RTX имеет два основных отличия от серии видеокарт GTX, это:

  • RT-ядра, которые обеспечивают аппаратное ускорение вычислений при трассировке лучей;
  • Тензорные ядра, используемые для программ с искусственным интеллектом и глубинным обучением;

RT-ядра и тензорные ядра – это отдельные модули внутри графического чипа видеокарты, и они присутствуют только на новых RTX моделях. На видеокартах серии GTX таких модулей нет.

Фактически, наличие этих ядер — это небольшой прорыв на рынке графических ускорителей, поскольку до этого подобного не было ни у NVIDIA, ни у их конкурента AMD. А в будущем, вероятней всего, наличие подобных модулей станет стандартом для всех видеокарт от обоих производителей. Косвенно это подтверждает тот факт, что поддержку аппаратного ускорения трассировки лучей уже анонсировали для игровых консолей следующего поколения.

Наличие RT и тензорных ядер открывает целый ряд новых возможностей. Так RT-ядра позволяют значительно ускорить вычисления, связанные с трассировкой лучей. Это позволит разработчикам игр создавать более реалистичное и динамичное освещение, которое сможет быстро меняться в зависимости от игровых событий. Также трассировка лучей, выполняемая ядрами RT, может применяться для создания таких эффектов, как отражения, преломления, тени и ограничение глубины резкости.

Нужно отметить, что трассировку лучшей можно использовать и на видеокартах без RT-ядер. NVIDIA даже выпустила обновление для драйверов, которое открывает эту возможность на видеокартах GTX 10-поколения. Но, без наличия RT-ядер трассировка отнимает слишком много производительности основных модулей графического процессора из-за чего сильно проседает FPS. Играть в таком формате вряд ли возможно, это скорее демонстрация самой технологии.

В свою очередь, тензорные ядра предназначены для ускорения вычислений, связанных с искусственным интеллектом и глубинным обучением. При чем это не обязательно какие-то прикладные или научные задачи. Тензорные ядра могут использоваться и в компьютерных играх, например, NVIDIA применила данную технологию сглаживания кадров. Это решение получило название DLSS. С его помощью можно значительно улучшить качество изображения в играх, при этом не расходуя вычислительную мощность основных модулей графического процессора видеокарты.

Кроме этого, RTX имеют ряд более мелких изменений, которые также выгодно отличают их от видеокарт прошлых поколений. Например, видеокарты RTX получили:

  • Отдельные целочисленные (INT) ядра для одновременного выполнения целочисленных операций и операций с плавающей запятой;
  • Поддержку видеопамяти GDDR6;
  • Поддержку DisplayPort 1.4a;
  • Поддержку стандарта VirtualLink VR для передачи видеопотока через порт USB Type-C;
  • Поддержку шины VLink Br >

Что лучше GTX или RTX

При выборе видеокарты может возникнуть вопрос, что лучше GTX или RTX. Ответ здесь достаточно очевиден, видеокарты RTX лучше GTX практически во всем и обладают уникальными возможностями, которые не доступны для GTX. Поэтому если есть возможность, то лучше покупать именно RTX.

Но, нужно учесть, что GeForce RTX 2060, которая является самой доступной во всей линейке RTX, справляется с трассировкой лучшей достаточно плохо. При включении этой функции FPS сильно проседает и играть становится не комфортно, даже в разрешении FullHD. Поэтому для полноценного игрового опыта с трассировкой лучей вам понадобиться GeForce RTX 2070 или даже более мощная видеокарта.

Читайте также:  Установка Google Chrome на компьютер
Ссылка на основную публикацию
Adblock
detector