Igd multi monitor что это - TurboComputer.ru
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд (пока оценок нет)
Загрузка...

Igd multi monitor что это

Igd multi monitor что это

При старте ПК с VGA материнки и DVI видеокарты всё показывает нормально и при загрузке и в Windows.
При подключении монитора к DVI материнки при старте ПК монитор не показвает до момента появления запроса на ввод пароля, ну и в самой Windows то же показывает.
Погуглив нашел несколько веток различных форумов, в том числе и архивную этого форума, из полезного попробовал снести драйвера Intel HD 3000 в safe mode, переключить на DVI и после загрузки установить их заново. Проблема не решилась. Фантазия у меня кончилась, жду идей.

Добавление от 18.09.2011 12:35:

Может кто подскажет разницу между VGA, DVI-I, HDMI одного графического адаптера по выводу изображения. На первый взгляд выводится должно одно и то же.
В моём случае проблемы с выводом изображения с DVI-I происходят до загрузки драйвером, а это может значить, что проблемы железные, а не драйверные?

1. ALSur , 18.09.2011 18:10
Что то ни одного отклика, помогите пожалуйста, как мне увидеть BIOS по DVI выходу?

2. gpv , 18.09.2011 19:20
ALSur
Что за материнская плата?

ASRock Z68 Pro3 прошивка последняя 1.60
Процессор Sandy Bridge с графическим ядром HD 3000
Есть ещё HDMI в него воткнут телевизор, он тоже не показывает, вообщем показывает только VGA, но на постоянку подключать монитор к выходу VGA не хочу.

3. ALSur , 18.09.2011 19:40
4. gpv , 18.09.2011 20:09
ALSur
Из мануала:
с.23
Boot your system. Press or to enter UEFI setup. Enter “Onboard VGA Share Memory” option to adjust the memory capability to [32MB], [64MB], [128MB], [256MB] or [512MB] to enable the function of VGA/D-sub. Please make sure that the value you select is less than the total capability of the system memory. If you do not adjust the UEFI setup, the default value of “Onboard VGA Share Memory”, [Auto], will disable VGA/D-Sub function when the add-on VGA card is inserted to this motherboard.
с. 47
Primary Graphics Adapter
This allows you to select [Onboard], [PCI] or [PCI Express] as the boot
graphic adapter priority. The default value is [PCI Express].
Onboard VGA Share Memory
This allows you to set onboard VGA share memory feature. The default
value is [Auto]. Confi guration options: [Auto], [32MB], [64MB], [128MB],
[256MB] and [512MB].

Смысл таков – если “Onboard VGA Share Memory” установлен в Авто, то, при наличии дискретной карты, это приведет к отключению VGA/D-sub.

цитата: gpv
Смысл таков – если “Onboard VGA Share Memory” установлен в Авто, то, при наличии дискретной карты, это приведет к отключению VGA/D-sub.

Добавление от 18.09.2011 22:45:

Пока приведу пункты конкретно моего BIOS касающиеся графических адаптеров, с переводом, может кто подскажет ход действия, а то как то не всё понятно, а я параллельно буду ковырять.

Low MMIO Align
Low MMIO resources align at 64MB/1024MB. The default value is [64MB].
VT-d
Use this to enable or disable Intel® VT-d technology (Intel® Virtualization Technology for Directed I/O). The default value of this feature is [Disabled].
Primary Graphics Adapter
This allows you to select [Onboard], [PCI] or [PCI Express] as the boot graphic adapter priority. The default value is [PCI Express].
Onboard VGA Share Memory
This allows you to set onboard VGA share memory feature. The default value is [Auto]. Configuration options: [Auto], [32MB], [64MB], [128MB], [256MB] and [512MB]. Render Standby
Use this to enable or disable Render Standby by Internal Graphics Device. The default value is [Enabled].
IGD Multi-Monitor
Use this to enable or disable IGD Multi-Monitor by Internal Graphics Device. The default value is [Enabled].
DVMT Mode Select
Use this option to adjust DVMT mode. The default value is [DVMT Mode]. DVMT (Dynamic Video Memory Technology) is an architecture that offers breakthrough performance for the motherboard through efficient memory utilization. In DVMT mode, the graphics driver allocates memory as needed for running graphics applications and is cooperatively using this memory with other system components. This item will not be used under Windows® Vista™1 / 7 OS because the driver will intelligently detect physical memory available and allocate necessary video memory.
DVMT Memory
You are allowed to adjust the shared memory size in this item. Configuration options: [128MB], [256MB] and [Maximum]. The option [Maximum] only appears when you adopt the memory module with 1024MB or above.

Low MMIO Align
Low MMIO выровнять ресурсов на 64MB/1024MB. Значение по умолчанию [64].
VT-D
Используйте это, чтобы включить или отключить Intel ® VT-D технологии (Intel ® Virtualization Technology для направленного ввода / вывода). Значение по умолчанию эта функция [Disabled].
Primary Graphics Adapter
Это позволяет вам выбрать [На борту], [PCI] или [PCI Express] в качестве приоритетного загрузочного графического адаптера. Значение по умолчанию [PCI Express].
Onboard VGA Share Memory
Это позволяет установить размер памяти набортного VGA. Значение по умолчанию: [Авто]. Варианты конфигурации: [Авто], [32], [64], [128], [256] и [512].
Render Standby
Используйте это, чтобы включить или отключить Рендер ожидания от внутреннего устройства Graphics. Значение по умолчанию: [Enabled].
IGD Multi-Monitor
Используйте это, чтобы включить или отключить IGD нескольких мониторов внутреннего графического устройства. Значение по умолчанию: [Enabled].
DVMT Mode Select
Используйте эту опцию для настройки DVMT режима. Значение по умолчанию [DVMT Mode]. DVMT (технология Dynamic Video Memory) является архитектура, которая предлагает рекордную производительность для материнской платы за счет эффективного использования памяти. В режиме DVMT, графический драйвер выделяет память по мере необходимости для выполнения графических приложений и совместно использования этой памяти с другими компонентами системы. Этот пункт не будет использоваться под Windows ® Vista ™ 1 / 7 OS, потому что драйвер будет грамотно контролировать доступность физической памяти и выделять необходимые видеопамяти.
DVMT Memory
Вы можете в этом пункте корректировать размер общей памяти. Варианты конфигурации: [128], [256] и [Максимальная]. Опцию [Максимальная] появляется только, когда вы установите модуль памяти 1024 МБ и выше.

5. ALSur , 18.09.2011 21:05
6. gpv , 18.09.2011 22:59
ALSur
Пока приведу пункты конкретно моего BIOS касающиеся графических адаптеров, с переводом, может кто подскажет ход действия, а то как то не всё понятно, а я параллельно буду ковырять.
Я привел пункты меню из мануала от материнки. Неужели и так не понятно?
Устанавливаешь набортную видюху в качестве приоритетной (Primary Graphics Adapter->[Onboard]), а в Onboard VGA Share Memory выбираешь любое значение, кроме Авто.

цитата: gpv
Устанавливаешь набортную видюху в качестве приоритетной (Primary Graphics Adapter->[Onboard]), а в Onboard VGA Share Memory выбираешь любое значение, кроме Авто.

Перевёл Primary Graphics Adapter в [Onboard] и всё заработало. Правда VGA Share Memory не менял, по идее должен стоять в [Auto]. Сей час перегружусь посмотрю точно.

Добавление от 18.09.2011 23:33:

цитата: gpv
а в Onboard VGA Share Memory выбираешь любое значение, кроме Авто.

Перегрузился посмотрел Onboard VGA Share Memory стоит в [Auto]

7. ALSur , 18.09.2011 23:27
8. gpv , 18.09.2011 23:36
ALSur
Правда VGA Share Memory не менял, по идее должен стоять в [Auto].
Еще раз повторяю. Это я не сам придумал, это в мануале написано, что, если оставить в дефолте (Авто), то, при установке дискретной карты, встроенная (VGA/D-Sub) отключится:
If you do not adjust the UEFI setup, the default value of “Onboard VGA Share Memory”, [Auto], will disable VGA/D-Sub function when the add-on VGA card is inserted to this motherboard.

Перегрузился посмотрел Onboard VGA Share Memory стоит в [Auto]
Так выбери любое понравившееся значение! Что останавливает?!

цитата: gpv
If you do not adjust the UEFI setup, the default value of “Onboard VGA Share Memory”, [Auto], will disable VGA/D-Sub function when the add-on VGA card is inserted to this motherboard.

у меня в руководстве такой фразы нет, а значения для графики, в том числе и Onboard VGA Share Memory выставлю максимальные, памяти хватает. Спасибо за помощь.

9. ALSur , 18.09.2011 23:43
10. gpv , 18.09.2011 23:45
ALSur
у меня в руководстве такой фразы нет
Это из мануала с офсайта (http://www.asrock.com/mb/manual.asp?Model=Z68%20Pro3) .

Да действтельно написано, так что кто ещё столкнётся с это проблемой остаётся сказатьтиповую фразу: перед началом работ прочитайте мануал.
Ещё раз спасибо.

11. ALSur , 19.09.2011 18:13
12. gpv , 19.09.2011 21:30
ALSur
перед началом работ прочитайте мануал.
Рекомендую Устав установки ОС. Из личного опыта. (http://forum.ixbt.com/topic.cgi? />

цитата: gpv
Перегрузился посмотрел Onboard VGA Share Memory стоит в [Auto]
Так выбери любое понравившееся значение! Что останавливает?!

Дошли руки до настройки BIOS, включил значение [512] параметра Onboard VGA Share Memory DVI опять перестал показывать, так как же тогда переводится строчка мануала:
If you do not adjust the UEFI setup, the default value of “Onboard VGA Share Memory”, [Auto], will disable VGA/D-Sub function when the add-on VGA card is inserted to this motherboard.

13. ALSur , 22.09.2011 12:35
14. gpv , 22.09.2011 14:03
ALSur
Я перевел как: при установке vga-карты, vga/d-sub будет отключен, если “Onboard VGA Share Memory” установлен по-умолчанию (Авто).

цитата: gpv
Я перевел как: при установке vga-карты, vga/d-sub будет отключен, если “Onboard VGA Share Memory” установлен по-умолчанию (Авто).

Да и у меня вроде бы так же переводится, а результат прямо противоположный. PCI Express карта у меня установлена.
Может знатоки английского подскажут в чём заковыка?

15. ALSur , 22.09.2011 20:37
16. gpv , 22.09.2011 20:42
ALSur
результат прямо противоположный
Так тебе нужен правильный перевод или желаемое?
Работает – не трожь! (с)

цитата: gpv
Так тебе нужен правильный перевод или желаемое?

17. ALSur , 22.09.2011 21:12
18. emoxam , 20.02.2012 21:36
добавялю свои 5 копеек к косякам линейки. у меня мать ASRock Z68 Extreme4 Gen3
так вот покуда первичный адаптер установлен в PCI-E – такого устройства как HDMI аудио в винде не будет. (куда бы не был овткнут монитор)
на офиц форумах и ящиках которые я нашёл меня практически проигнорировали. где то полностью где то врубившись что я хочу пропадали.

в итоге приходится пользоваться первичным ONBOARD, и да, ДО загрузки винды изображение есть только на ТВ который подключен по HDMI. (монитор поключен конечно же в дискертку)

P.S. ожидая вопроса а что же я не втыкаю монитор в ONBOARD и не использую Vitru – jтвечаю:
Battlefield 3 выдаёт ошибку при загрузке 2-ой сетевой баталии, уверяя что у меня закончилась видеопамять.

видео 8800GTS 512
оперативки 8 Gb
share memory было и в auto и в 512 (максимальное значение)

Safe-CRYPTO.me

В наше время слова «Майнинг», «Блокчейн», «Биткоины» раздаются буквально отовсюду: от пассажиров трамвая до серьёзных бизнесменов и депутатов Госдумы. Разобраться во всех тонкостях и подводных камнях этих и смежных понятий сложно, однако в базе данных на нашем сайте Вы быстро найдёте исчерпывающую информацию, касающуюся всех аспектов.

Ищем дополнительную информацию в базах данных:

Igd multi monitor что это

Дождитесь окончания поиска во всех базах.
По завершению появится ссылка для доступа к найденным материалам.

Перейти к результатам поиска >>>

Вкратце же все необходимые знания будут изложены в этой статье.
Итак, начать стоит с блокчейна. Суть его в том, что компьютеры объединяются в единую сеть через совокупность блоков, содержащую автоматически зашифрованную информацию, попавшую туда. Вместе эти блоки образуют базу данных. Допустим, Вы хотите продать дом. Оформив документы, необходимо идти к нотариусу, затем в присутствии его, заверив передачу своей подписью, Вам отдадут деньги. Это долго, да и к тому же нужно платить пошлину.

Благодаря технологии блокчейна достаточно:

  1. Договориться.
  2. Узнать счёт получателя.
  3. Перевести деньги на счёт получателя.

. и не только деньги. Можно оформить электронную подпись и отправлять документы, любую другую информацию, в том числе и конфиденциальную. Опять же, не нужны нотариусы и другие чиновники: достаточно идентифицироваться Вам и получателю (будь то частное лицо или госучреждение) в своём компьютере.

Возможность взломать исключена из-за огромного количества блоков, описанных выше. Для хакера нужно подобрать шифр для каждого блока, что физически нереально.

Другие возможности использования блокчейна:

  • Страхование;
  • Логистика;
  • Оплата штрафов
  • Регистрация браков и многое другое.


С блокчейном тесно связано понятие криптовалюта. Криптовалюта — это новое поколение децентрализованной цифровой валюты, созданной и работающей только в сети интернет. Никто не контролирует ее, эмиссия валюты происходит посредством работы миллионов компьютеров по всему миру, используя программу для вычисления математических алгоритмов.

Вкратце это выглядит так:
1. Вы намереваетесь перевести кому-то деньги.
2. Генерируется математический код, проходящий через уже известные Вам блоки.

3. Множество компьютеров (часто представляющих собой совокупность их, с мощными процессорами и как следствие большей пропускной способностью) обрабатывают цифровую информацию, передавая их на следующие блоки, получая за это вознаграждение (некоторые транзакции можно совершать бесплатно)
4. Математический код доходит до электронного кошелька получателя, на его балансе появляются деньги.

Опять же, как это в случае с блокчейном, переводы криптовалют никем не контролируются.

Работающих по подобному принципу валют много. Самой знаменитой является, конечно, биткоин. Также популярны эфириум, ритл, лайткоины, нумитсы, неймкоины и многие другие. Разница у них в разном типе шифрования, обработки и некоторых других параметрах.

Это люди, создавшие упомянутую выше совокупность компьютерных видеокарт, которая генерирует новые блоки, передающие цифровую информацию — биткоины (или ритлы, или любую другую криптовалюту). За это они получают вознаграждение в виде той же самой криптовалюты.

Существует конкуренция между майнерами, т.к. технология с каждой транзакции запрограммировано усложняется. Сначала можно было майнить с одного компьютера (2008 год), сейчас же такую валюту как биткоин физическим лицам уже просто невыгодно: нужно очень много видеокарт (их все вместе называют фермами), с огромными вычислительными мощностями. Для этого снимаются отдельные помещения, затраты электроэнергии для работы сравнимы с затратами промышленных предприятий.

Зато можно заработать на других, менее популярных, но развивающихся криптовалютах. Также различают соло майнинг и пул майнинг. Соло — это создание своей собственной фермы, прибыль забирается себе. Пул же объединяет других людей с такими же целями. Заработать можно гораздо больше, но придётся уже делиться со всеми.

В Японии криптовалюта узаконена. В России в следующем году собираются принять нормативно-правовые акты о легализации блокчейна, переводов криптовалюты и майнинга. Планируется перевод некоторых операций в рамки блокчейна. Имеет смысл изучить это подробнее, и, при желании, начать зарабатывать. Очевидно, что сейчас информационные технологии будут развиваться и входить в нашу жизнь всё больше и больше.

Выводим картинку через интегрированное видео.

BoostOrDie

Свой человек

Вообщем вчера мне подсказали как выводить картинку через видео крату встроенную в камень, чтобы не растрачивать ресурсы первой видео карты на это, я попробовал, пару раз споткнулся но все таки сделал это, и хочу мини гайдик для остальных сделать.

И так с чего нужно начать?
1) Отключаем все видео карты от матери и втыкаем монитор в материнку.
2) Заходим в Биос и ищем там настройку инициализации графических адаптеров. Это будет что-то типа Integrated graphics settings.
3) Там будут значения PEG или IGD. Выбираем IGD.
4) Сохраняем настройки и перезагружаемся снова в БИОС.
5) Теперь там где мы выбрали IGD скорей всего будет доступен выбор размер, а видео памяти для интегрированной карты. По умолчанию всегда 64мб. Я рекомендую выставить от 256мб. ( я выставил 512, все таки 2017 год на дворе). Учтите, что эта память будет “откусываться” от оперативной.
6) Далее ищем настройки PCI configuration.
Там скорей всего ( если у вас материнка не из говна и палок, то есть современная) будет настройка Enable above 4G memory или decoding. “4G что то там” короче, ставим как Disabled. Сохраняемся выходим и ставим новую ОС.
7) После установки новой ОС, ставим все драйвера Кроме NVIDIA и РАДЕОН дров.
8) Выключаем комп, включаем в мать Первую видео карту в x16 слоте. Включаем комп, ОС должна загрузится и картинка должна по прежнему идти через материнку. Если все так – продолжаем.
9) Ставим дрова на первую карту. Перезагружаемся – проверяем что с одно картой картинка по прежнему передается через мать и что драйвера встали корректно.
10) Выключаем комп, подключаем вторую карту. Тут есть важный момент.
У меня 4 порта x16 + x1 +x1 +x16. Я столкнулся с тем, что если воткнуть две карты в x16 сразу, то система не загружается – у меня черный экран с мигающим курсоров в углу. Как я это испраил – читаем далее.
И так. Нужно соблюдать порядок подключения.
-Сначала одна карта в первый x16
– Потом по одной карте в каждый x1 слот (1 включили, дрова поставили, проверили, повторяем со следующей)
Когда у нас остается для подключение порт x16 (второй или третий) нужно зайти в биос и найти ту настройку “4G что то там”. (кстати после обновления биоса до последнего у меня в названии этой настройки появилось /mining crypto currency).
11) Включаем в Биосе 4G Decoding опцию. Сохраняемся, выключаем комп. Подключаем карту во второй слот x16. Грузимся в ОС, ставим дрова, ребутаемся, если картинка идет с матери, все ОК. Проверяем корректность дров. если у вас 3 слота x16 то вставляем туда карту и ставим дрова.

Поздравляю, теперь у вас вывод изображения на монитор или TW обрабатывается через встроенное в процессор графическое ядро. Ваша первая карта (куда у вас была затычка вставлена) не тратит 0.5-1.5 мх на обработку картинки рабочего стола.

PS у меня после этого всего перестала требоваться Затычка для первой карты. Карты запускаются без каких либо HDMI конвертеров.

В диспетчере устройств у вас должны быть ваши карты + Intel. Как я вчера выяснил он также отображается и в Afterburner. Но он не может разогнать intel и майнер не умеет работать с intel так что никаких проблем быть не должно.

Удачного майнинга. (PS может быть я перестраховываюсь и делаю много лишних шагов (например запуска карты по одной, вместо того чтоб сразу в x1 воткнуть разом). Напишите об этом, я тоже учусь пока майнингу. Возможно для кого-то это будет не интересно и банально, а кому то поможет.
Надеюсь будет полезно.

lumixxxxx

Бывалый

ghost3ds

Свой человек

Dimon

Друг форума

Вообщем вчера мне подсказали как выводить картинку через видео крату встроенную в камень, чтобы не растрачивать ресурсы первой видео карты на это, я попробовал, пару раз споткнулся но все таки сделал это, и хочу мини гайдик для остальных сделать.

И так с чего нужно начать?
1) Отключаем все видео карты от матери и втыкаем монитор в материнку.
2) Заходим в Биос и ищем там настройку инициализации графических адаптеров. Это будет что-то типа Integrated graphics settings.
3) Там будут значения PEG или IGD. Выбираем IGD.
4) Сохраняем настройки и перезагружаемся снова в БИОС.
5) Теперь там где мы выбрали IGD скорей всего будет доступен выбор размер, а видео памяти для интегрированной карты. По умолчанию всегда 64мб. Я рекомендую выставить от 256мб. ( я выставил 512, все таки 2017 год на дворе). Учтите, что эта память будет “откусываться” от оперативной.
6) Далее ищем настройки PCI configuration.
Там скорей всего ( если у вас материнка не из говна и палок, то есть современная) будет настройка Enable above 4G memory или decoding. “4G что то там” короче, ставим как Disabled. Сохраняемся выходим и ставим новую ОС.
7) После установки новой ОС, ставим все драйвера Кроме NVIDIA и РАДЕОН дров.
8) Выключаем комп, включаем в мать Первую видео карту в x16 слоте. Включаем комп, ОС должна загрузится и картинка должна по прежнему идти через материнку. Если все так – продолжаем.
9) Ставим дрова на первую карту. Перезагружаемся – проверяем что с одно картой картинка по прежнему передается через мать и что драйвера встали корректно.
10) Выключаем комп, подключаем вторую карту. Тут есть важный момент.
У меня 4 порта x16 + x1 +x1 +x16. Я столкнулся с тем, что если воткнуть две карты в x16 сразу, то система не загружается – у меня черный экран с мигающим курсоров в углу. Как я это испраил – читаем далее.
И так. Нужно соблюдать порядок подключения.
-Сначала одна карта в первый x16
– Потом по одной карте в каждый x1 слот (1 включили, дрова поставили, проверили, повторяем со следующей)
Когда у нас остается для подключение порт x16 (второй или третий) нужно зайти в биос и найти ту настройку “4G что то там”. (кстати после обновления биоса до последнего у меня в названии этой настройки появилось /mining crypto currency).
11) Включаем в Биосе 4G Decoding опцию. Сохраняемся, выключаем комп. Подключаем карту во второй слот x16. Грузимся в ОС, ставим дрова, ребутаемся, если картинка идет с матери, все ОК. Проверяем корректность дров. если у вас 3 слота x16 то вставляем туда карту и ставим дрова.

Поздравляю, теперь у вас вывод изображения на монитор или TW обрабатывается через встроенное в процессор графическое ядро. Ваша первая карта (куда у вас была затычка вставлена) не тратит 0.5-1.5 мх на обработку картинки рабочего стола.

PS у меня после этого всего перестала требоваться Затычка для первой карты. Карты запускаются без каких либо HDMI конвертеров.

В диспетчере устройств у вас должны быть ваши карты + Intel. Как я вчера выяснил он также отображается и в Afterburner. Но он не может разогнать intel и майнер не умеет работать с intel так что никаких проблем быть не должно.

Удачного майнинга. (PS может быть я перестраховываюсь и делаю много лишних шагов (например запуска карты по одной, вместо того чтоб сразу в x1 воткнуть разом). Напишите об этом, я тоже учусь пока майнингу. Возможно для кого-то это будет не интересно и банально, а кому то поможет.
Надеюсь будет полезно.

Gigabyte GV-N206SGAMING OC-8GC

Устанавливаем видеокарту Gigabyte GeForce RTX 2060 SUPER GAMING OC 8G (GV-N206SGAMING OC-8GC) в Big Tower (или Full Tower) корпус: Chieftec BA-02B-B-SL. Как видно длина 280мм не проблема, а двухслотовая система охлаждения, позволяет легко установить две одинаковых видеокарты, для работы в Multi-GPU режиме.

Для блока питания Chieftec Silicon SLC-650C, который имеет модульное подключение кабелей нагрузки, понадобится один кабель с двумя 6+2 pin PCIe силовыми разъёмами:

А для подключения видеокарты к монитору Dell UltraSharp U2412M был использован кабель BEHPEX HDMI (m) (прямой) – DVI-D (m) (прямой), 2м, черный.

Далее, нам нужно чтобы работали в системе две видеокарты: интеграшка (iGPU) и дискретка. Подробнее как это сделать можно прочитать здесь.
Рассмотрим пример, когда была активна iGPU, а дискретки не было в системе. В этом случае, оставляем подключенным монитор к интеграшке, при установленной дискретной видеокарте.
Далее, идём в BIOS и выставляем следующие настройки в разделе: Settings > Advanced > Integrated Graphics Configuration и в Integrated Graphics Devices Configuration выставляем следующие значения:
Initiate Graphic Adapter > [PEG] PCI-Express Graphics Device.
IGD Multi-Monitor > [Enabled].

Качаем Studio драйвер (он доступен для этой видеокарты, только для версии операционной системы Microsoft Windows 10), его версия: 431.86.

Отказываемся от установки GeForce Experience:

Выбираем рекомендованный метод установки: Express.

NVIDIA Installer has finished. Нажимаем на кнопку: Close.

Качаем с официального сайта фирменную утилиту (в разделе Поддержка): AOURUS ENGINE.

При запуске фирменной утилиты, отказываемся от активации фирменной подсветки (это по желанию): RGB Fusion. Просто нажав в окне Confirm на кнопку: No.

Теперь в окне Confirm нажимаем на кнопку: Yes.

Интерфейс и настройки утилиты Gigabyte AOURUS ENGINE:

Как видеокарту Gigabyte GeForce RTX 2060 SUPER GAMING OC 8G видит утилита мониторинга GPU-Z:

Запускаем программу Adobe Premiere Pro CC 2019 и видим, что доступно два аппаратных движка Mercury Playback Engine GPU Acceleration: CUDA и OpenCL. За последний отвечает интеловская интеграшка, так как OpenCL ускорение для видеокарт nVidia порезали в предыдущей версии программы.

С помощью инструмента GPUSniffer проверяем правильно ли всё подключено и настроено.
За OpenGL должна отвечать дискретная видеокарта, т.е. там должна быть прописана GeForce RTX 2060 SUPER/PCIe/SSE2, с установленным драйвером NVIDIA 431.86.
Кстати для адобовских OpenGL приложений теперь для видеокарт nVidia GeForce RTX при установленных последних драйверах, доступна поддержка работы в 10-битном режиме для OpenGL. Ранее эта опция была доступна только для профессиональных видеокарт серии nVidia Quadro.
Но, будет надеяться что в ближайшее время, может даже в Adobe Premiere Pro CC 2020, компания Adobe откажется от OpenGL на платформе Windows, как это произошло на платформе Mac OS.
*Компания Adobe заявила, что новые версии Adobe Camera Raw (v12.0), Adobe Lightroom Classic 2020 (v9.0) и Adobe Lightroom 2020 (v3.0) больше не будут поддерживать устаревшее графическое ускорение с помощью OpenGL. И переходят на Microsoft DirectX 12 на Windows платформе и Apple Metal на macOS платформе.
Далее, мы видим, что интеграшка у нас также прописана как OpenCL Device в GPU Computation Info, но будет использовано только для аппаратного декодирования и кодирования с помощью технологии Intel Quick Sync Video.

Тестируем видеокарту в Neat Video 5.

Igd multi monitor что это

Advanced Member

Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору Приветствую!

Не стал писать в профильной ветке по ОС’ям, т.к. не совсем понятно в чем проблема: то ли в ОС (драйверах), то ли в BOIS’е (настройки), то ли в мониторе (внезапно заглючил), то ли в руках моих (случается постоянно).

Конфигурация:

  • монитор: Dell U2412M (DVI-D, DisplayPort, VGA);
  • матплата: Asus Sabertooth Z97 Mark 2, Intel HD Graphics 4600 (DisplayPort, HDMI);
  • видеокарта: GTX 1080Ti (DVI-D, DisplayPort, HDMI).

Монитор соединен с матплатой через DP-кабель, c видеокартой – через DVI-D.

Задача. Использовать в качестве основного источника видеосигнала – матплату, в качестве дополнительного – видеокарту. Дополнительный источник должен быть задействован исключительно для обработки видеоигр.
Не спрашивайте, что за странная задача такая, но просто так надо, и мне казалось, что реализовать её – делать нечего. Ан-нет, ошибался.

Решение. В настройках BOIS’а задал в качестве основного источника сигнала встроенный GPU (CPU Graphics). В ОС Windows 8.1 в Параметрах дисплеев в поле Несколько источников указал “Расширить эти экраны”. Далее запускаю клиент Battle.net (открывается на основном дисплее), запускаю из-под него игру и та уже на основном экране не отображается. Через монитор выбираю источник DVI-D и попадаю на доп. экран, где меня встречает умная игрулька, которая сама сообразила запуститься под доп. монитором. Всё хорошо. НО теперь, когда я на мониторе выбираю в качестве источника DP (чтобы вернуться на основной дисплей), то монитор переходит в режим “не знаю что делать” – кнопка power мигает через пару секунд, кнопки меню не реагируют. Дабы оживить монитор, необходимо отключить кабель DVI-D от видеокарты – тогда я попадаю на основной дисплей. Т.е. с DP (матплаты) на DVI-D (видеокарту) переход происходит, а вот обратно почему-то нет.

Решил порыскать в BIOS’е ещё. Активировал там некую настройку – CPU Graphics Multi-Monitor. После зашел в систему, но поведение переключения с одного источника на другой и обратно не изменилось.

Драйверы всех устройств в актуальном состоянии.

Вопросы:

  1. Почему в моем случае возникает проблема при возврате с DP-источника на DVI-D?
  2. Объясните, пожалуйста, по-русски для чего конкретно используется опция “CPU Graphics Multi-Monitor” (она же “IGPU Multi-Monitor”, как понял), и нужна ли данная опция для моей задачи? В Интернетах пишут что-то типа
    Цитата:
    Позволяет одновременно использовать и встроенное и внешнее видео.

    Но позвольте, у меня вроде как и без неё работало и встроенное, и внешнее видео. Только вот одновременно или нет – знать не могу, т.к. монитор у меня один. Но наличие опции “Расширить эти экраны” как бы подразумевает параллельное использование двух источников, разве нет?

Спасибо!

Всего записей: 1457 | Зарегистр. 10-01-2009 | Отправлено:02:28 03-06-2018
ZSZ

Silver Member

Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору The_Immortal

Цитата:

Решил порыскать в BIOS’е ещё.

Вы же в винде всё это делаете? С неё и спрос. Как вариант, посмотреть, как Ваша задача будет работать в Линуксах.

Последние 10 лет количество косяков на всякие дополнительные возможности видеокарт что в драйверах, что в виндах резко возросло. Всё пишется как попало и кем попало. В 2005 году такого бардака не было. Работало всё и везде и как надо. Задолбало уже.

Купить за 20$ второй монитор, желательно, чтобы его физическая высота матрицы была такой же, как у основного монитора, разрешение по высоте тоже такое же или близкое, будет удобней.

Всего записей: 4498 | Зарегистр. 15-01-2012 | Отправлено: 02:42 03-06-2018
The_Immortal

Advanced Member

Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору ZSZ,
Цитата:

посмотреть, как Ваша задача будет работать в Линуксах

Цитата:

Купить за 20$ второй монитор, желательно, чтобы его физическая высота матрицы была такой же, как у основного монитора, разрешение по высоте тоже такое же

Однако решения у Вас, скажем так, соломоновские Dell U2412M – где я на такой не очень-то бюджетный монитор найду аналог за 20$?

Всего записей: 1457 | Зарегистр. 10-01-2009 | Отправлено: 03:01 03-06-2018 | Исправлено: The_Immortal, 03:01 03-06-2018
ZSZ

Silver Member

Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору The_Immortal

Цитата:

где я на такой не очень-то бюджетный монитор найду аналог за 20$?

Да везде. Любой Б/У на 19 дюймов 1280х1024. Высота матрицы примерно такая же, как у вашего.

Я так понял, Вы электроэнергию хотите экономить?

Измеряете реальное энергопотребление компа в простое при работе монитора от разных видеокарт, разница скорее всего будет ничтожна.

Читайте также:  Включаем звук на телевизоре через HDMI
Ссылка на основную публикацию
Adblock
detector