Jump to content

подскажите проц и видюху для DCS


Recommended Posts

  • ED Team
Posted

Вот и расскажешь нам :)

Других вариантов все равно пока нет. А эту карту позиционируют как тянущюю 8k 60fps.

Posted (edited)
Интересно,есть ли смыл менять gtx1070 на 3070 (только для DCS)?

Если проц может выдать более сотни фпс в 720p в миссиях с ботами то стоит. Поблажки стоит делать если монитор уже от QHD.

 

 

Реальных тестов еще нет же.. Поживём - увидим.
Edited by Сладенький

i7-8700K@5 | G.Skill 2x16GB@3200cl14 | Asus Strix RTX 2080 | SSD (NVMe+SATA) | LG 27GL850 QHD@144 FS/GS + Dell P2414H | HOTAS Warthog

Posted
Здравия парни.Интересно RTX 3090 вытянет DCS в VR режиме на максималку?И фпс 90??Вот это меня очень интересует).Потому как я намерен в скором будущем именно брать 3090.
Это еще смотря какой VR, но я хоть сейчас могу сделать несколько сценариев, где гипотетические 3090х2 в идеальном SLI будут иметь падение ФПС ниже 30.

Из новинок для DCS в VR интересна действительно только 3090, остальные не тянут еще до выхода.

 

VR HP Reverb G2, Monitor Samsung C32HG70, CPU Ryzen 5800Х3D, MSI X570 ACE, RAM CMK32GX4M2F4000C19 2X16Gb (@3600), M.2 960PRO 500Gb, M.2 2000Gb, VGA RedDevil 6900XTU, EKWB CPU+GPU

Posted

Из новинок для DCS в VR интересна действительно только 3090, остальные не тянут еще до выхода.

Ничего интересного в 3090 нет, +15% к производительности 3080, + 100% к цене. За те деньги можно 2 3080 взять.

i7-8700K@5 | G.Skill 2x16GB@3200cl14 | Asus Strix RTX 2080 | SSD (NVMe+SATA) | LG 27GL850 QHD@144 FS/GS + Dell P2414H | HOTAS Warthog

Posted (edited)
YOUTUBE
Здесь обсуждение железа для DCS, а не видео для убогих
Ничего интересного в 3090 нет, +15% к производительности 3080, + 100% к цене. За те деньги можно 2 3080 взять.
+14Гб к видеопамяти, которой у 3080 всего 10Гб при необходимых 16Гб для DCS в ВР уже сейчас. Edited by alessander
 

VR HP Reverb G2, Monitor Samsung C32HG70, CPU Ryzen 5800Х3D, MSI X570 ACE, RAM CMK32GX4M2F4000C19 2X16Gb (@3600), M.2 960PRO 500Gb, M.2 2000Gb, VGA RedDevil 6900XTU, EKWB CPU+GPU

Posted
Здесь обсуждение железа для DCS, а не видео для убогих

Для DCS какое-то отличное железо? Чего несешь?

 

+14Гб к видеопамяти, которой у 3080 всего 10Гб при необходимых 16Гб для DCS в ВР уже сейчас.

Жду к следующему сообщению, как Радеон 7 с 16ГБ нагибает 2080Ti с недостоточным врам в DCS VR. При отсутствии и уклонении считаешься форумным п****болом.

i7-8700K@5 | G.Skill 2x16GB@3200cl14 | Asus Strix RTX 2080 | SSD (NVMe+SATA) | LG 27GL850 QHD@144 FS/GS + Dell P2414H | HOTAS Warthog

Posted

Для меня сейчас встала дилемма: Брать сейчас 3080 или набраться терпения и ждать большого нави, сравнивать и уже потом выбирать оптимальный вариант. Тут самое сложное с терпением.

i7-14700KF-5,7GHz , 64GB DDR5-6600 , MSI 4090 SUPRIM X , M.2-1Tb+SSD-500 GB+M.2-1Tb , MSI MPG Z690 CARBON WIFI  ,  VPC WarBRD MT-50CM2 Flightstick+TWCS Throttle , IIyama prolite xb3270qs-b1 ,  HP Reverb G2 Quest 3

Posted

Берём сначал ай9, затем - RTX 3090, 4 оперативки по 16гб, ведро с материнкой z490 и 1000 watt БП туды. охапку ссдшников и комп готов.

i5 9600k; rtx 2070super 8gb by "gygabite" gddr6; 32gb2(16x2dual) DDR4

Posted
Для меня сейчас встала дилемма: Брать сейчас 3080 или набраться терпения и ждать большого нави, сравнивать и уже потом выбирать оптимальный вариант. Тут самое сложное с терпением.

 

Чё разве АМД тащут по видяхам?)))

i5 9600k; rtx 2070super 8gb by "gygabite" gddr6; 32gb2(16x2dual) DDR4

Posted
Берём сначал ай9, затем - RTX 3090, 4 оперативки по 16гб, ведро с материнкой z490 и 1000 watt БП туды. охапку ссдшников и комп готов.

3090 не нужна.

15991671184602.thumb.png.aa8d509e952b48b674a0986c3bafa646.png

15991744010950.png.9ff9f3e81b2fa798ab36980d8adc33b8.png

i7-8700K@5 | G.Skill 2x16GB@3200cl14 | Asus Strix RTX 2080 | SSD (NVMe+SATA) | LG 27GL850 QHD@144 FS/GS + Dell P2414H | HOTAS Warthog

Posted
Для меня сейчас встала дилемма: Брать сейчас 3080 или набраться терпения и ждать большого нави, сравнивать и уже потом выбирать оптимальный вариант. Тут самое сложное с терпением.

Без HT потоков и жесткого разгона ЦП и ОЗУ 3080 может превратиться в тыкву даже на 2К, ждем тестов.

В остальном радеоны лажают. Были ждуны вег получившие 1070 по цене 1080 с опозданием в год. После черных экранов на 5700 радеоны не нужны, да и вообще видеокарты без тензорных ядер.

i7-8700K@5 | G.Skill 2x16GB@3200cl14 | Asus Strix RTX 2080 | SSD (NVMe+SATA) | LG 27GL850 QHD@144 FS/GS + Dell P2414H | HOTAS Warthog

Posted
Для DCS какое-то отличное железо? Чего несешь?

 

Жду к следующему сообщению, как Радеон 7 с 16ГБ нагибает 2080Ti с недостоточным врам в DCS VR. При отсутствии и уклонении считаешься форумным п****болом.

Еще раз намекну модерам, что перед нами в очередной раз предстал нездоровый товарищь Яппо, зашедший уже под не знаю каким там по номеру левым ником на форум :)

  • ED Team
Posted (edited)
..Интересно RTX 3090 вытянет DCS в VR режиме на максималку?И фпс 90?..

 

"Новая версия нейросетевого апскейлинга создана специально для игры в разрешении 8K на RTX 3090 с высоким фреймрейтом — она может увеличивать разрешение картинки девятикратно.

 

В дополнение к этому DLSS 2.1 поддерживает VR — это позволит демонстрировать более качественную картинку, сохраняя необходимые для таких шлемов 90 и более fps."

 

https://dtf.ru/amp/203638

 

Нам нужен DLSS 2.1 в DCS, чтобы использовать эти технологии.

Edited by SL PAK
Posted
Для меня сейчас встала дилемма: Брать сейчас 3080 или набраться терпения и ждать большого нави, сравнивать и уже потом выбирать оптимальный вариант. Тут самое сложное с терпением.
Приветствую гостя из будущего, когда 3000-я серия уже в продаже.

"Новая версия нейросетевого апскейлинга создана специально для игры в разрешении 8K на RTX 3090 с высоким фреймрейтом — она может увеличивать разрешение картинки девятикратно.

В дополнение к этому DLSS 2.1 поддерживает VR — это позволит демонстрировать более качественную картинку, сохраняя необходимые для таких шлемов 90 и более fps."

Нам нужен DLSS 2.1 в DCS, чтобы использовать эти технологии.

Да, это уже интереснее, но вряд ли DLSS 2.1 будет эксклюзивом только Ампер и естественно требует поддержки в играх.

Хотя качество апскейла для ВР больше зависит от самого шлема, чем от технологий машинного маркетинга.

 

VR HP Reverb G2, Monitor Samsung C32HG70, CPU Ryzen 5800Х3D, MSI X570 ACE, RAM CMK32GX4M2F4000C19 2X16Gb (@3600), M.2 960PRO 500Gb, M.2 2000Gb, VGA RedDevil 6900XTU, EKWB CPU+GPU

  • ED Team
Posted

Больше интересует не качество, а повышение фреймрейта высоких разрешений используемых в шлемах.

Posted
Для меня сейчас встала дилемма: Брать сейчас 3080 или набраться терпения и ждать большого нави, сравнивать и уже потом выбирать оптимальный вариант. Тут самое сложное с терпением.

Под выход Big Navi Куртка выкатит 3080Ti, ибо уж очень большой разрыв между 3090 и 3080 и по кол-во памяти и по цене. 3080Ti туда идеально впишется с 16-20 Гб Врам.

i9 12900KF/RTX 4090/32 Gb DDR4/ThrustMaster Warthog/MFD Cougar Pack/CH Pro Pedals/TrackIR 5

Posted
Больше интересует не качество, а повышение фреймрейта высоких разрешений используемых в шлемах.
Повышение фреймрейта очень легко смоделировать даунскейлом в ВР, или уменьшением разрешения для любого монитора.
 

VR HP Reverb G2, Monitor Samsung C32HG70, CPU Ryzen 5800Х3D, MSI X570 ACE, RAM CMK32GX4M2F4000C19 2X16Gb (@3600), M.2 960PRO 500Gb, M.2 2000Gb, VGA RedDevil 6900XTU, EKWB CPU+GPU

Posted
"Новая версия нейросетевого апскейлинга создана специально для игры в разрешении 8K на RTX 3090 с высоким фреймрейтом — она может увеличивать разрешение картинки девятикратно.

 

Это конечно всё круто читается. Но, это сети маркетологов.

Я вот подумал, применительно к DCS. А почему никто не задумался о том, есть ли такой ЦП, который вытянет подготовку картинки в 7680*4320 (а это как бы 33,2 Мегапикселя) для выдачи ее к видюхе хотя бы со скоростью 60 к/с?

Тут как бы с имеющимися ЦП возникают сложности, что бы получать разрешение 4k (8,3 Мегапикселя) со стабильной скоростью более 90 к/с (на высоких и экстремальных настройках).

MB: MPG-Z390 GP / i7 9700KF 4,8 ГГц / DDR4 64 Gb 3466 МГц / GTX 2080Super / Acer 43" ET430KWMIIQPPX 4k / Win 10

 

Podp_39_Su-27-45.png

  • ED Team
Posted

А как рассчитывать какой необходим процессор для обеспечения фреймрейта определённого разрешения и частоты?

 

Технология DLSS не помогает процессору справляться?

Posted
А как рассчитывать какой необходим процессор для обеспечения фреймрейта определённого разрешения и частоты?
Никак, разрешение никак не сказывается на загрузке центрального процессора, если для расчета картинки задействована видеокарта (100% всех современных игр).
Технология DLSS не помогает процессору справляться?
DLSS помогает nVidia несколько нивелировать дикое падение ФПС при включении лучиков в проплаченных тестах.
 

VR HP Reverb G2, Monitor Samsung C32HG70, CPU Ryzen 5800Х3D, MSI X570 ACE, RAM CMK32GX4M2F4000C19 2X16Gb (@3600), M.2 960PRO 500Gb, M.2 2000Gb, VGA RedDevil 6900XTU, EKWB CPU+GPU

Posted (edited)

Я вот подумал, применительно к DCS. А почему никто не задумался о том, есть ли такой ЦП, который вытянет подготовку картинки в 7680*4320 (а это как бы 33,2 Мегапикселя) для выдачи ее к видюхе хотя бы со скоростью 60 к/с?

ИМХО примерно такой же, как для подготовки картинки в 1280x720

DLSS помогает nVidia несколько нивелировать дикое падение ФПС при включении лучиков в проплаченных тестах.

DLSS 2.0 отличная вещь, позволяет получать одновременно высокое качество картинки с высоким FPS (то есть даже на моём обрубке из подписи можно иметь 4k/60 FPS). Проблема только в том, что не во всех играх поддерживается.

Если когда-нибудь появится в DCS, то это будет самое большое улучшение оптимизации за всё время существования проекта.

Edited by electro_monkey

i5-9600K / RTX 2060 / 32 GB DDR4-3200 CL16 / Win10 x64 / Cobra M5 (BRD)+ Gametrix ECS / Opentrack

Posted
DLSS 2.0 отличная вещь, позволяет получать одновременно высокое качество картинки с высоким FPS (то есть даже на моём обрубке из подписи можно иметь 4k/60 FPS). Проблема только в том, что не во всех играх поддерживается.

Если когда-нибудь появится в DCS, то это будет самое большое улучшение оптимизации за всё время существования проекта.

DLSS (не важно какой версии, т.к. отличаются они только количеством наработанных шейдеров с момента запуска поддерживающей ее игры) не зря "тестируется" исключительно применительно к FHD=>4k (или 4k=>8k), т.к. происходит кратная конвертация пикселей 1 к 4. Все остальные конвертации HD=>FHD, FHD=>2k, 2k=>4k, будут приводить к жуткому мылу, как это и было в первой "версии" DLSS. Т.е. технология может быть интересна исключительно владельцам 4k и 8k дисплеев, т.к. никто из владельцев FHD не занимается конвертацией из нераспространенного разрешения 960х540, а соответственно и "искусственному интеллекту" обрабатывать нечего.

Более того, все результаты таких "вау-сравнительных тестов" представлены скриншотами, а мы на мониторах наблюдаем динамическую картинку, что совсем не одно и тоже.

Пользователи замечают, что конвертированная FHD=>4k картинка с DLSS отличается от просто 4k (в основном за счет возросшего ФПС), а маркетологи nVidia убеждают их, что она ничем не хуже, показывая скриншоты обработанные алгоритмом.

Проверяя DLSS 2.0 на 2070S , я подключил ее к 4k телевизору, у которого была собственная система улучшения изображения с низким разрешением, и результат конвертации FHD=>4k алгоритмом телевизора был ничуть не хуже DLSS, а ФПС даже повыше. Хотя лично мне гораздо больше нравится обычное АА-сглаживание, как на мониторе, так и в ВР-шлеме.

Сравнительные тесты проприетарной DLSS 2.0 от nVidia и общедоступной FidelityFX от AMD показывают схожие результаты, подвергая сомнению необходимость выделение транзисторного бюджета ГП под специальные блоки для DLSS.

Думаю все закончится примерно тем же, что и в борьбе G-Sync/FreeSync - чумаданы занесенные игро/железоделам работают до тех пор, пока всю эту маркетинговую чухню не разнесут незаангажированные тестеры.

 

VR HP Reverb G2, Monitor Samsung C32HG70, CPU Ryzen 5800Х3D, MSI X570 ACE, RAM CMK32GX4M2F4000C19 2X16Gb (@3600), M.2 960PRO 500Gb, M.2 2000Gb, VGA RedDevil 6900XTU, EKWB CPU+GPU

Posted
DLSS (не важно какой версии, т.к. отличаются они только количеством наработанных шейдеров с момента запуска поддерживающей ее игры) не зря "тестируется" исключительно применительно к FHD=>4k (или 4k=>8k), т.к. происходит кратная конвертация пикселей 1 к 4. Все остальные конвертации HD=>FHD, FHD=>2k, 2k=>4k, будут приводить к жуткому мылу, как это и было в первой "версии" DLSS. Т.е. технология может быть интересна исключительно владельцам 4k и 8k дисплеев, т.к. никто из владельцев FHD не занимается конвертацией из нераспространенного разрешения 960х540, а соответственно и "искусственному интеллекту" обрабатывать нечего.

Более того, все результаты таких "вау-сравнительных тестов" представлены скриншотами, а мы на мониторах наблюдаем динамическую картинку, что совсем не одно и тоже.

Пользователи замечают, что конвертированная FHD=>4k картинка с DLSS отличается от просто 4k (в основном за счет возросшего ФПС), а маркетологи nVidia убеждают их, что она ничем не хуже, показывая скриншоты обработанные алгоритмом.

Проверяя DLSS 2.0 на 2070S , я подключил ее к 4k телевизору, у которого была собственная система улучшения изображения с низким разрешением, и результат конвертации FHD=>4k алгоритмом телевизора был ничуть не хуже DLSS, а ФПС даже повыше. Хотя лично мне гораздо больше нравится обычное АА-сглаживание, как на мониторе, так и в ВР-шлеме.

Сравнительные тесты проприетарной DLSS 2.0 от nVidia и общедоступной FidelityFX от AMD показывают схожие результаты, подвергая сомнению необходимость выделение транзисторного бюджета ГП под специальные блоки для DLSS.

Думаю все закончится примерно тем же, что и в борьбе G-Sync/FreeSync - чумаданы занесенные игро/железоделам работают до тех пор, пока всю эту маркетинговую чухню не разнесут незаангажированные тестеры.

Осторожней с этим форумным п****болом, слился на от своего вскудаха на врам, теперь п***ит за DLSS, которого никогда на своей бомжевеге не видел. Недавно играл в контроле и Deliver of the moon на 2K, DLSS 2.0 ох**нен.

Ну и классическое бинго амудафанбоев про не те тесты.

 

 

Почему DLSS хорош, и нет амуда аналогов?

Кожанка потратил кучу бабла чтобы войти на этот рынок, все ходовые фреймворки для создания нейросетей имеют поддержку CUDA и cuDNN, и абсолютно никакой энтерпрайс поддержки opencl для amd, потому что Хуанг сам взял и запилил библиотеки для нейрочки, кривая амуда этого не делает нет денег и умений, как всегда хочет чтобы это сделал кто-то за них, но всем проще пользоваться готовым от нвидии. И это далеко не игры, Теслы управляются платами nvidia TX, куча стартапов на jetson nano.

i7-8700K@5 | G.Skill 2x16GB@3200cl14 | Asus Strix RTX 2080 | SSD (NVMe+SATA) | LG 27GL850 QHD@144 FS/GS + Dell P2414H | HOTAS Warthog

Posted

Как же хочется ртх 3070 просто ппц.

Win11 / R7 9800X3D / 64Gb DDR5 / RTX 4090 / FFBeast base + VPC FLNKR grip / VPC MangoosT-50CM3 Throttle / Marksmann XX Rudder / VR PICO 4

Z - Zначит Zорро
Антисоветчик - всегда сушкофоб

Posted
Как же хочется ртх 3070 просто ппц.

Нееее. Надо выжидать. Первый блин, всегда комом...(с)

Ход времени неумолим,

Наступит день, взревут турбины…

И оторвется от земли

Тебе послушная машина. © Вадим Захаров.

-----------------------------------------------------------------------------------------------------------------

Gigabyte z390 aorus elite|i7-9700K(turbo boost4800)|4xDDR4-3466(32)|HDD(2Tb)|gtx1080ti|Pimax 5k+|G32QC|Chieftec 1000W| ZalmanGS1200|BRD(напольник)|РУС Мангуст Т-50|VKB-MK-18-3|Mdjoy16(GVL)|Thrustmaster Hotas Warthog|Thrustmaster MFD|MS Sidewinder Force Feedbak 2|TrackIR5+TrackClipPRO|

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...