Jump to content

подскажите проц и видюху для DCS


Recommended Posts

У всех видюх жрет по разному. Никаких стабильных жоров памяти нет.

 

Ну хотя не сказать, что такое везде актуально. Там просто есть функция заполнения всей памяти гпу.

 

Или тут

 

Да вообще https://www.youtube.com/user/DudeRandom84/videos

Там есть Pascal vs Maxwell. И они между собой на 2гб разницы в одинаковых играх жрут.


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

wall.gif.c373d988eb0edf4935ba718c404d5b33.gif

П.С. Вот зачем вы так? А если зайдёт молодой, ещё неиспорченный вирпил, почитает-почитает, и перейдёт на тёмную сторону? И будут ему снится ночью инпут лаги и фризы страшные, и начнёт он переживать из-за плохой оптимизации и всякой вертикальной синхронизации вредной... :unsure: бросит ведь, уйдёт в тундру...


Edited by azm
Link to comment
Share on other sites

Кароч если в целом:

1) Да, про FLOPS я тупанул, конечно они показывают в целом ориентировоную производительность видеокарты. Но прикол в слове "ориентировочную". Я когда выбираю видеокарту не привык на такое надеется.

Та же 1060, которая по flops слабее 980 иногда оказывается в играх на 5-15 фпс сильнее.

 

2) VSYNC порождает инпут лаг, раза в 2 уж точно выше, чем без vsync. Тесты есть, надо ток искать, один я кинул выше. Как и писал, на оверах мне точно кто-то кидал, но я ща уже его не найду.

Уж лучше редкие разрывы, чем дикая потеря в реакции на событие на экране (т.е. из-за дико возросшего инпут лага). Против G-SYNC и Free Sync ничего не имею (хоть они и тоже не идеал далеко)

 

3) Чисто для изучения - частоты, архитектура, чип и тд это здорово и интересно. Но не будете вы всё это высчитывать в FPS сами. Да и оверы таким не занимаются.

Для покупателя видеокарты вполне достаточно будет ПРАВДИВЫХ тестов FPS в сборе на системе и все.

Исключения лишь если карта берется для рендринга или вычислений (тут на фиг эти fps не сдались, а как раз нужная чистая выч. мощность). Тут Quadro\Tesla\Firepro. Но думаю кому такие карты нужны и сами все уже знают =)

 

4) Да не фига не одинакового память жрут карты, вон даже в рамках одного поколения. И вовсе не по той причине, что на старой было мало памяти, недостаточно. Чем больше памяти тем меньше вероятность того, что в каждой следующей игре у вас будут фризы. А фризы по VRAM|, как вы знаете, ничем не компенсировать, не RAM, не тем более SSD\HDD.

 

5) про "Можно спрогнозировать определенные цифры, другой вопрос, в архитектуре движка самой игры. Если о нем что то известно, то прогноз будет точным. Если это что то свежее, с кучей багов, то ни ЦП ни GPU тут будут ни при чем, вопрос разработчика игры. А сама производительность в любом случае останется за железкой и никуда не утечет."

Ну это я вообще не понял. Чего? Какое знание архитектуры движка еще. Да кто этим будет заниматься? Фигня.

Про "останется за железкой" тоже надо аккуратным быть. Quantum break'у это скажите например, где ВНЕЗАПНО NVIDIA проиграла AMD в чистую. И это 1 пример, их не так много, но бывает и такое.

 

Если совсем вкратце - смотрите тесты FPS и будет вам счастье. Все остальное по желанию.


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

 

Хоспади... какой же это треш. Причем в головах не образованных, которые суть статьи не поняли, но про 200 мс и Vsync написали. Ахтунг.

 

На оверах где-то тест валялся, там значения в 2-3 раза выше были, посмотрите.

 

Оверы могут идти лесом. Собственно и те, кто на них ссылается. Это такой же трешовый ресурс.

 

Для выбора хорошей видеокарты данной инфы не нужно знать, совсем не обязательно.

 

Я не понимаю, что такое "хорошая видеокарта". Это та, которая минет умеет делать?

Видеокарты не бывают хорошими или плохими, они бывают производительными и не очень.

Покупая производительную видеокарту, ты покупаешь больше возможностей по скорости обработки/рендера графики. Часто, это влияет на повышение фпс. Но, не всегда. Потому что, если производитель заявляет у GTX XXXX 7,5 TFLOPs, то она и будет иметь эту производительность. А вот как этим воспользуется ПО (т.е. игрульки и другие приложения), это вопрос к разработчикам этого ПО и их программистам.

 

Чет на видеокарте высчитывать по архитектуре, гадать - да на оверах люди таким не занимаются даже.

 

Мало ли кто и чем не занимается. Оверы идут лесом уже очень давно. Это самый последний ресурс (как педевикия), которые я буду шерстить, если мне понадобиться качественная инфа.

 

Исключение лишь Титан, как обрезок для вычислений и Quadro\Tesla, которые чисто для вычислений.

 

Не ужели я тебя удивлю, если скажу, что до 1070 у меня 780-ая использовалась для вычислений. А сейчас, вместо 780-й используется 1070, для все тех же вычислений. Только разница в производительности огромна. Равно как и огромна разница в фпс в нескольких играх.

 

Ага, избыток плох. Чем же?

 

Вот сам подумай, зачем мне тебя учить? Я считаю и полностью поддерживаю твою позицию по знанию, вернее незнанию в этом вопросе. И я не вижу выгоды в том, что бы тебя переубеждать.

В диалог вступил лишь проверить правильность своего мнения по твоим предыдущим постам. Технарь из тебя никакой. Тем не менее, твоя безграмотность не дает тебе право постить разного рода треш и утверждать бредятину в которой ты сам не разобрался/не понял.

Если ты хочешь быть таким, это твое святое право. Но пожалуйста, не надо делать окружающих такими же.

 

И еще раз - большинство даже старых игр умеют забивать всю доступную память GPU. Почитайте, посмотрите тесты. И это имхо абсолютно верно и хорошо.

Из ближайших примеров - COD. Что новый, что до него.

 

Ну ты еще раз задумайся.

1. Есть ли снижение/повышение фпс при увеличении объема видеопамяти у этой игры? Если фпс одинаков, что на 3 Gb, что на 6 Gb, то на повышение объема видеопамяти вообще пофигу. Если фпс с повышением объема растет, то это прямой вопрос к программистам - какой в этом сакральный смысл.

2. Не единым COD знаменуется игровой мир.

 

Спрогнозировать зная архитектуру, бла-бла-бла. Фигня. FPS вы этим в играх не фига не спрогнозируете. Даже FPS, как вы сами знаете, не в прямой зависимости от FLOPS.

 

Я считаю, что спасение утопающих, дело рук самих утопающих. И совершенно не собираюсь переубеждать, пытаться провести ликбез и уж тем более повысить тебе уровень образования в этом вопросе. Лишь обозначу нюанс о котором говорим: правда у каждого своя, а истина всегда одна. И ты по своему прав для себя. Но, от истины в обозначенном вопросе далек, очень далек.

 

Еще раз заострю внимание на том, что я не пытаюсь тебя дискредитировать или как то обидеть. Совсем нет. Просто, ты далек от истинного понимания обозначенных/затронутых тобой вопросов.

У меня нет времени, что бы по полочкам тебе разложить пункты из твоего сообщения 3199. Мог бы, но не хочу. Достаточно много теории надо знать и понимать, что бы ответить хотя бы на 2 пункта. А там их аж 5.

 

Успехов в играх! :)

MB: MPG-Z390 GP / i7 9700KF 4,8 ГГц / DDR4 64 Gb 3466 МГц / GTX 2080Super / Acer 43" ET430KWMIIQPPX 4k / Win 10

 

Podp_39_Su-27-45.png

Link to comment
Share on other sites

Ну собтно ЧТД. Когда дошли до сути вещей, то все ушло в "Я умный, а ты тупой" без каких либо объяснений почему.

Если у вас так ЧСВ повышено, зачем вступать в такие беседы?

 

Хоспади... какой же это треш. Причем в головах не образованных, которые суть статьи не поняли, но про 200 мс и Vsync написали. Ахтунг.

Следуя вашей же тактике: кто вам мешает самому погуглить эти тесты или понять, как устроен vsync и почему он порождает input lag. Если вы такой замечательный технарь, как можно не знать очевидной вещи? Мои слова про "я так ценней" опустим.

 

Оверы могут идти лесом. Собственно и те, кто на них ссылается. Это такой же трешовый ресурс.

Надо было пойти дальше и перейти уже не в косвенные оскорбления.

Ну ixbt и 3dnews с хабром для вас тоже, как я понимаю, трэш.

 

Не ужели я тебя удивлю, если скажу, что до 1070 у меня 780-ая использовалась для вычислений. А сейчас, вместо 780-й используется 1070, для все тех же вычислений. Только разница в производительности огромна. Равно как и огромна разница в фпс в нескольких играх.

 

780 и 1070 для каких вычислений вы использовали? Для рендринга? Для подбора к хэшам?

Суть не в том, что 1070 быстрее 780 ДАЖЕ в вычислениях (это очевидно), а в том, что нормальные люди не используют игровые видеокарты для вычислений. Ибо в игровых видеокартах нет (или ничтожно мало) блоков для вычислений с 2ой точностью и тд, которые как раз и необходимы. И не только в этом.

Из смеси есть только Titan, который несмотря на то, что по идее игровая видеокарта, так-же ограничено годен для вычислений. Ограничено-годен - потому что Quadro его порвет. (хоть топовые Quadro и стоят в районе 400к руб).

 

Никто не говорил, что игровые карты вообще не могут в рендринг и вычисления. Да не, конечно могут. Но по сравнению с проф решениями это ерунда.

 

Если глобально:

1) GTX для игр, чисто

2) Titan для игр\рендрига\моделинга

3) Quadro для рендинга\моделинга

4) Tesla для вычислений

 

Вот сам подумай, зачем мне тебя учить? Я считаю и полностью поддерживаю твою позицию по знанию, вернее незнанию в этом вопросе. И я не вижу выгоды в том, что бы тебя переубеждать.

Нормальная позиция в таком случае это хотя бы нейтрально писать. У Вас же ЧСВ зашкаливает и начинаются какие-то косвенные оскорбления и показа того "как я хорош". Причем когда мы доходим до сути вещей, оказывается, что пруфоф у вас нет вообще. Не вступайте в те диалоги, где вы хотя бы на пальцах не готовы рассказать что и почему. Просто сказать "ты не прав" - это ничего не стоит.

 

Если фпс одинаков, что на 3 Gb, что на 6 Gb, то на повышение объема видеопамяти вообще пофигу.

А фризы и микрофризы мы забудем. И с каких пор объем памяти влияет на fps? У нас 1060 с 3гб отличается от 7гб? И еще таких карт полно. Память вовсе не для подъема FPS нужна (собтна она его и не дает)

Это еще без учета того, что игры жрут все больше и больше VRAM, не важно, объективно или нет, но это факт. Следовательно нет смысла брать версии, где VRAM меньше, если ток бюджет не позволяет.

 

Нормальная позиция так-же в признании ошибок.

Из моих:

1) Конечно по FLOPS можно оценить в целом производительность видеокарты в целом, но составить картину FPS для конкретно игры не выйдет.

2) Я там писал, что много игр, которые жрут всю видеопамять. Все-же правда в том, что они есть, типа COD.

 

Покупая производительную видеокарту, ты покупаешь больше возможностей по скорости обработки/рендера графики.

Ерунда. Большинство софта вообще только через CPU умеет это делать. Там, где появляется GPU - будет оно рендрить 20 часов на старой или 18 часов на новой видюхе это уже не то, чему можно радоваться. Ибо на проф видюхе это будет скажем часа 2.

Чисто из интереса - где вы конкретно используете 1070 для рендринга или её вычислительные мощи?

 

Касаемо инет ресурсов - так за долгие годы прибывания в нете можно вполне нормально для себя определять, что является норм. источником инфы, а что нет. Та же Вики абсолютно норм ресурс, надо только источники чекать.

 

Еще раз заострю внимание на том, что я не пытаюсь тебя дискредитировать или как то обидеть. Совсем нет. Просто, ты далек от истинного понимания обозначенных/затронутых тобой вопросов.

У меня нет времени, что бы по полочкам тебе разложить пункты из твоего сообщения 3199. Мог бы, но не хочу. Достаточно много теории надо знать и понимать, что бы ответить хотя бы на 2 пункта. А там их аж 5.

Самое адекватное, что прочел, не считая первого предложения.

 

З.Ы. "Я так ценней как инженер". Ну да, у нас инженеры это люди, которые знают всё и везде и от этого имеют высокую ЗП. Ерунда же, ну. То есть знать и изучать всегда можно и нужно. Но такие фразы это от.. не знаю, опять от ЧСВ наверное. Разве что мы с вами оба работаем в производстве GPU и их архитектуры, в чем я сильно сомневаюсь.


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

Покупая производительную видеокарту, ты покупаешь больше возможностей по скорости обработки/рендера графики.

Ерунда. Большинство софта вообще только через CPU умеет это делать.

:doh:

NVIDIA разрабатывает технологии рендеринга, которые используют самые современные архитектуры GPU
http://www.nvidia.ru/object/advanced-rendering-ru.html

Nvidia это наверное просто так делает, от нечем заняться. Bl00dWolf, вы им подскажите, пусть бросят это бестолковое занятие.

=WRAG=345

R7 5800X @ 4,8 GHz; DDR4 32Gb RAM (+32Gb swap); Radeon RX 6800 16Gb; 3840x2160; Win10-64

Link to comment
Share on other sites

:doh:

http://www.nvidia.ru/object/advanced-rendering-ru.html

Nvidia это наверное просто так делает, от нечем заняться. Bl00dWolf, вы им подскажите, пусть бросят это бестолковое занятие.

 

"Я сама дочь офицера и тут не все так однозначно"

https://habrahabr.ru/post/130378/

 

http://www.autodesk.ru/adsk/servlet/item?siteID=871736&id=18262999

iray опять же не для GTX, а для Quadro больше.

 

Да, года 2011-2012 - maxwell и pascal не греются и близко так, как это было во времена всяких 580ых и 690ых. Но речь о том, что iray не универсальное решение, хоть и весьма хорошее.


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

Давайте жить дружно. Тема называется "Подскажите видюху и проц для ДКС" давайте будем в рамках этого спорить. Т.е. если кому то потребуется помощь, а я подскажу ему какую-то дичь.

А то устроили с вами войны какие-то.

 

Сам стараюсь использовать видюху как могу, в плане рендринга (premier на cuda), waifu2x (нейросеть с поддержкой cudnn, тут GPU быстрее CPU раз в 100), хеши и тд. Но утверждать, что игровая GPU норм для этих целей в целом - ерунда.


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

Давайте жить дружно.

 

Да никто не против. Но прекрати нести откровенную ахинею, как в сообщениях 3199 и 3201. Пожалуйста.

Если какие то кретины понаписали на каких то "уважаемых" сайтах околесицу, это не означает, что это надо нести в массы. :)

 

Сам стараюсь использовать видюху как могу, в плане рендринга (premier на cuda), waifu2x (нейросеть с поддержкой cudnn, тут GPU быстрее CPU раз в 100), хеши и тд. Но утверждать, что игровая GPU норм для этих целей в целом - ерунда.

 

Тогда либо ты ее не используешь, либо кто то кому то нагло врет.

 

Потому что в том же премьере, который ты используешь (и я тоже) при реальном задействовании cuda скорость обработки и сжатия видео на такой GPU как GTX 780 ref в двое быстрее, чем временной размер самого видео.

В производительности это выражается очень просто (мой пример железа):

- i7 3820 в разогнанном виде до 4 ГГц без HT выдает пиковые 150 GFLOP с 4-х ядер;

- GTX 780 ref выдает более 3,8 TFLOP.

Думаю тебе ведь совсем не сложно найти разницу между двумя этими цифрами?

Если взять цену игровой GPU и профессиональной (вычислительной), то у одной из типов есть серьезный выигрыш производительность/цена. ;)

 

А если взять GTX 1070 с ее ~5.9 TFLOP, то выигрышь в скорости рендера между GPU и CPU вообще срывает крышу. :D

А главное, какая экономия времени и энергозатрат. ;)

 

И речь здесь вовсе не в ЧСВ, а в реальных знаниях и понимании обсуждаемых вопросов.

Будете в Москве, за кружечкой пива я смогу структурировано и четко дать ответы на поставленные вопросы. Но заниматься текстопейсательством технической теории, доступной в книгах (а книги доступны в интернете), это слишком долго. Трудозатраты могут не покрыться. :)

MB: MPG-Z390 GP / i7 9700KF 4,8 ГГц / DDR4 64 Gb 3466 МГц / GTX 2080Super / Acer 43" ET430KWMIIQPPX 4k / Win 10

 

Podp_39_Su-27-45.png

Link to comment
Share on other sites

А вы молодец, взяли 100% мощность GPU и сравнили её с CPU.

Вы наверное не в курсе, что это глупость.

https://blogs.adobe.com/creativecloud/cuda-mercury-playback-engine-and-adobe-premiere-pro/?segment=dva

 

Как минимум потому, что далеко не вся мощь видеокарты идет на это, ибо у видеокарты далеко не все блоки это CUDA.

При этом, CUDA, как и iRay, не поддерживают весь спектр так скажем функций для рендра.

 

И речь скорее была о игровой GPU vs проф. GPU.

Я не спорил, что там, где есть поддержка ускорения, GPU будет быстрее. Речь о том, что игровые видеокарты ограниченно годятся для рендра и никак для вычислений. И это не в сравнении с CPU, а в сравнении с Quadro и Tesla.

А то, что Quadro\FirePro и Tesla дорогие - нормальное явления.

Утверждать, что quadro не стоит своих денег для работы с графикой, а GTX прям идеал цены\качества - такое себе дело.

 

Будете в Москве

Я из неё никуда и не девался изначально :D

Nvidia
- CUDA, OpenCL.

AMD
- OpenCL.

 

Unbiased рендеры:

Arnold Renderer -
CPU
.

Maxwell Render -
CPU
.

Corona Renderer -
CPU
.

Indigo RT -
CPU
,
CUDA
,
OpenCL
.

LuxRender -
CPU
,
CUDA
,
OpenCL
.

V-ray RT -
CPU
,
CUDA
,
OpenCL
(CUDA предпочтительно, OpenCL на экспериментальной стадии).

Cycles Render -
CPU
,
CUDA
,
OpenCL
(CUDA предпочтительно, OpenCL на экспериментальной стадии).

Iray -
CPU
,
CUDA
.

Arion render -
CPU
,
CUDA
.

Octane Render -
CUDA
.

FurryBall -
CUDA
.

Bunkspeed Shot -
CPU
,
CUDA
.

KeyShot -
CPU
.

 

Не стоит забывать, что GPU unbiased рендеры накладывают ограничения на использование материалов и эффектов, а размер 3d сцены, ограничен объемом памяти видеокарты (память нескольких видеокарт не суммируется).

Тем не менее, Unbiased рендеры могут быть использованы даже на недорогих системах как вспомогательный инструмент, например для объектной визуализации.

Ну и как там ваши книги, если вы считаете, что VSYNC не порождает input lag или порождает несильно. Серьезно, там даже из описания его работы понятно все, не то, что от тестов.

Чем вас это вот не устраивает, или опять все врут?

http://www.neogaf.com/forum/showthread.php?t=984491

 

Вот читайте, изучайте, что тут не так написано? Или тут тестов тоже нет? Есть. Все есть.

http://www.anandtech.com/show/2803/6 - тут вся страница об этом. С измерениями, с видео.

http://www.anandtech.com/show/2794

 

Про "много памяти это плохо" тоже порадовало. В каких книгах такое пишут?

 

З.Ы. Говорят и это подтверждено: лок на 58-59 фпс вместо 60 при VSYNC убирает инпут лаг. Но лично для меня не сработало. И вообще не любитель лочить FPS как либо - зачем увеличивать input lag монитора и управления?


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

А вы молодец, взяли 100% мощность GPU и сравнили её с CPU.

 

Дружище, ну право, прекрати уже. :D

Я сравнил FLOPы c FLOPами. А FLOPы они везде FLOPы. ;)

 

Как минимум потому, что далеко не вся мощь видеокарты идет на это, ибо у видеокарты далеко не все блоки это CUDA.

 

Блоки? CUDA? Далеко не все? Эммм...

 

 

P.S. По поводу инпут лага - Vsync это синхронизация, кадровая. Задержка может составлять максимум в один кадр, т.е. 1000 мс делим на Nкадров (60 у моего моника) и получаем ~16,7 мс задержки, у 144 Гц моника задержка будет 7 мс. Это просто капли, по сравнению с остальными проблемами, называемыми инпут лагом.

И конечно если Vsynс будет давать задержку 200 мс, то ты будет видеть на экране всего 5 к/с. Это если на пальцах и очень утрированно. :)

А то, что ты имел ввиду под 200 мс из той статьи, да и вообще про инпут лаг, так Vsync тут просто курит в сторонке от таких обвинений в его сторону. :)

MB: MPG-Z390 GP / i7 9700KF 4,8 ГГц / DDR4 64 Gb 3466 МГц / GTX 2080Super / Acer 43" ET430KWMIIQPPX 4k / Win 10

 

Podp_39_Su-27-45.png

Link to comment
Share on other sites

biggrin.gif

Я сравнил FLOPы c FLOPами. А FLOPы они везде FLOPы. wink.gif

Да, тут ч0т протупил. Все ок.

 

Про VSYNC - все врут, вы один умный =) Почитайте хоть, ага.

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

Ну я почитал про vsync, по ссылке на displaylag.com. У него в тесте на долю vsync в лаге пришлось 40 мс, остальное время в лаге - от прочих факторов.

10 лет назад я делал такие же тесты в Ил-2 с похожими результатами. Vsync прибавляет времени к лагу, но для авиасимуляторов это не существенные величины.

Link to comment
Share on other sites

Ну я почитал про vsync, по ссылке на displaylag.com. У него в тесте на долю vsync в лаге пришлось 40 мс, остальное время в лаге - от прочих факторов.

10 лет назад я делал такие же тесты в Ил-2 с похожими результатами. Vsync прибавляет времени к лагу, но для авиасимуляторов это не существенные величины.

 

Не всегда 40. В два раза обычно.

Конкретно для DCS это неважно до момента БВБ. Ну да вообще да, для DCS это конечно не так критично, как в шутерах, согласен.

 

Для любых шутанов 40мс те же - это очень сильно. Т.е. среагируете вы за 150мс или за 190мс это две очень большие разницы. Под реакцией подразумевается именно то, когда вы повели\нажали на мышь.

(Т.е. построение изображения на GPU, передача этого на монитор, восприятие этого раздражения вашим глазом, передача в могз, сигнал рукам, действие)

 

Писал в теме про мониторы, что игровыми чисто считаются с ипут лагом ниже 10мс. В норме до 32-40 мс. Выше - не игровые.

Собтно VSYNC та еще хрень.

Ну и в принципе верно утверждение о том, что чем выше FPS тем меньше инпут лаг и лучше отзывчивость управления. Поэтому урезать себе FPS не вижу смысла.

Ну тиринг да, плохое явление. Но фиксить его таким методом, теряя весьма много времени на реакцию - еще хуже.

 

Несущественные это имхо 5-10мс. 40 это чуть более, чем дофига.

 

Я это все писал к тому, что Dell_Murrey-RUS все-же загоняет про то, что VSYNC оказывается такой хороший.

Про 144HZ тоже не понял. Насколько я помню, VSYNC на таких мониторах под 60FPS их режет. Т.е. не надо путать обычный VSYNC и G-SYNC, FreeSYNC. Это разные вещи. И речь была про VSYNC обычный.

Не, опять тупал. Не совсем так. VSYNC, если на 144hz мониторе будет >=144fps влочит его в 144fps. Но вот если будет хоть на долечку fps меньше, чем 144 - он его локнет в 120. Или даже в старые добрые 60.

Да и вообще VSYNC для 144-165hz это какой-то садизм :D


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

Моменты, где скорость реакции на непредвиденное событие имеет решающее влияние на исход игры, типичны для файтингов и шутеров. Случайная встреча, и задержка в 150мс определяет победителя.

Но такие моменты нетипичны для авиасимуляторов. В авиасимах почти все события являются ожидаемыми: мы нажимаем гашетку в заранее рассчитанный момент, на практике такие лаги компенсируются расчетом и не являются существенными.

Link to comment
Share on other sites

Моменты, где скорость реакции на непредвиденное событие имеет решающее влияние на исход игры, типичны для файтингов и шутеров. Случайная встреча, и задержка в 150мс определяет победителя.

Но такие моменты нетипичны для авиасимуляторов. В авиасимах почти все события являются ожидаемыми: мы нажимаем гашетку в заранее рассчитанный момент, на практике такие лаги компенсируются расчетом и не являются существенными.

 

Имхо в тех же ножницах иногда очень может повлиять.

Понятное дело заранее рассчитанный. И да, в ДКС таких ситуаций будет немного.

 

Компенсация расчетами тут вряд ли применима. Событие уже произошло, а вы спустя лишнее 40мс его рассчитывать начинаете. Т.е. о какой компенсации речь? =)

В ДКС имхо вполне есть моменты, где это может подгадить дело.

И опять таки - даже без учета vsync. Чем больше FPS - тем меньше инпут лаг и лучше отзывчивость управления. Понятное дело, что не в глобальных масштабах и все-же это важно.

 

Да и неужели кто-то покупая ПК будет играть только в ДКС? Поэтому считаю, что немаловажно учитывать этот факт с vsync и инпут лагом в целом.

 

З.Ы. Ну хотя я тут подумал. В принципе привыкнув к определенному инпут лагу, на определенном мониторе и конфге игры\системы, конечно вы сможете хорошо рассчитать когда именно надо будет стрелять и попасть, т.е с поправкой на этот самый инпут лаг. В реалиях ДКС и правда будет вполне годно, как и где-то еще, где можно будет стрельнуть на упреждение. Но, как понимаете, лучше уж без таких приколов =D


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

Компенсация расчетами тут вряд ли применима. Событие уже произошло, а вы спустя лишнее 40мс его рассчитывать начинаете. Т.е. о какой компенсации речь? =)

Это основы ЧМВ, простые сенсомоторные реакции.

Вот тест на неожиданный сигнал: http://www.humanbenchmark.com/tests/reactiontime

Если этот сигнал будет ритмичным и таким образом предсказуемым, скорость реакции чрезвычайно уменьшается, благодаря вашему расчету. Кликать в такт ритму вы можете практически без лага.

 

В авиасимах практически нет сценариев "вдруг из-за угла танк".

Если считаешь иначе, наверное тебя не затруднит найти на ютюбе, в записях онлайн-боев такие моменты, где разница в скорости реакции в 40мс способна оказать решающее влияние на исход игры.

Link to comment
Share on other sites

Да я в P.S. все расписал. Т.е. да, верно, при расчете, так сказать в привычной обстановке конкретного инпут лага вполне можно норм в такт попадать делая на этот самый инпут лаг поправку.

 

Про "из-за угла танк" тоже верно, тем более когда авиация реактивная :D

 

Если считаешь иначе, наверное тебя не затруднит найти на ютюбе, в записях онлайн-боев такие моменты, где разница в скорости реакции в 40мс способна оказать решающее влияние на исход игры.

А вот это перебор в любом случаи. Надо тогда искать именно сферические тесты в вакууме. Т.е. тестить только выстрел и пробегающего под углом 90гр человека.

Но а так это вполне очевидная вещь, разве это вообще надо доказывать? Не в авиа симах, а в шутанах например. Или любой другой игре, где время реакция крайне важно?

 

Вот тест на неожиданный сигнал: http://www.humanbenchmark.com/tests/reactiontime

top очень напрягает. 100мс, серьезно? То есть прикинем САМЫЙ удачный инпут лаг монитора и управления будет в районе 15-20мс. То есть чистая реакция человека в районе 80мс. Бред какой-то =) То есть слишком быстрые ребята. Ибо там максимальный нижний порог в районе 120-150. Ну вернее, что-то там в топе многовато людей с реакцией в 100мс :D


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

А вот это перебор в любом случаи. Надо тогда искать именно сферические тесты в вакууме. Т.е. тестить только выстрел и пробегающего под углом 90гр человека.

Но а так это вполне очевидная вещь, разве это вообще надо доказывать? Не в авиа симах, а в шутанах например. Или любой другой игре, где время реакция крайне важно?

В шутерах и файтингах очевидно. В авиасимах - надо доказывать. Там даже прострелы в ножницах являются ожидаемым событием, рассчитанным.

 

top очень напрягает. 100мс, серьезно?.. Ну вернее, что-то там в топе многовато людей с реакцией в 100мс :D

Скорее всего, это случайные клики на удачу ради того чтобы попасть в топ.

Link to comment
Share on other sites

Vsync это хрень, когда человек не разбирается в сути вопроса. :)

Для тех кто в танке, кадровая синхронизация сделана для достижения конкретных результатов. И по большому счету логична там, где используется 25, 30 или 60 к/с. Т.е. там, где это будет заметно на глаз. Использовать Vsync для частот свыше 120 уже смысла особого не имеет. Разве что, при просмотре кино с такой высокой частотой кадров.

 

Что бы вопрос еще более прояснился, то для Vsync давным давно придумана тройная буферизация. Что это такое можно без труда найти в интернете.

И не надо смешивать мух с котлетами. В основном, доля задержки Vsync в глобальном эффекте инпут лага минимальна. Как правило самая минимальная. Является величиной расчетной, т.е. зависимой от кол-ва к/с и обратно пропорционально зависимой.

 

И вообще не понятно, тебя кто то заставляет использовать Vsync? Нет. Не нравится, не используй.

Я же всю жизнь старался его использовать. Он мне не мешал при 60 фпс играть в КС и сидеть в первых строчках статы сервера. Скорее помогал точнее определять координаты противников. А при его отключении рваная картинка этого не давала и в целом ухудшала координацию.

В Ил-2 и сейчас в DCS Vsync всегда работает. Четко на 60 к/с. Тройная буферизация включена. Проблем не наблюдаю. Про БВБ вообще молчу, я на 780-й лочил фпс на 30. И даже там с реакцией не было проблем. Тем более там все предсказуемо и ожидаемо. :)

MB: MPG-Z390 GP / i7 9700KF 4,8 ГГц / DDR4 64 Gb 3466 МГц / GTX 2080Super / Acer 43" ET430KWMIIQPPX 4k / Win 10

 

Podp_39_Su-27-45.png

Link to comment
Share on other sites

Так вот речь не про вас, а в целом про технологию эту и массу игроков.

То что вы были на первых строчках на каком-то там сервере ничего не доказывает. Я например имел ранг Глобальной Элиты в КС ГО месяца 2 назад. И что? :D

То что VSYNC минимально виляет на общий вклад в input lag - выше тесты приведены. Минимально это 1-10мс, но никак не значения, которые повышаются в 2 раза.

 

Лочить в 30фпс это сильно :D Я не говорю как конкретно, это хорошо или плохо вам. Некоторым и на 22-24 фпс нормально. Суть то не в этом. А в том, что без VSYNC время на реакцию будет в 2 раза больше, чем с VSYNC.

 

И еще разок тот момент, который вы упустили: чем выше FPS тем меньше инупут лаг и отзывчивойсть управления. В том-же КС лочить стандартные 230-300фпс (упирающиеся в CPU) глупо.

 

Скорее всего, это случайные клики на удачу ради того чтобы попасть в топ.

Там среднее же берется из N попыток. Но 100мс это конечно сверх-люди просто =)

Либо мож. кто читерит.


Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 20Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX3 Pro+ and HiFiMan Edition XS 

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Link to comment
Share on other sites

А ни кто не сталкивался с такой ситуацией:

Новая видеокарта (rx480) выход DVI-D dual

на мониторе DVI-D, кабель DVI-D single

при загрузке windows монитор уходит в глубокий сон. По HDMI телек продолжает показывать.

В safe mode монитор показывает. Если дрова снести тоже показывает. Засыпает сразу как ставиться видео драйвер.

 

Со старой видеокартой всё в порядке и в DVI-D и DVI-I всё работает.

 

пробовал на 2-ух мониторах Lenovo l220x и квадратный DELL 19" модель не помню но на нём DVI-D dual разъём. Пробовал другой шнурок. Пробовал разные дрова. Эффект одинаков.


Edited by MP
 

BS3, Mi-24P, Mi-8, MiG-15, MiG-21, I-16, FC3
UH-1H, F-86F, F/A-18, F-14, A10C, AJS-37, M-2000C, P-51D, Spitfire, Bf-109 K-4, Fw-190D-9
Normandy, Syria, Persian Gulf, Nevada, Supercarrier
Ryzen 5 5600X, 64GB, rtx4070, SSD, iiyama ProLite XUB2792QSU-B1, Gladiator NXT, TrackIR, Pico4.

Link to comment
Share on other sites

  • ED Team
Засыпает сразу как ставиться видео драйвер.

Какая частота монитора установлена в настройках windows? Снижение частоты может прекратить засыпания. А может и нет.

Link to comment
Share on other sites

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...