Jump to content

подскажите проц и видюху для DCS


Recommended Posts

Posted
Alt + Enter, либо в настройках шедоуплей разреши запись рабочего стола

 

 

 

Я при записи шэдоуплей с битрейтом 5мбит/с вообще никаких просадок не наблюдаю.

 

я про запуск версии 2.0 с картой Кавказа.

а про битрейт - я заметил что минимальный битрейт который похож по качеству на рендер видяхи- 40 мегабит.

 

кстати, семпл ризена погоняли оказывается, результаты есть. он явно быстрее моего 8350 - тестовую картинку в блендере рендерит за 36 секунд а мой -за 2 минуты 7 секунд притомчто частота ризена была 3.6 гигагерца а не 4.2 как у моего

Posted (edited)
А нафиг тогда указывают-128 бит,256?

Кроме ширины ещё указывают частоту, чтобы можно было на калькуляторе пропускную способностью посчитать (площадь сечения трубы на скорость потока). А для "экспертов", которые калькулятором не владеют, тот же GPU-Z рисует разные показатели, по которым можно прикинуть как будет работать та или иная задача. Определяйте бюджет, читайте тесты. Судя по подписям - сейчас популярная покупка "верпила" - gtx1070.

А-то вам тут сейчас понапишут...

П.С. До serial ATA был параллельный интерфейс, а SATA работает быстрее, магия ёлы палы! :yay:

Edited by azm
Posted

просто когда-то было дешевле напихать больше проводов для паралельного интерфейса, сейчас дешевле усилить напор, тоесть частоту :) а если все вместе то еще быстрее но дорого.

Posted
Судя по подписям - сейчас популярная покупка "верпила" - gtx1070.

 

Это в любом случае самая разумная покупка, не толька для "верпилов".

i5-9600K / RTX 2060 / 32 GB DDR4-3200 CL16 / Win10 x64 / Cobra M5 (BRD)+ Gametrix ECS / Opentrack

Posted (edited)
Только в рамках чипа одного поколения. Я вот тоже сменил джифрц 320 с 320 битами на 8800GT с 256, скорость была куда выше.

Что такое в рамках одного поколения? Если вы забыли, nvidia перешла с 512 на 384, потом на 256. Поколения не считал, но там их даже не 2, больше. Производительность и каждой следующей больше предыдущей =)

 

кстати, семпл ризена погоняли оказывается, результаты есть. он явно быстрее моего 8350 - тестовую картинку в блендере рендерит за 36 секунд а мой -за 2 минуты 7 секунд притомчто частота ризена была 3.6 гигагерца а не 4.2 как у моего

Был бы он слабее - они б его не выпускали. Т.е. куда еще дальше то проваливаться.

 

Синтетика и игры это разные вещи. Так то эти адские печи вроде 8350 и тд в тестах по синтетике быстрее i7 (ну были, когда я с hasswell-DT сравнивал, с skylake все уже не так зодрово), но в играх явный провал, причем очень значительный.

Поэтому пока не будет тестов именно игровых - всё пустое.

Исключение составляет только случай, если проц берется в частности для рендринга\монтажа и тд. И то, Hasswell-E и Broadwell-E гораздо быстрее резины по этим тестам.

Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 40Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX7 Pro+ with HiFiMan Edition XS and Adam A7V

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Posted (edited)
то не синтетика а рассчет сцены в редакторе.

 

Да, ошибся малость. Я что-то думал там Cinebench, а оказывается blender.

На самом деле не суть. Важны игровые тесты.

 

Т.е. мне например хотелось бы видеть какой-нибудь crysis 3 с gtx1080 на amd zen и Broadwell-E (вовсе не с 6950x, а например с 6800k), SkyLake (i5, i7 6700k). Это уже что-то там покажет =) А до этого момента - ерундень.

Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 40Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX7 Pro+ with HiFiMan Edition XS and Adam A7V

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Posted

посмотрим. мне в любом случае приследующем апгрейде ,если это не видяха то менять придется все, проц, мобо, оперативку тоже наверное. вот и посмотрим куда. :)

Posted
... Т.е. NVIDIA с узкой шиной нагрела ATI (AMD) с широкой шиной.

Теоритически - чем шире шина, тем больше пропускная способность, т.е. это хорошо. Но практически этот параметр вообще ничего не значит. То есть он никоим образом не свидетельствует о хорошей производительности видеокарты...

Уважаемый, это Ваши личные измышления? Или где-то прочитали?

 

Сама по себе пропускная способность - да, не значит. Но в совокупности с остальными параметрами...

Вы же не подбираете видеокарту только по объему видеопамяти или по количеству шейдерных блоков... или подбираете?

=WRAG=345

R7 5800X @ 4,8 GHz; DDR4 64Gb RAM (+32Gb swap); Radeon RX 6800 16Gb; 3840x2160; Oculus Quest 3; Win10-64

Posted
Есть большой выбор у NV по пропускной способности?

1070 и 1080 попадались только с 256-битной.

1060 идут как с 256-битной шиной, так и со 192-битной. А 1050Ti так вообще со 128-битной.

Про старшие модели я молчу (там и 64 часто встречается).

Так что да, выбор есть.

=WRAG=345

R7 5800X @ 4,8 GHz; DDR4 64Gb RAM (+32Gb swap); Radeon RX 6800 16Gb; 3840x2160; Oculus Quest 3; Win10-64

Posted

Смотрел я тоже по магазинам 1060 с 256 бит и не где не нашел. Прикупил сегодня Asus GTX 1060 Turbo 6Gb (192 бит) была с Новогодней хорошей скидкой... взамен Asus GTX 750Ti 2Gb. Хотел не Турбо а простую ну да ладно...

Конечно намного получше старой моей графики в Неваде летается.. Но в Вегасе и на окраинах есть какие то рывки такие быстрые((( Посмотрел видео снятое GORNYAK фпс примерно такое же + - .. Местами чуть больше.

 

Посему хотел спросить (сорри за тупость) где точно) включить вот это ?

В игре у меня там "галки" нет. Осталось вкл. в настройках карты...

от SL PAK

Попробуй отключить вертикальную синхронизацию в игре и включить БЫСТРУЮ синхронизацию в дровах. Разрывы пропадут, а FPS не будет ограничен частотой монитора.

У Паскалей появилась быстрая синхра. Новая фича.

И еще такой неопытный вопрос... по графике...

Как и чем посмотреть с какой частой сейчас играет моя видео карта? Со стандартным GPU Base Clock : 1506 MHz или GPU Boost Clock : 1708 MHz

Драйвера установил.. обновил через GeForce Experience.

Теперь хоть с новой графикой 16гб оперативки стали работать в Неваде на 70% и на 99% со старой графикой)

Не говорите что мне надо делать и я не скажу куда вам надо идти…

| Asus Z390 | Core i5 9600K | HyperX Fury 32Gb | RTX 2070 | 1TB HDD + Intel Optane memory 32Gb | Thrustmaster F-16C Viper Add-on Grip+TWCS Throttle | Dell WMR | Oculus Quest 2 |

Posted
Как и чем посмотреть с какой частой сейчас играет моя видео карта?

тынц

Теперь хоть с новой графикой 16гб оперативки стали работать в Неваде на 70% и на 99% со старой графикой)

Откуда эти цифры?

Posted
тынц

Спасибо.

------------------------

Откуда эти цифры?

В диспетчере смотрел. Мож там и не точно показывает... :dunno: Заглянул куда знал))

Вот скрин с игры с диспетчером и скрин настроек игры.

 

a3412374ad4f.png

cde6763abfba.jpg

 

 

Не говорите что мне надо делать и я не скажу куда вам надо идти…

| Asus Z390 | Core i5 9600K | HyperX Fury 32Gb | RTX 2070 | 1TB HDD + Intel Optane memory 32Gb | Thrustmaster F-16C Viper Add-on Grip+TWCS Throttle | Dell WMR | Oculus Quest 2 |

Posted

быстрая синхронизация есть и в опциях на 970 например, это что, тоже паскаль? но правда толку не вижу. а кое-где и вред, в вартандере дерготня какая-то. как я понял оно должно забарывать двукратное реальное падение моментального FPS при частоте кадров меньше частоты синхронизации? единственное для чего эта фигня полезна -можно глобально включить vsync и не парится о бенчмарках - они все равно покажут максимальное FPS.

Posted (edited)

Какой к черту GPUZ для просмотра частоты.. это же неудобно.

Через MSI Afterburner (osd rivatuner)

 

Уважаемый, это Ваши личные измышления? Или где-то прочитали?

 

Сама по себе пропускная способность - да, не значит. Но в совокупности с остальными параметрами...

Вы же не подбираете видеокарту только по объему видеопамяти или по количеству шейдерных блоков... или подбираете?

 

Ничего не смотрю кроме памяти (тип, размер) и игровых тестов. Остальное в принципе не дает какого-либо представления ясного.

В совокупности... слишком много всего смотреть. И что в итоге вы сосчитаете и что вам это даст? Вот что вам даст частота ядра, памяти, тип кристалла и тд. Вы сможете по этому определить FPS в игре? Нет.

Так к чему смотреть бесполезные параметры.

Чисто ради интереса и изучения да. Для практической пользы, т.е. оценки фпс в играх - нет.

 

Для процессора тоже самое. Мне честно говоря абсолютно все-равно, какие результаты выдает проц в cinebench или blender. Это синтетика, которая не является показателем хорошей производительности процессора в играх.

Ну разве что это интересует, когда работаешь с графикой\видео. Для этого i7 и брал :D

 

Так для видюхи еще: уровень шума, нагрев (для разгона важно).

Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 40Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX7 Pro+ with HiFiMan Edition XS and Adam A7V

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Posted (edited)
Так к чему смотреть бесполезные параметры.

Действительно не к чему, не смотрите.

 

П.С. Люди, занимающиеся тестированием производительности, занимаются фигнёй, всех уволить!

Edited by azm
Posted
С Невадой понятно, непонятно "99% со старой графикой".

Я изначально не правильно выразился... где о 750ти ((

То есть на Неваде с графикой 750Ти оперативка пахала на 95%-99%. А с 1060 Турбо она нагружена в районе 60% , 70%.

 

П.с. Нашел.. Быструю синхронизацию в дровах... протестировал.. вроде все также с фпс + -

Всем спасибо за подсказки.

Не говорите что мне надо делать и я не скажу куда вам надо идти…

| Asus Z390 | Core i5 9600K | HyperX Fury 32Gb | RTX 2070 | 1TB HDD + Intel Optane memory 32Gb | Thrustmaster F-16C Viper Add-on Grip+TWCS Throttle | Dell WMR | Oculus Quest 2 |

Posted (edited)
Люди, занимающиеся тестированием производительности, занимаются фигнёй, всех уволить!

Как раз наоборот :smilewink:

 

Вы мне так и не ответили, коим образом по всем параметрам GPU вы высчитываете FPS в игре или предполагаете хотя бы. Поделитесь формулой? XD Я думаю она там не в один десяток строк. (особенно здорово ещё будет считать погрешность оптимизации самой игры)

 

Или может вы как-то аргументировано докажете, зачем тому, кто играет, знать сколько и чего у него в видеокарте? Вот зачем?

Это чисто вопросы интересов каждого, а не обязательного знания.

 

Я изначально не правильно выразился... где о 750ти ((

То есть на Неваде с графикой 750Ти оперативка пахала на 95%-99%. А с 1060 Турбо она нагружена в районе 60% , 70%.

 

П.с. Нашел.. Быструю синхронизацию в дровах... протестировал.. вроде все также с фпс + -

Всем спасибо за подсказки.

 

Так очевидно все. Чем больше видеопамяти - тем лучше. Что 4гб полностью уйдут, что 8, что 12. Просто эта память в разы быстрее ram и поможет избежать фризов, прогруза текстур и тд. От сюда и меньшее потребление ram, которое подсасывается уже во вторую очередь. В третью - файл подкачки. (это все на пальцах, ну ~ так и работает)

Правда грамотное распределение этих "фич" игрой - вопрос не однозначный.

 

Синхронизацию любую лучше на фиг, если не хотите роста инпут лага (а vsync аж до 200мс как не фиг делать подкидывает. Да да, не 20мс, а 200. 0.2сек. Ватность управления гарантирована.)

Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 40Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX7 Pro+ with HiFiMan Edition XS and Adam A7V

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Posted

Вы мне так и не ответили, коим образом по всем параметрам GPU вы высчитываете FPS в игре или предполагаете хотя бы.

А я писал что высчитываю FPS?

Так очевидно все. Чем больше видеопамяти - тем лучше. Что 4гб полностью уйдут, что 8, что 12. Просто эта память в разы быстрее ram и поможет избежать фризов, прогруза текстур и тд. От сюда и меньшее потребление ram, которое подсасывается уже во вторую очередь. В третью - файл подкачки. (это все на пальцах, ну ~ так и работает)

Правда грамотное распределение этих "фич" игрой - вопрос не однозначный.

Не вводите людей в заблуждение.

Posted
Ничего не смотрю кроме памяти (тип, размер) и игровых тестов. Остальное в принципе не дает какого-либо представления ясного.

 

Что за мнимые измышлизмы? В принципе, остальное дает весьма ясное представление о производительности, особенно если хоть чуток знаешь архитектуру.

 

В совокупности... слишком много всего смотреть. И что в итоге вы сосчитаете и что вам это даст? Вот что вам даст частота ядра, памяти, тип кристалла и тд.

 

Как минимум будет известна величина во FLOPсах. Из нее можно весьма точно прикинуть повышение производительности по сравнению с предыдущим поколением.

Это достаточно точные прогнозируемые цифры.

 

Вот что вам даст частота ядра, памяти, тип кристалла и тд. Вы сможете по этому определить FPS в игре? Нет.

 

Можно спрогнозировать определенные цифры, другой вопрос, в архитектуре движка самой игры. Если о нем что то известно, то прогноз будет точным. Если это что то свежее, с кучей багов, то ни ЦП ни GPU тут будут ни при чем, вопрос разработчика игры. А сама производительность в любом случае останется за железкой и никуда не утечет.

 

Вы мне так и не ответили, коим образом по всем параметрам GPU вы высчитываете FPS в игре или предполагаете хотя бы. Поделитесь формулой? XD Я думаю она там не в один десяток строк. (особенно здорово ещё будет считать погрешность оптимизации самой игры)

 

Берешь чистую производительность GPU в TFLOPсах, сравниваешь с предыдущим поколением того же производителя. Получаешь соотношение.

Далее берешь тест (на определенных настройках) любимой игры, смотришь величины твоей любимой фпс и делаешь корреляцию с величиной производительности. Это просто как 2*2. Прогнозируемый результат будет весьма точен (при идентичных настройках в игре).

Да, бывают нюансы у игр, например, процессорозависимость. Игры такие вполне известны. Однако, дополнительная производительность видеокарты может быть использована для улучшения качества рендера графики. Например, в драйверах можно жестко установить повышение качества некоторых параметров рендера. Если ЦП остался тот же, фпс не поднимется, но сама графика станет качественнее и будет ощутимо на глаз.

 

Или может вы как-то аргументировано докажете, зачем тому, кто играет, знать сколько и чего у него в видеокарте? Вот зачем?

Это чисто вопросы интересов каждого, а не обязательного знания.

 

Полностью поддерживаю такое мнение! Чем больше тупеньких и не знающих, тем выше моя ценность как инженера и выше ЗП. Я без шуток. На рынке нынче в спецах проблема, потому что многие люди (не только заядлые игруны) именно так и мыслят, вернее вообще ничерта не мыслят ни в чем, даже в том, на что получили образование. :)

 

Так очевидно все. Чем больше видеопамяти - тем лучше.

 

Совсем не очевидно, лишней памяти не бывает, но и избыток тоже плох. Да и сама архитектура должна уметь использовать выделенный ей объем.

 

Что 4гб полностью уйдут, что 8, что 12.

 

Это большой лол. Тут много зависимых параметров. Но, если параметры графики не изменились, и раньше хватало 3,5 Гб видеопамяти, то 8 не будут полностью заняты, а всего лишь на необходимый до этого объем, т.е. 3,5 Гб.

 

Синхронизацию любую лучше на фиг, если не хотите роста инпут лага (а vsync аж до 200мс как не фиг делать подкидывает. Да да, не 20мс, а 200. 0.2сек. Ватность управления гарантирована.)

 

Шта?!? 200 мс? ШТА??? :D

Это просто какой то лол. :D

  • Like 1

MB: MPG-Z390 GP / i7 9700KF 4,8 ГГц / DDR4 64 Gb 3466 МГц / GTX 2080Super / Acer 43" ET430KWMIIQPPX 4k / Win 10

 

Podp_39_Su-27-45.png

Posted (edited)

Ну драсте, приехали с Vsync

http://www.displaylag.com/reduce-input-lag-in-pc-games-the-definitive-guide/

На оверах где-то тест валялся, там значения в 2-3 раза выше были, посмотрите.

 

Единственное, что действительно верно- FLOPs, это да. Реалньо дает картину общую, про это забыл =)

 

Причем тут инженер-не инженер. Каждый сам решает, что ему изучать. Для выбора хорошей видеокарты данной инфы не нужно знать, совсем не обязательно.

Для примера: вот поломалось у вас что-то в машине и вы не разбираетесь в машине идеально, что теперь значит, вы идиот и вообще лох? Да никто не обязан досконально знать ВСЁ. Для этого есть сервисный центр и люди обученные ремонту.

 

Чет на видеокарте высчитывать по архитектуре, гадать - да на оверах люди таким не занимаются даже. Потестят готовые экземпляры и всё. Абсолютно большинству плевать, что на архитектура, сколько блоков и тд. Это надо иметь очень много времени и желания все это рассчитывать и понимать. Большинству просто хочется знать, сколько FPS дает карта и все. Это то, зачем её и покупают.

Исключение лишь Титан, как обрезок для вычислений и Quadro\Tesla, которые чисто для вычислений.

 

Совсем не очевидно, лишней памяти не бывает, но и избыток тоже плох. Да и сама архитектура должна уметь использовать выделенный ей объем.

Ага, избыток плох. Чем же?

И еще раз - большинство даже старых игр умеют забивать всю доступную память GPU. Почитайте, посмотрите тесты. И это имхо абсолютно верно и хорошо.

Из ближайших примеров - COD. Что новый, что до него.

 

Это большой лол. Тут много зависимых параметров. Но, если параметры графики не изменились, и раньше хватало 3,5 Гб видеопамяти, то 8 не будут полностью заняты, а всего лишь на необходимый до этого объем, т.е. 3,5 Гб.

Ну-ну. Успехов в таком. Для каких-то игр это так и есть для каких-то нет. Я выше написал "большинство старых игр", но немного погорячился :D Не большинство конечно, но они так или иначе есть. Под старыми конечно не подразумеваются игра где то раньше 2008 года.

 

Спрогнозировать зная архитектуру, бла-бла-бла. Фигня. FPS вы этим в играх не фига не спрогнозируете. Даже FPS, как вы сами знаете, не в прямой зависимости от FLOPS.

Может вы мне приведете статью, где компетентные люди зная ТТХ новый видюхи приводят графики её фпс? Не встречал такого.

Что бы вся видеокарта оценивалась FLOPS'ами - тоже. Это важно тем, кто вычисления делает, а не тем, кто играет.

Edited by Bl00dWolf

i9 13900k 5.5Ghz; ASUS TUF RTX 3090 OC 24GB; 64GB ddr5 6400mhz cl30; 7 Tb SSD NVMe; 2Tb HDD; 40Tb NAS ZFS RAID1; LG 34GN850 3440x1440 160hz IPS; Hotas Warthog + VPC ACE Flight Rudder Pedals; TrackIR5; Quest3; DX7 Pro+ with HiFiMan Edition XS and Adam A7V

MacBook PRO 16' 2023 M3 Max (14cpu-30gpu), DDR5 36Gb, 1Tb + 2Tb 990PRO Ext


 

 


 
Posted (edited)
Ага, избыток плох. Чем же?

И еще раз - большинство даже старых игр умеют забивать всю доступную память GPU.

А вы настойчивый! Делл по полочкам всё расписал (спасибо ему, а я ленивый не стал), а вы продолжаете про своё.

Расскажите пожалуйста, чем эти игры забивают всю видеопамять?

Edited by azm
Posted (edited)
Спрогнозировать зная архитектуру, бла-бла-бла. Фигня. FPS вы этим в играх не фига не спрогнозируете. Даже FPS, как вы сами знаете, не в прямой зависимости от FLOPS.

Может вы мне приведете статью, где компетентные люди зная ТТХ новый видюхи приводят графики её фпс? Не встречал такого.

Что бы вся видеокарта оценивалась FLOPS'ами - тоже. Это важно тем, кто вычисления делает, а не тем, кто играет.

Похоже спор пора заканчивать. А-то так договоримся до того, что ФПСы в играх не растут, потому что упираются сверху в небесную твердь.

Edited by azm
  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...