Jump to content

alessander

Members
  • Posts

    865
  • Joined

  • Last visited

Everything posted by alessander

  1. Множителем регулируется не качество изображение, а разрешение выводимой на дисплеи картинки. И для Samsung Odyssey нативное изображение будет при масштабировании около 130% в SteamVR из-за особенностей реализации WMR. Возможно, эффект от MSAA менее заметен на Odyssey+, т.к. там на дисплеях применяется другая матрица с менее заметной межпиксельной сеткой чем на Samsung Odyssey первого поколения. Проблему падения FPS при включении MSAA можно решить с помощью мода от кейджетиса, который ограничивает сглаживание в рамках круга в центре дисплеев. Лично мне с FPS сильно помогло форсирование DX11 в настройках WMR. Визуальное восприятие картинки в шлемах-ВР вещь очень субъективная, поэтому каждый выбирает сам, что для него лучше. А можно поподробнее о впечатлениях про 6800? Интересует сколько видеопямяти выедает DCS в самых загруженных сценах. Как изменилась загрузка на видеокарту/процессор после смены видеокарты? Способна ли 6800 выдавать уверенные 90FPS и на каких настройках?
  2. tigdimsky_kot Собственно 3070 не соперник 6800 и уж тем более ХТ, если выйдет 3070ti с 12Гб тогда да. У меня тоже Samsung Odyssey и в 8Гб видеопамяти Vega64 упирается в любой миссии. Когда я расширял видеопамять до 16Гб за счет HBCC, то легко отъедало до 14Гб. Насчет видимости приборов и кабинного дисплея - это ограничение разрешения шлема, и никакой множитель этого не изменит. Я для себя давно убедился, что суперсемплинг делает картинку еще хуже даже без учета падения ФПС. Всегда, во всех играх использую множитель 1 с максимальной АА (для DCS это х4), которая убирает лесенки.
  3. Они вообще сейчас нигде не важны, кроме специально создаваемых маркетологами роликов. Единственная работающая на данный момент функция рэйтрейсинга - это снижение ФПС. К тому моменту, как лучи станут играть хоть какую-то роль сменится 2-3 поколения видеокарт. Спасибо за ссылку, очень редко можно увидеть тестирование нового железа в DCS, а тут еще и в ВР. Ожидание появления в продаже 6000-й серии становится еще томительнее
  4. Упор в видеокарту в DСS у всех. О каких преждевременных выводах речь?
  5. Да, 5000-е Ryzen обошли Intel еще и в однопотоке. Толковых тестов пока не было, т.к. есть проблемы с BIOS. В DСS, который хоть и однопоточный, но не процессорозависимый особой разницы от перехода с 3800Х на 5800Х не заметил. С 3800Х нагрузка на ядро была где-то 60-70%, с 5800Х - 40-50%. Естественно, причина в слабой видеокарте, которую поменять на что-то более подходящее в ближайшее время не представляется реальным.
  6. Проявляет точно так же, как и 90% современных процессоров - отдыхает сильно недогруженный любой видеокартой. Количество задействованных потоков - полтора.
  7. А чем "проверенные перекупы" отличаются от "барыг", тем что уже впарили? 3090 в DCS может протестировать разве что какой-то уникум, который использует видеокарты серии Титан для работы и заодно полетывает в авиасимуляторах, т.к. никто в здравом уме специально для DCS ее не купит. Еще до нового года появится много вариантов гораздо более интересных чем 3090 и 3080. И гораздо более зрелых, а не созданных впопыхах для маркетологовых войн.
  8. Ну так в чем проблема - от 2200$ есть в наличии.
  9. У меня было с десяток разных моделей материнок на АМ4, и во всех была строгая рекомендация по установке двух модулей в конкретные два слота DIMM. То, что система стартует с установленными в неправильные слоты модули - уже достижение. Про трудности разгона четырех модулей на платформе АМ4 нужно читать на профильных форумах, иначе можно получить ответ подобный тому, что выше.
  10. 1080Ti если процессор конечно не офисный. БП 420Вт, естественно, выбросить и купить нормальный, даже если не будет апгрейда видеокарты. Разрешение 3440х1440 гораздо ближе по требовательности к 4к, чем 2к. Для 4к DCS нужна самая производительная видеокарта, но что бы обеспечить стабильные 60 ФПС все равно нужно будет ужимать настройки.
  11. Отзывы юзавших 3080 можно почитать в Reddit :) Учитывая полуфабрикатность первых семплов, не думаю, что нынешние показатели видеокарты в DCS были бы презентабельны. Судя по тестам в DX11 играх прирост по сравнению с неразогнанной 2080Ti 20-30%, после выхода фикса драйверов решающих проблему вылета ограничением автобуста на 2ГГц - еще минус 5%. В любом случае, раньше нового года адекватных вариантов 3080 не будет, а там уже и 3080Ti обьявят после выхода 6000 Radeon.
  12. Лучше подождать 8.10.20
  13. Не хранятся если все влазит в видеопамять, то что не влезло/устарело сбрасывается как раз в оперативку. Сама загрузка миссий может и будет быстрее на пару процентов (учитывая, что передача данных внутри даже самого быстрого NVME происходит дольше, чем по цепочке процессор-память-видеокарта), но после ее начала никакого ускорения от этой технологии уже не будет. Эффект от смены SSD на NVME, и даже смены NVME на более скоростной будет гораздо больше. На встроенном видео функции видеопамяти берет на себя выделенная оперативка, не вижу никакой связи с жестким диском.
  14. Я общался с человеком по поводу ВР, там 8Гб видеопамяти не хватает уже давно, поэтому я сказал, что 3070 мне не интересна в принципе. А в чем проблема гонять через процессор текстуры? Еще не встречал игр, что бы грузили мой процессор хотя бы на 50% (даже поддерживающие многоядерность), и это при том, что у меня SMT выключена. DCS грузит 8 ядер на 10-15% в среднем с редкими забросами на 70-80%. C 32Гб оперативки такая технология точно не нужна, да и с 16Гб тоже. В любом случае подгрузка текстур из жесткого диска напрямую в видеопамять будет на порядок дольше чем с оперативки. Исключение из цепочки ЦП позволит выиграть во времени запуска игры 1-2%, а вот если такая загрузка текстур будет во время игры, то это уже будет выглядеть как жесткие фризы. Т.е. это "ноу-хау" подойдет владельцем 2-х ядерного суперпня с менее чем 8Гб оперативки и достаточно производительной видеокартой, у которых проявляется постоянный своп. Сколько таких ассиметриков среди пользователей DCS например?
  15. DLSS (не важно какой версии, т.к. отличаются они только количеством наработанных шейдеров с момента запуска поддерживающей ее игры) не зря "тестируется" исключительно применительно к FHD=>4k (или 4k=>8k), т.к. происходит кратная конвертация пикселей 1 к 4. Все остальные конвертации HD=>FHD, FHD=>2k, 2k=>4k, будут приводить к жуткому мылу, как это и было в первой "версии" DLSS. Т.е. технология может быть интересна исключительно владельцам 4k и 8k дисплеев, т.к. никто из владельцев FHD не занимается конвертацией из нераспространенного разрешения 960х540, а соответственно и "искусственному интеллекту" обрабатывать нечего. Более того, все результаты таких "вау-сравнительных тестов" представлены скриншотами, а мы на мониторах наблюдаем динамическую картинку, что совсем не одно и тоже. Пользователи замечают, что конвертированная FHD=>4k картинка с DLSS отличается от просто 4k (в основном за счет возросшего ФПС), а маркетологи nVidia убеждают их, что она ничем не хуже, показывая скриншоты обработанные алгоритмом. Проверяя DLSS 2.0 на 2070S , я подключил ее к 4k телевизору, у которого была собственная система улучшения изображения с низким разрешением, и результат конвертации FHD=>4k алгоритмом телевизора был ничуть не хуже DLSS, а ФПС даже повыше. Хотя лично мне гораздо больше нравится обычное АА-сглаживание, как на мониторе, так и в ВР-шлеме. Сравнительные тесты проприетарной DLSS 2.0 от nVidia и общедоступной FidelityFX от AMD показывают схожие результаты, подвергая сомнению необходимость выделение транзисторного бюджета ГП под специальные блоки для DLSS. Думаю все закончится примерно тем же, что и в борьбе G-Sync/FreeSync - чумаданы занесенные игро/железоделам работают до тех пор, пока всю эту маркетинговую чухню не разнесут незаангажированные тестеры.
  16. Никак, разрешение никак не сказывается на загрузке центрального процессора, если для расчета картинки задействована видеокарта (100% всех современных игр). DLSS помогает nVidia несколько нивелировать дикое падение ФПС при включении лучиков в проплаченных тестах.
  17. Повышение фреймрейта очень легко смоделировать даунскейлом в ВР, или уменьшением разрешения для любого монитора.
  18. Приветствую гостя из будущего, когда 3000-я серия уже в продаже. Да, это уже интереснее, но вряд ли DLSS 2.1 будет эксклюзивом только Ампер и естественно требует поддержки в играх. Хотя качество апскейла для ВР больше зависит от самого шлема, чем от технологий машинного маркетинга.
  19. Здесь обсуждение железа для DCS, а не видео для убогих +14Гб к видеопамяти, которой у 3080 всего 10Гб при необходимых 16Гб для DCS в ВР уже сейчас.
  20. Это еще смотря какой VR, но я хоть сейчас могу сделать несколько сценариев, где гипотетические 3090х2 в идеальном SLI будут иметь падение ФПС ниже 30. Из новинок для DCS в VR интересна действительно только 3090, остальные не тянут еще до выхода.
  21. Ну, так есть еще 3080, которая точно быстрее 2080Ti за те же деньги. Если цена на 2080Ti упадет ниже 500, то тогда она будет действительно интересна, хотя покупать видеокарту с абсолютно бесполезными тензорными и RT-ядрами обреченными висеть мертвым грузом как-то не особо хочется.
  22. Пишет Хуанг, а как оно будет на самом деле можно будет узнать после независимых и качественных тестов. Причем драйвера д.б. оптимальные для каждой видеокарты, а не выпущенные для отыквления 2000-й серии. Судя по характеристикам 2080ti не оставит никаких шансов 3070, которая для DCS с ее 8Гб видеопамяти - вообще малоперспективна. А нужно еще брать в расчет новый для Samsung 8nm техпроцесс, который добавит проблем с охлаждением, а следовательно и снижение частот в нагрузке. Выбор б/у видеокарты - вопрос очень индивидуальный. PCI-E - единственный интерфейс сообщения видеокарты, все что в нее входит и выходит занимает какую-то пропускную емкость шины. nVidia обещает еще внедрить сообщение видеокарты напрямую с SSD (в обход ЦП+оперативка), но для чего это нужно сложно представить, видимо очередной маркетинговый блеф.
  23. 3070 значительно слабее 2080ti, которой 4 ревизия ничего особо не давала. Другой вопрос, что у 3070 всего 8Гб видеопамяти, чего уже явно не хватает, а значит, через шину PCI-E будет постоянное общение с оперативкой и пропускная способность может сыграть роль.
  24. Работать вместе они, скорее всего будут, но как и что там за чипы я понятия не имею. Номер комплектов модулей точно разный, но чем они отличаются нужно искать в инете.
  25. Одинаковые тайминги и частота для любых модулей одновременно работающих в материнке - это не удача, а единственно возможный вариант! И то, что все 4х4Гб работают на наихудших настройках самого слабого модуля - это тоже факт. Не думаю, что человек понатыкавший зоопарк в DIMM-слоты проверял стабильность и производительность ОЗУ, и в принципе знает как это делается. То, что оптимизация оперативки весьма существенно сказывается в играх и любых других приложениях - доказано многочисленными тестами.
×
×
  • Create New...