-
Posts
865 -
Joined
-
Last visited
Content Type
Profiles
Forums
Events
Everything posted by alessander
-
Множителем регулируется не качество изображение, а разрешение выводимой на дисплеи картинки. И для Samsung Odyssey нативное изображение будет при масштабировании около 130% в SteamVR из-за особенностей реализации WMR. Возможно, эффект от MSAA менее заметен на Odyssey+, т.к. там на дисплеях применяется другая матрица с менее заметной межпиксельной сеткой чем на Samsung Odyssey первого поколения. Проблему падения FPS при включении MSAA можно решить с помощью мода от кейджетиса, который ограничивает сглаживание в рамках круга в центре дисплеев. Лично мне с FPS сильно помогло форсирование DX11 в настройках WMR. Визуальное восприятие картинки в шлемах-ВР вещь очень субъективная, поэтому каждый выбирает сам, что для него лучше. А можно поподробнее о впечатлениях про 6800? Интересует сколько видеопямяти выедает DCS в самых загруженных сценах. Как изменилась загрузка на видеокарту/процессор после смены видеокарты? Способна ли 6800 выдавать уверенные 90FPS и на каких настройках?
-
tigdimsky_kot Собственно 3070 не соперник 6800 и уж тем более ХТ, если выйдет 3070ti с 12Гб тогда да. У меня тоже Samsung Odyssey и в 8Гб видеопамяти Vega64 упирается в любой миссии. Когда я расширял видеопамять до 16Гб за счет HBCC, то легко отъедало до 14Гб. Насчет видимости приборов и кабинного дисплея - это ограничение разрешения шлема, и никакой множитель этого не изменит. Я для себя давно убедился, что суперсемплинг делает картинку еще хуже даже без учета падения ФПС. Всегда, во всех играх использую множитель 1 с максимальной АА (для DCS это х4), которая убирает лесенки.
-
Они вообще сейчас нигде не важны, кроме специально создаваемых маркетологами роликов. Единственная работающая на данный момент функция рэйтрейсинга - это снижение ФПС. К тому моменту, как лучи станут играть хоть какую-то роль сменится 2-3 поколения видеокарт. Спасибо за ссылку, очень редко можно увидеть тестирование нового железа в DCS, а тут еще и в ВР. Ожидание появления в продаже 6000-й серии становится еще томительнее
-
Упор в видеокарту в DСS у всех. О каких преждевременных выводах речь?
-
Да, 5000-е Ryzen обошли Intel еще и в однопотоке. Толковых тестов пока не было, т.к. есть проблемы с BIOS. В DСS, который хоть и однопоточный, но не процессорозависимый особой разницы от перехода с 3800Х на 5800Х не заметил. С 3800Х нагрузка на ядро была где-то 60-70%, с 5800Х - 40-50%. Естественно, причина в слабой видеокарте, которую поменять на что-то более подходящее в ближайшее время не представляется реальным.
-
Проявляет точно так же, как и 90% современных процессоров - отдыхает сильно недогруженный любой видеокартой. Количество задействованных потоков - полтора.
-
А чем "проверенные перекупы" отличаются от "барыг", тем что уже впарили? 3090 в DCS может протестировать разве что какой-то уникум, который использует видеокарты серии Титан для работы и заодно полетывает в авиасимуляторах, т.к. никто в здравом уме специально для DCS ее не купит. Еще до нового года появится много вариантов гораздо более интересных чем 3090 и 3080. И гораздо более зрелых, а не созданных впопыхах для маркетологовых войн.
-
Ну так в чем проблема - от 2200$ есть в наличии.
-
У меня было с десяток разных моделей материнок на АМ4, и во всех была строгая рекомендация по установке двух модулей в конкретные два слота DIMM. То, что система стартует с установленными в неправильные слоты модули - уже достижение. Про трудности разгона четырех модулей на платформе АМ4 нужно читать на профильных форумах, иначе можно получить ответ подобный тому, что выше.
-
1080Ti если процессор конечно не офисный. БП 420Вт, естественно, выбросить и купить нормальный, даже если не будет апгрейда видеокарты. Разрешение 3440х1440 гораздо ближе по требовательности к 4к, чем 2к. Для 4к DCS нужна самая производительная видеокарта, но что бы обеспечить стабильные 60 ФПС все равно нужно будет ужимать настройки.
-
Отзывы юзавших 3080 можно почитать в Reddit :) Учитывая полуфабрикатность первых семплов, не думаю, что нынешние показатели видеокарты в DCS были бы презентабельны. Судя по тестам в DX11 играх прирост по сравнению с неразогнанной 2080Ti 20-30%, после выхода фикса драйверов решающих проблему вылета ограничением автобуста на 2ГГц - еще минус 5%. В любом случае, раньше нового года адекватных вариантов 3080 не будет, а там уже и 3080Ti обьявят после выхода 6000 Radeon.
-
Лучше подождать 8.10.20
-
Не хранятся если все влазит в видеопамять, то что не влезло/устарело сбрасывается как раз в оперативку. Сама загрузка миссий может и будет быстрее на пару процентов (учитывая, что передача данных внутри даже самого быстрого NVME происходит дольше, чем по цепочке процессор-память-видеокарта), но после ее начала никакого ускорения от этой технологии уже не будет. Эффект от смены SSD на NVME, и даже смены NVME на более скоростной будет гораздо больше. На встроенном видео функции видеопамяти берет на себя выделенная оперативка, не вижу никакой связи с жестким диском.
-
Я общался с человеком по поводу ВР, там 8Гб видеопамяти не хватает уже давно, поэтому я сказал, что 3070 мне не интересна в принципе. А в чем проблема гонять через процессор текстуры? Еще не встречал игр, что бы грузили мой процессор хотя бы на 50% (даже поддерживающие многоядерность), и это при том, что у меня SMT выключена. DCS грузит 8 ядер на 10-15% в среднем с редкими забросами на 70-80%. C 32Гб оперативки такая технология точно не нужна, да и с 16Гб тоже. В любом случае подгрузка текстур из жесткого диска напрямую в видеопамять будет на порядок дольше чем с оперативки. Исключение из цепочки ЦП позволит выиграть во времени запуска игры 1-2%, а вот если такая загрузка текстур будет во время игры, то это уже будет выглядеть как жесткие фризы. Т.е. это "ноу-хау" подойдет владельцем 2-х ядерного суперпня с менее чем 8Гб оперативки и достаточно производительной видеокартой, у которых проявляется постоянный своп. Сколько таких ассиметриков среди пользователей DCS например?
-
DLSS (не важно какой версии, т.к. отличаются они только количеством наработанных шейдеров с момента запуска поддерживающей ее игры) не зря "тестируется" исключительно применительно к FHD=>4k (или 4k=>8k), т.к. происходит кратная конвертация пикселей 1 к 4. Все остальные конвертации HD=>FHD, FHD=>2k, 2k=>4k, будут приводить к жуткому мылу, как это и было в первой "версии" DLSS. Т.е. технология может быть интересна исключительно владельцам 4k и 8k дисплеев, т.к. никто из владельцев FHD не занимается конвертацией из нераспространенного разрешения 960х540, а соответственно и "искусственному интеллекту" обрабатывать нечего. Более того, все результаты таких "вау-сравнительных тестов" представлены скриншотами, а мы на мониторах наблюдаем динамическую картинку, что совсем не одно и тоже. Пользователи замечают, что конвертированная FHD=>4k картинка с DLSS отличается от просто 4k (в основном за счет возросшего ФПС), а маркетологи nVidia убеждают их, что она ничем не хуже, показывая скриншоты обработанные алгоритмом. Проверяя DLSS 2.0 на 2070S , я подключил ее к 4k телевизору, у которого была собственная система улучшения изображения с низким разрешением, и результат конвертации FHD=>4k алгоритмом телевизора был ничуть не хуже DLSS, а ФПС даже повыше. Хотя лично мне гораздо больше нравится обычное АА-сглаживание, как на мониторе, так и в ВР-шлеме. Сравнительные тесты проприетарной DLSS 2.0 от nVidia и общедоступной FidelityFX от AMD показывают схожие результаты, подвергая сомнению необходимость выделение транзисторного бюджета ГП под специальные блоки для DLSS. Думаю все закончится примерно тем же, что и в борьбе G-Sync/FreeSync - чумаданы занесенные игро/железоделам работают до тех пор, пока всю эту маркетинговую чухню не разнесут незаангажированные тестеры.
-
Никак, разрешение никак не сказывается на загрузке центрального процессора, если для расчета картинки задействована видеокарта (100% всех современных игр). DLSS помогает nVidia несколько нивелировать дикое падение ФПС при включении лучиков в проплаченных тестах.
-
Повышение фреймрейта очень легко смоделировать даунскейлом в ВР, или уменьшением разрешения для любого монитора.
-
Приветствую гостя из будущего, когда 3000-я серия уже в продаже. Да, это уже интереснее, но вряд ли DLSS 2.1 будет эксклюзивом только Ампер и естественно требует поддержки в играх. Хотя качество апскейла для ВР больше зависит от самого шлема, чем от технологий машинного маркетинга.
-
Здесь обсуждение железа для DCS, а не видео для убогих +14Гб к видеопамяти, которой у 3080 всего 10Гб при необходимых 16Гб для DCS в ВР уже сейчас.
-
Это еще смотря какой VR, но я хоть сейчас могу сделать несколько сценариев, где гипотетические 3090х2 в идеальном SLI будут иметь падение ФПС ниже 30. Из новинок для DCS в VR интересна действительно только 3090, остальные не тянут еще до выхода.
-
Ну, так есть еще 3080, которая точно быстрее 2080Ti за те же деньги. Если цена на 2080Ti упадет ниже 500, то тогда она будет действительно интересна, хотя покупать видеокарту с абсолютно бесполезными тензорными и RT-ядрами обреченными висеть мертвым грузом как-то не особо хочется.
-
Пишет Хуанг, а как оно будет на самом деле можно будет узнать после независимых и качественных тестов. Причем драйвера д.б. оптимальные для каждой видеокарты, а не выпущенные для отыквления 2000-й серии. Судя по характеристикам 2080ti не оставит никаких шансов 3070, которая для DCS с ее 8Гб видеопамяти - вообще малоперспективна. А нужно еще брать в расчет новый для Samsung 8nm техпроцесс, который добавит проблем с охлаждением, а следовательно и снижение частот в нагрузке. Выбор б/у видеокарты - вопрос очень индивидуальный. PCI-E - единственный интерфейс сообщения видеокарты, все что в нее входит и выходит занимает какую-то пропускную емкость шины. nVidia обещает еще внедрить сообщение видеокарты напрямую с SSD (в обход ЦП+оперативка), но для чего это нужно сложно представить, видимо очередной маркетинговый блеф.
-
3070 значительно слабее 2080ti, которой 4 ревизия ничего особо не давала. Другой вопрос, что у 3070 всего 8Гб видеопамяти, чего уже явно не хватает, а значит, через шину PCI-E будет постоянное общение с оперативкой и пропускная способность может сыграть роль.
-
Работать вместе они, скорее всего будут, но как и что там за чипы я понятия не имею. Номер комплектов модулей точно разный, но чем они отличаются нужно искать в инете.
-
Одинаковые тайминги и частота для любых модулей одновременно работающих в материнке - это не удача, а единственно возможный вариант! И то, что все 4х4Гб работают на наихудших настройках самого слабого модуля - это тоже факт. Не думаю, что человек понатыкавший зоопарк в DIMM-слоты проверял стабильность и производительность ОЗУ, и в принципе знает как это делается. То, что оптимизация оперативки весьма существенно сказывается в играх и любых других приложениях - доказано многочисленными тестами.