

Fiztex
Members-
Posts
1286 -
Joined
-
Last visited
Content Type
Profiles
Forums
Events
Everything posted by Fiztex
-
Я, если честно, не понял. Количество пикселей где? Возьмём для примера Quest 2. На физическом дисплее другое количество, там не все используются, а только те "квадраты" в которые "круги" линз вписаны. Оптика и матрица в связке работают из которой производитель решает какой кусок этой матрицы взять для отрисовки картинки под линзами, чтобы это все нормально работало во всех доступных конфигурациях по IPD и eye relief. Разрешение этих физических кусков матриц естественно никак не связано с разрешением рендеринга, т.к. есть искажения и нужно рендерить больше. Какое разрешение выбрать "родным" зависит лишь от субъективного восприятия качества картинки производителем, и не более того. Выбирают такое, чтобы волки сыты и овцы целы. Хотите чтобы поле зрения без лесенок стало больше - рендерите больше. Устраивает если только свит спот не сильно шумит - рендерите меньше. Просто не надо выдумывать, что есть какие-то правила тут. Не спроста все говорят о PPD, а не разрешении, всех только PPD в свит спорте волнует, и чем выше разрешение рендеринга тем больше пикселей рендеринга и ощущаемый PPD. Но не PPD матрицы конечно, и наступает момент когда мы упирается в физический PPD матрицы, и для Q2 это субъективно 3500х3500. Объективно посчитать не получится, т.к. на матрице рассеивающий фильтр стоит против скрин дор эффекта и хз где там этот оптический пиксель. Мы же оба тут согласны что чем больше тем лучше, да? Нет никакого волшебства, что при меньшем разрешении рендеринга картинка в VR станет каким-то образом лучше из-за "попадания пиксель в пиксель", так просто не бывает.
-
Есть одно простое правило в VR - чем больше пикселей рендеринга, тем меньше шума и лучше середина до упирания в физический предел матрицы за линзами. Нет никаких золотых середин и пиксель в пиксель. Родное разрешение это всего лишь решение производителя выбрать значение по умолчанию понимая баланс между качеством картинки и производительностью. Это субъективное решение диктуемое в том числе маркетингом. Они заявляют обычно кусок матрицы на котором рисуют и ставят родное разрешение примерно в 150% от этого, но это вообще не значит что если сделать больше то станет хуже, как раз всегда станет лучше.
-
@huligan можешь, пожалуйста, как-нибудь глянуть сколько видеопамяти у тебя ест голый VD + Windows? Я тему изучаю и похоже VD ест заметно меньше видеопамяти в сравнении с Oculus Link. С моими 8GB VRAM это актуально, у меня только после запуска Oculus Link система останется с 5GB видеопамяти не зарезервированной. Просто чтобы попробовать VD мне похоже придется роутер хороший купить, поэтому хочу как-то взвесить стоит оно того или нет прежде чем $60 отдать. Встроенный в материнку вайфай не потянет точно, он какой-то какашечный по задержкам. Любопытно какая картинка будет еще в VD в сравнении с проводным максимальным Oculus Link, нигде не могу такое сравнение найти. Вероятно провод все-таки лучше даже после обновления VD, все только VD с Air Link сравнивают. Если кто экспериментировал недавно - отпишитесь, пожалуйста.
-
Это зависит от возможностей нового чипа и оптической конфигурации. Если чип вытянет лучше стриминг, матрица даст на 10% лучше разрешение, а оптика будет аналогична Pro, то вполне может объективно заменить его. Придется наверняка подождать пару месяцев нормальных интерфейсов на морду лица, но как же без этого, заводские вставки всегда мусор. Я вижу округлые края линз в Quest 2, и только начиная с положения 2 вижу прямые края дисплеев немного по центру, а в положении 3 боковые края уже просто вертикальные. У меня поле зрения периферическое как в бинокле, если фов не резать. Это ресницами в линзы, не далеко от глаз. У меня раньше было -5 до коррекции зрения - может из-за этого. Сейчас 0.9 справа и 1 слева зрение.
-
Глянул еще раз, похоже все-таки вся маска двигается вперед назад, как на Pro по сути. Слишком сильно радовался
-
Глянь, мне это дало надежду что мой носяра влезет как надо с линзами близко к глазам. далеко не во всех шлемах у меня он помещается. В G2 мне было некомфортно. На квесте горизонтальный FOV кстати зависит от IPD (один экран), может поэтому у меня больше выходит. На третьем положении края экрана уже видно даже. Гляну завтра в твоей утилите, чтобы в одной проге сравнивать значения.
-
Настройка расстояния между линзами и зрачками. Не как в Pro между лбом и шлемом, а именно как в Index. Увидел у Tyriel Wood.
-
Может центральные 30 градусов почти полностью попадают. Но нас бесит шум периферийный тех самых непопадающих, его мы и гасим SS или MSAA, по сути "межпиксельной" информацией. Мне тоже так казалось, пока я не увидел eye relief для линз на Quest 3. Появилась надежда, ждём
-
Да, вес еще прибавляет к этой проблеме когда сам шлем двигается если резко голову повернуть. Q3 вроде сильно легче будет и компактней, плечо и момент вращения должны быть сильно меньше.
-
Я это все безусловно понимаю, действительно посмотрим. Два экрана против одного это хороший аргумент, но это могло быть сделано преследуя и другие цели - та же зональная подсветка для отдельных дисплеев лучше работает, чем если пытаться диммить отдельно две секции одного экрана, которые довольно близко друг к другу, т.к. может быть паразитная засветка соседней линзы. Я все же думаю выигрыш в FOV идет в основном за счет eye releif и самих линзах. Мы не знаем еще конкретных размеров линз и дисплеев чтобы делать какие-либо более точные догадки. Я просто не могу поверить пока, что новые pancake линзы дадут меньший FOV, чем старые Френелевские, это довольно глупый ход, т.к. основная претензия к Quest 2 всегда была FOV и есть на рынке альтернатива в виде Pico 4. Еще IPD настройка, конечно, будет ограничена в сравнении с двумя отдельными дисплеями. Но мне "повезло" иметь IPD в 61.5 мм, так что проблем с этим у меня не будет. Было бы куда нос деть при близком расположении линз к глазам То что ты описал и есть суперсэмплинг, просто другая его степень. Сам тоже кручу всегда вправо для удобства - все остальные настройки SS можно делать непосредственно в играх не трогая больше этот ползунок. Маркетологи решают что такое "родное разрешение", вспомни G1 vs G2. И пиксель в пиксель никогда не будет попадать хоть убейся Маска рендеринга у тебя округлая под линзу рисуется на прямоугольной матрице - прямые линии становятся кривыми и попадают между пикселей матрицы постоянно.
-
Я же не про крайности, не надо утрировать так просто 2400х0.85~2000 это ну очень мало же. Да и как безудержно вращать головой с 72 Гц - это минимум 90 надо тогда, как в IL-2 FC. Как так вышло-то? Неужели нельзя графику порезать сильнее как @Rtyer выше предлагает и остаться с глазами и плавностью? Все эти ультра облака которые все равно шумят, дальность прорисовки и прочую ерунду. Как мы выше выяснили с пикселями у Pro все нормально вплоть до 500% SS в отличие от Q2, при том что пикселей там столько же примерно, так что до упирания в пиксель с Pro нам как до Луны. Мы даже еще не вытягиваем стандартную коррекцию бочки для Pro с таким разрешением. Еще если вам над городами полетать, то зачем вам вообще текущая тормозная версия? Скачайте 2.5.6 и летайте с в 2 раза большей производительностью над городами с VR шейдерами от Kegetys и модом на тени. Или 2.7 на крайняк, если облака прям позарез нужны, там шейдеры еще как-то работали. Или надо низко где-нибудь в Марианах летать на каком-нибудь тормозном f14? Кавказ, персидский и Сирия вполне нормально летаются на нетормозных модулях. Как с таким разрешением все видеть вокруг-то? Все шумит страшно, считай ложные контакты кругом. Если ED завтра выпустит обновы и уронит еще на 15% производительность дальше будете терпеть и снизите еще на ступень SS? В BMS не пришлось уйти, он мне как военный сим гораздо больше понравился чем DCS, а такая производительность это очень приятный бонус. Еще, конечно, сказывается железо текущее, т.к. то что раньше мог делать в DCS на 3080ти, я больше не могу делать на текущей 3070. Это стало поводом попробовать BMS и теперь я понимаю, насколько в DCS скучно и мучительно в сравнении. Такая выходит красивая садомазо скука этот DCS Я сейчас еще в процессе эмиграции, без топового железа пока, к НГ думаю осяду и прикуплю все, что хотел. Может загляну в DCS погонять некоторые сценарии, которые раньше любил погонять, если оно поедет как надо, конечно. В 2400 я летать точно не буду. Рано BMS хоронишь, DCS до него во многом еще очень далеко, а во многом вообще недостижимо далеко. Не понимаю пока где он застрял, но летаю там не так давно, может потом пойму. Баги и глупости есть, конечно, но очень мелкие пока, жить не мешают. Пока очень весело, для меня прям открытие года. Посмотрим, насколько тормозная будет 4.38 с новым движком ландшафта и текстурами. Забэкаплю себе 4.37.2 на всякий случай, а то будет как с Ил-2 - поломали, а старую версию потом не скачать
-
Спасибо, у меня свой способ через среду SteamVR есть ещё приложуха на сам квест, но там не так удобно. Если на то пошло, то любое измерение fov херня, его нельзя точно измерить, ты когда головой крутишь он у тебя меняется, 5 градусов погрешности легко
-
Ага. Вот я кручу так, чтобы было около 3500х3500 (1.3 множитель в BMS) до обрезки fov для BMS, и 3000х3000 (1.1 множитель в DCS) для DCS (это уже OXRTK покажет). 3500х3500 ощущается как физический максимум разрешения для Quest 2, от большего центр лучше не становится. В Pro судя по твоим наблюдениям и за 4500х4500 можно выходить, значит надолго шлема хватит.
-
Да, так конечно тоже можно Отлично, тогда 7ю точно увижу после апгрейда. Спасибо за инфу!
-
У меня аналогичные наблюдения с этой таблицей по шарпу. А что, множитель суперсэмплинга так и не заработал? Разницы что-ли нет 1.0 или 1.5 в ODT визуально даже если SteamVR рапортует >3000x3000? Если так, то получается все упирается в размер пикселя матрицы и улучшение в одну строку у Pro идет за счет фильтра матриц и оптики.
-
Любое ставь разрешение и настройки, хоть 1.8 в ODT, главное никаких улучшайзеров типа VRtoolkit. Не заморачивайся с fov, так понятней будет. Вопрос физических ограничений по оптике, матрице и стримингу - можно ли прочитать строки 6 и 7 с любыми настройками шлема. От настроек суперсэмплинга в ODT будет результат зависеть, если перезапустишь SteamVR - там должно в настройках видео быть 100%, а не авто и будет видно разрешение текущее. Намек на чтение 7 это уже очень хорошо, у меня в квест 2 так с 6ой строкой в максимальном раскладе. Если в Quest 3 будет чуть больше разрешение и аналогичная оптика, то можно будет уверенно читать 7ю строку, а это уже вполне себе зрение нормального человека, даже рулить с таким без очков можно C 6-ой строкой тоже рулить конечно можно, но в сумерках не очень будет и мелкие знаки не прочитаешь. Таблицу взял для простоты и объективности. В DCS заметна разница в периферии и оптике, но я только про предел разрешающей способности сейчас, так проще сравнивать матрицы и оптику. В DCS еще OXRTK, с ним лучше картинка по четкости.
-
Физика самого сигнала туда обратно на 500 км по оптике это примерно 5 мс со скоростью оптики. Если будет даже 10 мс с повторителями, то это не проблема. Поставь прям сейчас в настройках Nvidia 3 кадра пререндеринга для VR и получи доп задержку в 25 мс для 72 Гц - увидишь разницу? А 2 кадра и 14 мс увидишь? Я не вижу в леталках ничего такого, но в бит сейбере чувствую одним местом, что-то что-то не то, но привыкнуть можно. 500 км оптики это не 15000 км до какой-нибудь Калифорнии через кучу распределителей (по прямой 8000, но такой прямой не может быть). Обработка сигнала занимает столько же времени сколько сейчас при стриминге по линку. Я думаю опыт будет ровно такой же как если запустить эйрлинк на современном wifi 6 роутере, вполне играбельно, для авиа симулятора уж точно. У Цукера не было задачи сделать линк на 1 км - когда условно ему не понравилось ограничение в 3-5 м и толщина обычных проводов, появился оптический линк. Ничего не мешало сделать этот линк и 100 м, и больше, было бы желание (радуемся что не стали, и ограничились массовым USB). В общем, были бы деньги этом, технологии эти могут запилить, физика их на нашу радость не ограничивает в значительной степени, а проблема Цукера была в желании сделать как можно дешевле и массово.
-
Ну мы же не про завтра, а про 10 лет. Думаю ИИ даст хороший пинок датацентрам и они могут начать появляться повсюду для бизнеса. А там уже всем фиолетово, что именно ты будешь там гонять, корпоративный LLM или домашний DCS.
-
Поэтому и говорю прямо в датацентр, а не через ISP. Представь себе такие центры в каждом городе (или не больше 500 км от тебя) и ты оплачиваешь подключение к нему как к провайдеру мощи (платишь пропорционально Вт потребления и ГБ хранилища). Только это не интернет ни разу, а интранет (интернет такое никогда не потянет), видео, ИИ и прочая мощь для всей твоей домашней мультимедиа по типу gforce now, но только в локальной изолированной сети, чтобы не больше 10 мс на всё, что по поводу летит. У тебя там свой локальный сервер и клиент DCS, а по оптике тебе летит стриминг в гарнитуру как сейчас по USB линк. Такой вот киберпанк
-
Мы можем увидеть использование ИИ для рисования периферического зрения, такой подход вполне для этого годится. Наверное это будет когда AMD догонит текущий DLSS - они это сделают традиционно общедоступным и программисты напишут утилиту для VR с использованием этой технологии. Может через 10 лет увидим в симуляторах. А пока по одной строке в таблице Снеллена за поколение видюх и шлемов А так да, микроэлектроника уже практически на пределе, я ещё когда ее 10 лет назад в универе изучал уже было понятно, что скоро этот день настанет, туннелирование не даст дальше развивать традиционную 2D литографию, а 3D сложных чипов дороже в разы. Вот облачные штуки вполне могут быть - плати $100 в месяц и летай. Ещё оптику прям в датацентр не забудь.
-
Ну такое писали, потому что верили в программистов и более умную работу с периферией поля зрения на уровне движков. Геометрия, текстурирование и все такое, а не только шейдинг. Получается ты одни шейдеры с периферии убрал, а другие придется добавить, чтобы не шумело. Но я с тех пор стал более пессиместичен Если мы увидим это в unreal engine 6 или даже 7, то считай супер повезло.
-
Пробовал уже все это давно и очень много раз, было время когда я больше настройки крутил чем летал. Недавно вот обнаружил что 195 Mb h265 лучше чем 900 Mb h264 в Oculus Link. Я в VR со времен DK2, уже собаку на этом съел, ни разу не "теоретик", все подтверждается практикой и если где-то можно спасти производительность, я с радостью это сделаю. Ваши предложения идут напрямую против здравого смысла, но если вас устраивает 720p картинка в DCS (2000 / 90 градусов примерно равно 1280 / 60 градусов) - я могу только вам позавидовать. Я скорее все эффекты выключу, но вытяну 3000х3000. 3000 / 90 это примерно 1920 / 60, т.е. воспринимается примерно как монитор FullHD. Если я не могу этого сделать, я просто не летаю в этот симулятор. Лично я из-за прожорливости DCS и его ограниченности ушел в BMS и там у меня 3000 на глаз и все замечательно, 72 фпс на земле. UPD: Попробовал ваши настройки в комнате для тестирования зрения в VR. С ними я вообще не вижу 6-ую строку, все-таки есть разница 2400х2400 или 3000х3000. Со своими я вижу половину букв правильно там, путаю C с G и вроде того. 5-ю вижу правильно (20/40 зрение). Пробовал 4000х4000, все равно не вижу больше, только шума меньше (сглаживание по сути). Можете сами скачать комнату для SteamVR и поиграть с разными настройками, называется "Simple eye chart to measure visual quality of VR", легко гуглится. Вообще интересно, увидит ли кто 7-ю или 8-ю строку нормально в Quest Pro с каким-либо суперсэмплингом. @biotech у тебя будет возможность попробовать? Интересно, лимит в центре это оптика Q2 или все-таки разрешение матрицы. Если разрешение матрицы ограничивает, то Q3 даст нам в лучшем случае нормальную 6-ю строку (20 / 32 = 0.62 зрение) т.к. матрица там не шибко отличается по разрешению.
-
Да, всё так. Я поигрался как-то в FFR и понял что ну его в баню, еще и шума на периферии добавляется, который ухудшает периферический споттинг.
-
Я вам тоже там ответил про эту чепуху про пиксель в пиксель - каждый раз когда читаю это про суперсэплинг хочется просто улыбнуться и похлопать глазами. Неужели никто не замечал как выглядели истинные маски рендеринга в зеркале VR до той поры пока разработчики не стали их перетягивать на квадрат для монитора (вспоминаем 2.5.6, например)? Как это натянуть на квадратный дисплей или секцию дисплея пиксель в пиксель? Это тот самый случай когда коллективный разум превратился в народную глупость. Факт в том, что визуально картинка становится четче с множителями 1.2, 1.3, 1.4 и даже 1.8. Но чем дальше тем меньше эффект, конечно, т.к. идут потери в оптике и середина поля перестает заметно выигрывать, разве что сглаживается лучше. Особенно эта тема была популярна у заводчиков G2, т.к. на момент его выхода нормальное разрешение для него ничего не тянуло и начались попытки оправдания снижения разрешения. Плюс там настолько суровые потери во френелевской оптике, что не удивительно желание не платить за это производительностью. Не буду весь комментарий сюда вставлять, у вас много косяков в понимании работы того же видео стриминга, поэтому кому интересно пойдет ваше видео посмотрит и почитает.
-
Очень странное видео. Человек пользуется Oculus tray tool, которая не обновлялась много лет и не имеет текущего функционала Oculus debug tool. Например, в OTT недоступна настройка кодека или шарпа. Использование h264 это наиболее вероятно 8 бит вместо 10 бит цвета в h265. Человек ставит странный суперсэмплинг и режет очень сильно fov. Получает разрешение рендеринга 2000х2000 или эквивалент 20 ppd и при этом рассказывает про четкость, лесенки и MSAA Как так, вроде энтузиаст и такие ляпы. Неужели его 4090 не тянет хотя бы 2700х2700 в 72 Гц? В пико у него картинка сыпется - неужели через VD не пробовал? Reverb G2 сравнивать с новыми шлемами как-то совсем несерьёзно. На мой взгляд решение купить про вместо Q3 может быть продиктовано диммингом и трекингом глаз, все остальное будет реально то же самое. Даже fov будет наверняка аналогичный - линзы наверняка можно будет придвинуть ближе к глазам, чем позволяет стандартная накладка, нужно будет только подождать пока такую накладку выпилят или сделают для 3д принтера. И есть еще вероятность, что более мощный проц позволит кодировать кадр больше 4000 пикселей в ширину, что положительно скажется на стриминге видео.