-
Posts
77 -
Joined
-
Last visited
Content Type
Profiles
Forums
Events
Everything posted by Sotka
-
Hello ! I spent a few hours searching the internet for the answer.. How do I switch to Russian speech in say L-39 Kursant campaign or Mi-8 Memory of Hero ? (or other campaigns or training missions). Say, for Memory of a Hero both languages are listed: Voiceovers English, Russian Briefings/Subtitles English, Russian In my regular DCS install it was in Russian (which I prefer). In DCS beta install the speech is English in the same campaign for some reason. Same goes for some other Training modules and campaigns with multiple languages supported. There are some configuration files in SavedGames/DCS that control it ? I could not find the sound files in subdirectories of DCS World/Mods/campaigns directory (which seemed like a straightforward place for them to be). How do I switch localization for Training missions and Campaigns ? Thank you for your help Edit: I found how to change localization for the whole install: Config/lang.cfg but I still wonder if it is possible to change localization for individual campaigns
-
I also got the authorization failed pop-up window. But for Marianas islands. The only anti-virus on this fresh install of Win 10 Pro is Windows Defender and it is not alerting me to DCS (one of the guides how to add a program to the allowed list mentioned windows defender has to alert about it first, then you click on the alert and allow it). Actually alerts for not allowed apps are turned off when I looked into windows defender settings. I renamed DCS folder in Saved Files to backup, ran DCS to create a fresh DCS directory in Saved Games and ran full DCS repair after that, started it up and got the same problem. The dcs.log file is attached. 2021-08-19 17:41:11.416 INFO Scripting: plugin: SKIPPED 'Su-33 Flanker by Eagle Dynamics': not authorized 2021-08-19 17:41:11.433 INFO SOUND: Added sound path: ./Mods/aircraft/Uh-1H/Sounds 2021-08-19 17:41:11.497 INFO SOUND: Added sound path: ./Mods/aircraft/Yak-52/Sounds 2021-08-19 17:41:11.503 INFO Scripting: plugin: SKIPPED 'MarianaIslands': not authorized 2021-08-19 17:41:11.509 INFO Scripting: plugin: SKIPPED 'A-10A by Eagle Dynamics': disabled by 'Flaming Cliffs by Eagle Dynamics' 2021-08-19 17:41:11.515 INFO Scripting: plugin: SKIPPED 'F-15C': disabled by 'Flaming Cliffs by Eagle Dynamics' 2021-08-19 17:41:11.524 INFO Scripting: plugin: SKIPPED 'MiG-29 Fulcrum by Eagle Dynamics': disabled by 'Flaming Cliffs by Eagle Dynamics' 2021-08-19 17:41:11.528 INFO Scripting: plugin: SKIPPED 'Su-25A by Eagle Dynamics': disabled by 'Flaming Cliffs by Eagle Dynamics' 2021-08-19 17:41:11.529 INFO Scripting: plugin: SKIPPED 'Su-27 Flanker by Eagle Dynamics': disabled by 'Flaming Cliffs by Eagle Dynamics' Also, while understand why some modules were skipped because they are part of Flaming Cliffs 3 that I have, I wonder why 'Su-33 Flanker by Eagle Dynamics' was skipped without the same annotation. I have 'SuperCarrier" as well. I thought Su-33 was part of FC3 and then it was updated in SuperCarrier module. Please let me know your thoughts. I will create a ticket as well. dcsAfterFullRepairOnFreshDCSfolderInSavedGames.log
-
Can someone from the developers please let me know in which files the view angles for iCommandViewCamera** views are defined (these are called "glance" views in DCS). The nice feature of these is that if I assign iCommandViewCameraUp to Num5 and the rest of iCommandViewCamera** views to the corresponding numpad keys I get almost the same behavior as in the old viewsystem of Warbirds-> Aces High-> IL-2. That is, iCommandViewCameraUp modifies other iCommandViewCamera** views to look up. One cannot get the same with DCS "snap" views. If I press a key (Num7) bound to, say, iCommandViewSnapView7 together with Num5 bound to iCommandViewCameraUp the iCommandViewSnapView7 view is not modified to look up. I'm not quite satisfied with the angles of those views though. They do not appear in SnapViews.lua because they are not "snap" views in DCS terminology. Can you please kindly let me know how to modify the angles of these iCommandViewCamera** views ? Thank you
-
Разработка внешней утилиты для работы с миссиями
Sotka replied to Emperor's topic in Общее Обсуждение
Нет, почитайте книгу по reinforcement learning - учиться бот сам, ему функции поощрения задали - вот он и учится прогоняя эпизоды. А ещё есть работы по совместному самообучению ботов. Не надо путать supervised leaning и reinforcement. Наука вперёд двигается и говорить что "какие бы методы не были то никогда не будет чего-то" это пардон близорукость. NERO рассчитан на то что он будет приспосабливаться к особенностям игрока, поэтому без человека который даёт добро не обходится. Идея в том что как играть будешь (а не учить), бот будет сам настраиваться. -
Разработка внешней утилиты для работы с миссиями
Sotka replied to Emperor's topic in Общее Обсуждение
Опять же надеясь что человек разрабатывающий ИИ для Локона читает.. Интересная работа по самообучающемуся ИИ в реальном масштабе времени (reinforcement learning applied to neural network topologies) сделана под руководством Проф. Risto Miikkulainen из The University of Texas, Austin. Он сам спец. по нейронным сетям. Система NERO - первая работающая версия в Мае 2004, не совсем fighter combat, но главное принцип работы. Reinforcement learning используется для мутирования нейросетей по ботов согласно их успеху/неуспеху в игре против людей. Боты приспосабливаются играть и побеждать в зависимости от стиля игры человека. Хотя первоначальные тренировки элементарных тактик делается в отдельном режиме статейка за 3Мега, "The NERO Real-time Video Game" IEEE Transactions on Evolutionary Computation, Special Issue on Evolutionary Computation and Games (2005), описывает принцип работы, результаты экспериментов: http://www.cs.utexas.edu/users/nn/downloads/papers/stanley.utcstr04-312.pdf Сама игра Quake-образная - команды ботов бегают с арбалетами и тд и уничтожают другую команду. " NERO может очень быстро развивать поведение в реальном масштабе времени. Самая обыкновенная боевая тактика - это агрессивный поиск и врага и стрельба. Чтобы натренировать на эту тактику одиночный стационарный враг помещался на тренировочное поле и роботы поощрялись за приближение к врагу. Эта тренировка требовала от роботов научиться бежать к цели, что сложно т.к. роботы начинают на заводе обращённые лицами в разные направления. Начиная со случайной нейросети, в среднем занимает 99.7 секунд для 90% роботов на поле научиться успешно приближаться к врагу (19 прогонов, sd = 44.5c). Важно заметить что критерий успеха, те что команда научилась достаточно хорошо приближаться к врагу, является частично субъективным, тк игрок решает когда тренировка завершена визуально оценивая результат действий команды. ... В стандартный набор датчиков робота входят РЛС, дальномер до объекта и датчик линии визирования на цель. " -
Разработка внешней утилиты для работы с миссиями
Sotka replied to Emperor's topic in Общее Обсуждение
Абсолютно, с небольшими изменениями по сравнению с языком в Fleet Command. SCX3.0 стал последней user community-made модификацией которая стала стандартом и для on-line. Поведение объектов гораздо более продуманное чем в release. Давно пора дать часть ИИ на откуп useram - через скрипты только, не через сам source. Особенно для тех кто не играет по сетке и больше любит конструировать ботов и их войны в компьютерной "песочнице". Кстати и учёные в области ИИ используют "миры" игр для демонстрации своих идей. SOAR о котором я упоминал был приложен к Quake, тк Quake предоставил хороший внешний интерфейс (это другие статьи что я упомянул раньше - тоже очень интересно, более кокретно про приложения к играм): http://ai.eecs.umich.edu/people/laird/gamesresearch.html A description of some experiments we have done with the Quakebot to test how human it behaves and whether we can modify some simple parameters to change skill levels: Creating Human-like Synthetic Characters with Multiple Skill Levels: A Case Study using the Soar Quakebot. This appeared in the AAAI 2000 Fall Symposium Series: Simulating Human Agents, November 2000. The games research uses the same technology we've used for simulating military pilots. This paper gives an overview of our military pilot simulation work and relates it to issues in computer game AI development. Sorry but not all of the figures came through to PDF. Laird, J. E., and Jones, R. M. Building Advanced Autonomous AI Systems for Large Scale Real Time Simulations, Proceedings of the Computer Game Developers Conference, May 1998, Long Beach, CA. Вот небольшой отрывок про TACIAR SOAR, на основе учений STOW-97: " База данных ландшафта включала 575М (3.7Г для визуализации) что было достаточно для моделирования 500x775 км^2. База данных включала 13500 зданий, 20000 разрушаемых объектов, ВПП, дорог, мостов, кустов, рек, водоёмов и тд. До 3700 сгенерированных ЭВМ технических объектов были задействованы, они включали объекты всех родов войск США а так же вражеские силы. Моделирование было полностью распределённым, выполнялось на 300 ЭВМ на 6 площадках. Время в моделировании соответствовало реальному масштабу времени и военнослужащие действительнй службы участвовали в моделировании наблюдая за полем боя посредством смоделированных сообщений и датчиков и давали настоящие команды объектам на ЭВМ. Наше участие заключалось в моделировании всех ЛА США с неподвижным крылом, которые включали до 100 самолётов в воздухе одновременно, распределённые между 20-30 ЭВМ. ... Soar написан на ANSI C и может работать на всех основных платформах и всех основных операционных системах. В типичной конфигурации, мы запускали всё программное обеспечение (ПО) как одиночный процесс на Linuxe на ЭВМ класса Pentium Pro c 256М ОЗУ. ... В течении STOW-97, у нас было достаточно вычислительных ресурсов чтобы пролетать все необходимые боевые задания. Нашими ЭВМ были 200МГц Pentium Pro (P6'е) с 256М ОЗУ. До STOW-97 по нашим оцнкам мы могли моделировать полёт до 8 самолётов на одной ЭВМ. Во время STOW-97, у нас было достаточно ЭВМ чтобы уменьшить отношение самолёты/ЭВМ. Вообще, у нас было до 4-6 самолётов на ЭВМ, хотя некоторые боевые задачи, такие как разведка были проделаны с только одним самолётом на ЭВМ. На пике, у нас было 102 самолёта в полёте одновременно, и мы могли отработать гораздо больше если бы было нужно. ... На STOW-97, ИИ модули делили 200МГц Pentium Pro со всем другим ПО необходимымдля моделирования, поэтому каждый отдельный бот получал где-то 5-10% времени центрального процессора. Поэтому было реалистично предположить что на отдельной ЭВМ могло отрабатываться 2-4 разумных противника как часть однопользовательской игры. " -
Разработка внешней утилиты для работы с миссиями
Sotka replied to Emperor's topic in Общее Обсуждение
Было бы очень интересно задавать хоть часть поведения ИИ скриптом. Что то подобное было сделано в морски симуляторах Fleet Command, SubCommand, Dangerous Waters by Sonalysts. Например задавать групповые действия вроде drag или pincers, использовать рельеф местности для засад и прочих хитростей и уловок. Даже после того как игрок привыкнет к репертуару ИИ будет возможность разнообразить игру. Это так же даёт возможность игрокам доработать поведение ИИ объектов до которых у разработчиков не хватило времени (вроде ЗРК или кораблей). В случае с SubCommand так и случилось - поведение ИИ объектов было существенно доработано игроками - этакий open source development на базе скриптов. -
Попробуй Су-25 против колонны c Avenger, да и миссии из ГС. После как 10 раз подряд сбивали ведомого в первые 30сек боя меня достало - его сразу отсылать обратно надо.
-
Нет он справа был. http://i5.photobucket.com/albums/y158/tomDelay/Snaruzhi2.jpg http://i5.photobucket.com/albums/y158/tomDelay/Snaruzhi1.jpg
-
Это элементарные поправки. Баланса не наблюдаю - Стингеры сбивают ботов на раз. В training описаны манёвры кторые ИИ не может парировать никак. Заставить бот крутить удава или пускть ракету на эффективной дальности легко - и хоть какой то баланс будет.
-
Такое получилось на автопилоте Alt-3. Очевидно что высота намного больше 21м. http://i5.photobucket.com/albums/y158/tomDelay/HUD21p.jpg http://i5.photobucket.com/albums/y158/tomDelay/HUDpanel21p.jpg http://i5.photobucket.com/albums/y158/tomDelay/Panel21p.jpg
-
Боты должны выбирать цель по степени угрозы. Ещё во Фланкере та же проблема была. А так выбором порядка зениток в колонне можно добиться уничтожения ботов. Хорошо было бы если боты умели отстреливать ловушки сериями - а то в первые 30сек атаки бот ведомый часто сбит. Ну и добавить "удава" в репертуар ботов плюс задержку пуска до эффективной дальности. Без приоритетов по целям и разумного использования ловушек очень трудно сохранить бота-ведомого до посадки. У меня впечатление что боты и сухогрузом не пользуются.
-
Та же фигня - получалось избавиться перзагрузкой миссии с изменённой разрядностью цвета. Обычно с 16 на 32 ставил и начинало работать. Desktop у меня в 32bit color, может связано.
-
Ну он то излучает - как бы он тогда ракеты пускал. Я сам SEAD flight вёл - все ЗРК на ИЛСе появились. Давал команду уничтожить ведомому - он ни одной ARM ракеты не пустил, в это время ЗРК в колонне (Roland) сбивали основную группу. Запишите трек где ведомый уничтожает Roland и Gepard в колонне ARM ракетами (Х-58, Х-25МПУ) с этого mis файла. Su25t_column_Vihr2.rar
-
Так я по всякому пытался - и SEAD отдельно и в составе пакета и с заданной целью и без, разные типы самолётов перепробовал. Даже когда сам SEAD flight'ом управлял, то ведомый ни за что Х-58, 25МПУ не использовал если я прямо указывал атаковать ЗРК.
-
Даже после как ЗРК захватывают самолёты ИИ - нет никакой реакции кроме одиночного отстрела ловушек. Я ставил SEAD flight - они разворачиваются и уходят от колонны оставляя подопечных на уничтожение - пробовал обозначить колонну как цель для SEAD - никакой реакции. Есть ли возмржность обозначить отдельный объект из колонны как цель ? Сейчас ставить ЗРК в колоннах не имеет смысла.
-
Это в supervised learning натаскивается экспертом, в reinforcement натаскивается сама. В популярном учебнике ИИ Norviga упоминается о системе кoторая реально научилась выполнять управление поворотами самолёта. Mance Harmon сделал систему для самоообучающейся ракеты будучи студентом - как проект для одного из курсов. Конечно это была модель, но концептуальная сложность была преодолена. TACAIR-SOAR был сделан не военными - это скромные академические лаборатории которые получают от 2млн до 500к в год. К примеру система координации вертолётов STEAM была разработана в лаборатории Проф Milind Tambe - на весьма скромные деньги. Hill, R., Chen, J., Gratch, J., Rosenbloom, P., and Tambe, M., 1997 Intelligent agents for the synthetic battlefield: A company of rotary wing aircraft.Innovative Applications of Artificial Intelligence (IAAI-97) http://teamcore.usc.edu/publications.htm Java версию STEAM (тоже основанную на SOAR) можно скачать отсюда http://www.isi.edu/teamcore/tambe/agent.html На http://sitemaker.umich.edu/soar можно скачать архитектуру Soar на базе которой можно сделать агентов для ДВБ 2 на 2 для начала. Эта задача уже была решена и можно вытянуть из public domain публикаций кой какие детали. Но я думаю что тот человек кто писал ИИ для Локона наверное знает об этих системах. Они очень заметны - по ним много публикаций. Те кто хоть боком относится к ИИ о них знают.
-
Нет, в том то и дело что действия в каждом состоянии являются элементарными - для самолёта это будут отклонения РУС и РУД. Это не типовые действия как достичь определённой цели. Задача функции поощрения и дискретизация состояний сложнее. Reinforcement learning был предложен Rich Sutton' ом - http://www.cs.ualberta.ca/~sutton/index.html Вщт в этой книжке описаны методы обновления состояний - http://www.cs.ualberta.ca/~sutton/book/the-book.html Здесь tutorial по RL - http://www.nbu.bg/cogs/events/2000/Readings/Petrov/rltutorial.pdf Где то я видел статью где описан опыт применения этого метода для обучения наведению ракет - т.е. вместо классических пропорционального и т.д. где минимизируется ошибка эта штука сама выбирает действия после очень многих "эпизодов" самообучения. Нашёл - http://www.stsc.hill.af.mil/crosstalk/1996/02/reinforc.asp 1st Lt Mance Harmon - тот бывший студент, мы вместе курс у Rich Suttona брали. Но использовать код Soar хотя бы для прототипа более реально - нужно разобраться в принципе работы и приложить к ботам как это сделали для TACAIR-SOAR.
-
А тот кто ИИ писал в отпуске ? Людей c Soar technologies можно спрость если что непонятно - код для общего Soar можно скачать - там ещё куча статей с увеличивающейся степенью сложности. Любой к.т.н. кто брал продвинутые купрсы по ИИ, machine learning, reinforcement learning и может multi-agent systems может разобраться. Когда то давно - ещё в 97-м 98-м сам написал простенького самообучаещегося агента по методу reinforcement learning. Проблема была в дискретизации пространства, выборе функции поощрения ну и коэффициентов для функции изменения весов действий в состояниях - в чём и заключалось самообучение. Если б хоть часть Soar начала управлять ботами в Локоне было бы очень интересно. Вот старый доклад по поводу как Soar был приложен к ДВБ на F-14, можно и больше по теме нарыть и сделать прототип основанный на Soar. http://www.isi.edu/soar/papers/cgf/94/Progress/progress.ps
-
При High Effects при выпуске ловушек если они НЕ в кадре - их не видно - то фпс всё равно зверски падает с 45 до 14-15. Haze на Basic и Lights на Weapons, так что прорисовки подсветки ловушек самолёта тоже нет - вид из кабины прямо. Причём с Low Effects или без Effects то этого не наблюдается т.е. дело не в просчёте физики.
-
При посадке на этой верт скорости взрывается, каким образом если на брюхо то ничего не случилось ? Там что то не так, он даже по земле не тащился почти - плюх и стал.
-
После как 16 ловушек и сухогруз не помогли с ПЗРК, грохнулся на -6м/c, причём скорость 230кмч за секунду исчезла. Su25t_ZSU.rar
-
Подскажите какие настройки больше всего едят FPS
Sotka replied to RPLevik's topic in Общее Обсуждение
Для моей системы больше всего влияние оказывают дальность и Haze на Advanced с Lights to All днём. Ночью освещение солнца не просчитывается так что Advanced Haze при Lights All идёт нормально. Вот вопрос к разработчикам. Preload на 100км рекомендуется для систем с 1Г, но субъективно мне кажется появляются рывки. Хоть Preload помогает если за 100км не вылетать но ведь как следующий квадрат грузится то задержка больше. Preload по квадратам ? Я прав что задержка при смене квадратов больше при подгрузке 100x100км чем при 50x50км? Насколько я понимаю "необьяснимые" задержки при хороших кадрах в сек. когда вроде ничего на кадр не должно влиять (новых объектов и взрывов в кадр не влазит) происходят из-за подгрузки terrain. Ещё.. можно ли игру заставить загрузить текстуры ловушек и взрывов заранее. На High Effects что ни взрыв - задержка с подгрузкой. У меня 1Г ОЗУ, файл подкачки вручную установлен в 4Г и для него свой раздел - никакой сегментации. Карта GF6600GT - 128М видеопамять, Video Fast Writes to Auto, видео апертура - 512М (читал что должна быть в полвину ОЗУ установлена). -
Поворот передней стойки на 240-220кмч = лопнувшая шина ?
Sotka replied to Sotka's topic in Общее Обсуждение
Послал адрес по ПМ. А что за джой ? -
Надо делать самообучаемых. Интересно как ИИ в Локоне сыграл бы относительно SOAR наверняка ваши ИИ экперты что то об этом знают: http://sitemaker.umich.edu/soar Capabilities * Single Learning Mechanism * Multi-Method Learning o Learning by Instruction o Simple Concept Acquisition o Abstraction o Learning by Analogy R. M. Jones, J. E. Laird, P. E. Nielsen, K. J. Coulter, P. Kenny, and F. V. Koss. Automated intelligent pilots for combat flight simulation. AI Magazine, 20(1):27--42, 1999. " In 1992, we began development of a software system that emulates the behavior of military personnel performing missions in fixed-wing aircraft (Tambe et al. 1995). The general goal was to generate behavior that "looks human" when viewed by a training audience participating in operational military exercises. The resulting rule-based system, called TACAIR-SOAR, is currently deployed at the WISSARD (what-if simulation system for advanced research and development) facility at the Oceana Naval Air Station and the Air Force Research Laboratory at Mesa, Arizona. TACAIR-SOAR consists of more than 5200 rules that are executed by the SOAR architecture (Laird, Newell, and Rosenbloom 1987). As TACAIR-SOAR has grown, it has participated in a number of tests, technology demonstrations, and operational training exercises. Its most dramatic use was in the Synthetic Theater of War 1997 (STOW '97), held 29-31 October 1997 (Ceranowicz, 1998; Laird, Jones, and Nielsen 1998; Laird et al. 1998). STOW '97 was a United States Department of Defense (DOD) Advanced Concept Technology Demonstration (ACTD) that was integrated with the United Endeavor 98-1 (UE 98-1) training exercise. As an ACTD, the overall goal of STOW '97 was to permit an early and inexpensive evaluation of advanced technologies that show promise for improving military effectiveness. "