Thomas67 Posted June 30, 2016 Posted June 30, 2016 Guckst du hier: http://www.n-tv.de/technik/Kuenstliche-Intelligenz-besiegt-US-Kampfpiloten-article18089391.html
Isegrim Posted June 30, 2016 Posted June 30, 2016 (edited) 4x KI vs. 1 Mensch Ist von NTV Wohl übersehn worden. Edit: Nein auch nicht ganz richtig 1x KI vs. 1x Mensch aber die KI soll wohl 4 Flugzeuge gleichzeitig gesteuert haben oder so ähnlich. Edited June 30, 2016 by Isegrim "Blyat Naaaaa" - Izlom
mafuasu Posted June 30, 2016 Posted June 30, 2016 Die KI kann zeitgleich 4 steuern laut dem originalen Text. Glaube aber nicht, dass er gegen 4 feindliche Fighter gleichzeitig gekämpft hat. Das hätten sie im Artikel erwähnt. Sonst wäre das auch nicht so was besonderes...
caponi Posted July 1, 2016 Posted July 1, 2016 was mich schon wieder wundert: Zitat aus dem Bereicht: Denn Lee konnte ALPHA kein einziges Mal vom virtuellen Himmel holen. Stattdessen schoss die KI den gestandenen Air-Force-Piloten bei jedem einzelnen Waffengang ab. "Sie schien zu wissen, was ich vorhabe und reagierte sofort auf meine Flugmanöver und Waffenwahl", sagte Lee. "Sie wusste, wie sie meine Schüsse abwehren konnte und wechselte je nach Bedarf blitzschnell zwischen Angriff und Verteidigung." Wenn die KI mitbekommt, wie der Mensch seine Waffe wechselt, kann das nur bedeuten, dass die KI, wie bei DCS, Zugang zum Simulatorcode des Piloten hat ... Da kann die dann auch bestimmt durch Wolken und Berge gucken :thumbup: Was mir also nicht klar ist, sitzt die KI auch an einem "Joystick" und steuert eine Maschine oder ist sie Teil des Simulators ? In DCS verhällt sich die Su-27 KI anders, wenn ich eine AIM-120 auswähle oder wenn ich eine Sparrow auswähle ... Meines Wissen kann der SU-27 Pilot im RWR keinen Unterschied hören .. korrigiert mich ! too much ...
shagrat Posted July 1, 2016 Posted July 1, 2016 (edited) Sie läuft auf einem Raspberry Pi und “steuert“ den Gegner in der Simulation. Könnte aber genauso eine echte Maschine steuern. Sogar ohne menschliche G-limits... Edited July 1, 2016 by shagrat Shagrat - Flying Sims since 1984 - Win 10 | i5 10600K@4.1GHz | 64GB | GeForce RTX 3090 - Asus VG34VQL1B | TrackIR5 | Simshaker & Jetseat | VPForce Rhino Base & VIRPIL T50 CM2 Stick on 200mm curved extension | VIRPIL T50 CM2 Throttle | VPC Rotor TCS Plus/Apache64 Grip | MFG Crosswind Rudder Pedals | WW Top Gun MIP | a hand made AHCP | 2x Elgato StreamDeck (Buttons galore)
Thomas67 Posted July 1, 2016 Author Posted July 1, 2016 (edited) Das mit der Waffenwahl ist doch keine Hexerei. Wenn dein Flieger von irgendetwas elektronisch anvisiert wird, merken die Bordabwehrmittel das und reagieren darauf. Wieso sollte eine virtuelle KI manuelle Eingabegeräte nutzen? Die KI ist ein Programm und steuert das Programm des Flugzeuges digital praktisch in Echtzeit. Das erhöht die Effizienz ungemein, weil es keine manuellen oder mechanischen Schaltkommandos und Wege gibt. Und sie wird natürlich auch nicht von den Einflüssen behindert, denen ein Mensch ausgesetzt ist (Reaktionszeit, G-Kräfte, Tageszeit, Blendungen, Hunger, psychischer und physischer Stress, Angst, etc.). Noch kann man die Software kaufen. Interessant ist, das der Colonel mit TH Hardware fliegt. Edited July 1, 2016 by Thomas67
caponi Posted July 1, 2016 Posted July 1, 2016 ja, aber der Rasberry wird am Simulator angeschlossen ... und ich weiß nicht, ob er da nicht doch Daten aus der Simulation auslesen kann bzw. muss oder fliegt die KI per visuelle Bildschirmaufnahme ? too much ...
caponi Posted July 1, 2016 Posted July 1, 2016 Das mit der Waffenwahl ist doch keine Hexerei. Wenn dein Flieger von irgendetwas elektronisch anvisiert wird, merken die Bordabwehrmittel das und reagieren darauf. .... Er schreibt, wenn er die Waffe wechselt ! Ich bin zuwenig Praktiker, aber beim Waffenwechsel wird doch nicht die Radarsignatur verändert, also kann das RWR das nicht mitbekommen ... naja ... lang über kurz wird SkyNet die Macht schon übernehmen ... :thumbup: too much ...
ED Team Groove Posted July 1, 2016 ED Team Posted July 1, 2016 Bla bla bla bla.... Sorry, aber diese Meldung hat null Inhalt... Our Forum Rules: http://forums.eagle.ru/rules.php#en
shagrat Posted July 1, 2016 Posted July 1, 2016 Das mit der Waffenwahl ist doch keine Hexerei. Wenn dein Flieger von irgendetwas elektronisch anvisiert wird, merken die Bordabwehrmittel das und reagieren darauf. Wieso sollte eine virtuelle KI manuelle Eingabegeräte nutzen? Die KI ist ein Programm und steuert das Programm des Flugzeuges digital praktisch in Echtzeit. Das erhöht die Effizienz ungemein, weil es keine manuellen oder mechanischen Schaltkommandos und Wege gibt. Und sie wird natürlich auch nicht von den Einflüssen behindert, denen ein Mensch ausgesetzt ist (Reaktionszeit, G-Kräfte, Tageszeit, Blendungen, Hunger, psychischer und physischer Stress, Angst, etc.). Noch kann man die Software kaufen. Interessant ist, das der Colonel mit TH Hardware fliegt. Erklär mal "elektronisch anvisiert", bitte. Meinst du Radar, RWR und MAWS? Das Radar emitiert einen Radarstrahl, der vom RWR erfasst wird; es erfasst die Richtung und Stärke des Signals und meist noch Charakteristiken die eine Identifizierung zulassen. Wenn der Gegner sein Ziel "aufschaltet", also in den Tracking mode schaltet, fokussiert der Radarstrahl das Flugzeug und bleibt dauerhaft "an ihm dran", evtl. ändert es auch die Frequenz. All das können die Sensoren des RWR wahrnehmen und dir z.B. den Lock anzeigen. Eine AIM-120 ist eine Aktive Rakete (ARH) mit eigenem Suchradar, sobald dieses angeht zeigt das RWR dies ebenfalls an, dann ist die Rakete aber schon recht nah. Eine AIM-7 Sparrow oder andere Halbaktive (SARH) Rakete sucht hingegen passiv, nach der Radarreflektion des "aufgeschalteten" Radars. Das RWR zeigt bis zum Einschlag nur den "Lock" an. Ein EOS (ElectroOpticalSystem) oder das PIRATE des Eurofighter ist vollkommen passiv und ist vom RWR nicht wahrzunehmen; der Pilot bekommt maximal eine Launch Warnung, wenn die Stichflamme der Zündung des Raketenmotors vom MissileApproachWarning System (MAWS) erfasst wird. Sowohl der menschliche Pilot, als auch die KI muss nun auf diese Informationen reagieren. Knackpunkt ist hier eher, dass bis vor kurzem menschliche Piloten, mit Intuition und Erfahrung, "aus dem Bauch" die Entscheidungentrafen und Manöver geflogen sind die zum Sieg über die KI führten. Althergebrachte KI/Computeralgorithmen konnte in sekunden grosse Mengen an möglichen Ausgängen berechnen und Daten wie Vektor, Tempo etc. berechnen... aber keine intuitive Einschätzung was der Pilot, als nächstes tut. Genau das, ist aber die hohe Kunst im Luftkampf: zu erahnen, was der Gegner als nächstes tut und sich schonmal in die beste Position zu bringen. Diese "neue" KI kann offensichtlich zwei neue Dinge, zu jeder Zeit die absolut wesentlichen Parameter herausfiltern und korrelieren, sowie aus Fehlern (nicht optimalen Ergebnissen) zu lernen. Das zusammengenommen, ermöglicht eine nahezu menschliche Intuition, quasi das "Bauchgefühl" zu simulieren. Nimmt man dann noch hinzu, dass eine KI nicht an G-Limits scheitert, keine Müdigkeit kennt. Nichts "vergisst" etc. ist das schon ein heftiger Durchbruch. Hoffen wir sie lehren die KI nun schnellstmöglich, zwischen "provokativem Überflug" einer Su-27 und einem "echten Angriff" zu unterscheiden... :smartass: Shagrat - Flying Sims since 1984 - Win 10 | i5 10600K@4.1GHz | 64GB | GeForce RTX 3090 - Asus VG34VQL1B | TrackIR5 | Simshaker & Jetseat | VPForce Rhino Base & VIRPIL T50 CM2 Stick on 200mm curved extension | VIRPIL T50 CM2 Throttle | VPC Rotor TCS Plus/Apache64 Grip | MFG Crosswind Rudder Pedals | WW Top Gun MIP | a hand made AHCP | 2x Elgato StreamDeck (Buttons galore)
red_coreSix Posted July 1, 2016 Posted July 1, 2016 Die KI, zwar in "Rechenleistung" einem Menschen überlegen, muss aber immer noch die eben genannten Informationen wie Geschwindigkeit, Position und Vektor Gegners erhalten. Würde man die KI in eine ganz normale F-18 oder vergleichbares Flugzeug setzten, hätte sie gar nicht die nötigen Sensoren um den Gegner zu verfolgen. Selbst in einer F-35, mit dem 360° DAS-System wird der Computer immer noch Schwierigkeiten haben die Information vernünftig zu verarbeiten da diese Systeme nicht für den Dogfight ausgelegt sind. Vielleicht wird sich sowas in 30 Jahren durchsetzen aber heute sehe ich noch nicht wie. Vor allem wie von shagrat angesprochen wegen der korrekten Einschätzung einer unklaren Situation.
caponi Posted July 2, 2016 Posted July 2, 2016 deswegen ja auch meine Nachfrage, ob die KI direkt an der Simulation angeschlossen ist oder ob sie sich wie in der Realität die Informationen erst "visuell sensorisch" erarbeiten muss ! ist sie angeschlossen, hat sie auf alle Fälle einen Vorteil ! too much ...
Isegrim Posted July 2, 2016 Posted July 2, 2016 deswegen ja auch meine Nachfrage, ob die KI direkt an der Simulation angeschlossen ist oder ob sie sich wie in der Realität die Informationen erst "visuell sensorisch" erarbeiten muss ! ist sie angeschlossen, hat sie auf alle Fälle einen Vorteil ! Genau... Soll dieses Pad doch mal ne echte mit Servos und Kameras oder vergleichbarer Sensorik ausgerüstete Schrottreife C172 ohne GPS fliegen und wegen mir ein Ziel mit Farbbeuteln bewerfen. So ein Zeug kann man doch easy in Nevada oder nem anderen grösseren Truppenübungsplatz Testen. Was / Wer / Wo ist mein Gegner lassen sich dann nicht mehr durch Virtuelle Daten einspeisen. Das würde mich zumindest VIEL mehr beeindrucken. ISE "Blyat Naaaaa" - Izlom
Thomas67 Posted July 2, 2016 Author Posted July 2, 2016 (edited) Ähh, ohne GPS wird wohl keine autonome Maschine fliegen können. Und das Ground Vehicles eben ganz genau mit Servos, Kameras und vergleichbarer Sensorik fahren können, ist ja nix neues, oder. Eine noch so intellente KI kann eben auch nur auf die Sensoren zurgreifen, die ihr zugänglich sind. Das ist wie beim Menschen. Natürlich müssen ihr dementsprechend auch diese Sensoren bereitgestellt werden, sonst wäre es ja ein Roboter, der alle Daten (optisch, akustisch, elektrisch, digital) erfasst, zentral auswertet und dann die entsprechenden Eingaben im Flugzeug manuell macht. Die KI ist nur sie Software, die in diesem Falle digital die Steuerung über das Flugzeug (bzw. dessen Programm) direkt übernimmt (anders geht’s halt nicht, Beipiel EPC). Allerdings könnte es sein, dass der Eigentliche Witz des Ganzen noch nicht so ganz durchgekommen ist. Es geht nicht darum ein Flugzeug zu fliegen, sondern einen Menschen in einem digitalen Flugzeug in einem digitalen Luftkampf zu besiegen. Ein Schachprogramm kann auch „nur“ virtuell Schach spielen (also nicht selber die Figuren bewegen), die Eingabe der gegnerischen Züge und die Ausgabe der eigenen müssen demnach anderweitig realisiert werden. Aber das ist eine ganz andere Geschichte. Edited July 2, 2016 by Thomas67
Schmirco Posted July 2, 2016 Posted July 2, 2016 Das ist alles soweit schon klar, hier geht es nicht darum das eine KI ein Flugzeug fliegt sondern in einem Luftkampf Entscheidungen trifft die immer dazu führen den Luftkampf zu gewinnen. Die Frage ist nach wie vor nur, ist die KI in der Sim mit eingebettet und hat Zugriff auf Inputs des Piloten oder ist sie eigenständig, gibt Eingabebefehle ans Flugzeug und wertet beispielsweise "visuell" aus was der echt Pilot macht. Das habe ich nämlich noch nicht so ganz gerafft. vHSG-23 | virtuelles Hubschraubergeschwader 23 Wir suchen Piloten u. CoPiloten, besuch uns im Discord: https://discord.gg/cNXwSZP38d <--- Klick mich
Thomas67 Posted July 2, 2016 Author Posted July 2, 2016 (edited) Das geht zwar aus keinem Bericht, den ich gefunden habe hervor. Aber ich gehe davon aus, das Alpha über ein externes System auf die SIM zugreift und nicht implementiert ist, sonst wäre es ja nix besonderes. Ebenso wie ein Schachcomputer an ein (virtuelles oder reales) digitales Schachbrett angeschlossen ist. Leider geht nirgendwo hervor, um welche SIM es sich handelt. Habe soeben eine Anfrage diesbezüglich an Psibernetix gestellt. Das mit der "Waffenwahl" scheint wohl ein Übersetzungfehler zu sein. Guckst du hier, bei 1:01: [ame] [/ame] Edited July 2, 2016 by Thomas67
shagrat Posted July 2, 2016 Posted July 2, 2016 Was wir anscheinend vergessen ist die Tatsache das die KI nicht dem Piloten in den Kopf schauen kann. Sie hat keine hellseherischen Fähigkeiten. Genau das ist aber was der Pilot meinte, was passiert ist. Die KI hat genau erkannt, bzw. genau erahnt, wann er welches Manöver macht und die richtigen Gegenmaßnahmen beziehungsweise Manöver gewählt. Selbst wenn sie dazu Komplettzugriff auf alle Sim-Daten hatte, was ich nicht glaube, hat sie somit die Fähigkeit, präzise vorauszusagen was der menschliche Pilot als nächstes tut. Nun noch 360° Kamera, IR, UV Sicht, Radar-Daten, MAWS, RWR und sonstige Sensoren, direkt an die KI ohne das hinderliche “menschliche“ Interface -Augen die nur 160° Sichtfeld haben, kein IR oder UV Licht sehen. Ohren die kein Radar “hören“ können, nur zwei Arme mit 10 Fingern... usw. - Klingt für mich als würde ein Elite-Killer einen Querschnittsgelähmten 12-jährigen attackieren. Shagrat - Flying Sims since 1984 - Win 10 | i5 10600K@4.1GHz | 64GB | GeForce RTX 3090 - Asus VG34VQL1B | TrackIR5 | Simshaker & Jetseat | VPForce Rhino Base & VIRPIL T50 CM2 Stick on 200mm curved extension | VIRPIL T50 CM2 Throttle | VPC Rotor TCS Plus/Apache64 Grip | MFG Crosswind Rudder Pedals | WW Top Gun MIP | a hand made AHCP | 2x Elgato StreamDeck (Buttons galore)
Recommended Posts