Jaktože to není nějaký kočkopes?
Engine vygeneruje jeden snímek a ten shader jen "pokřiví" obraz pro druhé oko, nebo co jiného to má dělat? ReShade nemůže měnit funkci enginu, je to postprocesing.
normálně se generuje každé oko VR zvlášť, spočítá se geometrie scény a pak se aplikují shadery atd.. To mimo jiné znamená že na každém ze dvou snímků je něco "jiného" není to identický snímek.
Příklad X-Plane a 3 monitorový setup, FOV generovaného obrazu máš třeba 135°, který odpovídá i fyzické pozici monitorů (45° k sousednímu). Nastavíš si Surround přes všechny tři. Scéna se generuje jednou. čím více ke kraji, tím více budeš mít obraz protáhlý a bude to vypadat otřesně.
Místo toho musíš nastavit pro každý monitor samostatný úhel kamery, prostřední 0, levý -45 a pravý +45°, X-Plane pak generuje třikrát geometrii snímku a třikrát na něj aplikuje shadery, výkon klesá, ale obraz je zobrazený korektně, neroztahuje se.
SMP umožní aby se geometrie snímku generovala jen jednou a shadery se aplikují pro každý úhel kamery zvlášť a těch různých pohledů na scénu můžeš nadefinovat až 16. V případě 16 pohledů ušetříš výkon rovný 15ti násobku výkonu potřebného na spočítání geometrie.
SMP pak má ještě nějaké další vychytávky specifické pro VR, NVIDIA tomu říká single pass stereo.
To je asi jak někdo dělá clickbait názvy Reshade filtrů se slovem Raytracing. Reshade nevymaže existující stíny a světla ve snímku a nezačne je počítat na základě fyzikálních zákonů, Reshade ani nezná informace o tom kde jsou zdroje světel, jaké materiály jsou objekty, jakým způsobem odrážejí světlo atd. kde reshade udělá odrazy objektů které ani nejsou na scéně? |
|