Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Shing #2 üzenetére

    Senki másnak nincs 6000-7000 peremhálózati node-ja, mert senki másnak nem volt 25-30 milliárd dollárnyi befektetése ezeket kiépíteni.

    A Sony 19 központból szolgálja ki a PlayStationt Now-t. Az NVIDIA 3-ból a GeForce Now-t. Sehol sincsenek a Microsoft és a Google nagyjából 6000+ node-jához képest, és alapvetően esélyük sincs arra, hogy beleöljenek ebbe kb. 30 milliárd dollárt, amivel fel tudnának zárkózni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #10 üzenetére

    Attól függ, hogy miképp oldják meg. Ugye a Sony-nak már van olyan hardvere, ami képes a geometry renderingre, és ez elég sok lehetőséget megnyit az AI-jal a felbontás skálázására. A sugárkövetés sem annyira sokat zabáló ám, csak akkor, ha mindenképpen háromszögeket akarsz kilőni a sugarakkal, de ha voxeleket, akkor az már sokkal teljesítménykímélőbb.
    PC-n a 8K és az RT azért drága, mert az API-k közül egyik sem teszi lehetővé a geometry renderinget, illetve a DirectX Raytracing csak hárömszögeket kezel. De nagyon fontos, hogy nem csak ezek a teljesítménypazarló, brute force megoldások vannak a cél elérésére. Lehet ezt ésszel is csinálni, és nem csak a TFLOPS-okba, meg a GB/s-okba kapaszkodni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #16 üzenetére

    Igaza van abban Cifunak, hogy itt valóban nem a hardverben lesz a trükk. Azzal tényleg kb. ott lesz a végleges verzió, hogy terveztetnek egy Z-SSD-hez hasonló rendszert csak kapacitásra optimalizálva, plusz hozzácsapják a PCI Express 4.0-t. PC-vel ezt kb. jövőre hozni lehet. Talán nem minden paraméterét, de a többségét igen. Hardveres szinten nem probléma, maximum drága lesz. Ami az igazi előnyt fogja adni a Sony-nak az a memóriavezérlő bájtszintű elérése. Kb. kijelölik az erre vonatkozó API-val az allokációt az SSD-n, amit kezelhet, és onnantól kezdve a hardver automatikusan megold mindent. Nincs szoftveres menedzsment, nincsenek hetekig tartó optimalizálások, csak hátradőlsz, és nézed, ahogy a hardver magától működik.

    Egyébként még egy ilyen API-t is lehet hozni PC-re, csak ahhoz nagyon bele kellene nyúlni az operációs rendszerbe, de előtte le kellene ezt beszélni a gyártókkal, hogy legyenek majd kompatibilis hardverek, stb. Kb. évekről van szó, ha nem egy évtizedről. Nyilván ez egy fix hardverrel sokkal-sokkal könnyebb.

    Szerk.: Szerintem 4K-s blokkokon véletlenszerűen az új PS se fog hozni 6 GB/s-ot. Szekvenciális eredményt kaptam csak. Én nem hiszem, hogy a gép SSD-je igazán több lenne majd egy Z-SSD másolatnál, amit kapacitásra optimalizálnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Tetsuo #20 üzenetére

    Van egy hardverük, amivel képesek az objektumokat és a koordinátáikat jelenet szintjén követni. Ez egy rakás olyan analitikai eljárás megvalósítását teszi lehetővé, amit például compute shaderrel a mai GPU-kon is meg lehetne csinálni, csak borzalmas ára van a teljesítményre nézve, majdnem -90%, ami nem túl jó, de egy dedikált hardverrel az egész kvázi ingyenessé válik, és képes vagy úgy kiszámolni a képet, hogy maguk a render targetek mondjuk natív felbontáson lesznek elmentve, de a mélységadatoknál már a natív négyszeresét veheted számításba. Mivel minden pixelnek megvan a geometria azonosítására vonatkozó információja, így gyakorlatilag Full HD-s terheléssel csinálhatsz amolyan hamis 4K-s minőséget, vagy 4K-s terheléssel 8K-st. Az átlátszó objektumok jelentenek nagyobb terhelést, de még így is messze a natív minőségi szint sebességigénye felett vagy, miközben a végeredményben nem lesz emberi szem számára látható különbség.

    Gyors SSD építhető TLC-re is, nem csak SLC-re. Nem lesz olyan gyors, de a Z-SSD-hez hasonló trükkök zöme működik ezen is.

    A memóriavezérlők blokkszintű eléréssel működnek. Tudják címezni a memóriablokkokat. A bájtszintű elérés extraként még azt is lehetővé teszi, hogy magát az adattárolót címezzék, és ilyenkor a memória gyorsítótárrá válik, amit a hardver vezérelni képes.

    (#29) adamssss: Mert erre kell egy külön hardver, amit úgy tudom, hogy a Sony már a PS3 éra közepén elkezdett tervezni. Nem egyik napról a másikra jött ez.
    A PC-n azért nehezebb minden, mert a Sony el tud dönteni dolgokat magában. Kitalálja, elvégzi rá a kutatást, és odamegy az AMD-hez, hogy implementálják már a terveiket eszközszinten. Az eredménye pedig egy gép, ami működik. PC-n viszont ez úgy működik, hogy valaki kitalál valamit, arra csinál egy kutatást, talán implementál rá valami prototípus hardvert, és viszi a Microsofthoz, illetve a Khronoshoz, hogy erre mi lenne, ha írnának valami API-t. Ezután elkezdődik egy pár éves folyamat, amikor az API-k fejlesztésében résztvevő szervezetek megtárgyalják a specifikációt, leadják azt, módosítgatják, stb. Majd egyszer lesz egy olyan specifikáció, ami mindenkinek megfelel, és akkor elkezdik tervezni az eszközszintű implementációt. De addig még éveket dumálnak a kerekasztalnál, hogy az miképpen lesz jó az ipar egészének. Na kb. ezért nem képes olyan extrém lépésekre a PC-ipar, mint amire a konzoloknál képesek a gyártók.

    A CGI általában valami ray vagy path tracing, de nagyon sokféle algoritmus van.

    (#31) Cifu: A Microsoft kérhet hasonló megoldást, a probléma ennek a PC-s szabványosításával van, mert kell egy olyan hardver, ami bájtszintű elérésű memóriavezérlőt kínál. És ennek a tervezéséhez azért össze kell ülnie a gyártóknak, hogy az erre írt API specifikációját kidolgozzák. Megoldható, csak megint ott vagyunk, hogy jön a kerekasztal és vele a dumcsizgatás évekig.
    Egy ilyen rendszer se olyan marha egyszerű ám hardveresen, tehát persze a gyártók hozhatnak egy sajátot, arra behackelhetnek valami trükköt a WDDM-be, ahogy az AMD teszi ezt például, csak maga a hardver, ami az egésznek az alapja nem tervezhető annyira gyorsan. David Wang ezt a projektet még 2007-ban indította az AMD-nél, és 2017-ben lett eredménye. És akkor még ott az a probléma, hogy a PC eléggé általános is. Tehát hiába van meg ez a hardvered, ha az SSD-d nem elég gyors egy bizonyos, erre épülő feladatra. Tehát a PC-n a legjobb az lenne, ha ennek lenne egy elég komolyan specifikált háttere, amit teszem azt a Microsoft és a Khronos kidolgoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák