- One mobilszolgáltatások
- Magisk
- Telekom mobilszolgáltatások
- A sógorokhoz érkezik a kompakt Vivo X200 FE
- Yettel topik
- Milyen okostelefont vegyek?
- Samsung Galaxy Z Fold6 - ugyanaz, sarkosan fogalmazva
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Mobil flották
- Vivo X200 Pro - a kétszázát!
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
GeryFlash
veterán
-
Abu85
HÁZIGAZDA
válasz
Jack@l #47390 üzenetére
Sokat. Az a memóriakonfiguráció 35 wattot eszik. Ebben a generációban a memóriák nagyon nagy fogyasztók lesznek. Vége a 20 wattba bőven belefér szintnek. Ezért is volt kritikus fejlesztési szempont jelentősen csökkenteni az RDNA2 fogyasztását az RDNA-hoz viszonyítva, mivel így korrigálni lehet a memória extrém fogyasztását.
(#47395) Devid_81: A termékmintának megvan a 3 GHz vízzel is. A probléma a fogyasztás. Ehhez a szinthez már 400 watt fölé kell menni. Nem feltétlenül éri meg. Az RDNA2 elsődlegesen a perf/wattban lép jelentősen előre, és ebből adódik, hogy sokkal nagyobb órajelre is képes, mint az RDNA. Meg persze ezen segít a CDNA busza is.
(#47400) Petykemano: Nem tudsz a korábbi adatokból kiindulni, mivel a memória PHY-t folyamatosan tervezik. Az RDNA2 esetében áttervezték, mert a Microsoft és a Sony is ilyen memóriaszabványt használ.
-
Alogonomus
őstag
válasz
Jack@l #47390 üzenetére
Abu írta, hogy terveznek egy lég- és egy folyadékhűtéses verziót is. Teljesen reális helyzet, hogy alapból egy 12 gigás 384 bites kártyát vezetnének be léghűtéssel 300 W környékén, de van egy 16 gigás 512 bites kártya is folyadékhűtéssel mondjuk 400 W környékén biztonsági tartalékként. Nvidia szeptemberi eseményének fényében majd eldönti az AMD, hogy kell-e a 3 GHz környékén pörgő komolyabb kártya. AMD most valószínűleg nagyon nyerni akar.
Az még megragadta a figyelmemet a pletykából, hogy TSMC N7+ gyártást említ. Az még nagyobb ugrás lenne a Samsung 8 nm-éhez képest.
-
-
Yany
addikt
válasz
Jack@l #47250 üzenetére
Pl. shaderekkel kiszámolt geometriák a cpu-n futó fizikai motor számára azonnal láthatók lesznek. Nagyon sok fizikailag korrekten leszámolt dolog azért nem tud hatni a gameplay-re, mert azok a GPU-n futnak pl. Vagy ott a tesszelálás. Az is macerás fizikával rendelkező rendszerekben.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #47250 üzenetére
Jelentősen más allokációkat másolni, mint csak lapokat címezni. De manuálisan nem tudsz olyan jó kódot írni, hogy csak a szükséges lapot címzed, és csak azt másolod például, ezért hiába kell az allokációból csak mondjuk 4 kB-nyi adat, át kell másolni a teljes allokációt, ami például lehet 100 MB is lehet. Tehát 4 kB-nyi adatigényért 100 MB-tal terheled a buszt, és az adott GPU VRAM-jába 99,9%-nyi olyan információt másolhatsz, amit lehet, hogy nem is fog használni. Ezért jobb ezt a problémát hardveresen kezelni, mert a hardver már meg tudja tenni, hogy csak annyi információt kér, amennyit címez, tehát nem terheled a rendszert teljesen felesleges másolásokkal.
A fentiek miatt van az, hogy az NV az NVLINK-kel sok GPU-t tud egy hostra rákötni. Az NVLINK memóriakoherens, tehát a skálázhatóságot a hardver már az interfészből biztosítja egy pontig, nem függ jelentősen a programkódtól. Az AMD is közel lineáris skálázhatóságot mond a friss diákon a CDNA-ra IF 2.0-val, ami reális is, ugyanúgy memóriakoherens az interfész.
Az Infinity Fabric 3.0 ezeknek a modelleknek a kiterjesztése. Nem csak az összekötött GPU-kkal biztosít memóriakoherenciát, hanem a teljes rendszeren belül.Ezek az NV, az AMD és az Intel oldalán is mind ugyanazok, csak más névvel, más interfésszel. A koncepció azonban a hatásfok drasztikus növelése, ami jelenleg a béka segge alatt van, de pont azért építik ezeket a gyártók, hogy jó legyen, és eközben még a programozási nehézségeket is megoldják. Igaz ennek rövidebb távon az lesz az ára, hogy AMD CPU-hoz AMD GPU-t, Intel CPU-hoz Intel GPU-t, NV GPU-hoz pedig valamilyen NVLinkes CPU-t kell venni. Nyilván ezért tárgyal az NV az ARM-mal, mert az IBM-től áttörést nem várnak, abban pedig nem bíznak, hogy az Intel és az AMD odaengedi őket a rendszereik közelébe, tehát kell nekik az ARM, hogy ezt az irányt ők is kiteljesítsék. Ez megérne még 50 milliárd dollárt is. Annyi hitelt biztos kapnak, és akkor követni fogják az AMD-t és az Intelt, vagyis teljes házon belüli platformot kínálnak memóriakoherenciával. Ez kritikus, hogy a jövőben esélyük legyen EFLOPS-os rendszerekbe kerülni, mert egyelőre ezeket viszi az AMD és az Intel, csak azért mert ők fel tudják kínálni a szóban forgó funkciót. Nem véletlen, hogy nem vegyítik ezen a szinten a gyártókat. Persze lehet bízni a szabványban is, de a CXL szabványosítása még a PCI Express 7.0-nál is csak opcióként merült fel. Az még sok-sok év, és ki tudja, hogy tényleg szabványosítva lesz-e. Az NV az ARM-mal tudna kínálni egy rendszert 2024 körülre, míg szabványos memóriakoherencia jó eséllyel csak az évtized vége felé lesz.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #47245 üzenetére
Egységes memóriaképet látnak a hardverek. Azért nincs szükség a középen lévő kódsorokra. Az a parancs arra szolgál, hogy ne a CPU-n fusson a kernel, hanem a GPU-n.
Ez ugyanaz a koncepció, amikor az IBM Power CPU mellé direkten NVLinken keresztül kötöd be az NV gyorsítóját. Csak az AMD esetében ez nem IBM Power CPU-val, hanem x86/AMD64-gyel fog működni. A link miatt kizárólag EPYC-en, mert kell a vezérlő a host processzorba, ahogy az NV-nél is kell egy NVLink a prociba a direkt bekötéshez. Az Intel is ugyanezt csinálja az Xe-hez, az Xeonokkal fog működni.
-
TESCO-Zsömle
titán
válasz
Jack@l #47235 üzenetére
Igaz. Annyit lehet felhozni mentségül, hogy egy fajlagosan kisebb és rosszabb helyzetben levő cégtől ez is süvegelendő. Az a csoda, hogy képesek voltak egy ilyen Ryzen-féle visszatérésre a CPU piacon. Ha kitart ez a lendület, lehet pénz a Radeon-t is kihúzniba szarból.
-
TESCO-Zsömle
titán
válasz
Jack@l #47226 üzenetére
Értem én, hogy savanyú a szőlő, de a GF88xx-eket a legszarabb szériának nevezni azért elég meredek.
Én csupán az általad is előszeretettel alkalmazott kettős mércére próbáltam felhívni a figyelmet, ami egészen addig teljesen normális, mikor az nVidia termékei kerülnek ki toppon.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #47217 üzenetére
Igen. A fő különbség a régi fejlesztési modellhez képest, hogy iszonyatosan sok erőforrást spórolnak azzal, hogy egyetlen CPU chiplettel fedik le az asztali piac aljától kezdve a szerverpiac tetejéig tartó területet. Az Intel ehhez például fél tucat lapkát tervez generációnként. Az AMD már nem erre költi az erőforrást, hanem átrakja oda, ahol még több lapkát kell tervezni. A processzorpiacot minden évben megoldják egy picike chiplettel.
(#47215) KillerKollar: Most csak azért tűnik ez gyors elavulásnak, mert megint gyorsan fejlődnek az API-k, de ez is megtorpan majd. Utána különösebb hátrány nélkül lehet egy adott generáción maradni.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #47102 üzenetére
Ami nem hibrid az vagy nagyon szar minőségű, vagy nagyon lassú. A kettő közé hozták a hibridet.
A Nitrous csak egy példa. Lehet írni olyan működésű motorokat másnak is. De mint írtam a gond az, hogy ez időbe kerül. Ellenben addig nem tudod a GPU-k között szétosztani az árnyalási feladatokat, amíg a motor szintjén nem szeparálod el ezt a leképezéstől.
Az Oxide egyébként kizárólag a Nitrous motor eladásaiból él. Nincs semmi más technológiájuk.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #47100 üzenetére
Természetesen a raszterizálás is real time render, meg a nagyon szar minőségű sugárkövetés, csak gondolom hibrid sugárkövetésre gondolt X2N, vagyis nem olyanra, ami marha ronda egy full statikus környezettel. Nem olyan egyszerű ezt megoldani. A legfőbb probléma az efféle modellen ugyanaz, ami a raszterizálásnál. A geometria kezelése teljes lesz, tehát lehet, hogy az effektek, illetve a raszterizálás szintjén csak a kép negyedét számolod, de minden másban a négy kártya egyszer-egyszer kiszámolja ugyanazt. A legjobb módszer ennek az elkerülésére az, ha szétválasztják a leképezést és az árnyalást a motor szintjén, és akkor lesz egy GPU a leképezésre, és be lehet fogni egy rakás másik GPU-t árnyalásra. De ezzel meg az a probléma, hogy nagyon speciálisan írt motor kell ám hozzá. Nem kétlem, hogy erre elmehet az ipar, hiszen a Nitrous már így dolgozik, csak ez nagyon sok fejlesztés kérdése, a fejlesztés pedig idő.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #46972 üzenetére
Bizony. A gyakorlatban kinyerhető számítási kapacitás legnagyobb gyilkosa az adatmozgás a lapkán belül. Nem véletlen, hogy minden optimalizálási útmutató arról szól, hogy ezt hogyan lehet csökkenteni. Mert ahhoz, hogy egy ADD/MUL/MAD operációt végrehajtson egy ALU mindössze egyetlen ciklus alatt, el kell vinni az operációhoz szükséges adatot a regiszterekbe. Az már nem csak egy ciklus, GPU-knál akár 100 ciklus is lehet. Tehát tulajdonképpen a teljes lapka 100 ciklusig is dolgozhat azon, hogy egy ciklus alatt végrehajtson egy egyszerű operációt. Ilyen szempontból az az ADD/MUL/MAD "szinte ingyen van".
-
Petykemano
veterán
válasz
Jack@l #46957 üzenetére
"Adatmozgatásra meg csak megkérdezném, hogy mikor, milyen mértékben van szükség? (nekem csak pálya betöltáskor jutnak eszembe ilyen dolgok)"
Amire te gondolsz, az a Vramba való betöltés. Én meg inkább a vramból a cache-ek valamelyik szintjére, való adatmozgatásra gondoltam inkább.
Persze bármelyikről is beszélünk, annak energiaköltsége van. Minél távolabbi, annál nagyobb késleltetés és energiaköltség.
A lémyeg: ezekhez képest a számítás szinte ingyen van. -
válasz
Jack@l #46957 üzenetére
Inkább lookup table (is), mint cache.
-
Petykemano
veterán
válasz
Jack@l #46953 üzenetére
Hát fogalmazhatunk így is.
Abu azt mondta, hogy a raytracinghez brutális sávszélesség kell. Coreteks korábbi videójában arra hívta fel a figyelmet, hogy
1.) Az adatmozgatás lényegesen több energiát emészt fel, mint maga a számítás. (Data-locality)
2.) Az nvidia nagyon ügyesen oldja meg ezt a kérdést ezzel hatékonyságot elérve.
Ha az amd a raytracing sávszélességigényét Ha ezt valódi - relatív távoli - memóriával akarná megoldani, az biztosan iszonyú energiaigénnyel járna.Az RT mag valójában egy nagy cache.
Valahogy választ kell adni erre a kérdésre. Vagy ha bullshitnek bizonyul, akkor nyilván e. Lesz mondva, hogy az eddigi premisszák hol voltak hibásak.Az elképzelés nyilván azért hihető, mert amúgyis az egyetlen módja annak, hogy több cache-t tudj adni egy részegységnek anélkül, hogy annak kiterjedése és az adatfelhasználástól számított távolsága nőne, az a 3. Dimenzióban van.
De attól még ez természetesen nem több, mint egy izgalmas találgatás.
-
-
válasz
Jack@l #46885 üzenetére
Te sem tudsz olvasni. Az Anus adja ki ezt a kártyát, nem az AMD. Egyébként a legszarabb NV kártya is az Anusé: GT 710 w/ 32-bit memory
-
Abu85
HÁZIGAZDA
válasz
Jack@l #46807 üzenetére
Ki lehet, de mint írtam, az Xbox Series X-en biztosan az inline raytracing fut, és az már a működés szintjén nagyságrendekkel gyorsabb, mint a régi dynamic shader raytracing. Óriási előny, hogy mindaz, amire eddig bekötési táblák, illetve szeparált dinamikus shaderek kellettek mostantól egy compute shaderen belül leírható, és nem kell az adatok mozgatásával törődni. Ez a hardver számára többszörösen hatékonyabb feldolgozást tesz lehetővé. Tehát a sebességnövekedés egy része az pusztán az inline raytracing jelentős sebességelőnyéből ered.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #46803 üzenetére
Ugyanannyira megy vele az IGP, mint a dedikált GPU. Nagyon szépen ki tudja majd tömni az üresjáratokat ezzel a hardver.
Régebben megosztottam egy adatot erről. "up to 690 billion intersections/s" Ennél többet még nem lehet tudni. Az Xbox Series X-nél van róla adat, hogy lényegesen gyorsabb mindennél, ami eddig van, de ez az eltérő implementációtól is lehet, hiszen a DXR 1.1 (IRT) már dizájnból sokkal gyorsabb működésre képes, mint maga a DXR 1.0 (DSRT). Nem mindegy, hogy egy compute shadert futtatsz csak, és ebből megoldasz mindent, vagy egy rakás különböző shader kell a működéshez.
(#46804) TESCO-Zsömle: Nyilván idővel nekik is lesz. Nem akkora nehézség ez hardveres szinten, amiért eddig nem láttuk PC-ben, az az, hogy nem érte meg. De az új geometriai pipeline mellett van haszna.
-
#82819712
törölt tag
válasz
Jack@l #46611 üzenetére
Na ez oké, de ha elvesszük a kovidot akkor már most meg kellett volna jelenni a konzoloknak az APU kész hozzá.
AZ AMD gazdasági jelentéseiben erősen látszik a hiány amit a konzolok nem fogyása okoz.
Ha most kinn lennének a konzolok mivel játszanának rajta az emberek ?
Ha 21-ben lesznek olyan címek amire fel tudja építeni. és még a Last Of Us II. 50 ezer dislikes botránya még hozzáadódik ugye .Te Petyke ez mi alapján: "big navi mégsem bizonyult annyira energiahatékonynak"
-
GeryFlash
veterán
válasz
Jack@l #46373 üzenetére
Nem lehet összehasonlítani a kettőt, de ha kettő közül inkább az Ampere-hez lesz közelebb mivel inline raytracing lesz a konzolokban is, mai 3-400%-kal jobb hatásfokú köszönhetően annak hogy 1 shader csak akkor dolgozik ha az indított sugár eltalált valamit. Tehát ha akarnák se lehetne olyan szutyok az RT teljesítménye mint a RTX 2000-es kártyáknál.
-
válasz
Jack@l #45636 üzenetére
+b.
Egyáltalán lehet kapni 12gbps GDDR6 memóriát? Amikor írtam az előző hszt, rákerestem, de csak korai hírek említik, és mivel a GDDR5X memóriát 12gbps-ig tolták ki, ezért lehet, nem is nagyon van GDDR6-ból ilyen lassú. Ahogy korábban mondta valaki, a memóriát is firmware-ből fogták vissza.
Szerk: Tényleg amatőr tud lenni az AMD, de gondoljátok, hogy bevállal egy olyan fiaskót, hogy a felflesselt 5600XT-k ne bírnák a 14gbps-t? Ennyire nem nyúlhatnak mellé...
-
Z10N
veterán
válasz
Jack@l #45631 üzenetére
Meg is van az ujabb buveszkedes ara...mindig csak a mokolas.
MSI explains why not all Radeon RX 5600 XT can get 14 Gbps memory
"The problem is that both MSI and ASUS do not buy the memory themselves, the chips are supplied by AMD
This supplied memory was specified to work at 12 Gbps, not 14 Gbps. While it might (and in most occasions will) support 14 Gbps speed, MSI and ASUS cannot guarantee such speed. This would basically cause RMA issues for both manufacturers, who did not validate their cards to work at such frequency."
"They were told to flash GAMING Z bios onto their X’s and rename their products in reviews. So yes, from the reviewers’ perspective, the explanation in the video is a bit embarrassing to listen to."
Biztosan elore eltervezett scenario volt...hogy szivassak a korai vasarlokat. Sok lesz mar ez a 460/560/560D fiasko, 470D, 580 2048sp, Pro 570/575, 550/550X, 5500XT,stb utan. Ez nem profi. -
#82819712
törölt tag
-
-
Petykemano
veterán
válasz
Jack@l #45359 üzenetére
Nem tudom...
Valahogy nem izgat fel - fogyasztóként - , hogy vajon az AMD hoz-e előbb új szériát a jelenlegi mellé illetve a jobb példányokat fölé árazva stabilan tartva a a perf/$ mutatót. Amire az nvidia trompfolhat rá egy erősebb és ezért még drágább sorozattal tovább rontva a perf/$ mutatót.
Vagy pedig az nvidia jön ki előbb a még drágább új és erősebb sorozattal, ami mellé később beállhat az AMD.
Ez olyan mindegy... -
Abu85
HÁZIGAZDA
válasz
Jack@l #45299 üzenetére
A dobozosból nem. A mobilból meg az OEM-ből inkább. Mindkét piac nagyobb, mint a dobozos. Legalábbis a JPR őszi jelentése szerint. A dobozos a teljes dedikált GPU-piac 34%-a, és csökken, mert volt korábban ez 60% is, persze a bányászlázkor. Amiért az OEM erősödnek azok az átrendeződések, amelyek a elindultak a piacon belül. Ma már a játékosok zöme sem maga rakja össze a gépét, és főleg az USA-ban ezért erősek az ezzel foglalkozó cégek, mert egyre nagyobb az igény az előre összeszerelt konfigurációkra. A mobil ugye eleve ilyen, márpedig elég sokan áttértek ilyen DTR-hez hasonló hordozható gépre, ami a régi modellekel eltérően valóban hordozható. Ezek a lényeges piacok, nem a dobozos.
(#45300) Cifu: Nyilván jelen van az NVIDIA, az egy kritikus piac, mert nagy növekedés előtt áll. De önmagában nem versenyképesek a Google-lel és a Microsofttal, mert három központból szolgálják ki a saját rendszerüket a világon. A Google ~7000 edge-be rakja a Stadia hardvereit, és a Microsoft is így építi majd ki a sajátját, mert ugye a központ kb. ötszáz km-es közelében relatíve jó lehet a késleltetést, de sokezer km-re tőle már szar, tehát emiatt ezt a peremhálózati egységekbe kell építeni, hogy senki se legyen tőle nagyon messzire. Emiatt jelentette be az NV, hogy eladja a rendszerét a szolgáltatóknak, mert ők egyszerűen képtelenek lennének akkora hálózati infrastruktúrát felhúzni, amivel rendelkezik a Google és a Microsoft, ahhoz legalább kellene soktízmilliárd dollár, és még sok év is.
A GeForce Now célja az lett volna, hogy ezekre felfigyeljenek az igazán nagyok, például a Google és a Microsoft, és NVIDIA hardverekre építve csinálják meg a felhőjüket. Csak a Microsoft inkább saját hardvert tervez, a Google pedig igazából meg van fogva, mert cloud gamingre hardveres virtualizáció kell mindenképpen, másképp nem működik hatékonyan. Az lehet, hogy professzionális szinten realítás, hogy egy GPU-t kiosztasz egy felhasználónak GPGPU-ra, mert kérhetsz tőlük annyi pénzt, hogy megérje, de végfelhasználói piacon korlátozottak a lehetőséget, mert ha túl drága a szolgáltatás, akkor nem fognak érte fizetni. Emiatt mindenképpen olyan hardver kell, ami nem egy user/GPU alapon működik normálisan, hanem tényleg le lehet particionálni a hardver valós idejű teljesítményre. Ilyet pedig az AMD-n kívül senki sem szállít, tehát túl sok választása a Google-nek sem volt, vitték az egyetlen hardvert, ami erre képes, mert nagyon számít ám, hogy egy kb. 500 GPU-s peremhálózat fenntartását 500 user fizeti, vagy mondjuk tudja ~5000 is használni párhuzamosan, tehát jóval több felhasználó között oszlik meg a működési költség.A Tencent, ha már szóba került, pont úgy építi a rendszerét, hogy tele lesz különböző hardverekkel. Lesz benne egy rakás Kaby Lake-G, illetve egy csomó Tesla M10. Ez lesz az alapja az egésznek, és egy hoston 6 user is kiszolgálható majd valós időben. Az alaprendszer a Kaby Lake-G, ahhoz aktív lesz az IGP, illetve a pGPU, és még be lesz kötve Tesla M10, amin ugye négy GM107 GPU van. A terhelés függvényében kapják meg az igények a hardvert. Ha a program jó az IGP-re, akkor azon fut, ha erősebb kell, akkor a GM107-eken, míg ha még erősebb, akkor a pGPU-n. Nem véletlenül van úgy felépítve, hogy egy gyenge, egy erős és négy közepes hardver legyen egy hoston, mert ez a tipikus terheléseloszlás is. És ezen túlmenően lesznek erősebb hostok, amelyek már combosabb CPU-t és GPU-t kapnak, viszont a hátrányuk, hogy csak egy usert tudnak kiszolgálni.
A Google emiatt választott más megoldást, mert ők inkább vettek olyan hardvereket, amelyeket tetszőlegesen lehet particionálni, és eközben megőrzik a valós idejű teljesítményüket, tehát nem időosztásos maga a módszer, és a Hypervisor sem szoftveres. Így szabadon dönthetnek arról, hogy egy userre mennyi teljesítményt áldoznak, ha kell odaadnak neki egy teljes Vega 10-et, ha nem, akkor csak a tizenhatod részét, és a kettő között van még egy csomó átmenet.
A dGPU-piac áll még az OEM-ekből és a notebookgyártólból is. Ők az igazán nagy falat, nem a dobozos részleg. Főleg az asztali OEM-ek tesznek manapság a dobozosnak be, mert egészen nagy itt kereslet növekedése, és emiatt van egyre több gaming OEM gép. Arra kell itt gondolni, hogy a fiatal generációba, amely pár éve még iskolás volt, vagy még az is, bele lett nevelve egy megveszem dobozban, bedugom és működik modellbe. Teszem azt, úgy gondolja egy gémer, hogy annyit hallott már a PC Gaming Master Race-ről, hogy kipróbálja. És akkor nem azt teszi, hogy elkezdi válogatni az alkatrészeket, hanem felmegy a Maingear oldalára, vagy bemegy egy nagyobb üzletbe, és kiválaszt egy cuki kis PC-t (talán notit), ami össze van rakva, azt kell csinálnia vele, mint egy konzollal, hazavinni, bedugni, és kész. Márpedig a piac erre lett nevelve az elmúlt igen sok évben. És azok, akik olyan öreg rókák, mint mi, lassan családosok leszünk, a gyerek egyre több időt elvisz, az asszony már furán néz, ha a gép felé közeledünk, stb. Ez a generáció lassan kiöregszik ebből, az új pedig nem a DIY-re lett szoktatva.
(#45301) X2N: Amíg eladják a hardvert oda, addig a gyártóknak ez jó vicc. Az AMD-t, az Intelt és az NV-t nem érdekli, hogy ki mit gondol róla, ha a Google és a Microsoft, illetve a Tencent rendeli a cuccot. Majd ők eladják a szolgáltatást, az már nem a gyártók dolga. Néha az előadásokon megejtenek egy milyen fasza ez a cloud szöveget, és kész, a lényeg, hogy pénz jön belőle.
(#45304) gbors: Ilyen alapon az RX 570-hez képest minden versenyképtelen.
AZ RX 5700 ~30%-kal gyorsabb az 1660 Supernél. De írtam, hogy van olyan játék, ahol a 2060 Super eredményét hozza az 5600 XT. Meg ugye ez a normál verzió, amit a TUL csinált az OEM-eknek. A dobozos verziók nem ilyenek lesznek, a PowerColor például majdnem 200 MHz-et rak a Red Devilre gyári tuningban. Nem is láttam olyan kártyát, ami a speckóban megadott órajelekkel érkezne. Mindegyik meg van rántva. A Sapphire sajtóanyagjában például csak egy nagyon tuningos modell szerepel, plusz ~180 MHz. Valószínűleg az lesz a best buy az 5600-ak közül, de még megvárnám az ASUS ROG-ot, mert azt pletykálják, hogy ők orbitális tuninggal készülnek. Emiatt a guide nem sokat ér, mert sajnos az AMD olyan rendszert alkalmaz az órajel belövésére, ami lehetetlenné teszi, hogy visszarakd manuálisan a hivatalos speckóban ajánlott értékre. Ha valaki mondjuk kap tesztre egy Sapphire Pulse-ot, ami elég nagy realítás, mert főleg Sapphire-t szoktak küldeni, akkor az már alapból jelentősen gyorsabb, mint a gyári modell. És nem tudsz mit csinálni vele, mert a max órajel nem változik, csak a tipikus, ami viszont direkten nem meghatározható. És nyilván ezzel a nagyobb órajellel nem csak TFLOPS-ot nyersz, hanem a 64 blendingből hozod a sok-sok gigapixel/másodpercet. -
Abu85
HÁZIGAZDA
válasz
Jack@l #44977 üzenetére
A TPU tesztjében pedig x16-os PCI Express 2.0 szerepel, ami megfelel az x8-as PCI Express 3.0-nak. Szóval szándékosan írtam, amit írtam. Az AMD szépen felvázolt pár körülményt, amikor ki lehet ütni az x16-os PCI Express 3.0-t. És ezt kétségtelenül meg lehet tenni, de ez csupán az adott játék 0,00000000000000000000000000001%-a, tehát nem életszerű erre a körülményre építeni. Ezért van az, hogy a TPU az x16-os PCIE 2-3-4 összehasonlításnál nem talált 2%-nál nagyobb különbséget átlagban.
Meg tudnánk tenni mi is, hogy erre felépítünk egy tesztet, és akkor marha szar lesz mindennek, ami nem PCI Express 4.0-s, csak nem látom értelmét kikeresett körülményt tesztelni, az adott játék 99,9%-ára nem lesz igaz az eredmény.
-
Cathulhu
addikt
-
Carlos Padre
veterán
válasz
Jack@l #44011 üzenetére
A Quake 2 elmúlt húsz éves ;)
Szóval igaz lehet, hogy még kell vagy húsz év fejlődés ha RT akarják renderelni a mai grafikai részletességű játékokat. (ami amúgy is egy nagy hülyeség, mert sehol nem használnak nyers réjtrészt a számítási igénye miatt, csak azért megy a náculás "az igazi" RT-re mert az Nvidia brute force-ban nyomja a kretént) -
Abu85
HÁZIGAZDA
válasz
Jack@l #44024 üzenetére
Ott írja az oldalon az egyik dia, hogy entirely raytraced és egy indirect bounce erejéig PT. Tehát nem full PT, hanem hibrid RT. Ha full PT lenne, akkor nem nézne ki ennyire borzasztóan rondán.
(#44023) b. : Ha olvasod a netet, akkor nagyon sokan leírják a sugárkövetést, csak amiatt, mert ma még nem látnak belőle semmit, az FPS bezuhanásán kívül. De ahogy annyiszor mondtam már, ez két tényező miatt van. Az API és a hardver is nulladik generációs még. Ezt persze hiába magyarázod a játékosnak, tulajdonképpen azt látja, hogy -60 fps, és közben nagyítóval keresi az előnyt, de akkor is fontos, hogy ez az egész valaminek a kezdete, ami két generáció múlva kifogja forrni magát, köszönhetően az új hardvereknek, illetve a továbbfejlesztett API-nak.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #44014 üzenetére
Azt ne kérd rajtam számon, hogy te mit látsz bele, mert nem tudok rá választ adni.
Nyilván Morgan McGuire is mondta, hogy a path tracing egy távoli időpont. Nehezen megjósolható, hogy mi lesz két évtized múlva, de ő abból indult ki, hogy hol tart az NVIDIA és mi kell a path tracinghez. Ez alapján nagyjából valamikor 3034 után érnek el oda. 20 éven múlva biztos. Számon lehet rajta kérni majd 2030 végén, hogy mennyit tévedett, de előre szólt, hogy ilyen időtávon ez nehezen meghatározható. Illetve valószínűleg nem vette számításba a konkurenciát, hogy esetleg ők gyorsabban dolgoznának, de talán ilyen messze a céltól ez nem is lenne logikus.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #43850 üzenetére
Biztos nem. Az Arcturus ISA-ja GFX908. A konzoloké GFX10x.
Valószínűleg ez az Arcturus:
De az érintettek nem mondanak semmit. Viszont az AMD-nél nem tagadták, csak azt írták, hogy nem bejelentett termékről nem beszélhetnek.
De ez egyébként biztos nem grafikus vezérlő. Nincs benne kijelzőmotor, ez biztos, erre vonatkozóan nincs semmi a driver kódjában. A legújabb pletykák szerint a PCI Express vezérlő is hiányzik, de ebben kételkedem. Viszont kijelzőmotor nélkül úgy sem jó VGA-nak.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #43699 üzenetére
A raszterizálás akkor lesz leáldozóban, amikor a grafikus API-kből kikerül a raszterizációs pipeline. Ez az NVIDIA szerint is olyan 15 év még, legalábbis 2035 körülre mondják a real time path tracinget.
A mostani nulladik generációs DXR verzióra kérdéses a támogatás, mivel a Microsoft legacy státuszba sorolja, és helyette jön egy újabb futószalag, ami sokkal jobb lesz. Viszont azért, hogy jobb legyen, rögtön el is vágták a kompatibilitást. Emiatt nem feltétlenül biztos, hogy az Intel és az AMD ír meghajtót a mostani DXR-hez, mert úgyis más lesz helyette. De egyébként megoldható, tehát nyilván írhatnak egy olyan modult, ami a legacy és az új DXR-rel is kompatibilis. Az egész csak egy TIER szint lesz az API-ban, ahogy a bekötés. Például a régi a TIER_1, míg az új a TIER_2. Azzal a különbséggel, hogy ha a TIER_1-re írod csak, akkor TIER_2-n nem működhet, de TIER_2-re írva megy TIER_1-en (ebben emuláció lesz, hogy a nem kompatibilis fixfunkciós adatutakat meg lehessen kerülni, de a kompatibilitás így garantált, csak a beépített hardver helyett a shader fog dolgozni).
-
Abu85
HÁZIGAZDA
-
-
Pkc83
őstag
válasz
Jack@l #43605 üzenetére
Még nem ezért épp itt az ideje!
Az Rx 5800 nyilván erősebb lesz mint az 5700xt ami pedig picit marad el
az Rtx2070 supertől! Ha innen nézzük felette már "csak" a 2080/TI van
amihez nyilván nagyon közel lesz vagy akár meg is előzi majd!
Gondolom ezért hivják Amd-nél "NVidia Killer"-nek! Ha meg az ára tényleg
5-700 dollár lesz akkor az jóval olcsóbb mint a minimum 600-1300 Eurós
2080 meg a 2080TI! Na a matek megvolt, most már jöhet az Amd egy
brutál és olcsó Vga-val! -
-Solt-
veterán
válasz
Jack@l #43411 üzenetére
Én sok minden zöldségre emlékszem innen, de arra nem, hogy bárki is azon a véleményen lett volna, hogy:
az amd konzol keresztbeh*zza a pc-t a low level meg közös memória miatt.
Szíved joga nem alátámasztani az állításodat, nagy jelentősége egyébként sincs az ilyen és ehhez hasonló büfikéidnek...
-
Tyrel
őstag
válasz
Jack@l #43383 üzenetére
A DXR-t fogják támogatni ők is, mivel az a Microsoft / Windows / DirectX RayTracing, de nem a mostani verziót... MS elkezdte átdolgozni, talán ők is úgy látták hogy rossz a jelenlegi, vagy talán csak simán azért mert megkapták az AMD-s hardvert hozzá és azt akarják hogy az XBOX - Windows DXR terén is átjárható legyen, és inkább ahhoz igazítják... passz, igazából mindegy is.
Lesz DXR csak nem az ami most.
-
Tyrel
őstag
válasz
Jack@l #39943 üzenetére
A játék motorjának kell támogatnia ezt az eljárást, kb. az engine jelöli meg azokat a területeket ahol spórolni lehet a shaderrel... Ha bejelölget részeket egy üveglap mögött az inkább lehet az engine hibája mint a technológiáé.
Fejlesztés alatt meg sok mindent lehet érteni, a Navi is GCN lesz, szóval ha csak erre a betűhármasra koncentrálsz akkor valóban "nem fejlesztik a hardvert"... Más kérdés hogy azon belül sok minden változik majd.
Nem hiszem hogy teljesítmény terén csalódást fog okozni a Navi, szerintem csak azzal a balfaszkodással van baj amit a megjelenése körül csinálnak. Legkésőbb most tavasszal piacra kellene kerülnie, ha valamennyire is relevánsak akarnak maradni PC gaming fronton, de ezt rendesen elszúrták...
Mindegy addig az nVidia jól megszedi magát a 1660 Ti-ből meg a 2060-ból, igaz hogy ha nekem a 1070 Ti kevés 1440p-re akkor az előbbi két kártya is az, innen nézve meg az áruk nevetséges, de hát ez van ha nincs konkurencia...
-
Raggie
őstag
válasz
Jack@l #39807 üzenetére
Nem tisztem senkit megítélni, de szerintem ő tipikusan nem szakmai emberke volt.
Én bírtam és sok új hírt hozott ide, de kb mindent piros szemüveggel, esetenként dupla piros szemüveggel látott és csak érintőlegesen szakmai szemmel olvasott/kommentelt. Szóval én is sajnálom, hogy elment de pont nem a szakmaisága miatt. -
#45185024
törölt tag
válasz
Jack@l #39746 üzenetére
ÉS az FE kikényszerítette a pro drivert a Titánból, amit NV addig nem akart megadni.
Hát igen ez a jóságos AMDahol már 649 fontért előrendelhető egy ilyen csoda kártya...
Na de aki szeret telefonba belehallgatózni annak eszményi hírem van
A teljes AMD Radeon VII Tech tájékoztató + Q&A -
Petykemano
veterán
válasz
Jack@l #39662 üzenetére
Nem. Én alapból szeretném, hogy ne legyen kazán.
Évek óta ezért tépem a számat abunak a AVFS-sel kapcsolatban. Amiről ugye azt mondta, hogy megkeresi a legalacsonyabb stabil feszültséget adott frekvenciához. Közbe meg nem. És reklamáltam, hogy ha manuálisan lehet UV-zni akkor ezt tegye meg az AVFS! Akkor váltig állította, amit most te is, hogy az UV instabilitáshoz vezethet és ha valahol működik, az csupán a véletlen műve. Erre tessék itt az auto-UV funkció.
Remélem, hogy ezt az auto-UV funkciót azért építették be a driverbe, hogy a bátrak kipróbálják (béta) és a telemetrikus eredmények alapján majd a végén automatikusan aktiválják minden jövőben érkező kártyán .
-
dergander
addikt
válasz
Jack@l #38882 üzenetére
Ha ezek igazak akkor, nem valami nagy durranás ez a kártya.
Vegyük azt hogy ha a Vega64 menne 1800Mhzen kb. itt teljesítene. A 16gb HBM szerintem felesleges, de 4Kba talán későbbiekbe elég lesz majd.
Igazából nem nagy előrelépés a 7nm az AMD vonalán. Bevallom ezeket a teszteket látván, kicsit letört a szarvam. A legtöbb játékba ugyan megvan a 60fps 4K-ba.
-
válasz
Jack@l #38843 üzenetére
Microsoft says vaguely that DXR will work with hardware that's currently on the market and that it will have a fallback layer that will let developers experiment with DXR on whatever hardware they have. Should DXR be widely adopted, we can imagine that future hardware may contain features tailored to the needs of raytracing. On the software side, Microsoft says that EA (with the Frostbite engine used in the Battlefield series), Epic (with the Unreal engine), Unity 3D (with the Unity engine), and others will have DXR support soon.
Szerintem hamarosan -
Abu85
HÁZIGAZDA
válasz
Jack@l #38843 üzenetére
A fallback layerrel való kompatibilitást kell bekapcsolni. Akkor megy. Ha nincs bekapcsolva a programban, akkor natív driver kell hozzá. Natív driver pedig Volta és Turing GPU-khoz van jelenleg. Ha aktív lenne a fallback layer, akkor menne minden DirectX 12-es hardverrel, ami eddig megjelent.
Azt nem tudom, hogy miért nem így van. Valószínűleg az UL és a gyártók közös döntése, hogy a Port Royal csak natív driveren fut, vagyis csak Volta és Turing GPU-kkal.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #38841 üzenetére
És a Pascal miért maradt ki, vagy a Maxwell? Ezek támogatják a Feature_Level_12_1-et. Meg az összes Vega is, ahogy az összes Intel Gen9.
No? Ehhez mit szólsz? Nem-e lehet az, hogy Jani, aki tervezte a programot jobban tudja, hogy nem ehhez van kötve a programindítás? Persze a világért sem akarok arra utalni, hogy a WCCFtech-et hülyék írják, csak nem-e a 3DMark szoftvermérnöke mond igazat?
-
Abu85
HÁZIGAZDA
válasz
Jack@l #38838 üzenetére
WCCFtech...
Itt van amúgy a hivatalos:
SYSTEM REQUIREMENTS
OS: Windows 10, 64-bit with October 2018 update (version 1809)
PROCESSOR: 1.8 GHz dual-core with SSSE3 support
GPU: DirectX 12 with DirectX Raytracing support
MEMORY: 4 GB RAM
VIDEO MEMORY: 6 GB
STORAGE: 0.8 GB free disk spaceBelehaluzhatnak ebbe dolgokat, de ez csak a szakmai színvonalukat mutatja.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #38831 üzenetére
A Vega támogat mindent, az 580 nem támogatja a VTR-t abból a szintből, de ezt nem fogják használni sosem a 3DMarkban, mert régebben panaszkodtak rá, hogy nincs normális 3D-s textúraformátum definiálva a DirectX API-ban. A Microsoft áprilisban hozza a "3D-s" ASTC-t, de sokra ezzel se mennek, mert ezt csak az AMD Vega és az Intel Gen9 támogatja. Szóval ez a szint még mindig eléggé töredezett.
Egy DXR program elindítása attól függ, hogy támogatja-e a fallback layert. Ha nem, akkor nincs lehetőség elindítani natív driver nélkül. Ennek nincs köze ahhoz, hogy a hardver milyen feature szintet támogat, ugyanis a shader fordításánál dől el a kérdés.
Egyébként a Port Royal feature_level_12_0 erőforrást generál, amihez kéri a natív elérésű DXR-t. Ezt Jani írta nekünk a sajtóanyagban, ő nyilván tudja, hiszen a szoftvermérnöki csapatot vezeti. Azt is írta még, hogy 2019-ben bővítik a támogatott hardverek sorát, de azt nem árulta el, hogy mikor és mikkel.
(#38834) Jack@l: A DXR alapkövetelménye a DXIL, aminek a követelménye a shader modell 6, aminek a követelménye a feature_level_12_0.
(#38835) Yany: Azért a 7 nm nem olyan egyszerű, hogy a bérgyártó megcsinálja aztán jól van. Ha ennyi lenne, akkor most mindenki nyomatná a 7 nm-es cuccát. Valójában rengeteg tényező van, amiért a TSMC egyáltalán nem felel. Ők elvégzik a gyártást, de minden azt megelőző dolog leginkább a megrendelőt terheli. És ezen van a lényeg, mert persze a TSMC villog a gyűrűs oszcillátorral elért eredményekkel, de ezt átültetni egy igazi lapkába marhára nem egyszerű ám. Nem véletlen, hogy a PC-s gyártók nem jelentik be tömegesen a 7 nm-es lapkáikat.
-
hokuszpk
nagyúr
válasz
Jack@l #38354 üzenetére
az a helyzet, hogy a ceges policy a "semmilyen pletykat nem kommentalunk", es ezt sajnos tartjak, pedig elegge sokat art maganak a ceg, amikor nem huti le idoben a talalgatasok altal felkorbacsolt kedelyeket.
aztan jon a "pofaraeses", pedig nem is igertek semmit, es ugyanazok hajtogatjak a pofaraesos mondokat, akik sajat maguknak kepzeltek be -- es el is hittek maguknak -- az uj termekek specifikacioit es az arakat.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Nagyon erős ajánlattá kezd válni a SteamOS
- Luck Dragon: Asszociációs játék. :)
- One mobilszolgáltatások
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Magisk
- Autós topik
- Vezeték nélküli fejhallgatók
- Xbox tulajok OFF topicja
- Telekom mobilszolgáltatások
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- További aktív témák...
- Fém, összecsukható és kihúzható fotó állvány eladó
- Csere-Beszámítás! Gamer PC Számítógép! I5 12600KF / RTX 3070 / 32GB DDR4 / 512GB SSD
- AKCIÓ! nVidia Quadro P4000 8GB GDDR5 videokártya garanciával hibátlan működéssel
- DELL PowerEdge R730xd 12LFF rack szerver - 2xE5-2680v3,64GB RAM,4x1GbE,H330 RAID v ZFS
- Dell P2419H P2419Hc Full HD LED IPS 24" + P2719H 27" LCD monitor (vékony keretes)
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: CAMERA-PRO Hungary Kft
Város: Budapest