- Samsung Galaxy Watch7 - kötelező kör
- Huawei Watch GT 5 Pro - egészség + stílus
- Samsung Galaxy Z Fold7 - ezt vártuk, de…
- iPhone 17 képernyővédő üvegek mutatják meg a méretkülönbségeket
- Sony Xperia 1 VII - Látod-e, esteledik
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Xiaomi 15 - kicsi telefon nagy energiával
- Android alkalmazások - szoftver kibeszélő topik
- Honor 200 Pro - mobilportré
- Samsung Galaxy Z Flip5 - ami kint, az van bent
Hirdetés
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
FragMaster
addikt
Most így hirtelen megnézve az ufós oldalt, nyugalmi árakon 85-90 az 1660s, 95-100 az 1660ti és 120 körül van a 2060 legalja (szó szerint legalja), erre az 5600xt bejön 103-as nyitóárral (ráadásul a pulse ennyi). Ez így konkurencia mindnek úgy, hogy gyorsabb mindnél. Nem olyan rossz ez, személy szerint sokkal jobb, mint amire számítottam.
-
Jacek
veterán
Van jogos kritika meg van a bullshit az hogy itt azon lovagoltok hogy a csúnya AMD azt mondta hogya 1660Ti-vel ütközteti a kártyát ehelyett feljebb ment egy színtel, erre mit mondjak
szar is keserű életértzés.
Halkan megjegyezném ha fordítva lenne akkor is ezt mondanám ennyir egyszerű.. -
Jacek
veterán
Értem én, sokmindenben igazad is van természetesen mint mindenkinek, de
Azon rugóztok ami nincs, nem létezik nem oda jött, én ennyit mondtam, le is írtam hogy ez mért van stb az egy másik mese.Én annyira akarom bevédeni az AMD hogy egy 2080S ül a gépemben, előtte 1080Ti , előtte 1080 most mit mondjak
Viszont nem vagyok AMD heater sem... minden éremnek két oldala van erre próbáltam rávilágítani.
-
Jacek
veterán
Hgoy előre mit kommunikáltak az egy dolog, ez már elsütötték egyszer, nem lehet tudni hogy nem szándékos e. Mivel előre reagált az NV a 2060 árazásával, de ezt becumizta mert kevés mert nem az a teljesítmény.
Most úgy állnak hogy lassab a 2060 és drágább, szóval beszéld meg az NV-vel...
De nem értem ha változnak a dolgok mit rugóztók egy nem létező dolgon, nem ott versenyez de még mindig ezt kérítek számon -
Jacek
veterán
1660S -el ez semilyen formában nem stimmel jelen pillanatban sem ár sem teljesítmény ennyi erővel írhatom hogy szar mert a 2070S gyorsabb mert kb annyi közük van egymáshoz, hogy ti ezt hova vártátok vagy hova kommunikálta az AMD az egy másik történet.
Eleve egy baromság ez a 3 fps-es különbséggel kiadott kártyák semmi másra nem jók mint a földi halandól össze zavarására, szerencsétlen embereknek foglamuk nincs most mi mikor jött ki mi az újabb mi a gyorsabb stb. egy vicc....
-
-
Yutani
nagyúr
Szerintem úgy érti, hogy jól működő, 5700-as követelménynek is megfelelő lapkát tesznek az 5600XT-re, csak TDP és órajel korláttal, valamint nem teljesen kiépített memória alrendszerrel.
Most arra lennék kíváncsi, hogy ha elméletben leemelnénk egy 5600XT GPU-t és áttennénk egy 5700 PCB-re, az működne-e a rajta lévő 256 bites memóriával?
@Abu85: Ha csak kiépítik a 192 bites buszt a 256 bit helyett, úgy is működtethető a GPU, vagy valamit mókolni kell a részegységekkel?
-
Z10N
veterán
-
Z10N
veterán
Marmint 5700XT. Azaz a selejtek selejtjet: cu array hibas, memvezerlo hibas, szivargos (alacsony orajel). BIOS-ban meg a TDP is limitalva lesz.
Es meg is dragan adjak, annak ellenere, hogy:
- 2GB-tal kevesebb GDDR6, abbol is 12Gbps, nem a 14Gbps
- szivargas, melegedes, alacsony orajel, olcsobb vrm
- a pcb-bol ugyan azt kapja, mint az 5700, nemi modositassal
- hutesbol detto, ezt se kell ujra tervezni, ha csak nem akarnak flancolniEzenkivul ugye ott van, hogy a hibas lapkakat nem teljes aron veszik at a TSMC-tol. Amennyi hiba van ebben ezt nyomott aron kapjak, hiaba 7nm.
Csupa koltsegcsokkentes es minimalizalas. Magyaran eladjak a nyesedeket tovabbra is premium aron. A hulyenek is megeri...
Ekozben a zoldek meg neznek, hogy WTF happend there?! Semmit nem kell csinalnunk, mert az AMD sajat magat lotte tokon. Ebben a korben mar harmadjara (gyakorlatolag mar nem volt mit szet loni, bar ezzel a f@rkukat is ellottek). Ezzel lehetett volna szepiteni $229-ral, ami betett volna a 1660/1660S/1660Ti trionak. Ez csak egy demo termek, mint a Vega VII. Sima 5600 ezek utan nem lesz, ahogy 5500 se. Jobb is igy...
-
Abu85
HÁZIGAZDA
Ezért működik csak texel shadinggel. De ott működik, és ez a lényeg. Viszont kell hozzá a módosítás a motorokba, illetve a Microsoft hoz könnyítést az API-ba is, hogy jobban lehessen implementálni.
(#45109) b. : Úgy lesz a fragment shader lépcső megoldva, mint egy sakktábla. A fekete táblák az egyiket, a fehérem a másik GPU-n futnak le. Ennyi. Régen ez azért működött jól, mert amikor ezt kitalálták még nem volt unified shader, és a GPU-kba eleve sokkal több pixel shader feldolgozó volt, tehát a geometriai munka pusztán kevesebb volt, mivel nem volt ezeknek elég erő. A mai GPU-knál ez nem igaz, mert az összes feldolgozó használható fragment shader előtti számításokra, vagyis egy-egy motor dizájnja lehet annyira megterhelő, hogy 20%-ot sem tudsz ettől gyorsulni, holott vettél még egy GPU-t. Előnyösebb szimplán meghívni a Microsoft WDDM-be épített AFR-jét, és az minimum 80%-ot ad, ha nincs sok interframe kommunikáció, miközben alapvetően pár sor az egész a programban. -
Abu85
HÁZIGAZDA
Attól függ, hogy mennyi ideig mérsz. Elég csak másolni, amit az AMD csinált. Nem nagy ördöngösség. A probléma vele, hogy ez nem lenne a valóság. Egyszerűen csak rámész arra, hogy a PCI Express 4 gyorsabb interfész, és keresel olyan pontot a játékban, ahol ez kijön, majd abszolút azon a ponton maradsz. De ez rendkívül mesterségesen teremtett helyzet ám. A valóságban ilyen nincs. Természetesen előfordul az, hogy egy játékban pár frame mondjuk limites lesz a PCI Express miatt, de továbblépsz, és vége a limitnek. Ha viszont leragadsz, akkor mesterségesen tartod fent a limitet. Innen már csak azt kell kitalálni, hogy meddig kell mérni, hogy ezt a limitet erősen láthatóvá tedd az eredményeken. Ha mondjuk mérsz egy valós körülményt, ahol van egy 3 perces jelenetsorod, és tényleg a játékot szimulálod, akkor kizárt, hogy ez látható legyen. Még a minimumon sem, mert eleve leszűrjük a legrosszabb 2%-ot.
Amiről egyébként te írsz, az nem a PCI Express miatt van. Az AMD RDNA-ra még nem portolta a GCN összes memóriaoptimalizálását. Egyszerűen erre fél év nem elég. Nem is feltétlenül működnek ezek, illetve a DirectX 11-es driver sem kap valami nagy fókuszt.
-
HSM
félisten
-
-
Abu85
HÁZIGAZDA
Az utóbbi években "up to" feliratozzák ezeket a cégek, mert ezt ők mérték, ennyit biztos tud, és így nem tudsz belekötni, ha kevesebbet mérsz. Ha többet, akkor meg mindegy. Szóval ennek inkább egyfajta jogi szintű védelmi szerepe van, mint valós haszna.
Amúgy ez egy beállításra vonatkozó mérés. Tehát nem több mérés átlagolva, vagy kiválasztva a legjobbat.
(#44254) Raymond: Az árban legközelebbi hardverhez hasonlítanak mindig.
-
Cifu
félisten
-Resident Evil 2 Remake is kihasználja a 8GB VRAM-ot az R9 390-esemen, és ez csak egy példa, jó pár játékban láttam már hasonló értéket, és várhatóan a jövőben is jönnek még ilyenek...
-November közepén van a leendő tulaj szülinapja...A takaró nyújtás meg így is már tépés lett, mert monitorostól, mindenestől cirka 250-260 ezerből kell kijönnie (150e Ft-ről indult, mondtam, hogy akkor konzolt...), ebbe egy 80e Ft-s videókártya csak úgy fér el, ha nagyon gatya procit vagy csak 8GB RAM-ot rakok bele...
-
Cifu
félisten
Pont most rendeltem egy 8GB-os RX580-ast egy új gép építésénél. Egyszerűen nincs választási lehetőség, az RX5500 karácsonyig sem ér ide szerintem, a GTX 1650 Super csak november végén jön, a GTX 1650-esek pedig a 4GB RAM miatt nem játszanak. A sima GTX 1660 pedig már annyival drágább még mindig (mivel nincs konkurencia), hogy nem igazán fért a keretbe. Sakk-matt.
Egyszerűen azzal, hogy a kisebb Navi-k vagy csúsznak, vagy nem jelennek meg, az nVidia roppant kényelmes helyzetbe találta magát, és még így is kvázi árcsökkenést hozott a GTX 1660 Super...
-
Mumee
őstag
Hát, mint írtam korábban 570-580-5700 .
Abban igaza van Cifu-nak, hogy normál körülmények között az 1660 Super ott van köztük és bizonyos vásárlóknál ez így is van jól, hisz az AMD kártya mellé járó extrákat nem mindenki használja/adja el és azon "discount" nélkül majdhogynem tökéletesen illeszkedik.
570-580-1660S-ref5700-custom5700xt-2070s -
wihay
tag
Köszi a tanácsot, csak hát diákpénz..
Most ez olyan kategória, hogy vennék egy RX 570-et vagy RX 560-at én el lennék vele 900p-ben tuti csak bennem lenne a félsz hogy nah ez már kevés..
Előbb cserélnék CPU-t mint GPU-t, ezt már írtam korábban is.. Meg hát 3-4 évre tervezném a kártyát.. Arra kevés lenne a 570 mi? Ha most venném?Nah és ugye már nagyon játszanék, konkrétan minden évből van lemaradásom: Doom,dying light,NFS,FIFA amit akarsz.. Ideje lenne játszani csak a R7 240 kevés. Most meg tanácstalan vagyok. Köszi a segítséget!
-
Prohardveren (teljes rendszer fogyasztása terén) a 680 perf/watt 10%-kal volt jobb 7970-nél, a TPU teszt szerint (csak GPU-t mérve) csak 5%-kal. Mondjuk ez eléggé ellentmondó.
A 480 vs 5870 esetén az utóbbi 17%-kal jobb PH teszten, míg TPU-nál meg 60%-kal, ami azért bőven odabasz-kategória. Szóval fordult a dolog, de arányaiban nagyon más, csak erről van szó.
-
Mumee
őstag
Biztos vagyok benne, hogy nem fogják, de ettől függetlenül ez legalább nem a Navi architektúra hibája, csak nem optimális órajel/feszültség -en adták ki, gondolom megint azért hogy 2060-2070-nél biztosan gyorsabb legyen a két 5700 és minél kevesebb selejtel.
Érdekesség képpen :
1,3V-on Hwinfo 300W, Igor-nál [1,25V] normális méréssel 250W volt, így nagyjából reális a 300W, még ha nem is teljesen pontos, hisz víz alatt volt mind2.
A 30k graphics pont pedig 2080 Super szint, ami 350W gyárilag Furmark alatt. [link]Persze itt optimalizálva van már az 5700 és víz alatt, léggel lenne ez is 350-380W.
A lényeg, hogy felfelé is korrektül skálázódik a Navi, arányosan a feszültséggel és hűtéssel és nincs elborulva az Nvidia-tól teljesítmény/fogyasztásban csak optimalizálatlanul van gyárilag és 7nm. -
Mumee
őstag
Ez csak azért tűnik így, mert (gondolom) a rossz kihozatal miatt közel sem optimális keretek között lett kiadva a kártya.
1,2V GPU, 1,2V SoC , de még sima nonXT 5700-nál is közel 1V GPU, 1,2V SoC.
XT esetén a gyári órajelet a kártyák 95%+ bírja 1,1V körül, 1V pedig 1900-1950mhz-hez kell nem 1750mhz.
SoC pedig AIB-ok is mind 1,05V-on jöttek.
Ezzel a 2 fesz-el pedig undorító módon együtt mozog a fogyasztás.
Az a 0,1V a GPU-n kb. 50W és a SoC-on a 0,15V is kb. 10W.1,1V GPU körül kéri be a 200W-ot, ami az alapórajelhez elég.
A sima 5700 normális fesz-el 150W-ból megvan peak-el együtt, alapórajelen. -
A Kepler ugyan tényleg sokat hozott, de inkább úgy fogalmaznék, hogy utolérte a GCN-t (GK104 vs Tahiti), nagy különbség nem volt. A Maxwell csinált csodát. Ez az amit csak a Polaris-szal tudtak hozni. Most meg a Navival hozzák a Pascal / Turing szintjét. Maga az olló nem nyílik, habár komoly lemaradásban vannak, ez tény.
-
Abu85
HÁZIGAZDA
Ó nem csoda az. Ugye tipikusan jellemző, hogy minden új architektúránál kell némi idő, mire a fordító kiforr. A GCN-nél is volt egy driver, ami dobott egy 10%-ot a legelső meghajtóhoz viszonyítva, ami jött a HD 7970-hez. Az után 1-2%-okat lehetett általánosságban hozni, de ugye amíg nem ismered tökéletesen a hardvert, addig van benne tartalék, és ez a zsír új architektúráknál jellemző, ahol a kezdetekben nehéz nagyon teljesítménycentrikus szoftvertámogatást adni, elvégre kevés idő volt a hardver megismerésére. Persze ezeket lehet csodának hívni, de csak tapasztalatszerzésből eredő optimalizálásról van szó, ami az új architektúráknál többet ér, mint ha egy régi architektúra áttervezéséről lenne szó.
-
Petykemano
veterán
Engem sokkal jobban zavar, hogy ahelyett, hogy a nemrég megjelent Arcturus/GFX908 infókról találgatnánk, ahelyett arról szól a diskurzus, hogy a nulla hozzáadott értékket hozó, mégis magas renoméval bíró általában az élő fába is rendszeresen belekötő tuskó stílusú fórumozó szerint egy másik dilettáns.
-
awexco
őstag
Annyira tévedésbe vagy , hogy nem is tudod ... a szállitás a legolcsóbb dolog az egészben .
de igen emlegetett egy bolond pali 40% -ot ."ha a kisker 1-3%-kal dolgozik, akkor az MSRP alatt adja az árut" : ezek a piaci árak .
8-10% helyett 3%, akkor a fenti szám is kevesebb : max a gombelemre tud annyiért adni meg a skype kompatibilis fülest .
-
Itten van, rögtön 4 modell is:
Nyilván minden egyes adatba egyenként bele lehet kötni, nálam ezek a feltételezések jöttek ki némi olvasgatás után. Az AMD marginja a számolt érték, azaz ennyi marad meg, ha minden mást leveszünk az MSRP-ből.
Az MSRP-t és az igen népszerű disztribúciós költséget két-két változatban is feltettem. Látható, hogy 299 USD-s áron még a kedvezőbb disztribúciós ár mellett is kevés az AMD-nál maradó pénz, ha az én feltételezésem helyes a 40%+ környékével, akkor egyenesen mínuszba mennének. A 399-es ár esetén tisztességes marginjuk van 40%-os disztribúcióval, és egészen magas 30% esetén.
-
Petykemano
veterán
DE (ezúttal
) én se azt mondtam, hogy $250-en kellett volna hozni.
Hanem azt, hogy néhány peremfeltétel teljesülése esetén:
- tovább javul a kihozatal
- nem nő a kereslet a 7nm iránt, tehát bő gyártáskapacitás mellett, tehát ahogy avul el a 7nm, csökken iránta a kereslet
- ha nem indul be a mining
- és ezzel együtt más alkatrészek, különösen a ram árának változatlansága mellett2-3 negyedév múlva a $250-300 árra való csökkenést nem tartom irreálisnak. És akkor még azon is lenne haszna a szereplőknek.
Egyébként csak azért fogalmazok pikírten, mert Simid megkérdőjelezte a az $50-60 lapkárat és beárazta $90-re. Te pedig azt állítottad, hogy a disztribúciós költségek elérik a 40-50%-ot.
Ha ezt koherensen összeadod:
$90 wafer költség +35% TSMC margin = $120
$120 die költség + 45% AMD margin = $175
$175 + add hozzá a PCB-t és RAM-ot: $40+$80 =~ $300
És akkor ha a teljes ár 40-50%-a a disztribúciós költség és margó (amibe benne van az AiB partner margója is), akkor azt jelenti, hogy ez a $300 a teljes ár 50-60%-a, ami azt jelenti, hogy legkevesebb $500-ért kéne adni a végterméket.Így akkor a $349-399-ért adott kártyákon valaki vagy masszívan veszteséges, vagy valamelyik szám nem stmmel.
De ezt egyikőtök sem számolta koherensen végig. -
paprobert
őstag
-
Cifu
félisten
Számítógépes játékok esetén a vételár nagyjából 25-30%-át viszi például el a disztribúció fizikai kiadásnál. Ezért lőtte be a Steam is 70%-ra a játékok árának royalty-ját (royalty: a tartalom készítőjének részesedése a teljes bevételből), mert nem árulhat(tta) olcsóbban, mint a fizikai boltok.
-
#82819712
törölt tag
Azt állítod hogy egy mondjuk 300 ezer forint értékű kártyának 150 ezer forint onnan hogy áll egy raktárba bedobozolva eljutnia hozzám ha megnyomok egy BUY gombot pl az AMD oldalon úgy hogy én fizetem a hajózást mert az postaköltség ???
Na mindegy egy Edge UP post azt mondja nem jön Augusztusban Asus Navi custom kártya csak majd később.
-
Arra nem tudok magyarázatot adni.
Maximum, ha a fogyasztó abban reménykedik, hogy az új szegmentációban megjelenő terméknek sokkal jobb lesz a perf/price mutatója, mint a szériában eddig jelenlevő daraboknak. a'la "népkártya". Amit én sajnos erősen kétlek a mostani piacon. -
Az kártyák közötti arányok tényleg nem igazán stimmelnek. De egy kártyán belül az alkatrészek árának aránya azért eléggé reális.
Előállítási költség lesz az, hisz egy kártyán a GPU-gyártónak kéne a legtöbb hasznot hajtania, nem pedig a VGA-gyártónak, aki "csak" összerakta a tervek alapján a referenciakártyát. -
Jó, nevezzük nevén, azaz polinomiális növekedésnek, hisz x^a nem pedig a^x. Szóval egy kétszer akkora lapka nem dupla, hanem inkább tripla vagy még magasabb áron van. Ez ugye legalább háromkettedik hatvány kb, számoljunk ezzel, szerintem eléggé óvatos érték ez.
Az azonos számú (azaz pl 1080 és 2080) Turing lapkák átlagosan 60%-kal nagyobb méretűek a Pascal-nál, 3/2 hatvánnyal számolva ez dupla ár / GPU minden kategóriában. Ez azért nagyon nem kevés. Ugye a Turing legkisebb GPU-ja akkora, mint egy GP102.
-
Igen, ezzel nehéz vitatkozni.
Csak azért a 314, 471 vs 445, 545, 754 számok elég beszédesek. Ilyen még sosem volt. A 2070-es kártya saját chipet kapott, s nincs vágva, mint az 1070; tehát bazidrága lehet, hogy nem éri meg vágni, inkább külön lapkát kapott. Sőt, a nagyobb lapkát használó kártyák vágva vannak. Ez már olyan méretbeli különbség, ami ha nem befolyásolja erősen az árat, akkor semmi. Ugye a chipmérettel a gyártás ára exponenciálisan nő, főleg exkluzív gyártósoron.
-
- wafer cost
- naked production cost
- additional QA check cost
- yield
- volumenMiniél nagyobb a lapkád annál magasabb a wafer cost per chip (eléggé triviális)
Minél nagyobb (magasabb komplexitás általában ezzel kéz a kézben jár a Semi businessben) a lapkád, annál nagyobb a selejt aránya. Szóval de, a chip méret és komplexitás mocskos módon meg tudja dobni a költségeket. -
Mi járul még hozzá? A #41894-ban leírtakból szerintem ez elég jól következik. Ja meg azt is el is felejtettem, hogy az 12 nm az FFN, azaz NV-nek készült saját gyártósor, ez így akkor nem drága?
Meggyőzhető vagyok, csak ne ilyen kartelles meg mocskolódós "érvek" jöjjenek.
-
Envo_
aktív tag
Én szálljak magamba, mikor én vagyok az aki képtelen egy terméket megvásárolni, hogy tényleg a kívánt terméket kapjam meg azon az áron amit megérne?
Kérdem én, mit érzel akkor, amikor pl egy játékot meg tudsz venni 20€-ért, és ha egy hozzá tartozó starter packkel együtt 30€. Na most képzeld el, hogy a játékot csak a 30€-s csomagon keresztül tudod megvásárolni, és képtelen vagy hozzájutni a 20€-ért, amennyit igazából tényleg érne, és amennyit akarsz rá kiadni, mert úgy neveltek, hogy ne szórd feleslegesen a pénzt.
"de hát 30€ értékű dolgot kapsz" ja... hurrá
-
Abu85
HÁZIGAZDA
Nem. A WWZ csak az első játék, ami használ subgroup shadereket. Mindig van egy első fecske. Aztán követik a többiek. Itt most kellene még példa, mert a subgroup nem egy nagyon specifikus újítás, hanem eléggé általános. Tehát a hatása sem specifikus, hanem a használattól függő, elvégre alapvetően megváltoztatja, hogy egy shader miképpen futhat egy multiprocesszoron.
-
Abu85
HÁZIGAZDA
Én nem akarok árulkodni, de a World War Z-ben a Vega 56 még a 2080-at is veri, ráadásul utóbbi azzal a driverrel futott, ami +18%-ot hozott rajta. Ezzel a driverrel egyébként a 2080 Ti elkapja a Vega 64-et. De ahogy korábban is írtam, a subgroup egy kellemetlen dolog, mert nagyon sok tényezőtől függ, tehát nem lehet kiindulni az első fecskéből, de még a sokadikból sem.
-
Abu85
HÁZIGAZDA
Például arról, hogy ezeknek a hardvereknek a parancsprocesszora eltérő, így mondjuk egy async compute visibility test, ami egy GPU-driver pipeline motornál eléggé tipikus nyilván sokkal jobban fekszik egy újabb dizájnú hardvernek. Ettől a TFLOPS lehet ugyanolyan, csak ahogy a Vega 20-on is látszik. Nagy különbség van parancsprocesszor és parancsprocesszor között.
-
Abu85
HÁZIGAZDA
Nem basztam le, csak rávilágítottam, hogy a Frostbite, az AnvilNext, a Snowdrop, a Dunia, a Dawn, a Foundation, az Asura, az id Tech, a Saber, ésatöbbi-ésatöbbi motorok már másképp működnek, mint az elavult feldolgozási formát megvalósító 3DMark, Unigine, Metro, stb. motorjai. Emiatt mások az arányok is egy újabb motorban, már csak azért is, mert a háromszögek feldolgozása részben compute feladattá vált bennük.
-
Abu85
HÁZIGAZDA
Eléggé. Az A4 Engine nem lett jelentősen átírva, ezért is fut eléggé gyorsan.
Nm a háromszögről van szó, hanem arról, hogy a GPU felé mennyi adat megy. Egy GPU-driven pipeline motornál már a leképezés előtt ki lesz vágva egy rakás háromszög, amiért compute shaderek felelnek. Ettől még mérheted a GPU-k közötti különbséget a háromszögek terhelése szempontjából, csak a nagy terhelést a culling fogja jelenteni, ami viszont TFLOPS-okat zabál.
(#40683) Petykemano: Eleve az a probléma ezzel, hogy egy rakás új játék wave intrinsics shadereket használ, és ezek még a GCN-en belül sem szabványosak, tehát az lesz a leggyorsabb architektúra, amely a legtöbb intrinsics függvényt kapja a culling kódokon belül. Mindegy, hogy a hardver mit tud elméletben, ha nem ugyanaz a kód fut rajtuk. Szóval jelentősége lesz ezeknek, csak nem a hardvertől fog függni, hanem attól, hogy az egyes GPU-kon milyen nem szabványos optimalizálásokat engedélyeztek.
A szabványosság is para ebből a szempontból, lásd a World War Z-t, ami először csinálja azt, hogy szabványosan elérhető intrinsics függvényeket használ minden hardverre a cullinghoz is. Aztán ez jól megkavarta ám az állóvizet, és nem azért ver a Vega mindent, mert annyira gyors maga a hardver. Szóval a hardver az intrinsics függvények terjedésével, főleg a szabványosokkal nem pont egy egzakt kiindulási pont, mert nagyon sok függ magától a kódtól. Az a hardver lesz a legjobb, amelyiken maga a shader, illetve ennek a fordítása a leghatékonyabban fut, ettől a hardvernek nem kell nyersen a leggyorsabbnak lennie.
-
HSM
félisten
Van amúgy egy szuperjó írás az input lag témájában, szerintem aktuális.
[link]
A probléma, hogy felhős játékoknál ezek a tényezők ugyanúgy számítanak, csak még hozzájuk jönnek újak, ráadásul ahogy írod, ami erősen RTT függőek is, ami azért baj, mert a "való életben" elég sokszor találkozni durván ingadozó RTT-vel, miközben adott esetben az átlag sávszélesség egész magas.
Illetve szerintem a két képkockás buffer is az abszolút minimum, nem véletlen van pl. az összes videó streamelő szolgáltatáson 30s körüli buffer (még élő közvetítésnél is minimum 4-5s!!!), minden szempontból kímélőbb és megbízhatóbb, mint alacsony késleltetéssel realtime átvinni ugyanazt.
A QoS esetében két óriási probléma van. Az egyik, hogy a teljes láncon, értsd, a user számítógépétől kezdve (nem elég, ha a streamelő alkalmazás tudja, minden másnak tudnia kellene) egészen a kiszolgáló szerverig mindennek kellően konfigurálva kell(ene) lennie ehhez, mégpedig úgy, hogy mindenki a te játékod priorizálja. Nekem pl. egyáltalán nem tűnik reálisnak, hogy nagy sávszélességű játékokat priorizáljanak, amikor tipikusan a kommunikáció (hang, videó, VOIP) szolgáltatások szoktak itt lenni, mivel a sávszélesség igényük mérsékelt, viszont a késleltetésre érzékenyek. Az nem reális alternatíva, hogy ilyen nagy fogyasztókat priorizáljunk, ráadásul ha megzabálták a szolgáltató sávszélességét, akkor már nem is tudsz priorizálni, mert nincs már miből adni.... A másik, ha ezek a kevéssé életszerű feltételek adottak is lesznek, még mindig az elérhető sávszélesség. Ha foglalt bárhol a csatorna, akár csak egy rövid torlódás idejére, már buktad a játékot. Pl. egy VOIP hívásnál ilyenkor van egy rövid kimaradás a hangban, de megoldod, vagy játékban is, de amikor a kép is elkezd durván bedöcögni, az azért nem túl szép játéknál.
Szerintem ezeknél a Gbites neteknél is legfeljebb addig tudsz normális megoldást adni, amíg nem használják túl sokan egy adott területen, mert minél többen használják, annál rosszabb kiszolgálási garanciákat fogsz tudni adni.Amúgy az sem véletlen, hogy pl. egy BF4 szervernél, ha 10 feletti a pinged, már erősen érezni azt is. Még nem játszhatatlan, de nem olyan élmény, mint amikor alacsony késleltetésű rendszeren, minimum 60hz-es szerveren tolod, szűk 20ms pinggel....
Ezért is írtam, biztos lesz ennek is szuper felhasználási területe, de kiváltani szvsz nem fogja a lokális PC-s/konzolos játékot.
(#40582) -Solt-: Ezt egyébként meg tudom erősíteni. Nálam viszonyítási alap "csak" a 60Hz-es közönséges IPS monitorom, 8ms GTG panellel. Már azt erősen észrevenni, ha 80Hz-re tuningolom, de tovább megyek, valami miatt DP porton is csökken a késleltetése a DVI-hoz képest, és az is érzékelhető. Sőt, BF4 multiban régebben azt is érezni lehetett, ha a Mantle móddal toltam, ami kevesebb képkockát bufferelt be CPU-n, mint a DX11 mód. Itt alapvetően néhány ms difikről beszélünk, képzeld akkor el, mekkora difi lehet ennek a nagyon sokszora....
(#40584) -Solt-: A monitor paneljének GTG válaszidejét szokták így jelölni.
-
sutyi^
senior tag
Itt az eredendő elgondolás más volt.
AMD olyan GPGPU-t gyártott, ami jobbára befogható gaming-re.
NV olyan Gaming GPU-t gyártott, ami jobbára befogható Compute-ra.Konzumer piacon utóbbi lett a menő, bár ez annak is köszönhető hogy RTG fejlesztési ciklusok egyre hosszabbak lettek vagyis inkább csúsztak...
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- NVIDIA Quadro M2000 4GB GDDR5 profi munkára, CAD, 3D, stabil kártya!
- PowerColor Red Devil RX6700 XT 12GB eladó
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
- Asus RTX 3050 8GB /Jótállással!/Dobozos!/Posta ok!
- 8GB-os RX570 - RX580-as VGA kártyák +1db RX 5500-as VGA eladóak
- Bezámítás! Lenovo Thinkpad T14 Gen 5 üzleti - Ultra 7 165U 16GB DDR5 512GB SSD Intel Graphics WIN11
- Azonnali készpénzes Microsoft XBOX Series S és Series X felvásárlás személyesen/csomagküldéssel
- Surface Laptop 7 Business edition - Intel Core ultra 5 236V energiahatékonyabb az intelnél! -olvass
- 6 és 12 GB-os Quadro RTX A2000 kártyák - garanciával
- MacBook, Apple M1 / M2 kompatibilis dokkolók, DisplayLink 4K, USB-C, Type-C
Állásajánlatok
Cég: FOTC
Város: Budapest