- Samsung Galaxy Z Flip7 - kis fogyás is sokat jelent
- Fotók, videók mobillal
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Nem nyílnak a Foldok?
- Samsung SmartTag2 teszt
- Okosóra és okoskiegészítő topik
- iPhone topik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- One mobilszolgáltatások
- Redmi Watch 5 - formás, de egyszerű
Aktív témák
-
Notes
senior tag
Most éppen Freedom Fighter-ezek, Serious Sam 2, legutóbb Return to Castle Wolf.-oztam. Most épp ezek jutnak ezsembe. De pl. a sokak által szidott Mafia-t is végig full detail-en játszottam, mert azt csak úgy érdemes. Eddig egyedül a Battlefield-ből kellett visszavenni egy kicsit.
-
e-biza
őstag
6/1 hogyhogy nem lehetséges? mármint középkategoriánál. A RAM sávszélesség érdekes mert az első nv40-et és r420-at ddr3-al láthattuk. Nem lesz tul drága nekünk ez a mulatság? az nvidia jelenleg nem tudta nomrálisan megoldani a hütést, ezt be kell látni, a FlowFX 2 sem olyan kulturált hütö, de mi lesz ha rádupláznak tranyo számban? lehetséges hogy egy középkategoriának számito 9700-ast fognak utánunk vágni, felturbozott tudással? én nv40-röl csak a szokásosat hallotta hogy 15mega eDRAM :)
nem ismerem annyira a technologiát, de az nv36 4/1 nem olyan nagy durranás számomra. igen egyszerübb lenne 2/2 de gondoolom nem nagy kunszt nekik lefaragni minden pipline-bol egyet, s akkor máris 4/1. persze ezt lehet csak én látom igy :) ennek ellenére kijöhet az nv40 egy 8/2 -vel és kijön egy nv37 8/1 -el középkategoriába. elvileg, persze a tranzisztorszám emelkedése miatt az egész kérdéses legalábbis számomra. lehet teljesen újratervezték és már nics is benne semmi gáz :) az lenne a legjobb. meglátjuk még van rá fél évünk.:( -
Surranó
aktív tag
-
rudi
nagyúr
Fenetudja, lehet abból még 8/1is! az nv36 például nem 2/2 hanem 4/1 ezért is izgt annyira.
Kíváncsian várom én is az nv40et és az r4xx-t. Olyan hangokat hallottam ati felől hogy 12/1 és 16/1, nvnél meg talán elképzelhető a 8/2 de ezt nem nagyon látom valószínűnek. Miért?
8/2höz kétszer annyi tranzisztor kell mint 4/2höz, szerintem az legalább +30-40%nyi tranzisztor mi vár veszettül sokkknak tűnik (durván 160millió tranzisztor ami kb 2db p4es). Az Ati átlép 16/1re akkor szintén kétszer annyi tranzisztort csinálnak, de ha ''csak'' 12/1 lesz akkor már csak másfélszer annyi tranyó kell és a teljesítmény is nőhet 30%al (többel vétek lenne mert azért nehogy a mezei júzer atomerőművön gémeljen és ne lehessen eladni a következő generáiót).
Két dolog van ami viszont kérdőjeles:
1. mi lesz a RAM sávszélességgel (tlán ddr2 és ddr3)?
2. hogyan fogják ''lefelezni'' a közepes vasakat (lehet hogy 12/1ről csak kétharmadolni fognak 8/1re)? -
FreeM
aktív tag
''Ekkor minden játékkal így lesz.'' Ez már rég kiderült, hogy nem így van. A játékok döntő többségében hasít. Persze elképzelhető, hogy lehet találni olyan játékot, ahol a jelenlegi fordító még nem tudja teljesen megmutatni az oroszlánkörmeit. Mondjuk én egy ilyet sem tudok mondani, ráadásul ma még elég ritkák a shader intenzív játékok (azokban meg mind jól muzsikál az UC).
Aki a 3DMark-al kel és fekszik :DDD annak (is) jól jöhet az újabb ForceWare.
[L]http://prohardver.hu/rios3_forum.php?mod=40&id=29129[/L]
''...akkor meg miért higgyem el, h a többi (benchmarknak nem használt játékban) hasít?'' Nem kell semmit sem elhinni! Alternatív megoldásként vehetsz egy FX-et, és meggyőződhetsz róla saját magad! :t -
rudi
nagyúr
szaggatás: megy a game 40-50fps-t, fordulok 120fokot vagy bejépek egy ajtón és hopp 24fps vagy még kevesebb. Nálam ez a szaggatás még akkor is ha csak pár másodpercig tart (feltöltődik a halom új textúra és kiszámolódik a sok eddig láthatatlan 3d objektum).
Abban az esetben én nem nagyon látok gusztustalankodást ha MINDEN 3D ALKALMAZÁSBAN van javulás (na jó majdnem minden) és nem csak egyben. Ha viszont CSAK EGY ALKALMAZÁSBAN van javulás ami történetesen az egyik frekventáltan használt 3D tesztelő akkor sz@r van a levesben!!!
Csak gratulálni tudok az NV driverfejlesztőinek amiért az 52.16 és fölötti driverekben olyan komoly előrelépést értek el (felzárkóztak az NVhez), de attól tartok tovább nem nagyon fognak fejlődni, de talán nem is kell amíg ki nem jön a HL2, doom3 és társaik. Addigra meg talán már megjön az új generáció (nv4x és r4xx). -
e-biza
őstag
jo látni hogy még mindig ezen ''csámcsogtok'' :)
kicsit off, de nálam az americas army a köv gép alatt akad: egy gf4 ti4200, 2600+ xp, 512 ddr 333 -as ramokkal 1024-ben 2x aniso, 2x fsaa.
jo hogy gta nem akadt extraultrahipermagasan se, de ez a játék nagyon akad :) -
Engem nem kérdeztél, de idepofátlankodok. :)
Kvékszerűségekben 60 FPS alatt nincs élet, de inkább 100 kell. Egy RPG viszont sokkal kevésbé igényes ( extrém esetben a frame-eket veheted köröknek is :) ), és valahol a kettő között vannak a szimulátorok.
Szóval erősen műfajfüggő az elfogadható FPS érték. -
Surranó
aktív tag
Hát épp ez az.
Tfh. az nVidia kódjának semmi köze nincs a 3DMark-hoz, egyszerűen érzékeny arra, h Jóskapista v Pistajóska volt az adott résznek a programozója. Ekkor minden játékkal így lesz. Hasít-szaggat-hasít-szaggat. Persze ''szaggat'', értsd ahogy kell.
Tfh. az nV kódja csak 3DMarkban gusztustalankodik. Ez eleve ellentmondás ugye, de ha mégse, akkor meg miért higgyem el, h a többi (benchmarknak nem használt játékban) hasít? Bár legutóbb vhol NWN-t láttam, és az már nem az a benchmark-szagú játék :) -
-
Notes
senior tag
Csatlakozom rudihoz. Nekem is 8500LE-m van és simán megy minden új játék rajta, ráadásul nem kell levenni semmi effektet, sőt minden maxon van és még egy kis FSAA is mehet meg 4-8x anizo.
Csak sokan azt hiszik hogy egy 1.6-os procival ki lehet hajtani egy ilyen kártyát, de ez nem így van (szvsz). -
rudi
nagyúr
Olcsóbb, de meddig és minek. Szinte minden optimalizáció normális eloszlású ergo 80%ig lazán el lehet jutni, de onnan minden egyes %ért meg kell szenvedni. Ha 2004 első felében jönnek az új vasak és addig nem kerül elő a HL2, doom3 vagy bármi más kemény dx9es cucc akkor nem éri meg tovább csiszolni.
-
rudi
nagyúr
''Most meg ha azt akarom, hogy az idei (november van...) játékok 20fps fölött menjenek, akkor már a középkategória sem elég... ide nekem harmincér egy 9700Pro-t és lehiggadok.''
Azért ez egy picit súlyos kijelentés. Nekem 8500LEm van és eddig minden gamet be lehetett úgy állítani hogy rendesen fusson.
Szerintem SOHA nem lesz a 9700pro 30.000Ft mert az az érzésem hogy lazán veri majd a következő generáiós középkategóriás kártyákat. -
''Itt felmerül a kérdés: érdemes ezzel az FX verzióval kínlódni, drivert köszörülni? Nem jobb befektetés inkább a következő generációra gyúrni?''
Ideális ez lenne, de gondolom még mindig olcsóbb driverekkel bíbelődni, mint még több erőforrást és jómunkásembert NV40-hez átirányítani...
((( Erről az UC-ről nekem mindig a Deus Ex jut eszembe, bár ott egy kicsit mást jelentett a rövidítés... :P ))) -
Surranó
aktív tag
Az éjjel megálmodtam egy (számomra) újabb nézőpontot.
Mindegy, h csalásnak v optimalizálásnak tekintjük. Nézzük a tényeket.
''A'' jelenetben (330) az nV kártya ráver (ráver?) akár 5%-ot is a hozzá illő ATi-ra
''B'' jelenetben (340) viszont 20%-kal lemarad, miközben az ATi nyújtja a fix szolíd teljesítményt.
Hát én az ATi-t választanám. De ha már a feltételes módnál tartunk: az utóbbi években mennyivel ment föl a mindenkori csúcskártya ára? és a mainstream-é? és az alsó kategóriásé?
kicsit súlyos, h a legócsóbb kártya, amit mongyuk egy P1-be belepakolnék, 7-8000 körül kezdődik. Pár éve azért még voltak jó kis PCI kártyák 2-3000 körül, és azóta nem volt 200% infláció...
Most meg ha azt akarom, hogy az idei (november van...) játékok 20fps fölött menjenek, akkor már a középkategória sem elég... ide nekem harmincér egy 9700Pro-t és lehiggadok. -
rudi
nagyúr
Hagyjuk már ezt a robotos ''hasonlítgatást'' úgysincs szinte semmi köze a valósághoz mert ott ezer más tényező is játszik.
Lényeg inkább ott van hogy az ati cuccok nem követelik meg az extra folyamatátszervezést mert szorosan követik a dx9 szabványos progarmozási elveit (HLSL forma, sok regiszter) míg az nv más utat választott ami nem követi dx9et szorosan (cg) de tovább mutat rajta valamivel.
Az nv útja azzal is komplikálódik hogy 16/32bites a rendszere amiből főleg 16biten érzi mgát jól, míg az ati egyetlen 24bites útra optimalizált.
Ehhez jön még a 4/2 szerencsétlensége dx9hez, ami igényeli a folyamatátszervezést szóval állandóan dolgozik egy algoritmus ami igyexik a lehető legjobb sorrendbe rakni az utasításokat. Tegyük fel hogy a compiler átrendezéssel eléri (vagy valamivel túlszárnyalja) az ati megoldások sebességét, de egy illyen okos program 1001% hogy nem fut le 0 idő alatt szóval ami bejött a réven könnyen elveszhet a vámon. Ehhez még hozzávehetjük azt hogy nem mindig tud gyorsítani a compiler és könnyen lehet az is hogy alkalmazásspeifikus. Ehhez még hozzájön hogy az NV aniso filteringje a megvalósítása miatt valamivel szebb de jóval lassabb mint az ATI módszere.
Itt felmerül a kérséd: Érdemes ezzel az FX verzióval kínlódni, drivertköszörülni? Nem jobb befektetés inkább a következő generációra gyúrni?
Egyetlen dolog viszont elvitathatatlan az NVtől; hagyományos t&l jük veszettül jó és kemény az OpenGLjük (talán 3dfx hagyatékból, bár azlőtt is jó volt). -
-
-
FreeM
aktív tag
Nem tévedsz. A 8 ''buta'' robot munkájának összehangolása jóval kevesebb koordinációt igényel mint a 4 ''okos''-é.
A képet nagyban bonyolítja, hogy az NV helyzettől függően tud 8 ''buta''-ként is működni, sőt, ettől teljesen eltérő felállásban is! Egy ilyen rendszer összehangolása viszont nagyon összetett tud lenni. -
FreeM
aktív tag
Az ATi fordítója tizedannyit sem csinál mint az NVIDIA-é. Az eredménye is csak +-néhány százalék, ellenben UC akár 100%-ot is meghaladó teljesítménynövekedésével szemben. Ilyen módon az ATI-nál tök mindegy, hogy működik-e éppen a fordító vagy sem, mert nem lesz lényegi különbség az optimalizált és a nem optimalizált végrehajtás között (és ez később sem lesz másképp az R3xx esetében). Ellenben ha valaki egy a UC által optimalizált kódot akarná egy R3xx-en lefuttatni, akkor meglepődve tapasztalná, hogy akár kevesebb mint a felére is zuhanhat a teljesítmény (no persze csak akkor ha egyáltalán ezt az végre tudja hajtani, hiszen egy csomó utasítást nem is ismer, amit az NV3x-ek igen)
Ez csupán a két jelentősen eltérő felépítés miatt van. Mindkettő nagyon kis hatékonysággal tudja futtatni a másik számára optimális kódot. A pech az NVIDIA számára az, hogy az emberek mindenféle instrukció nélkül általában olyan kódot írnak maguktól - az emberi gondolkodás jellegzetességei miatt -, ami az R3xx-nek optimális (következésképpen az NV3x-nek nem). Ezen segít az UC, ami a közhiedelemmel ellentétben semmilyen képminőséget rontó dolgot sem csinál, csak az utasítások sorrendjén változtat, a regiszterhasználatot minimalizálja és esetleg több vagy éppen kevesebb utasításból álló kóddal helyettesíti az eredetit, ami ugyanolyan eredményt produkálva de hatékonyabban fut le rajta (azaz nem, vagy kevesebb funkcionális egység marad kihasználatlanul a hw-ben).
[L]http://www.nvidia.com/object/IO_9292.html[/L]
Ezer és egy teszt megmutatta már, hogy az UC mindenhol működik (még az ATI Chimp demo-ját is majdnem 2x gyorsabban futtatja), sőt még a 3DMark-ban is, de az új patch-el csak részlegesen (ha egyáltalán nem működne, nagyobb lenne a teljesítménycsökkenés).
Az pedig már régen kiderült, hogy a 2 patch között FX-en nincs IQ-beli különbség. Ennek ellenére a helyzet annál összetettebb (mint általában), mintsem hogy csak 2 eset létezzen, azaz ha nincsen különbség akkor a FM a hunyó, ha van akkor az NV. -
e-biza
őstag
szép gondolat :)
talán igy lehetne kiegésziteni (ember helyett robot):
1 robotnak 1 munkaereje, mig a másik esetben 1 robotnak 2 munkaereje. legyen gépkocsigyártás. van 8 robotom, minegyik egyszerre egy dolgot tud csinálni, tegyük fel
1: legyártja az alvázat
2: karosszéria
3: belso tartozékok
4: biztonság
5: festés
6: telitankolás
7: polirozás
8: tesztelés
-hehe
ez kell mondjuk egy kocsi legyártásához.
nvidiánál van rá 4 robot, egyenként 2 tudással.
1: legyártja az alvázat - karosszériát
2: belsö tartozékok - biztonság
3: lefesti a másik fele feltölti a tankját
4: lepolirozza és közben leteszteli az anyag minöségét.
hát ez elég furán hangzik számomra, inkább ugy kellett volna kihoznom hogy legyártja és amig csinálják a többi részt addig a karosszériát lefesti, vagy telitankolja a kocsit. de valahogy igy gondolom én. csak egy jo program kell ami ezeket a robotkarokat összehangolja az utasitással
tévedek? -
Power
senior tag
''a 8x1 matematikailag pontosan u.annyi mint a 4x2 legalábbis nálam.''
Csak nem mindegy, hogy 4 embered van 2-2 csákánnyal, vagy 8 embered 1-1 csákánnyal.
Bizonyos esetekben valóban ugyanannyi, de minnél inkább kihasználják a dx9-et annál kevésbé.
Sőt boritékolom, hogy az nv is áttér a Nx1-re.
''ezért kell a driver segédlek, s a dx9.1 alatt eztt akarják orvosolni, hogy a 4x2 is ugy menjen mint a 8x1.''
Fizikai képtelenséget nem lehet megoldani. -
Cirkumflex
csendes tag
Kár, hogy eddig nem vettem észre ezt az Anand tesztet, kösz. Az, hogy az Anand példában szereplő 3 utasítást nem tudja 'kioptimalizálni' jóra az NVidia az azért elég gáz...
A cikkből szerintem az derül ki ,hogy az NVidia nem a minőséggel tükrözik, hanem egyszerűen nincs még kész az 'Unified Compiler'-e és addig is beledrótozgatják a főbb játékok, tesztek algoritmusait. Játéknál ez nem is baj ( de ha gonosz vagyok, arra gondolok akkor nyilván olyan játákot érdemes először optimalizálni, amit tesztre is szokás használni) -
e-biza
őstag
válasz
Cirkumflex #100 üzenetére
hivatalosan az Unified Compiler megy máshol is :) gyakorlatilag nem tudom, de biztos láttad a TRAoD mennyit javult az új nvidia drivernek köszönhetöen. Lehet a 45.23-as driverben nem létezö UC miatt levettek böven a minöségböl, hogy maradjanak a teljesitménynél. Ha gondolod felrakom a képeket, melyet egyik forumozonknak köszönhetünk (V.. :o) )
-
Cirkumflex
csendes tag
Azért átverés, mert a mérőeszközt akarom befolyásolni, elég ügyesen. De te nem a 3dMark-kal játszol.
Ha az NVidia 'Unified Compiler' -e működne mondjuk a DirectX9 alkalmzások 80%-ra, az nagyon más lenne.
(SuperPi példával élve : ha a lebegőpontos műveleteket átalakítom 3dNow-ra,SSS2-re bármire, az jó. Ha csak egyfajta SuperPi kódot, az szerintem csalás.) -
Akkor se sajnálom az nVidiát ha kitörlik innen a hozzászólásomat... :((( Pedig semmi olyan nem volt benne.
-
e-biza
őstag
anadtechen irnak egy példát:
A következö példával bemutatjuk hogy az NVIDIA káryta mennyire érzékeny az utasitások sorrendjére: a^2 * 2^b:
mul r0,a,a
exp r1,b
mul r0,r0,r1
-2 ciklus alatt fut le az NV35-ön
exp r1,b
mul r0,a,a
mul r0,r0,r1
-1 ciklus alatt fut le az NV35-ön
-----------------
Aside from instruction reordering to maximize the parallelism of the hardware, reordering can also help reduce register pressure if we minimize the live ranges of registers within independent data. Consider this:
mul r0,a,a
mul r1,b,b
st r0
st r1
If we reorder the instructions we can use only one register without affecting the outcome of the code:
mul r0,a,a
st r0
mul r0,b,b
st r0
forrás: [L]http://www.anandtech.com/video/showdoc.html?i=1910&p=4[/L] -
e-biza
őstag
anaquer: igen, meg kell várni a hivatalos verziot, de én úgy gondolom hogy nVidia egy kis pénzzel segitett a microsoftnak hogy a dx9.1 már mondjuk a CG-t használja. amennyiben igy van - lehet hogy nem egy fair dolog - gyorsulni fog a GeForce FX és nem fog lassulni az ATi Radeon 9xxxx széria. A CG kimonottan erre van fejlesztve.
Tudjuk hogy rudi már párszor leirta hogy a 8x1 erösebb mint a 4x2, de nem feltélenül. Úgy emélkszem rudi hozzáfüzte valahol hogy az FX sorozatnak nagyon nagy szüksége van a driverre csak úgy lehet erös.
faster: nvidia hallgatna de a futuremark nem teszi, mindig obégat :) vajon mennyit ér meg nekik ez az obégatás? -
Hun'reeth
őstag
Már megint hü..e az Nv. :(( Állandóan a 3DMark problémáikkal vannak elfoglalva ahelyett, hogy csinálnának egy jó kártyát. :((
-
e-biza
őstag
válasz
Cirkumflex #90 üzenetére
nem értem: optimalizálásra azt mondod átverés de nem romlik a képminöség. ezt most hogyan értékeljem? akkor miért átverés ha nem romlik a minösége?vegyük a SuperPI-s esetet. Az nVidia hivatalos álláspontja szerint ez az új driver csak átrendezi a dolgokat. Vegyünk egy jo kis AMD- Intel esetet. Jön ez a SuperPi, érzékeli hogy AMD processzor van benne -> ujrarendezi a kérelmet hogy az gyorsan lefusson, mondjuk a 3dnow!nak elküldi. Ezzel szemben ott van az Intel processzor, amin korrektül lefut, talán gyorsabban is mint az AMD-n (tudjuk hogy az AMD most FPU-ban jobb igy eleve egy paradoxon amit irok). SuperPi cége nyilatkozik hogy kijön egy patch hozzá mert csalás történt, az AMD processzordriver 3dnow!-t is használja. AMD mérgelödik sokat majd kinyögi hogy van bene egy technologia ami azért van hogy gyorsuljon a számitás és ez nem csak a SuperPi alatt van, hanem minden Pi számitáskor, ami nem jön rosszul mondjuk az XY program alatt. Intel halkan megjegyzi hogy neki már a Win95-ban is volt ilyen optimalizált drivere, s most is van a WindowsXP-ben, náluk az uj patchel viszont nem esik le a számitási teljesitmény. Mire követketethetünk? Én arra hogy az utobbi cég már profin megcsinálta azt amit a konkurencia most kezd. Az ATi is elismerte hogy van ilyen ''intelligens'' compiler a driverben, mégsem esik vissza a patch után. Az nvidia is elismerte és hozzáfüzte hogy dolgoznak ezen a compileren hogy intelligensen menjen és ne ehessen kiiktatni. huh át valahogy igy gondolom én.
-
8x1 != 4x2
Ezt rudi is leírta már párszor, és a driveres mankók is csak bizonyos mértékig tudnak ezen segíteni. DX9.1-et meg majd meglátjuk, egyenlőre a világon semmi info nincs róla, csak amit az nVidia mond ---> hiszem ha látom.
((( A legokosabb amit az nVidia most tehet az az, hogy NAGYON rágyúr az NV40-re ( és nem csak PR szinten ). Mindenkinek becsúszik egy viszonylag gyengébb chipgeneráció, tessék szépen lenyelni a békát és utólagos kapkodások helyett azon igyekezni, hogy a következő jobb legyen. ))) -
e-biza
őstag
optimalizálatlan :) azaz nem optmiziált kodokra gondoltam. azokat futtaták.
Derek also went on to quote Tony Tamasi of NVIDIA:
This reminds me of the early days of CPU's, when for some weird reason the industry felt the need to run ''unoptimized code'' through fear of the ''new'' optimizing compilers. It took the CPU industry a couple decades to accept optimizing compilers as legitimate, and of course now everyone assumes that as standard practice. Lets hope that we've learned from that experience and that it doesn't take the GPU industry anything near that time to accept compiler technology as legitimate and proper in this new age of programmable GPU's.
Tony Tamasi - magyar származású -
Cirkumflex
csendes tag
Hősi idők voltak..
Különben az első ilyet emlékeim szerint az ATI csinálta 1998-ban! ! mikor a Riva 128 ellen kijött a Rage Pro Turbo driver, ami 45%-os teljesítménynövekedést nyújtott (kizárólag az akkor menő 3dBenchben és Turok nevű játékban). Ma már ilyen az ilyenfajta durva átverés nem dívik, helyette van ez az ''optimalizálás'' adott játékra - ilynkor nem romlik a képminőség, de ugyanakkora az átverés. A kártya az adott játék (teszt) alatt gyorsabb lesz és slussz.
Nem videokártya példával élve pl. mit szólnál egy olyan processzordriverhez ( van ilyen Windows-ban ), ami ha észleli, hogy most a SuperPi nevű program akarja kiszámolni a Pi-t egymillió jegyig, akkor kihagyja a számolást , előveszi az ELŐRE kiszámolt eredményt és végzett is 1 másodperc alatt. Mindenki örül milyen gyors a proci-ja... -
e-biza
őstag
én nem értek az egészhez bevalom csak annyit tudok amennyit itt elmagyaráztok illetve olvasok. ha jol emlékszem valami CPU hoz hasonlitja az nvidia isa saját termékét, hiszen azzal védekezik hogy sokáig a CPU részlegnél sem ismerték el az optimalizált kodot, pl 3dnow!, sse stb, helyette futtatták az optimalizált kodokat. optimalizálni kell. :) -enni kell, csücsidö kell-
-
e-biza
őstag
tudjuk de quack az quack. mit lehet tenni. csalt. ki tudja hogy most nem csal-e vagy netán milyen összefonodás van a Futuremark és az ATi között. lehet csal most is, nem tudjuk. anti-cheat patch against nvidia :)
Power: a 8x1 matematikailag pontosan u.annyi mint a 4x2 :) legalábbis nálam. ezért kell a driver segédlek, s a dx9.1 alatt eztt akarják orvosolni, hogy a 4x2 is ugy menjen mint a 8x1. -
faster
nagyúr
Nem is beszélve arról, hogy egyre shader intenzívebbek a játékok. Ezt a regiszter spórolást egyre kevesebb indokkal lehet tartani. A 64 bites procik is tömve vannak regiszterekkel, de említhetném a SIMD funckciókat, amelyekkel jött egy rakat plussz regiszter a 32 bites procikba.
Nem hinném, hogy a kevesebb regiszter-inteligensebb compiler lesz a jövő. A CPU-k felépítése és a mostani compilerek tudása jól mutatja, hogy a sok regisztert nem lehet helyettesíteni csupán szoftveres intelligenciával. -
Notes
senior tag
Emlékeztek amikor a Ti4200 'megverte' a 8500-at? Az ATI elfogadta a helyzetet és valamivel olcsóbban adta a kártyáját. Nem álltak neki trükközni, nem próbálták meg átverni a usereket. És emiatt szerintem nagyon sokan szimpatizáltak velük.
Az Nvidia most képtelen megtenni ugyanezt. Ezért fordulnak el sokan tőlük. -
LordX
veterán
Tök jó flémet nyomtok itten, de megnézte bárki, hogy patchel jobb lett a képminőség, mint patch nélkül?
Mert ha jobb lett -> ezelőtt az ''optimalizált'' = ''roszabb képminőség'' = csalás
Ha nem lett jobb -> ezelőtt is jó volt az optimalizált kód -> a FM csak kicseszett az nV-vel. -
e-biza
őstag
miért lesz driverre szorulva annyira? ha a dx9.1 intelligensen felismeri a gf fx-et és ugy küldi el az adatokat, illetve úgy modositja az elküldéseket, akkor ki lehet venni valamit a driverböl szerintem, mert minek kétszrer átrendezni a dolgokat? :) persze a maradék optimalizáciot driverben kell hagyni...
-
e-biza
őstag
tény hogy a quality és a performance között lehetne egy jobban láthato határ is :) de sajnos nincsen. igen a user válassza meg hogy 10fps vagy 50fps-et lásson, de gondolom a felhasználok nagyrésze amatör (valószinüleg nem is hallott arrol hogy Performance meg Quality mod, alapban megy minden nála) ezért egy általánositottak. nem lehet mindenkinek a kedvében járni :) szerintem ha kijön a 9.1-es directx az nvidia nem fog rákényszerülni driverböl nyomni a geforce segitséget, megteszi egyböl a directx. akkor mit iktat ki a 3dmark? szerintem el fog bukni a futuremark, ebböl ö nem jöhet ki gyöztesen, kivéve ha valaki pénzeli. kb annyi az esélye mint a HL2-nek, Doom3-nak lett volna ha nem optimalizálják az FX szériára.
-
xuldar
addikt
-
Power
senior tag
''Egy hibánál, ami játszhatatlanná tesz egy adott játékot, el tudom fogadni, hogy csalnak egy kicsit az adott kódrészben, hogy mégse legyen játszhatatlan a játék.''
Nem hibáról!!!
Hanem, arról hogy lassan végez el bizonyos műveleteket. Ezt mínőségromlással(kisebb pontossággal, kevesebb részletet számol ki) orvosolja az nv, DE nem csak ott ahol tényleg lassú, hanem ott is ahol esetleg 100+ fps, szóval szimplán ront a mínőséget.
''Még akkor is ha egy kicsit romlik a képminőség az adott játékban.''
Képzeld el, hogy van egy fejlesztő céged. Készítesz egy hiper-szuper-csili-vili játékot ami álom szép. Erre az nv kihoz egy ''javítást'' ami megdobja a gfx-eken az fps-t de a játékod csak közepes kinézetű lesz.
Te ennek örülnél??? Nehogymár az NV döntse el, hogy valaki milyen mínőségben játszon!!!
Arra ott vannak a játékban a lehetőségek, hogy kikapcsolj mindenféle dolgot, vagy lejjebb vedd a felbontást stb.
Ha már nagyon ragaszkodna a driver-rontáshoz, akkor is opcionális lehetőségnek kellene lennie és nem default működésnek. -
L3zl13
nagyúr
Nem játék támogatásaok, hanem hibajavítások szoktak az új driverekben lenni.
Persze el lehet vitatkozni rajta, hogy hiba-e, ha valami lassabban fut a kelleténél, vagy csak az, ha nem látszik/lefagy stb.
Egy hibánál, ami játszhatatlanná tesz egy adott játékot, el tudom fogadni, hogy csalnak egy kicsit az adott kódrészben, hogy mégse legyen játszhatatlan a játék.
Még akkor is ha egy kicsit romlik a képminőség az adott játékban.
De az, hogy valamit csak azért ''optimalizálnak'' képminőség romlás mellett, hogy pontszámban ők legyenek a legjobbak, azt nem tudom elfogadni.
És az is kérdéses, hogy az ilyen teszteknél mit akarunk tudni, azt, hogy melyik kártya mit tud, vagy azt hogy melyik kártya (driver) melyik játékra tartalmaz optimalizálást?
Jó, hogy ki nem ad minden cég (nem csak nVidia!) egy saját 3D markot ami saját kártyájáravan optimalizálva. -
Surranó
aktív tag
válasz
Cirkumflex #25 üzenetére
Csakazéris olyan drivert csinálnék, ami default telepítés esetén x fps-nél (x<=200) plafont fog, és onnantól kezdve kéretlenül is képminőségjavításba v energiatakarékosságba megy át :t
-
Surranó
aktív tag
Szerintem se csalás. (de ez nem igaz).
Ahogy én értettem az egyéb helybéli hírekből:
1. FutureMark X kódot átírta Y kódra, ami (elvileg?) ugyanolyan hatékony, csak a sorrend cserélődött föl. (tudom, a for-ciklus és a sleep felcserélése drasztikus lehet)
2. Det52.16 optimalizálja az X kódot Z kóddá.
3. Det52.16 nem optimalizálja az Y kódot Z (Z') kóddá.
Ez nem jelenti azt, h csaltak, csak az optimalizáló nem tud mindent optimalizálni. Én is nap mint nap találkozom ilyennel a Postgres-ben. Megírok egy query-t kétféleképpen. Az egyik 500ms, a másik 5ms alatt fut le. Már csak azt nem tudom, hogy akkor a Postgres optimizere a béna, vagy az én agyamé. Két eset van:
a) a query tényleg elvi marhaság volt, az agyamnak kellett optimalizálni.
b) a query elvileg ugyanaz, csak a postgres bizonyos dolgokon elhasal (sürgős bugfix volt, nem megyek bele). Nem baj, mert hamarosan jön a 7.4, ahol sikeresen optimalizálták ezt a problémát is ;] de tökmindegy, hitele úgysincs. -
engusz
veterán
''De mint a hírből kiderült ez az optimalizáció csak a 3DMark03-at gyorsítja, és a többi programot nem. Minden gémhez írnak majd ezután egy külön optimalizációt :F''
Tudtammal ez mindig így volt. Amikor régebben kijött egy újabb Detonator, akkor szerepelt a hírben, hogy éppen melyik játékok kerültek bele, mint támogatott szoftverek. Gondolom, hogy az optimalizációkat tartalmazták.
Ha én vga kártya gyártó lennék lehet, hogy számítana a 3DMark pontszám. Ezért mindent elkövetnék (legális és normális keretek között), hogy minél több pontot érjen el a kártyám. Az ATI esetében (mint már százszor említettük) ott van a nyers erő, az nV kártyáinál pedig a fullos driver. Tehát az nV még elvegetálhat azzal, hogy optimalizálgatja a driver-eit. De sajnos ebbe a vegetálásba csap bele a Futuremark. -
gerlaip
addikt
Na igen. De mint a hírből kiderült ez az optimalizáció csak a 3DMark03-at gyorsítja, és a többi programot nem. Minden gémhez írnak majd ezután egy külön optimalizációt :F
Ha a gémek nem gyorsulnak, csak a 3Dmark, akkor valóben nem ok a dolog. Szerintem így tényleg van értelme annak, hogy a Futuremark fellépett.
Másrészt lehet hogy kár védeni a Futuremarkot, mert egy kicsit furcsa, hogy minden újabb patch után a geforcék lassulnak, míg a radeonok 0%-kal, vagy elenyésző mértékben. (Asszem a 330-as patch felrakása után lassul egyik másik radeon 2-5%-kal) -
engusz
veterán
Nálam (most már) a játékok döntenek egy kártya vásárlása vagy tanácsolása előtt. Legutolsó szempont csak a 3DMark03. 3DMark2001 még talán szóba jöhet.
De ez már tényleg gáz, ami a két cég körül folyik. Nem tudom, hogy a Futuremark miért nem tud megülni a fenekén. Lehet, hogy az nV fogja magát és alapít egy leányvállalatot akik egy fullos tesztprogramot fognak készíteni. ;] Persze tisztán és rendesen. Na ez kb annyira volt reális, mint az, hogy a Futuremark keze tiszta. -
e-biza
őstag
tudjuk hogy a kártyának - a felépitése miatt - igen erös driver supportra van szüksége. ezt meg is kapja már az új driverektöl, kérdés a Futuremark miért iktatta ki? Szerintem ezt a vitát úgy ahogy van ki kellene dobni. A Futuremark mindig modosithat annyit hogy az nVidián ne fusson ''??normálisan??''. az nVidia mindig követi majd a frissitést, mindig mind2 cég egymás torkának fog esni, s az ATi csak annyit közöl: nálunk minden okés. jah hogy mi is használunk bizonyos compilert? hát igen.
Szerintem az ATi támogatja ezt. A Futuremarknak érdeke hogy tisztázza magát az ilyen helyzetek alol, s megvan a reklámja is, de nem éri meg neki hogy minden alkalommal hogy frissit odaköpjön az nVidiára. Igy nem fognak vele tesztelni, mert leszürik hogy csak ATin fut normálisan igy felesleges tesztelni. :) -
engusz
veterán
Szerintem egyáltalán nem csalás. Mivel máshogy a kártya nem bír normális sebeségget produkálni. Viszont szerintem a Futuremark ezt tudatosan kapcsolta ki. Már csak arra lennék kiváncsi, hogy az új patch-el együtt javúlt-e a kép? Mert ha igen, akkor egyértelmű, hogy csalásról van szó. Mivel hogy érhettek akkor el teljesítménynövekedést? Persze, hogy a képminőség lerontásával. Ha viszont maradt a képminőség, akkor egyértelmű, hogy az Futuremark ''tett keresztbe'' az nVidia-nak.
-
e-biza
őstag
**gluty gluty**
kérdésem az lenne, hogy vajon a ''kezdetleges'' Unified Compiler Technology miatt kapcsolhato ki vagy tényleg csalás? Most kezdték s mint a HardOCP oldalon idézik az nVidia leveléböl:
What we expect will happen is that we'll be forced to expend more engineering effort to update our compiler's fingerprinter to be more intelligent, specifically to make it intelligent in its ability to optimize code even when application developers are trying to specifically defeat compilation and optimal code generation.
ATi-ék már ugye 3.6 ota használják a compiler megoldást. Lehet nagyobb rutinnal már megcsinálták ezt amit az nVidia most kezd. Az nvidiának sok tapasztalata van a képminöségrontás területén, s mikor az ATi merészkedett oda quack -quak lett hamar :) talán u.ez a helyzet áll fenn most is. -
Alan
aktív tag
Pontosan ez a kérdés itt, hogy ti. az első vagy a második esetről van szó. Az nVidia szerint ők az első eset megvalósítására késztették a compiler-t, amit a gonosz Futuremark úgy, hogy van, kikapcsol, nehogy jó eredményt kapjanak az nVidia kártyák. Erre mondtam, hogy súlyos és kemény vád, amelyet viszont nem tudnak semmivel igazolni.
A Futuremark azt mondja, hogy erről szó sincs, ők mindössze átrendezték pár utasítás sorrendjét, és ha valóban optimalizáló compiler kapná meg a shader-eiket, akkor a végeredményben nem lenne számottevő különbség, hiszen az új shader-eket is nyugodtan optimalizálhatná (tehát a második eset forog fenn). Az ATi ugyanezt mondja, és az ő drivereik - amikben szintén van optimalizáló compiler, bár nyilván kevesebb dolga van - kb. azonos teljesítményt is nyújtanak az új 3DMark verzióval, tehát igazolni látszanak ezt. -
Shader átírásánál egy dolog _nagyon_ nem mindegy: a compiler írja át, vagy a serény nVidia driverkódolók? Tehát a driver bizonyos kódmintákra keres rá minden shaderben, vagy direkt a háromdémárk shadereit írja csak át?
Mert szerintem az előbbi az nem egészen csalás kategória. Ez olyan, mint a fordítóprogramoknál az optimalizálás bekapcsolása, nem várhatod, hogy minden sorra azt a gépi kódot adja, mint amire te gondoltál... -
Alan
aktív tag
Ez a hír rendkívül egyoldalúan mutat be egy kétséges megalapozottságú állítást az nVidia részéről, amelyet az 1. és a 3. bekezdésben a szerző ténnyé minősít át.
A Futuremark képviselője világosan kijelentette, hogy ők semmi mást nem csináltak, csak némileg átrendezték az utasítások sorrendjét - tehát szó sincs a ''compiler letiltásáról'', egyszerűen azt akarják megakadályozni, hogy valaki a tesztprogram közismertté vált shader programjait a meghajtóprogramjával felismertesse és lecserélje egyedi, előre beoptimalizált programokra, mert ezzel becsapja a vevőket, akik azt hiszik, hogy ilyen szintű sebességre, optimalizációra számíthatnak majd minden játékban.
Ha nem is mindenben, de ebben én abszolút egyetértek a Futuremark-kal, ugyanis azzal senki nem ér semmit, ha a videokártya-gyártók a tesztprogramokra optimalizálnak.
Ezért mondom, hogy a hír igen félrevezető és azt tartanám tisztességesnek, ha átírnátok, egyenlő helyet szentelve az állításnak (nVidia) és a cáfolatnak (Futuremark), világosan megjelölve, hogy egyenrangú, általatok nem ellenőrzött valódiságú kijelentésekről van szó.
A 4. bekezdés (amit valószínűleg erre a célra szánt a szerző) abszolút nem tartalmazza ezt, egyáltalán nem derül ki belőle, hogy a Futuremark szerint itt nem az (egyébként remek elképzelést jelentő) optimalizáló compiler kikapcsolásáról van szó, hanem kifejezetten egy adott alkalmazáshoz ''bedrótozott'' shader-ekről, amiknek a használatát - ha ez valóban igaz - az nVidia kemény, a Futuremark-kal szembeni vádaskodó hazugsággal próbálja leplezni.
Gondolom, előbb-utóbb napvilágra kerül a vitatott shader-ek kódja és akkor kiderül (ki lehet próbálni), mi a valódi helyzet. Ne állítsátok úgy be, mintha ez már megtörtént volna, méghozzá az nVidia állítását (compiler szándékos letiltása)igazolva. -
rudi
nagyúr
Nem döntött az ATI sem pénzfeldobással (remélem) csak követte a dx9 utat. Az NV meg gondolom bízott az akkor már fejlett cg-ben és abban hogy együtt csinálják az MSel a dx9 magas szintű nyelvet, ami szintén cg forma lesz.
Mindenki a chiptervező világban a 2. veriációt választja. Amit írtam az csak egy nagyon durva sarkítás (nem egy ütem alatt végez az 1. sem csak durván 8szor gyorsabb). HATALMAS jelentősége van a tranzisztorszámnak egy komplexebb chipnél. A másik dolog hogy nem is tudnának a mai RAMok és más elektronikák egy 1. példában leírt összeadót eteni.
Tranzisztorszámban valahol 120milla körül jár mind a két fejlesztő, de NV tudtommal nem integrál TVout vezérlőt a chipekbe.
0,13al azért szenvedtek mert akkor még a partnerük (TSMC) nem bírt egy olyan technológiával ami 0,13on ki tudott volna produkálni egy 120millás chipet. A másik dolog meg hogy 400MHz-n ment volna rendesen, de jöttek az elborzasztó eredmények a 8/1es ATI chipektől, ezért vitték fel 500ra és itt már gondok voltak. Ebben is szerencsés volt az ATI hogy nem állt át 0,13ra, így nem kellett egyszerre foglalkozniuk az új architektúra és új méret problémáival. Megcsinálták az r300at, kicsit finomítottak az r350ben, lefelezéték az r350et és elvitték ahhoz a céghez aki már az NV3x chipeken begyakorolta a 0,13at. -
Ezek szerint én értelmeztem félre a brute force-t.
Nálad: erősebb architektúra tervezése.
Nálam: ''alapból'' gyengébb architektúra kompenzálása gyári tuninggal.
Ismét csak szerencse: mit gondolsz, ATi pénzfeldobással döntött a 8/1 mellett?
TE melyiket választanád az általad leírt variációk közül? Szerintem ha van két lehetséges út, amelyikből az egyik könnyen járható és gyors, míg a másik problémás és eredendően lassú, akkor egyértelmű a dolog. És ha több tranyó kell is hozzá, attól még az nem brute force, hanem common sense, mert okos ember nem nehezíti a saját dolgát feleslegesen. ( BTW, melyik chipen hány tranyó van? Ki szenvedett hőleadással a 0.13 ellenére? ... )
DDRII: hát igen, ez nagy tüske a körmöm alatt, ezért is várom a non-Ultrát annyira. Ráadásul állítólag ezek a korai DDRII-k még jobban is melegszenek, mint a sima DDR.
Na mind1, a ''négyes'' chipek úgyis új lappal indulnak, majd meglátjuk. :) -
rudi
nagyúr
ATInak abban van szerencséje hogy ők a 8/1es utat választották és az nV a 4/2-t. Nem vagyok benne meggyőződve hogy előnyben lenne-e az ATI ha az NV30 annak idején 8/1el jött volna ki.
brute force - nyers erő - szilikonnövelés
8 futószalag 4 helyett a 8 darab renderelőhöz.
Olyan ez mint az összeadó áramkör:
1. lepakolunk 8darab összeadót ami 8 bitet egyszerre összead egy körben, lekezeljük a túlcsordulásokta, pakolunk minden összeadóhoz regisztert és elhasználunk 8ALU+8REG+7shift mennyiségű tranzisztort és felületet
2. lepakolunk egy darab egy bites összeadót és hozzá egy regiszert. Visszacsatoljuk az összeadó eredményét a bemeneti reiszterbe, felhasználunk 1ALU+1REG+visszacsatolás felület de 8× lassabb mint az előző példa.
Sarkítva ilyen eltérés van a 8/1 és a 4/2 között.
Az a brute force amit Te emlegetsz már mentsük a menthetőt brute force (kártya szinten), én kicsit mélyebben gondoltam (chipszinten), viszont Neked is igazat kell adni mert a 900MHz-s DDR2 kicsit so(k)k egy középkategóriás vason. Másik oldalon az ATi közepes chipje nagyobb frekin megy mint az NV konkurens. -
- Te hol láttál AnandTechen Q3 tesztet? Én legutóbb az NV30-nál, és az nem ma volt...
- '' ATInak szerencséje hogy brútforszban lenyomják Őket. ''
Ezt nem feltétlenül írnám a szerencse rovására, ők sem random generálják a GPU-ikat.
- Re: brútforsz... na neee, ki használ überfrekvenciákat és méregdrága memóriát a kettő közül ?! Azért ezt nem kellene ám... -
rudi
nagyúr
Egyszerűbb talán de a tervezés elején nem lehetett látni hogy a 8/1 vagy a 4/2 lesz jobb. Az elődök 4/2ről és 2/2ről indultak szóval 4/2 vgay 8/2 lehetett a kiindulás, a 8/1 talán rizikósabbank tűnt, nemtudom...
Regisztert kívűlről bajos berakni tervezési oldalról. Egyszerűbb jól megPRezni a kártyát és a következő generációra gyúrni...
Másik dolog hogy az NVnek nem is nagyon van szüksége + regiszterekre mert ott van a cg shader programozó nyelve ami regisztertakarékosan kódol és állítólag ezzel fordított kód egyforma gyors NV és ATI kártyákon is (tudtommal Aquamark3 van ilyenben). Innen kezdve NV ''megkenheti'' a programfejlesztőket hogy használjanak cg-t a hivatalos dx9-es HLSL helyett.
Ha belegondoltok ez mert azon az ''anti shader day'' nak keresztelt NV tech fórumon. Ott volt az Electronic Art, Ubi soft, EPIC és még jópáran a meghatározó fejlesztők közül. Ha a Stalker, UT2004, doom3 rendesen fut majd NV chipekkel akkor talán nem is fognak annyian bánkódni a megkésett intrikus HL2ért... PR... -
rudi
nagyúr
Engem azért érdekel az 5700U, ez lesz az utolsó érdemes tagja a mostani NV3x sorozatnak. Valójában ez az első új chip a piacon az rv350óta (r380, nv38, rv360 mind csak steppingváltás/frekiemelések voltak).
Nekem is ATIm van. Tavasszal tervezek újat venni középkategóriában és az sem kizárt hogy 5700U lesz akkor már remélhetőleg 150-160USD közelében.
Nagyon várom már az új ati/nv chipeket. Kíváncsi vagyok milyen pipeline kiosztás lesz... -
rudi
nagyúr
Hogy miért is mindig digit-life/Xbit Labs tesztek jönnek elő amikor komolyabban fókuszálni kell egy témára...
Stílszerűen: [L]http://www.digit-life.com/articles2/gffx/nv38-36.html/nv38-36.html[/L]
Ha ránéztek az NV36 adatlapjára:
3 verex egység (rv350nél csak 2) +50%
2×450MHz memóriabusz (rv350nél 2×300) + 50%
ha pixel shader témára kerül a dolog akkor még van lemaradás de talán éppen ez az új compiler oldja meg a dolgot.
olvasgattam a 3dcenter, beyon3d, digit-life NV30/35el foglalkozó cikkeit és ott írták hogy az nvidia architektúrája kevesebb bemeneti rehisztert használ mint az ati chipje (a dx9 is sok bemeneti regisztert feltételz). Egy jó compiler (fordító, ami meghatározza ki milyen sorrendben kerüljön feldolgozásra) sok rehisztert tud spórolni.
A flow control szintén ezzel kapcsolatos, durván olyasmi hogy a pixel/vertex shader ciklusokat kívülről lehet vezérelni, így ha mondjuk a futószalagon csak az egyik renderelőre van szükség a feldolgozásnál akkor nem kell átpaszírozni az adatot a másikon is, ki lehet lépni a futószalagról. Ati cuccainál nincs ilyen(nem is nagyon kell mert nem sok értelme van a 8/1 miatt).
Még egy dolog ami miatt fennakadás lehet, az hogy van valami ütemező ami csak akkor engedi feldolgozni az adatokat ha mind a 4 futószalag ''be van tárazva''. Ez azért jó mert általában 4pixeles csomagokkal (quadok) dolgoznak a VGAk (egy textúra bilin filterezésénél ennyi subpixelből számolódik a pixel színe). Eltömődés jön elő ha egyik futószalag lassabb és a többieknek várni kell mire megint felszabadul. Ilyen esetekben is hasznos egy jó ütemező.
A sokadik dolog ami az NV mellett felhozható (szerintem talán hátránya is) a pixel/vertex shader 3.0 támogatás. Programozhatóbb az architektúra, szóval jobban emészti mint a mai ATi chipek. Szerintem hátrány mert ma még kihasználatlan de talán az NV rá tudja bírni a fejlesztőket hogy hanyagolják a ps 2.0-t és máris a 3.0ra fejlesszenek.
Volt régebben ezzel az NV esetleges nyámása a programfejlesztőkre témával kapcsolatos topic, keresd meg. -
e-biza
őstag
válasz
Cirkumflex #31 üzenetére
Unified Compiler Technology
-
Cirkumflex
csendes tag
Az NVIDA problémája az, hogy az NVx architektúrája egyrészt:
- többet tud, mint a DirectX ajánlás ( pl. hosszabb lehet egy shader stb), amely pozitív tulajdonságokat egyelőre nem használ ki semmi..
másrészt nem illeszkedik a DirectX-hez annyira mint az ATI, ezért MINDENÁRON optimalizált kódra van szükség a maximális teljesítmény eléréséhez.
Jelen esetben a kódot optimalizálni igen nehéz lehet, akár egy program esetében is.
A megoldás egy általános,jó hatásfokú optimalizáló fordító ( utasítás, regiszterátrndezés stb.) lenne. Azért ilyet nem nagyon könnyű csinálni pl. az Intelnek az Itanum-ra 5 év alatt se sikerült összehoznia egy ilyet (ami van, az nagyon jó SpecMark-ot fordít és kész), úgyhogy lehet drukolni az Nvidia-nak egy kicsit. -
Sav
tag
Most egyértelműen az Ati van előnyösebb helyzetben, akkor nem értem, miért kell az nVidiának [b]csak azért is[/b] vissza-visszaszólni. Ha para van, jobb meghúznom magam vagy/és békejobbot nyújtani, nem így gondoljátok??!
Ez a cég saját maga alatt ás gödröt komolyan mondom! -
rudi
nagyúr
válasz
Cirkumflex #25 üzenetére
Kár hogy vannak még tesztelők (toms, anad és társaik) akik az EREDETI q3al mérnek. Igaz hogy még ma is jönnek ki játékos erre a motorra, de akkor már inkább RtCW (bár ezel NVgondok vannak képminőségben - digit-life) vga SS:SE vagy az új Call of Duty.
Cirkumflex: ''If pixelshader$ = 3dmarkshader$ then'' a lényeg a then után jön. Szerintem ott akár olyan szofisztikált kód is lehet amiért az ATIs driverfejlesztők fél életüket (Half-Life :D ) odaadnák. Olvasgattam NV30 és NV35 elemzéseket okosaktól és nem reménytelen a kártya. Olyan nemakármilyen flow control-t tud hogy IHAJ! ATInak szerencséje hogy brútforszban lenyomják Őket.
Hogy mire képes az NV azt majd megláthatjuk az 5700Ultránál... -
e-biza
őstag
a trilinear igaz, hogy menet közben nagyon látszodik nem ártana javitani rajta még egy kicsit. ehhez nem lehet mit hozzáfüzni, kaki a minösége :D
Cirkumflex: én igy érteélmezném ezt a fajta optimalizációt:
if 8_1_pixel_shader_20 then use_4_x_2_pixel_shader_20 és ez játék esetén is. -
Cirkumflex
csendes tag
''Optimalizálás'' címszó alatt ilyesmire kell gondolni (sikerült megszereznem az NVidia driver forrásából a titkos részt...)
If pixelshader$ = 3dmarkshader$ then
pixelshader$ = 10programozóáltal_1hónapalattlegyártott_pixelshader$
Namármost ezt az Nvidia nem fogja megcsinálni minden egyes játékra, ahhoz nincs elég fürgekezű indiai programozója, tehát a benchmark gyors lesz, a játék meg nem... -
e-biza
őstag
igen, egy quake3 esetén :) ahol már 200 fps felett járunk, szoval oda nem kell minöségbeli rontás hiszen neke is elég lenne a 100 fps ha kristálytiszta a képe. a többi játéknál meg ahogy emlitetted jobb a 30fps mint a 20 :) legyen egy kis minöségrontás képen de legalább menjen a játék. egy a gond ezzel a szuper gondolattal. sajnos kénytelen az nvidia kiadni a q3-ra is optimaliált dolgot mert tesztelnek vele játékot. gondoljunk csak bele: user megnézi a honlapokat, keresi a gyors kártyát, látja hogy q3-bgan 250fps, mig a másik kártya csak 200fps. leszüri magának hogy a 250 a jobb, s megveszi a 250-es kártyát. persze lehet azt irogatni erre: aki hülye az vessen önmagára, de sajnos sok ilyen hülye van szvsz.
-
rudi
nagyúr
Engem az zavarna (ha lenne pénzem rá) hogy a game 120FPS helyett 150FPS-t tud de akár egy fikarcnyival is randább a képe.
Közepes vagy lassú kártyáknál viszont sokkal többet ér az ''optimalizált'' kép 30FPSel mint az eredeti 20FPSel.
Képminőség összehasonlítgatásánál viszont rá kellene koncentrálni valahogyan a mozgóképekre is mert pl az AF csalások (''optimalizált'' trilinear vagy trilinear csak level 0-n) legjobban mozgásban jönnek ki.
Szerintem a júzereknek meg kéne tanítani hogy a performance/speed/fast és társai beállítások ugyanúgy minőségromlást okoznak mint az alacsonyabb felbontásra váltás. -
e-biza
őstag
egy nagyon fontos rész kimaradt a hirböl, az ATI nyilatkozta:
It's been claimed that Futuremark's changes have disabled compilers. This is complete nonsense. ATI has had a compiler since CATALYST 3.6 and it didn't have any problems with Futuremark's changes. Shader replacement and compilers are completely different operations.
a háboru folytatodik :) -
rudi
nagyúr
Ha megfigyeltétek a nagyobb HWoldalak már ''bodták'' a 3DMarkot a VGAtesztjeikből.
Az a perkompiler vagy micsoda éppen arra való hogy az nv35 regiszterhiányos rendszerét hozzáigazítsák a dx9 (és R350) regiszterigényes formájához. Az hogy a futuremark nem tud megfelelő tesztproggit csinálni az meg szerintem az ő bajuk, nemtom miért fúrják az NVt. -
e-biza
őstag
arra kiváncsi vagyok, kineknem érdeke hogy jol fusson egy adott játék? most nem az nv-futuremarkrol van szo hanem Rólatok. szoval kit zavar ha valami gyorsabban fu, s nem feltételnül képminöség rontására megy?
-
Notes
senior tag
Az nekem se' tetszene, ha valaki szétkürtölné, hogy sok pénzé' árulok gyenge kártyákat. :D
Lassan már ott tartunk, hogy minden komolyabb játék mellé egy külön rá 'optimalizált' Detonator lesz a telepítő CD-n. -
hunluigi
senior tag
Ez kész kabaré... Én mint NV-s tulaj (Nem nem a cégre értettem hanam a karira) kissé sértve érzem magamat... :) a 1,5 ért)
-
engusz
veterán
Szerintem az akinek több pénze van vagy okosabb. Esetleg egyszerre mindkettő. Nekem az a véleményem, hogy a Futuremark kicsit morci az nVidia-ra és több dolog fűzi jelenleg az ATI-hoz. Valamint ez a ''tényleg csak a videókártyát teszteljük'' effektus lehet, hogy megdőlne, ha valóban számítanának a driver optimalizációk. Ami köztudott, hogy az ATI-nál kevés, míg az nV oldalán annyival több.
-
faster
nagyúr
Kíváncsi vagyok, ebben a patch háborúban ki fog hamarabb kifáradni, az NVIDIA vagy a Futuremark?
-
e-biza
őstag
én hiszem hogy ez nem alkalmazás-specifikus optimalizácio, nem hiszem hogy kétszer u.abba a gödörbe lépne az nvidia, s mindenki tudja hogy mi a gond a GeForce FX-el: a 4x2 felállás. Ezen lehet driverrel segiteni.
az nVidia hivatalos álláspontja:
''NVIDIA said that the Unified Compiler technology tunes DirectX 9.0 execution on the GeForce FX GPUs, and can be used to correct any similar conflict that arises with future APIs. NVIDIA indicated the Unified Compiler as an automatic tuning tool that optimizes Pixel Shader performance in all applications, not just on specific ones. Officials from NVIDIA again stressed today that one of the things the Unified Compiler does is to reinstruct the order of lines of code in a shader. By simply doing this the performance can increase dramatically since the GeForce FX technology is very sensitive to instruction order. So, if the re-ordering is not happening NVIDIA’s GeForce FX parts have a performance penalty.''
Tudjuk hogy a 4x2 nem feltéltenül lassabb megoldás csak úgy kell drivert irni hozzá. -
-=V3rthil=-
őstag
Bár itt lenne már... Jó lenne, ha végre megint versenyképes lenne az NV is...
-
-=V3rthil=-
őstag
Szánalmas... Mondjuk érthető, az NV próbálja menteni a menthetetlent... De akkor is szánalmas... :(
-
iguana
őstag
ez már hanyadik felvonás? kezd már tele lenni a bakancsom, hogy hol az ATI, hol az Nvidia trükközik, sír, fröcsög, röhög stb.
-
L3zl13
nagyúr
''Az NVIDIA állítása szerint a GeForce FX megjelenését követően a cég driverei tartalmaznak egy valós idejű compilert, amely grafikus processzor felépítésének megfelelően alakítja át programokat.''
Sajnos a compiler egyenlőre csak a 3dmark-ot támogatja, de hamarosan várható más teszt programok gyorsítása is. Játékok támogatása előre láthatóan nem várható... :U -
bLaCkDoGoNe
veterán
LOL :D
-
Genialis
aktív tag
Durva dolgokat tud ez az Nvidia. Akkor járnánk a legjobban, ha elmennének az ATI-hoz drivert írni...
-
faster
nagyúr
Kezd olyan lenni a Geforce FX széria, mint a Forma1.
Gyorsul-lassul-gyorsul-lassul.
Még jó, hogy az én öreg GF3-as kártyámat ez nem érinti.
Aktív témák
Hirdetés
- TCL LCD és LED TV-k
- Villanyszerelés
- Autós topik
- Samsung Galaxy Z Flip7 - kis fogyás is sokat jelent
- Kertészet, mezőgazdaság topik
- Jövedelem
- Kaspersky Antivirus és Internet Security Fórum
- Milyen házat vegyek?
- Úgy tér vissza a Commodore 64, ahogy titkon mindenki várja
- Világ Ninjái és Kódfejtői, egyesüljetek!
- További aktív témák...
- MSI GeForce VENTUS 3X RTX 3070 Ti 8GB OC GDDR6X 256bit videokártya
- Újszerű - ASUS ROG Strix Geforce GTX 1660 Super Advanced Edition 6GB GDDR6 192bit VGA videókártya
- Akcio! Csere-Beszámítás! Gigabyte Vision RTX 3070Ti 8GB GDDR6X OC Videokártya!
- Sapphire R7 250 1GB
- Gigabyte Radeon RX 7900 XT GAMING OC 20G
- AKCIÓ! Apple Macbook Pro 16" 2019 i9 9980HK 64GB DDR4 1TB SSD Radeon Pro 5500M garanciával
- 1-12 részletre.Új noblechairs EPIC műbőr FEKETE - FEKETE. 2 év garancia!
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- AKCIÓ! ASUS ROG Zephyrus GA403UV Gamer notebook - R9 8945HS 16GB RAM 1TB SSD RTX 4060 8GB WIN11
- AKCIÓ! ASUS H81M-PLUS H81 chipset alaplap garanciával hibátlan működéssel
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest