- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Tesztpadon az exynosos Galaxy Z Flip7 FE
- Apple iPhone 16 Pro - rutinvizsga
- One mobilszolgáltatások
- Motorola Edge 60 és Edge 60 Pro - és a vas?
- Honor 200 Pro - mobilportré
- Megjelent a Poco F7, eurós ára is van már
- Videón a Z Flip7 méretes külső kijelzője
- 200 megapixeles zoomkamerát sem kap az S26 Ultra?
- Bemutatkozott a Poco X7 és X7 Pro
Aktív témák
-
válasz
VinoRosso #7934 üzenetére
nem szintetikusabb, mint egy Crysis vagy egy Far Cry 2 előre felvett benchmark - a Vantage is egy 3D engine. és persze, lesz itt nagy ingadozás játékok szerint
Skizz: ha választani lehetne, én sem 3DMV teszteket kérnék a tajvani Mikulástól. de most egyelőre ez van...
-
DigitXT
félisten
válasz
VinoRosso #7505 üzenetére
Nem a váltott soros megjelenítés a lényeg, hanem hogy példának felhozni a TV-t, hogy "az csak 25 FPS, aztán mégis folyamatos" nem jó, mert valójában 50 félkép/másodperc, amit a kamera rögzít. A hagyományos TV-k ezt szépen váltott-sorosan 50Hz frissítéssel megjelenítik... A monitoroknál semmi nem indokolta a váltottsoros módot, kivéve anno, amikor az elektronikájuk nem volt elég gyors, így nagyobb felbontást tudtak elérni, persze marhanagy vibrálás árán: gyakorlatilag senki nem használ ma monitirt interlaced módban, mert annyira nem buli: a mai technikával már simán lehetne 50 progresszív képkockát is felvenni, de mivel a hagyományos TV-k még elég elterjedtek, sok értelme nincsen. Majd biztos lesz.
Ha nem akarsz nagyon messzire menni a témával kapcsolatban olvasgatni, lásd ezt.páhuzamot vonna FPS és input késleltetés közt
Már leírtam: valamilyen mozgást kevesebb fázisában látsz, tehát nem tudsz pontosan egy adott fázisra reagálni, ami mondjuk egy autóversenynél egy féktáv eleje, egy FPS-nél egy "headshot", egy RTS-nél meg mondjuk az egér pontosa mozgatása... (Képzeld el, hogy olyan bazisok egységed van, hogy az egész szaggat, mondjuk 15 FPS-sel, és az egér is ehhez szinkronizálva tud csak odébb menni: nehezebb lesz valamit kijelölni, mert rosszabb feléd a visszacsatolás.) Ha azt akarod, hogy ne nézzelek "noobnak" (nem teszem amúgy
), akkor fogalmazz egy picit érthetőbben, hogy mibe is akarsz belekötni.
(Valamibe muszáj, ugye...
) Amúgy meg ajánlom figyelmedbe gbors HSZ-ét, ahol 90 FPS-sel felvette FRAPS segítségével a DiRT-öt, és minden képkocka különböző volt, ebből következőleg kizárt, hogy ugyanolyan mozgásélményed legyen 30 ill. 60 FPS-nél. Erről beszélünk, nem többről... OFF. De most már komolyan.
Please.
Ha ezek után is "üres mellébeszélésnek" tartod, inkább hagyjuk a témát.
Részemről amúgy azt érzem üres mellébeszélésnek, hogy "Hé, te! Nekem
tökéletes a 30 FPS, mindent arra lövők be, a haver sem panaszkodott erre,
meg az emberi szem amúgy sem lát többet, szóval nehogy már te lásd, ill.
érezd a különbséget, mert az nem lehet. Nem lehet, mert én nem látom..."Szerk: bocs, nem a DiRT, hanem a GRID volt az, meg aztán azóta nem írt még
senki, szóval nem kell nagyon messzire visszaolvasni, ha meg akarod találni. -
DigitXT
félisten
válasz
VinoRosso #7465 üzenetére
Elbeszélünk egymás mellett: nem csak az input lag,
amit a monitoroknál annak hívnak, hanem az is, hogy
a játék késve reagál arra, amit a kontrollerrel csinálsz.
(Te meg késve reagálsz a játékra, mert csak ritkán látod
meg a változásokat, ha alacsony FPS értéknél játszol...)
A valós idő azért jóesetben mindenkinél ugyanúgy telik...24-től folymatosnak látsz minden mozgást
Látom, olvasni már smafu, de a demagógia az megy.mozi/TV 24,5 illetve 30
Ha egy picit visszaolvasol, láthatod, hogy a mozi és
a TV köszönő viszonyban nincs az egymás után
kirajzolt renderelt, tűéles képekkel. Nem is beszélve
arról, hogy egy TV-s felvétel 50 field/sec-kel megy...
(Ezt most nem magyarázom el - megint -, ha érdekel,
utánaolvasol, ha nem, akkor tovább szajkózod, hogy a
30 FPS mindenre elég: lelked rajta, legyen neked jó...)Neked elég a 30, nekem (és még sokaknak) nem.
Te nem látod a különbséget, mások meg látják. Attól
nem fogják "elveszteni" ezen képességüket, ha sokat
olvassák a véleményed, ami csak a Te érzékeléseden
alapul. (Abba ne menjünk bele, hogy az interlace-es
feldolgozásnak milyen történelmi okai vannak, meg
hogy hogyan alakult ki, hogy a moziban elég lesz
az a 24 FPS...) Az a röhej amúgy, hogy ha van egy
minimum, amire már azt mondod, hogy ad vmilyen
mozgásérzetet, azt hiszed, hogy feljebb nem látsz.
Nevetséges. De olvass inkább vissza: motion blur!
Van olyan játék, amiben jól használják: sokat segít.Ja, bocs: "a havernak is jó volt a 30, akkor mindenkinek az,
és ne is próbáljon senki észrevenni különbséget, nincs". -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7365 üzenetére
A GI és az SSGI eljárás annyiban különbözik, hogy az SSGI csak a képernyőn látható képre végzi a számításokat. Ettől függetlenül ugyanúgy szüksége van a jelenet információira, így a szükséges fény útját valamilyen módon meg kell határozni. Nem ismerem a Crytek megoldását, de az Emil Persson féle elgondolás Cube map tömbökbe menti a fényforrások információit, az egyes sugarak szögét és erősségét pedig a jelenetben elhelyezett vizsgálópontok határozzák meg geometry shader használatával. Látható, hogy ezt az elgondolást teljesen dinamikus jelenetben tudta anno egy HD 3870. Tehát egész gyors a dolog. A Crytek videóból nekem pont az hiányzik, hogy nem repkednek dinamikusan a tárgyak benne, így a dolog csak szép, de gyakorlatban kérdéses az alkalmazhatósága.
A CE2-es reklám a Sony kérésére lett csinálva. Nem tudjuk milyen géppel van a számítás, de szerencsére tudjuk, hogy a CE2-ben nincs beépítve semmiféle SSGI algoritmus. Pattogó labdákat akarok SSGI mellett.
---
Más (csak nem akarom új hszbe írni):
Charlie nyomot egy újabb agymenést, aki nevetgélni akar kattanjon. Biztos forrásból tudom megerősíteni, hogy az a 2% nem igaz. Bár valóban nagyon gány a selejtarány. Igazából az NV most három pipe-cleaner chipet is bedob. Az ATI ezt az RV740-nel elvégeztette. Az NV-nél most a GT218 tömeggyártása van beindítva. De év végéig beindul a GT216 és a GT215 is. -
DigitXT
félisten
válasz
VinoRosso #7366 üzenetére
átlag 30 fps
Na az fasza, akkor néha beesik 15-20-ra: bár ha meg sem érzed, jó neked.el nem tudom képzelni ... késleltetés ... ami zavarna a célzásban
Pedig baromi egyszerű: tegyük fel, hogy egységnyi idő alatt kell céloznod,
azaz egységnyi idő alatt kell a kamerát valamennyire elforgatnod. Gondold
meg, hogy mennyire sikerülne, ha csak a kezdő és végállapotot látnád.
(Semennyire, mert nem lenne visszacsatolásod, hogy az a mozdulat, amit
az egéren elkövettél megfelelő mértékű volt-e az adott elmozduláshoz...)
Ha már lenne egy köztes fázisod is, több lenne az esélyed, de még mindig
sz*r lenne: legyen mondjuk 30. Így már valamekkora ugrásokkal sikerül az
adott forgatás...! Ha 60 fázisod van, nem triviális, hogy pontosabb lehetsz?
(Részletesebben látod a mozgást folyamatában, mivel ugyanannyi idő alatt,
ugyanakkora elmozdulás több fázisban jelenik meg: folyamatosabb minden.)És akkor most vedd hozzá, hogy nem egy "adott mértékű" kameraforgatás
a célod egységnyi idő alatt, hanem időközben a cél is mozog: minél több a
visszacsatolás erről, annál könnyebb követni. Szaggató kameramozgással
lekövetni egy szaggató ellenséget nem picit lehet gázos feladat...Ja, hogy neked a 30 FPS már nem szaggat?* A 20? (15? Mehetünk lejjebb.)
Ugyanúgy érzed te is, csak számodra (Szerencsés ember...!) nincs már
különbség 30 felett. Nem vagyunk egyformák... De attól még nem kell hibás
elméleteket mögé pakolni azt kijelentve, hogy egyik játékban sincs 25-30
változásnál több másodpercenként, mert ez nonszensz.Az, hogy Te, vagy
Abu85 nem látod, más kérdés, de attól még nem lesz igazatok: ha egy 60
FPS mellett készült felvételt neked "kikockázok", te is fogod látni, hogy: jé,
mind különböző képkocka volt, tehát ebben az esetben a játékos gyorsabban
és pontosabban értesülhetett a virtuális világ változásairól (minek következtében
persze gyorsabban és pontosabban is reagálhatott). Szóval nem, nem a key
binding változik meg (nemrég egy ilyen marhaságot kérdeztél tőlem), hanem
az érzés, amivel a virtuális világgal interakcióba kerülsz. Ennyi a történet.*: nekünk sem, csak "röcög", azaz érezni, hogy nem stimmel, kicsit darabos...
Zavaró na.Ha Téged nem zavar, neked mindegy, hogy mennyi az annyi, attól
még nem kell megmondani másnak, hogy érzi-e, vagy sem. Nem arról van szó,
hogy mennyit ír ki a FRAPS, vagy valami hasonló: bármikor megmondom neked,
ha Vsync-kel játszom, hogy mikor esett be 60-ról 30-ra, mert ég és föld. Nekem. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7345 üzenetére
Szerinted az objektum mozgatása nem befolyásolta a sebességet? Ez a videó, akkor lenne komoly anyag, ha valamilyen tárgy valós időben pattogna benne, de az megfeküdné a mai rendszerek képességeit. Az, hogy egy szerkesztőfelületben áthelyeznek valami, nem nagy dolog.
Az adatok impresszívek, de nézd meg a Ping-pong demót. [link] - látható mi a különbség. Több száz pattogó labda teker a képen, ami már sokkal közelebb áll egy játék igényeihez. Ezért tekintik Emil Persson algoritmusát gyakorlati szinten alkalmazhatónak. A többi GI prezi szépnek szép, de nem nagyon látom olyan környezetben, mint a ping-pong-ot. Talán nem véletlenül.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #7334 üzenetére
Az, hogy az objektum áthelyezhető, még statikus a scene. Amint áthelyezed az objektumot a térrendezőfát újra kell generálni. Ez kerül sok időbe. Majd ha olyat nyom a Crytek, hogy pl. több száz ping-pong labda pattog a jelenlegi hardvereken, akkor süti amit csinálnak. Ezt egyelőre csak Emil Persson Cube Map tömbös algoritmusa tudja.
Az SSGI, meg ok, hogy Screen Space effekt, de ez azt jelenti, hogy a számítás csak a képernyőn látott képre vonatkozik, de ettől számos információra van szükséged a jelenetből. Különben nincs adat a számításhoz.
Szerk.: Persze jó a Crytek megoldása is a kinézet szempontjából (nem azt akarom mondani, hogy szar amit csináltak), csak ez egyelőre mutogatni való, nem véletlenül nem látsz a videóban valós időben mozgó objektumot.
-
janos666
nagyúr
válasz
VinoRosso #7156 üzenetére
Jobb poén a műved miatt fórumokon kialakult eszmefuttatásokon, ne adj isten vitákon röhögni, mint a letöltésszámlálóra gizdulni.
Még jobb, ha te is beállsz okoskodni, mint ha te is most látnád először.(#7163) - Á, dicséretnek veszem.
(#7157) Chalez - 600fps kell, 'oszt jónapot!
És van hozzá 600Hz-es monitorod?Amúgy tényleg ilyen genyák lesznek? Rávezetik az embert az X2-esükre azzal, hogy alig drágább, mint a sima (mert a sima van túlárazva)?
Ez nagyobb átbaszás, mint mikor középkategóriáról áttérítették az embert a felsőkategória legaljára. Ott legalább tényleg profitált a dologból, itt már csak felesleges plusz teljesítmények röpködnek... -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7119 üzenetére
A GDC-t azt annyira nem néztem. Az inkább a játékokról szól, mint a technológiáról.
A SIGGRAPH érdekel ebből a szempontból.
A valós idejű Ray-Tracing motorokat úgy 2018-ra várom leghamarabb (de inkább 2020). Ennél hamarabb nem lesz PC-n hardver ami bírja. 2014 környékén a nagy generációváltás inkább Hibrid elgondolásokat fog eredményezni, Voxeles transzformációval. Carmack és Sweeney terveiből kiindulva.
Az a baj a raszterizálással, hogy piszkosul gyors, és bár fake eredményeket ad, a Ray-Tracing még legalább egy évtizedig nem kerekedik felül. Persze a HPC piacon teljesen érthető az NV elgondolása, ott a valós idejű Ray-Tracing már régóta valóság, csak hát azok a hardverek durván költségesek.Szerk.: Nem videókat néztem. Tech papereket.
Amúgy a videón eléggé statikusan áll minden. Gyakorlatilag interakció nuku. Gondolom nem bír többet a hardver. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7109 üzenetére
A Crytek a SIGGRAPH-on mutogatta a CE3-as megvalósítását. Zömében Vec4 kód semmi probléma nem lenne vele Radeonon, sőt azon fut igazán jól. Nem véletlen vannak az AMD-vel szerződésben, mert a Xenosra írnak mindent.
GI-t már írtak DX10-re. Emil Persson csinált egy Cube map tömbös megoldást, aminek az algoritmusát az AMD felhasználta a Ping-Pong demóhoz. Láthatóan megy a rendszernek. Az Nv-nek ez halál lenne a geometry shader miatt. A DX11 is ezt a megoldást tartotta meg, egyszerűen a jelenlegi rendszereken magasan ez a leggyorsabb. Persze a minősége nem a legjobb, de hát nincs erőforrás jobbra. Sajnos még évekig nem lesz.
Az NV-nek a GPGPU lesz a piaca. A HPC rendszerekbe lesznek eladva a jövőben a chipek, nyilván nem a PC-s vonalra fog fejleszteni. Ezért erőltetik a Ray-Tracinget. Oda rakják a pénzt, ahonnan vissza is jön.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #7042 üzenetére
Nem értem mi lenne a probléma a Crytek demóban, hisz az is Vec4-es utasításokat használ, ami megfelel a szuperskalár egységeknek. Az NV is az AMD megoldását erőltetné, ha nem lenne fontos a GPGPU piac. Egyszerűen a modern grafikai számításokra a Xenosos 4 utas szuperskalár az ideális. Az AMD ezt egy picit kiegészítette de elvi szinten ugyanaz. Az NV féle 2x4 utas stream is jó, csak hát a tranzisztorigény borzalmasan magas.
Chaser: Eme hsz után biztos nem tudják meg.
-
nkmedve
őstag
válasz
VinoRosso #6929 üzenetére
Hogy bele vagytok kötve ebbe a 0 fogyasztáskülönbségbe.
Ezek csak megközelitő értékek amik nem biztos, hogy teljesen helyesek. A 4830 és 4850 is 110W-ot eszik a gyártó szerint, persze tesztek alapján van némi eltérés köztük. Majd ha kijönnek az új kártyák akkor kiderül, hogy valóban mennyi köztük a különbség.
Minden esetre érdekesek ezek a fogyasztási adatok. 110W a GPU, a többi nagyjából a Mem. GDDR5 úgy tűnik, hogy egy igazi zabagép.
-
HSM
félisten
válasz
VinoRosso #6940 üzenetére
Jobb csip, igen. Egy olyan, ami kisebb feszen tudja ugyanazt, vagy azonos feszen gyorsabb, vagy azonos feszen kisebb az áramfelvétele. Van pár variáció.... Azt sem lehet tudni, az 5850-nél miért vannak kikapcsolva azok a blokkok... Lehet azért, mert nem férne bele a TDP-be...
Persze, az 5850 csipek másik fele meg "picit" hibásak lesznek, a letiltott rossz shaderekkel.... De úgyis kiderül majd.... Addig meg úgyse fogjuk tudni, mi az igazság...
(Bár szerintem azutánse...
)
-
tzsolesz
nagyúr
válasz
VinoRosso #6929 üzenetére
Hmm, értem, végül is feljebb magyarázatot is adtak erre neked is.
(#6930)Bici: Nah, erről beszélek, néha netezés közben is állandóan váltogat 2D-ből 3D-be.
(#6933)HSM: Érthető ez is. Lehet hogy én buherálok még a karimon. Utána járok mennyi az a legkisebb fesz, amit még elvisel az RV770.
-
janos666
nagyúr
válasz
VinoRosso #6917 üzenetére
Az 50-esben elvileg le van tiltva pár SP tömb, és a hozzá tartozó TMUk. Az idle fogyasztás csak úgy lehet ilyen alacsony, ha nem csak az órajelet és a Vcore-t veszi vissza, hanem ilyenkor lekapcsolódnak a használaton kívüli elemek is (mint a G200-ban, vagy még hatékonyabban). Márpedig, ha pl mindkét kártyán ugyanannyi SP tömb, hozzá való TMU (és talán ROP) marad aktív, akkor azonos kell, hogy legyen az idle fogyasztás (pl mindben 16 tömb, azaz 80SP marad aktív, 5 TMU-val, kis feszen, kis órajelen)
A chip peak értéke gondolom szoftveres mérésből fakad, ami nem hajszál pontos, ezért van, hogy csak a teljes kártya összefogyasztásán (amit pl a konnektorból, vagy táp mögé kötött teszterrel is mérhettek) látszik meg, hogy pár tömb le van tiltva, és alacsonyabb az órajel, de terhelten ez nem annyira jelentős, hogy nagyobb legyen az eltérés (ha feltételezzük, hogy ez valami simított átlag-maximum, tehát jellemzően otthon nem ennyi lesz játék közben, de pillanatnyi tüskékben lehet néha még több is). -
nixx-21
őstag
-
válasz
VinoRosso #6867 üzenetére
Az esetek nagyrészében Közép EU-ba sorolják Magyarországot.
Wiki: Central Europe
Mimi: Közép EUA közép-Kelet EU onnen jöhet, hogy Kelet-EU-ba is besorolják, néha a Közép-EU-s besorolással egyidejűleg. Ezen kívül létezik földrajzi, politikai, gazdasági, fejlettségi, stb. szempont alapján történő besorolás...
OFF vége.
-
leviske
veterán
válasz
VinoRosso #6865 üzenetére
Kérlek, magyarázd el nekem, hogy a RV770 mitől volt kevésbé High-end, mint amilyen az utódja lesz... Ha az AMD nem így áraz, akkor a GTX260 teljes nyugalomban el lett volna 80k környékén, a HD4870-el és a HD4890-el meg lett volna a GTX285. Az X2-esekre nem lett volna semmi szükség.
Azt nem érted, ahogy látom, hogy mire gondolok. A HD3800-asoknál az AMD elkezdett egy utat, hogy az addig parlagon heverő, 40-70k közti árrést betömje. Az akkori kijelentés abból ált, hogy ebben a kategóriában mindig szolgáltatni fogják az előző videokártyacsalád felső kategóriás termékének a teljesítményét. Te most azt mondod, hogy ezt fel fogják rúgni, csak mert másodjára is sikerült tartani a szintet... Valahogy nem tudok egyetérteni.
Az nem előrelépés és az AMD józan ésszel nem gondolhatja, mikor válság van, hogy egy azonos teljesítményű kártyára, drágábban hajlandóak lesznek befizetni az emberek, csak, hogy DX11 matricát ragaszthassanak a gépük oldalára. Arról nem is beszélve, hogy egyelőre a CPU részleg miatt is igyekezniük kell inkább még a jófej formát hozni.
Vonatkoztassunk már el a szerencsétlen nVIDIA-tól és az AMD alkalmi technológiai monopol helyzetétől. 40%-os a részesedésük jelenleg a diszkrét grafikuskártyák piacán. A HD4000-esekkel nem tudták feltornászni magukat 50%-ig. Ha lesznek annyira hülyék, hogy ezt megtoldják egy idióta, önmagukat meghazudtoló árazással, akkor biztosak lehetnek benne, hogy ez a 40% nem fog a közeljövőben 60%-ra nőni. (Amit ellenben egy jó árazással volna rá sansz, hogy eltudnának érni.)
MOD: Amúgy dobna valaki nekem egy linket, hogy honnan ez a HD5700 dolog? Nekem valahogy csak úgy volna világos, ha a 800-asok helyett 900-asok jönnének és az X2-esek ebben a körben kimaradnának.(Ez viszont ugye ellent mondana az AMD monolitikusGPU ellenességével.)
-
emmm
őstag
válasz
VinoRosso #5914 üzenetére
Pontosan, csak adott árszegmenst lehet a másik gyártó ugyanazon árszegmensével összehasonlítani. A 4890 ellenfele a GTX 275, ahol is mindkettő nagyon jó vétel. A GTX 280 ma abszolút nem éri meg az árát. Éppen ezért nem értettem, hogy a kolléga mégis milyen alapon akarja a két kártyát összehasonlítani...
(#5915) Abu85
Kíváncsi voltam, ki fogja ezt az apróságot kimondani...egy kisebb méretű GPU tudásban simán ellenfele a sokkal nagyobb méretűnek. Talán erre sem ártana végre felfigyelni...
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #5564 üzenetére
Mint írtam Mirek Jahoda hozta le először hírbe ezt az egész GT300 van/nincs történetet. Nekem az NVIDIA marketingese mondta még tavasszal, hogy nem fejlesztenek semmi GT300 kódnévvel. Gondolom figyelmeztetni akart, hogy ne dőljek be Theo és Charlie bullshitjeinek.
Persze ez nem azt jelenti, hogy nem fejlesztenek új generációs lapkát, csak annak nem GT300 a neve. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #5557 üzenetére
Nem én mondom, hogy nincs GT300, hanem az NVIDIA. Ezt más média is megerősítette (pontosabban én erősítettem meg más médiát, mert gyakorlatilag kiderült, így nem volt értelme titkolni). Mirek Jahoda nagyon közel áll az NV-hez, és nem Theo, vagy Charlie féle pletykagép. Apropó Charlie aki megbízhatóságban eddig felülmúlta Theo szintjét ezt írta. Persze szerintem ez is bullshit, mert azt gyártói forrásból tudjuk, hogy készül a következő generációs lapka csak nem GT300 néven.
-
Med1on
aktív tag
válasz
VinoRosso #4683 üzenetére
Ennek a gyerekes egymásra mutogatásnak szókiforgatásnak amit elkezdtél egyáltalán nincs értelme és semmilyen tekintetben nem is kapcsolódik a fórum témájához.
Érdekes azért amikor Abu ír valamilyen játékról részletes infokat azzal jössz, hogy csak nem ő fejlesztette a gamet?. Nos ezt a Crysis kapcsán neked is lehetne írni.Nem tudom miért akarod ennyi védeni a motort és nyilván ez a teszt se lesz a számodra kielégítő ami itt van.
12 helyen hasonlították össze a képminőséget 4 beállításban gyakorlatilag nem sikerült komolyabb eltéréseket felfedezni. Ettől függetlenül tartalmaz DX10 kódsorokat a cryengine csak a képminőségben és a sebességben ezt nem könnyű kimutatni.
Úgy látom nem sikerül dűlőre jutni te a technikai részletekbe merülsz el én a "kézzelfogható" dolgokat (képminőség, sebesség) nézem első "körben", Nem nagyon lehet meggyőzni más dolgokban sem ahogy olvastam a fórumozók írásait.Mind1 a kis off után egy a témába kapcsolódó info.
A legújabb pletykák szerint szeptember 10-19 közötti napokon jelenhet meg az RV870. Az ár 50-500$ között. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4683 üzenetére
Ez nem így működik. OBM eleve nem fut le ha POM shader van a felületen. Nem tudom honnan jött ez a DX9-ben nincs POM, de ennek nincs alapja. Futtasd le a Crysis-t DX9-en és üsd be a konzolba a con_restricted 0 parancsot. Ezután az r_usepom 1, az e_terrain_ao=1 és az r_DetailTextures=1 parancsokkal tudod a texture opció Very High paramétereit előhívni.
Próbált ki egy köves helyen működni fog a POM.
-
Med1on
aktív tag
válasz
VinoRosso #4669 üzenetére
Nem ezt írtam pls ne forgasd ki az írásaimat.
"nem számolhatjuk 100%-ban hitelesnek"
Jók az ilyen prezentációk és természetesen érdemes megnézni őket de mindenképpen némi fenntartással kell kezelni ezeket. Az én logikám végigvéve az, hogy ezek a bemutatók figyelemfelkeltésre és alap tájékozódásra elegendőek de a részletekre már élőben derül fény.
Nem kell mindent elkönyvelni rossznak én nem ezt írtam de mindent elhinni az ilyen tech videókból nem szabad mivel csak a pozitív dolgokat emelik ki. Ha te minden bemutatót csont nélkül beveszel magadra vess..
Pl. miért nincs egyetlen egy fejlesztői bemutató a Crysis sebességéről? esetleg arról mennyit gyorsít a DX10? stb...Egyébként a Windows7 közeledtével már a Steve Ballmer is egyre több helyen beismerte, hogy hát a Vista finom szólva is nem az eddigi legjobb oprendszer.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4673 üzenetére
Offset bump mappingot a Far Cry 64 bites verziója használt. A Crysis DX9-ben és DX10-ben is ugyanazt a Parallax Occlusion Mapping eljárást használja.
Baromira egyszerű megtudni a DX10-es parancsokat. Amikor előkerült az XP-s Very High beállítás, akkor megkérdeztek a Crytek-et, mi a helyzet.
Az az anyag meg a Cryengine 2-ről szól, miért kellene minden olyan dolgot felhasználni a Crysis-hez amit tud a motor.
Fel kellene rakni az 1.2-es patchet, ami javítja a WDDM kezelési problémákat, és felzárkózik a sebesség az XP-hez.
gbors: 1.0-ás verzió tényleg lassabb. Te 1.21-gyel mértél ami imprúved perfórmensz.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4665 üzenetére
A crysis két eljárást használ DX10 módban: ami az r_UseGSParticles és a d3d10_CBUpdateMethod. Az első parancs részecskeszimuláció a robbanásoknál, míg a másik a Constans Buffer gyorsabb kezelését teszi lehetővé. Utóbbi alá tartozik még a d3d10_CBUpdateStats és a d3d10_NumStagingBuffers. Ezek teszik lehetővé a d3d9-hez képest a gyorsabb feladatkezelést.
VinoRosso (4666): Ha a DX9 Displacement Mapot használna, akkor egyrészt normálisan működne az AF szűrés, másrészt összefosná magát az összes VGA.schwartz: A 3dfx 2000-ben bukott. Az utolsó motor ami támogatta a Glide-ot az Unreal volt, de az UT esetében már kivették a támogatást, mert felesleges volt. Gyakorlatilag mondhatjuk, hogy az Unreal játék volt az utolsó glide támogató program 1998-ban. Ha a Glide nyeregben lett volna, akkor a 3dfx nem megy csődbe, mert a Glide a saját zart API-juk volt és csak a Woodoo kártyákon működött. Ergo a konkurens megoldásokon el sem indult a játék.
-
Med1on
aktív tag
válasz
VinoRosso #4666 üzenetére
A régebbi kártyáknál kevesebbszer kell lefutattni a tesszellációt és akkor kezelhető a dolog HD2000-3000 szinten is. Az AMD froblins alatt egy HD 3870 nagyjából átlag 15 fps-t tud tartani ami ugyan nem tűnik soknak de ha számba vesszük a terhelés mértékét már egyből nem is rossz ez az eredmény. Itt pl. a békák útvonalszámítása is a GPU-n történik történik ami játékban nem mostanában fog megjelenni. (pár tech videó már ez ügyben is volt)
A kiadótól származó videókat azért nem számolhatjuk 100%-ban hitelesnek hisz ők elfogultan nézik a saját terméküket.
A Microsoft prezentálásában azt mondja, hogy nagyon jó a Vista most akkor ezt feltétel nélkül komolyan vegyük? Végül is nem 1 kis cégről van szó.Hát hirtelen én meg ilyen tesztet találtam.
-
Med1on
aktív tag
válasz
VinoRosso #4660 üzenetére
A g80 egyik legnagyobb problémája ez amit le is írtál. A teljesítmény növelése lassan fizikai korlátokba ütközik. Nézd meg a GT200 chipet 65nm-es gyártástechnológiával készült szemben a G80 90nm-el. Ehhez képest a GT200-as GTX 280 576mm2-vel és 1,4 milliárd tranzisztorral is csak átlagosan 50%-60%-al gyorsabb mint a 8800 GTX/Ultra. Az architektúra bővítése továbbfejlesztése nagyon komoly korlátokba ütközött emiatt a fermit drasztikusan át kell alakítani mert egyszerűen ezeken az alapokon nem lehet tovább menni. (ha egyáltalán tovább akarnak menni)
A fejlesztők épp emiatt nem tudták kihasználni a GS-ből adódó lehetőségeket hisz az akkori népszerű kártyák 8800GTS, 8600GT/GTS stb. képtelenek voltak megfelelő sebességet nyújtani. Te alkalmaznál olyan technikai megoldásokat amiket a piacon többségben lévő kártyák nem tudnak rendesen kihasználni?
A g80 és az r600 között a megjelenést tekintve nem volt olyan hatalmas időbeli különbség ehhez képest még az RV870 is erre az alapokra épít mert a DX11 támogatásához nem kell jelentős módosításokat eszközölni. Tévedés, hogy a tesszellátor a HD2000-4000-es kártyákon nem lesz kihasználva. A DX11 térnyerése felgyorsítja majd az eljárás elterjedését és mivel az előző szériás kártyák is képesek a tesszellációra (a megvalósítása pedig nem sok időt vesz igénybe a fejlesztők szerint) ez a funkció azokon is ki lesz használva.
Hosszú idő kellett hozzá de az Nvidia is felismerte a Dx 10.1 jelentőségét, lassan kiderül megérte-e nekik eddig kihagyni a támogatását.
"a DX10 egyik legnagyobb újítása ez." -előző hsz.-ben ezt írtam
Nem a legmeghatározóbb, de mindenképpen a nagyobb újítások közé tartozik szerintem ez korrekt megfogalmazás.
Link
Call of juarez DX10 techdemo. A vízesés megjelenítése a GS kihasználásával történik egy "karcsú" HD 2900XT kártyán.XP alatt nem csak simán unlockolni lehet a Crysisban a Very High beállításokat hanem ezek után a képminőség is változik. Megnéztem a videókat amiket belinkeltél de egytől egyig fejlesztői videók. Ezeket szerintem nagy hiba lenne komolyan venni.
Crysis Xp-Vista
idézet a cikkből: "nincs jelentős különbség a DirectX 10 és a DirectX9 között."Elképzelhető, hogy használja a GS-t de valószínűleg nagyon alap szinten. Az első DX10-es gamek között volt a Crysis nem hiszem, hogy itt mutatja meg oroszlánkörmeit az API.
Valós DX10-es megoldások a fönt belinkelt Call of Juarez alatt vannak.
Erről itt találtam egy látványos videót.
Call of Juarez Benchmark -- Dx9 vs DX 10
Itt már nem túl fényesen teljesít a G80. -
sutyi^
senior tag
válasz
VinoRosso #4660 üzenetére
Crysis DX10 = Very High profil.
Beállítod configban DX9 alatt ugyanazokat a LOD/Shader/stb. értékeket, és 98%-ban ugyanazt a képet fogod kapni, természetesen ugyanolyan lassan. A maradék 1% a GS ami Vista és VH profil mellett kimerül abban hogy a repdeső szmötyi és az árnyék generálás egy részén a GPU dolgozik.
-
TESCO-Zsömle
titán
válasz
VinoRosso #4660 üzenetére
Amit írsz, abban csupán az sántít, hogy nVidiának komoly munkája van abban, hogy az általad fölöslegesnek nevezett újítások ne legyenek kihasználva. A másik dolog, hogyha én videókártyát veszek, akkor nem érdekel milyen jó, mint GPGPU, ha grafika terén elvérzik, vagy csak ugyanazt a szintet hozza, mint a konkurens olcsóbban...
Ahogy az korábban Abu szájából is elhangzott, nV legnagyobb problémája, hogy anno az ATI-nak terv szerint ki kellett volna hullani a piacról. De ugye AMD belehúzott a számításokba.
-
Med1on
aktív tag
válasz
VinoRosso #4657 üzenetére
Röviden a lényeg akkor:
Ez nem azt jelenti, hogy az a ATi chipje butábbak csupán elsődlegesen nem GPGPU-ra lett tervezve hanem komplex grafikai terhelésre. Vannak az architektúrának erősebb illetve gyengébb pontja de általánosságban egy elég jól kiegyensúlyozott (főleg az RV770) GPU.
Asszem vmi ehhez hasonlót akartál írni de talán kicsit félreérthetőre sikeredett."A G80 elég jónak számított a maga idjében dx9-dx10ben,"
A G80 minden csak nem jó DX10, alatt több ponton is súlyos hiányosságai vannak a chipnek. Komplexebb GS terhelés alatt szinte értékelhetetlen eredményt nyújt pedig a DX10 egyik legnagyobb újítása ez. Egyszerűen nincs elég gyorsítótár az átmeneti adatoknak amit ugyan a GT200-ban kijavítottak de ez újabb problémákat vetett fel. (magméret)
Szerintem a DX10-es játékok elterjedésének egyik legnagyobb hátráltató tényezője a G80 és az erre építő chipek. Ennek köszönhető most, hogy élsimítás támogatása nélkül jelennek meg játékok 2009-ben.
A maga idejében annyiban volt jó, hogy csak néhány a Crysishoz hasonló ""DX10es"" játék jelent meg.
Tehát full DX9-es de rá kell írni a DX10-et, hogy pistike a vevő örüljön mivel nem rég vett egy 8800 GTS-t.
Ebben a tekintetben igazad van, de ez azért egyáltalán nem nevezhető felhasználóbarát politikának. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4657 üzenetére
Hát pont ez a baj amit írsz, hogy együtt tervezték őket. A CUDA a G80-hoz hasonló teljesítményű hardveren lassabban fut. Ha nem, akkor azt az NV megoldja, hogy lassabban fusson. Ezért nincs támogatása.
Senki nem akar a konkurens gyártótól függni, főleg úgy nem, hogy az a konkurens gyártó a CUDA nélkül búcsúzhat a piactól.
A Tesla rendszerek G80 architektúrára épülnek.Szerinted az NV vagy az Intel miért nem támogatja az Ati stream-et? Függetlenül attól, hogy nincs értelme.
Itt mindenki bukni fog, csak az OpenCL és a Compute Shader marad életben, aztán egyszer az a harc is el fog dőlni, ahogy eldőlt a DX és az OpenGL harca is.Pontosan ezért nem akar az AMD a GPGPU piacon komoly részesedést, mert az architektúrát nem úgy építette fel.
Vagy GPU, vagy GPGPU. A kettő együtt nem megy. Illetve ment volna, ha az AMD nem veszi meg az Atit, mert akkor a kanadaiak kifeküdtek volna.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4654 üzenetére
A CUDA memóriamodellje teljesen a G80-ra van optimalizálva. Azon fut a leggyorsabban. Bár itt főleg nem ez a baj. [link] - itt egy NV-s embörke nyilatkozata alapján, a zöldek már nyíltan várják a CUDA támogatóit. Gondolnak itt az AMD-re és az Intelre. Kell nekik a segítség, mert a fejlesztőket nem érdekli egy zárt platform. Ráadásul megjöttek a gyártófüggetlen kihívók. A Glide is sok előnyt tudhatott magáénak az OpenGL-lel és a DX-szel szemben, aztán be lett darálva. Most a CUDA-ra is ez a sors vár, hacsak nem lép be a támogatók köré az AMD, és utána az Intel. De miért is lépne be. Hisz ők is tudják, hogy az NV felügyeli az egész platformot, beleszólásuk nem lesz, aztán nézik ahogy az NV honlapjáról letölthető CUDA 4.0 a GeForce GTX 400-hoz lesz ajánlva. Szépen megcsillagozva, hogy a szánalmas AMD és Intel rendszerek csak a 3.1-es verziót támogatják, így nem is érdemes velük foglalkozni.
Persze a CUDA sikeres lehet a HPC rendszereknél, dehát ez hol érdekli az AMD-t és az Intelt. Majd csinálnak saját felületet a saját termékeikhez. Bár ahogy én tudom az AMD egyelőre nem is akar foglalkozni a HPC piaccal.
Egyelőre nincs sok infó az NV új architektúrájáról, nem is igazán akarok róla beszélni, mert ki tudja milyen lesz. Nyilván a buta Radeon ellen a grafikai számításokban nem fogja felvenni a versenyt. Az AMD most is kisebb lapkával hozza ugyanazt a teljesítményt, fejletebb képességek mellett.
Év végére még befut a 96 SP-s GeForce GT 230, aztán nem tudni mi lesz, bár én gyanítom, hogy karácsonyra még megejtenek egy dupla GT215-öt, hátha az elvakult fanok megveszik. Sőt, ha olcsó lesz, még racionális érv is lehet mellette. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4456 üzenetére
Fake GI-ra van Emil Perssonnak egy algoritmusa (anno még az ATI-nál dolgozott). Ezt használták a Pin-Pong Demóhoz. A lényege, hogy Cube map tömbökbe menti az aktuális környezeti hatásokat, melyeket GS-sel számol, enyhe sugárkövetés beütéssel. Konkrétan van a jelenetben egy csomó Capture gömb, ami ellenőrzi a rajta áthaladó fénysugarakat, és azok alapján árnyalja le a hozzá tartozó dobozban lévő objektumokat. Nagy előnye, hogy a statikus és a dinamikus objektumokat is kvázi azonos sebességgel kezeli függetlenül azok számától, továbbá a teljes aktuális környezet vissza van tükrözve mindenre. Hátránya ... nos a hátránya, hogy iszonyat komoly Stream Out teljesítményt követel, ez kb. azt jelenti, hogy 2-3 FPS bármilyen GeForce rendszeren.
Esetleg még azon gondolkoztam, hogy a GS használható stencil árnyékokra is, ezzel tehermentesítve a processzort. Bár talán ez manapság már nem olyan nagy szám. Carmack atyánk a híve a stencil árnyékolásnak, bár azóta lehet, hogy változott a véleménye. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4393 üzenetére
A kép nem lényeges, csak szemléltetés. A tesszellálást érdemes csak a közeli objektumokra végrehajtani. Nyilván ha kevés lesz a gyorstár, akkor csak a memória marad, de mindenképp érdemes minimalizálni a VRAM használatot, mert brutálisan lassít. A békás demóból kiindulva okos LOD-dal nincs túlzott memória használat, pedig a közeli békák nem gyenge részletességűek.
A másik, hogy a DX11-ben a tesszellálás a Vertex Shader mögé került, egy csomó vertex számítástól mentjük így meg magunkat, ez szintén pozitív lesz a sebesség szempontjából. Ráadásul ezen a szinten már nem kell foglalkozni a teljes modellel, hiszen a transzformálás kész. A Xenos rendszeren még a transzformálás előtt tesszalál, az úgy szopás, ahogy van.
DemonDani: Egyelőre nem látom a Tegra ellenfeleit. Illetve látom, őket csak nem ellenfelek.
A QualComm-nak nagyon oda kell pakolnia magát, mert a Snapdragon lehet, hogy eladásokban jobb, de a Tegra új szereplő és technikailag fejlettebb. Az Intel Atom lehet még probléma, de a legkisebb verzió is túl nagy és túl sokat fogyaszt ezen a szinten, így max. 1-2 év múlva lehet reális ellenfél.
ALONSO11: Mindenki aki DX11 játékot fejleszt odamehet az AMD-hez és a vállalat elbírálja, hogy kapnak-e segítséget. Ez a segítség lehet hardver, mert már év eleje óta van működő példány, míg a nyáron bemutatott modell kvázi véglegesnek mondható. Egy-két optimalizáló revízió lehet még a TSMC bénázása miatt. Ha nem ítélik a projectet az AMD-nél komolynak, akkor csak csapatot küldenek, akik megírják a DX11 kódot (ezek a különítmények már egy éve foglalkoznak a DX11-gyel, tehát tapasztaltnak mondhatóak). A tesszellátorhoz meg ott az AMD Tesselation SDK, ami ismeri a Xenost és a DX11-et is. Gyerekjáték vele dolgozni.
Vistára is lesz DX11, itt a WDDM megoldott XP-re ez nagy munka lenne, ráadásul az eddigi XP drivereket is kukázni lehetett volna. Valszeg a DX11 az utolsó releváns API. DX12-ben kételkedem. Mármint a név értéke nagy tehát használható, de nem hiszem, hogy lehetne bővíteni a DX11 futószalagot.
Nem kő kidobni a HD 4850-et. Abban van tesszellátor és DX10.1 is. Sok hátránya nem lesz.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4379 üzenetére
A képek azok csak szemléletes példák. A memóriában egyébként az alacsony poligonszámú modell lesz tárolva.
Ahogy néztem LOD-dal már a Xenos féle rendszer is okosan bánt, a DX11-es változat biztos nem butult ebben a formában. A legnagyobb baj maga a raszterizálás a poligonszám növekedésével az eljárás hatásfok egyenes arányban gyengül. Ebben a tempóban 4-5 év múlva elérjük a határokat. Talán már két év múlva is érdemes Tile Based alapú Geometry Binning elvű GPU-val előállni, komplex ütemezés ide vagy oda, egy bizonyos mennyiség mellett jobb sorba rendezéssel dobni a háromszögeket, mint számolni a teljes pixelre eső sort. (ez az elv a Xenosban nagyon jól vizsgázik, bár ott a fő szempont inkább a kevés memória használata volt)gbors: Én a teljesítményen nem biztos, hogy meglepődnék ... a HD 4890 árazáson mindenképp. Bár nem elképzelhetetlen, lehet érezni, hogy a HD5000-rel az AMD a kivégzésre megy. Komoly veszély az Intel. Nem árt az AMD-nek a piaci részesedés, ez lenne az egyetlen ütőkártyája, az Intel pénze ellen.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4377 üzenetére
Maga a tesszelláció gyors. Ellenbe a rendszer többi része képezhet szűk keresztmetszetet a megnövekedett poligonszám alapján. Elméleti alapon a triangle setup teljesítményre nagyon gyúrni kell, de a gyakorlatban sokat segíthetett Xenos-féle tesszellátor éles elemzése is. Talán ez lehetett a valós oka annak, hogy az R600-700 is kapott tesszellátort, így gyakorlati tapasztalatok alapján fejleszthették az R800-at.
-
válasz
VinoRosso #4313 üzenetére
kicsit továbbszőve a hasonlatot, ha a smink megfelelő mértéktartással van használva, és a kiöltözés passzol a karakterhez, akkor egyetértek, de egész sok példát lehet látni az utcán arra, hogy a jó kiindulási alapot hogyan lehet teljesen tönkretenni a túlzott effekt-használattal. a párducmintás szoknya pedig pont az ellenkező irányba hat nálam
janos666: ez a játék / film kérdés valóban érdekes téma. de hogy egy kicsit más irányból lőjek ugyanarra a kérdésre - ha rendelkezésre áll az iszonyú számítási kapacitás, miért pont a fotorealizmus irányába érdemes menni? a filmek a valóság illúzióját akarják kelteni a CGI-vel is (legalábbis a legtöbb), de a játékoktól én nem ezt várom.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4256 üzenetére
Konkrétan az AMD-s modellekből nagyon kevés. Ezen a szinten főleg a GeForce a menő. Az AMD inkább 80-100 dollár fölött kerül jó pozícióba. Nekik a legnagyobb mennyiségben eladót kártyájuk az asztali piacon a HD 4870 512 MB.
Illetve a beágyazott rendszerekbe iszonyat mennyiségben viszik a Radeon 7000-et, de az egy más piac.gyiku: Hát ez van én ma röhögtem ki magam az íráson.
(azé voltak benne jó osztások: "A LOT OF people don't understand the train that is heading at Nvidia this fall...", "If you are wondering about the laughable performance...")
-
Abu85
HÁZIGAZDA
-
keIdor
titán
válasz
VinoRosso #4235 üzenetére
Szerintem meg már nem normális, ami most van. A választék fele hulladék... igaz eladják, mert Fatality, meg egyéb "nagy emberek" neve rajta van. Szerintem nem normális az, hogyha valaki nem néz fel naponta a PH-ra azt simán át tudják baszni. Nem mindenki kocka, hogy állandóan a gyártók idiótizmusát kövesse, hogy ne b*sszák át a boltban...
Nem szeretem a túlzott egyszerűséget, de ezt a sok hulladékot se szeretem, jó legyen választék, de ne ennyi, és ne ilyenek!
Még mindig kevés gyártót akarok normális termékekkel.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4183 üzenetére
Az innovatív eljárásokra gondoltam grafikában ... Geometry Shader, Cube Map tömb. Ezek alatt összefossa magát a G80 rendszere, persze nyilván nem DX10-re tervezték a chipet, ahogy te is mondod.
schwartz: A Larrabee-ről már sokat beszél az Intel. Az első generáció csak szárnypróbálgatás, nem várnak tőle nagy eredményt. A második generáció az amivel már akarnak is versenyezni, míg a harmadik generáció lesz a nagy dobás, ami majd megfelelően felveszi a versenyt a konkurens chipekkel (bár itt konkrétan csak az AMD-t említették).
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4155 üzenetére
Ez a buta teljesen relatív fogalom. Most a G80 és az R600 architektúrája más szemszögből közelíti meg a dolgokat. Igazából itt a butábbat nem is érdemes használni, mert nincs értelme a kifejezésnek. Mindkét chippel meg lehet csinálni ugyanazt, csak az R600 kifejezetten a grafikai számításokra koncentrál, így a szekvenciális kódon alapuló GPGPU alkalmazásokban a függőségek kialakulása miatt lassú, míg a G80 pont az ilyen kódokban erős, mert nem alakulhat ki függőség. Ennek persze az az eredménye, hogy a komolyabb grafikai számításoknál összefossa magát.
schwartz: Szerinted az AMD nem fejleszt a Riddickhez drivereket? Egyébként már kiderült, hogy a sebességben a HD2000-3000 széria az erős. Konkrétan a HD 3870 a HD 4830-cal és a GTX 260-nal egy szinten teljesít.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4093 üzenetére
Ez nem így működik. Az AMD a költséghatékonyságra ment. Már a debütálás elején megszabtak egy olyan feszültséget, ami mellett hozható a 85 később 95-99%-os kihozatal. Ennek az eredménye a magas fogyasztás. Az NVIDIA ezt nem tehette meg, mert nekik nagy a chipjük, így a működési feszültség megszabásánál a fogyasztás alacsony szinten tartása játszotta a főszerepet. Ez persze azt eredményezte, hogy nemcsak a hibás területek miatt kellett eldobni a lapkákat, hanem vigyázni kellett az elektronmigrációra is, tehát nem jó ha ez túl magas, vagy túl alacsony. Emellett az sem ártott ha a "szűrővizsgálatokon" átment chipek az alacsony feszültség mellett képesek a referencia órajelre. Jelen pillanatban az AMD kvázi hibátlan wafereket csinál a TSMC-nél. A terület alig 3%-a hibás. Ez az NV-re is igaz, ellenben a GT200-ak 30-35%-a mégis kuka az elégtelen elektronmigráció és az instabil működés miatt.
-
VaniliásRönk
nagyúr
válasz
VinoRosso #4104 üzenetére
Valóban, ehhez még kötekedőnek is kell lenni.
Szerk.: De tudod mit, legyen igazad, sőt, az nVidia biztos olyan chipeket használt, amiket még jól meg is kellett küldeni fesszel, hogy megmutassák mennyire fasza gyerekek, és mennyire über a kártya hűtése. (meleg szendvics
)
-
p87
senior tag
válasz
VinoRosso #4086 üzenetére
Azért én megcáfolnám, hogy a 4890 többet eszik mint a GTX285.
Nem tudom mit csináltak ebben a tesztben amit linkeltél, lehet nem terhelte le rendesen az nvidia gpu-t.
Házon belüli másik teszt: [link]
3 eszerint még egy atomic is kevesebbet eszik 3D ben : [link]Az idle az más.
Mod:
Ja igen drukkolok az AMD-nek, hogy minnél ütősebb legyen az új GPU, és jó olcsó. -
Bluegene
addikt
válasz
VinoRosso #4088 üzenetére
5 óra crysis után forró fürdőt is vesz a 2000W fogyasztású boiler segítségével, reggel meg a 15000W akárhány villamossal megy munkába, de örül hisz 20W-ot spórolt
asszem azért magasabb az atik fogyasztása h magasabb órajelet érjenek el(kompenzálják a chip gyengeségét)
meglátjuk, azért soha ne mond h soha, visszakereshetem h miket mondtál az rv770-ről
mindenki azt mondta h a 800sp hihetetlen, pláne h alig nőtt a magméret(192---260) 55nm-en
honnan veszed h ellőtték az összes puskaporukat? jah azt kihoznak egy 3000sp-s chipet és mindenki csak ámul(mondták h még ütősebb/sokkolóbb lesz, ha ez így van a szorzó nagyobb mint 2,5
)
-
Bluegene
addikt
válasz
VinoRosso #4086 üzenetére
én ezen csak mosolyogni tudok, van aki ezzel spórol(20W ide-oda), közbe benyomja a 1500-2500 Watt fogyasztású légkondit mert melege van, megizzadt a játékba
, és közbe azt hiszi megmenti a földet, mert nvidiája van
, tudom mert légkondi technikusnak készülök
, megéhezik crysis után az nvida fan és süt magának csirkét az 5000 wattos sütőben, de nyugodt a lelke hisz 20W-tal kevesebbet fogyaszt a gtx 285, tehát ezzel óránként 3 fókabébit mentett meg
egyébként is 1KWó kábé 40-50 forint
-
Bluegene
addikt
válasz
VinoRosso #4073 üzenetére
r800 is szerintem kb 1200 sp-t fog tartalmazni, de azt is fokozatosan érik majd el, először jön egy 800 sp-os kártya 40 nm-en magas órajellel, aztán egy 1200-as, és talán majd a vége fele lehet kijön egy 1600-as, de lehehet hogy ezt már nem fogják tudni kivitelezni 45 nmen. A 3000-es SP számot ezek tükrében kizártnak tartzom, de csak azért nem 0 eséllyel, mert mindig fennt szoktam tartani a tévedés jogát, de jelen esetben ez annyira alacsony, hogy már szinte 0nak tekinthető.az kizárt h előszőr 800sp-s kártyát hoznak ki, kihozzák amijük van, hogy üssön, biztos te sem hitted anno h 800sp lesz benne(480 a reális
), lehetetlennek tartottad és tessék, most ezt a 2-4000-et tartod lehetetlennek és irreálisnak és tessék(majd), én csak annyit tudok mondani h azt igérték ütni fog, jobban mint az rv670-rv770, én csak erre tudok alapozni
tényleg az a baj h a tsmc gondban van a 40nm-[I]. If you look at the simplified version of yield, basically a fixed distribution of defects on a wafer, a 50% yield on a 135mm^2 chip means almost zero on a chip double the size, and essentially zero on something 3x as large. Reality doesn't mirror that, but it is a good starting point for arguments.
This production run was essential for ATI, and it makes you wonder about Nvidia and how they are going to cope with the same problems given the curious disappearance of the GT215. If they are doing the same thing with the 216 and 218, that is smart, but a 500mm^2 part is still going to be a long stretch.[/I]
hát ha az atinak gondjai lesznek egy kábé 250mm2-es chip kihozatalával, akkor az nv-nek az 500mm2-es chipjének nagyon alacsony kihozatala lesz
Schwartz: Aha... Az a fene okos dispatch processzornak meg a 800SP is nagy falat nemhogy kiszolgalljon vagy 3ezret... (eddig sem volt linearis skalazodas az SP-k novelesevel) nagyon okos vagy, hallottál olyat hogy fejlesztlés(feljesztik hogy kiszolgálja)
-
Dare2Live
félisten
válasz
VinoRosso #4073 üzenetére
az ati egyedül ár/telejsítményben tud az NV fölé nőni
grid, stormrise.... és tsa óta ez már nem igaz."nem akarnak és nem tudnak nagyobbat gyártani."
Na. A kettő különbözik. Ha kellene tudnának. Egyszerűen az a stratégia, hogy ~250mm alatti magméret, HEND pedig 2magos karit kap.4850/4870 ha ki is fut..... de 4770mellé meglepne ha beraknának egy 800sps karit, vszeg 1200-1600közt lesz az új kari. A mamutméretet én is kizárom. Fölösleges hülyeség lenne.
-
Bluegene
addikt
válasz
VinoRosso #4068 üzenetére
nézd bármi lehet
ha megnézed a chip felépítését, az sp szám növelése nem arányos a magméret növeléssel
55nm: Rv670 192mm2 320sp
rv770 260mm2 800spergo 40nm-en egy 400mm2-es chipbe beleférne 3-4000sp, ráadásul még fejlesztenek is, és persze lenne egy köépkategóriás változatú chip is, lehet az az 1200sp-s(viszont az 200mm2, ami optimális gyártás szempontjából, emelik az órajelét és megvan +80% az rv770-hez)
tehát sztem fejlesztenek egy erős nagyméretű chipet(a GT300 ellen) és egy közepes népnekvaló chipet kiváló kihozatallal, előbbiből pedig egy X2-est ami übermetál kártya(ez lenne a sokkoló)
Cypress, Redwood, Juniper, Sqeuoia: talán ezért van annyi kódnév, mert többet is fejlesztenek, most van pénzük is rá, ambícióik is rá, technikai fölényük is, ki kell használni
és remekül továbbfejleszthető az ati chip, eleve úgy van tervezve(ellenben az nvidia chipjét nehéz továbbfejleszteni, ezért ők egyfélén dolgozhatnak, bár nem ártana nekik is egy jó vérbeli performance(középkategóriás) chip
-
Dare2Live
félisten
válasz
VinoRosso #4022 üzenetére
hjaj.... Én azellen tiltakoztam amikor te a tranyószámot jelölted meg egyedüli mhz meghatározóként, arra hoztam pldat, hogy az nem feltétlen úgy van. Ennyi.
Yonah meg Prescottot meg pldanak hoztam és nem GPUval szemben. Hanem, hogy mind a kettő CPU, mind a kettőt azonos csikszélel gyártották, ~azonos a tranyószám és mégis az egyik 1.8 a másik 3.8ghz. Azaz láthatóan a tranyó szám(+csikszél) csak egy dolog....
Neragozzuk túl, énis tudom, hogy miröl beszélsz és igazad van, és te is, hogy én miről és igazamvan. Egyszerüen csak azt akartam a hszemben mondani, hogy a tranyó szám csak egy dolog, magában nem garantál semmit.
-
Dare2Live
félisten
válasz
VinoRosso #3971 üzenetére
Kérlek nézz utána mert hülyeséget beszélsz..... ippenséggel egy Tukwilaban 2milliárd fölött van a tranyó szám, azaz messze jóval több van benne mint egy GT200ban.
Segítek:
Intel shows off Tukwila, first 2 billion transistor CPU.... -
HSM
félisten
válasz
VinoRosso #3934 üzenetére
Na ez az... A GTA4-ben is ott a három opció: LOW (alig kell neki VRAM), ott a medium, ami tökéletesen passzol kis látótávolsággal az 512-es karikhoz, és ott a HIGH, ami igazából csak 2GB-os karin megy jól. De ez miért lenne a fejlesztők hibája? Én pl. értékelem ezt a fajta hozzáállást, ha esetleg 2 év múlva előveszem, majd feltolom HIGH-ra a 4GB-os 6890-es radeonomon...
A DOOM3 is mekkora jó már, anno a 9700-amon végigtoltam mediumon, mert csak 128MB-os volt, mindenki csak lesett, hogy Ultra-n 512MB VRAM kéne alá, most meg már? Poén volt elővenni Ultra-n....
És még ma is félelmetes volt!
És nem is nézett ki olyan vészesen, sőt....
Szerintem nem gáz, ha egy játék maxon megfingatja a kapható legfrankóbb konfigot is. Az a szégyen, ha nem tudod úgy beállítani, hogy egy közepes vason is jól menjen, akár LOW grafon.
-
válasz
VinoRosso #3624 üzenetére
nem megy 1200-at, csak hülyéskedtem
1066-on megy 333-as FSB-vel, de magasabb FSB-vel nagyon nyűgös 1000MHz után
RAM szorzóból pedig nincs olyan nagy választék (meg a CPU sem tud 9-et) - ehhez fel kell állítani egy teljesen más órajel-szisztémát, és újramérni vele mindent...
-
válasz
VinoRosso #3618 üzenetére
tök jó, de nem játék-engine elemzéseket csinálok, hanem VGA-teszteket - arra kitűnő a fraps
nagyon kevés játéknak kevés a 2G virtuálisan megcímezhető memória egy 512M-s VGA mellett, a GRID tuti nem ilyen, a 4870X2 mellett sem volt semmi baja (bezzeg a Far Cry 2-nek...)az fsb húzással az a gond, hogy az a CPU órajelét is módosítja, és onnantól nem hiteles a dolog. meg az i7 előtti intel platformokon amúgy is mindig az a gond, hogy mind a memória-sebesség, mind memóriabusz szűk keresztmetszetet jelent (a szinkronizáció miatt), tehát mind az FSB emelése, mind a memória-órajel emelése előrébb fogja mozdítani a dolgokat. a gridben konkrétan a memória-órajel emelése sokat számít.
-
válasz
VinoRosso #3613 üzenetére
config adatlapomon. tipikus game scenariokat mérek - kiválasztottam az egyik legrészletgazdagabb pályát, és ott mérem le egy verseny elejét. vannak más autók is, ütközés relatíve kevés - viszont a két beállítás között a különbség kb. konstans volt (a másodperces felbontású fraps logokat vetettem össze).
a CPU kihasználtság igen messze volt a maximumtól, és 32-bites OS lévén a memória is.
az én tippem az, hogy a modellek komplexitása miatt kell neki ennyi platform erőforrás, de ezt bizonyítani nehéz lenne, mert nem ismerem az engine LOD managementjét. inkább az lep meg, hogy a VGA-kkal ennyire barátságos -
válasz
VinoRosso #3604 üzenetére
hát, a miértet a Codemasterstől kellene megkérdezni
de nálam az látszik, hogy a saját tesztszekvenciámon 90fps fölé nemigen megy sehogy a dolog, csak ha a memóriát buzerálom...
Beowulf: a GRID elvi síkon profitál a négy magból is valamennyit (úgy saccolom, hogy egy kétmagos 3.2GHz-es Penrynnel 75fps körül tudna a jelenlegi 90 helyett), de az i7 előnye a brutális memóriavezérlőből fakad, nem a CPU tudásából.
-
válasz
VinoRosso #3569 üzenetére
a gridet nagyon, de a legtöbb platform limites esetben a memória órajel-emelés is hoz a konyhára.
janos666, #3570: a memóriakezelés szempontjából mindegy, hogy hánymagos a CPU - btw. amúgy Nehalem alapú kétmagos nem várható?
Jelenleg játékra szerintem is elég a két mag, amelyik képes is kihasználni többet, az is messze lesz a 4-mag-100%-tól, tehát, ahogy írod a jobb tuningpotenciállal ezt 80-90%-ban vissza lehet hozni, a maradék 10-20% miatt meg főjön a benchmarkolók feje (oh, shit
)
1920x1200-ban egyre inkább nem elég az egy GPU, Crysis-t és Clear Sky-t ugye ismerjük, aztán nemrég néztem pl. a Cryostasis demot, egyik szimpla GPU-s kártya sem vinné koherensen 30-40 fps felett fullHD-ben, és így tovább.
rocket, #3577: a GT300 jelenlegi státuszát elnézve, az év végi megjelenés még viszonylag ideális esetben is ambíciózus, és ezen sok változás mellett minden lesz az eset, csak nem ideális.
-
rocket
nagyúr
válasz
VinoRosso #3566 üzenetére
Azzal van a baj, hogy nehany oldalon nem tudjak megkulonboztetni a hirt a pletykaktol, itt van ket reszlet a tegnapi ipon cikkbol:
"Az Nvidia és az AMD között a következő generációs grafikus processzorok piacán is folytatódik a harc. Korábban még úgy tűnt, hogy az AMD lesz az első, aki DirectX 11 támogatással ellátott grafikus processzort dobhat piacra az RV870-es modell személyében, ám a legfrissebb hírek szerint az egység megjelenési idejét az idei év negyedik negyedévére halasztotta a gyártó."
Majd a kovetkezo bekezdes:
"A pletykaszintű információk most augusztus-szeptember közötti megjelenésről beszélnek a GT300 esetében, ami a korábbi okfejtéseknek, azaz a legkorábban is csak szeptember októberben történő megjelenésnek némileg ellentmondanak."
Hir es a pletyka nagyon tavol allnak egymastol, a rossz szo hasznalat miatt egesz mast sugal a cikkuk amit valojaban kellene neki
Aktív témák
Hirdetés
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Pécs és környéke adok-veszek-beszélgetek
- Autós topik látogatók beszélgetős, offolós topikja
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Autós topik
- Kerékpárosok, bringások ide!
- EAFC 25
- Automata kávégépek
- Apple asztali gépek
- Bambu Lab 3D nyomtatók
- További aktív témák...
- ROBUX ÁRON ALUL - VÁSÁROLJ ROBLOX ROBUXOT MÉG MA, ELKÉPESZTŐ KEDVEZMÉNNYEL (Bármilyen platformra)
- Akciós dokkolók, Lenovo Legion Pro 7 RTX 4080/4090 laptopok, licencek, antivírusok
- Telefon felvásárlás! Samsung Galaxy A15, Samsung Galaxy A25, Samsung Galaxy A35, Samsung Galaxy A55
- MacBook felváráslás!! MacBook, MacBook Air, MacBook Pro
- REFURBISHED és ÚJ - HP Thunderbolt Dock G2 230W docking station (3TR87AA)
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest