- Változó design, tekerhető lünetta: megjött a Galaxy Watch8 és a Classic
- Honor Magic6 Pro - kör közepén számok
- Vékonyabb lett, jobb kamerát kapott, de az akku maradt a régi: itt a Fold7
- Milyen okostelefont vegyek?
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Google Pixel 8 Pro - mestersége(s) az intelligencia
- Xiaomi 13 - felnőni nehéz
- Samsung Galaxy A35 5G - fordulópont
- iPhone topik
- Poco F6 5G - Turbó Rudi
Aktív témák
-
VinoRosso
veterán
Tök egysszerű, konyhanyelven röviden: bármennyire is furcsa, egy GPGPU "jóságát" nem TFLOPS-ban mérik. Hiába van 10 TFLOPS-os procid, ha csak 1 dologban tudod "khajtani", szemben a másiknak van egy 1 TFLOPS-os cucca, ez viszont mindenben tudja hozni a maximumot. Nem szabad elfelejteni, hogy ezek csak peak értékek!
-
VinoRosso
veterán
válasz
DigitXT #7488 üzenetére
Azért ne nézz teljesen noobnak, tisztában vagyok vele mi az a váltott soros megjelenítés( A/B/NTSC, PAL, SECAM ezekről mind tanulam multimédiából), de ezt monitoroknál éppen úgy használják mint máshol
És egyről beszéltünk, mert én nem az FPSről beszéltem, hanem az input lagról, pontosan azért mondtam, h nem lehet a moncsi a feedback, ezért ha 60hznél van a plafon, akkor valamit érezned kéne a ezen kívül is, de én nem tudok olyan összefüggésről, ami a páhuzamot vonna FPS és input késleltetés közt,de ha te tudsz ilyenről szívesen látom a grafikonokat, táblázatokat, linkeket mert ha létezik ilyen nyivlán van róla valami dokumentáció, de addig csak üres mellébeszélés lesz amit mondasz, lyukat beszélni a másik hasába meg mindeki tud. Mondjuk Abu különösen tehetséges ebben, de mégis neki kell igazat adjak, egészen addig mig valami kézzelfogható méréssel be nem bizonyítod az ellenkezőjét.
-
VinoRosso
veterán
válasz
DigitXT #7371 üzenetére
De ne forgasd ki a szavaimat. Alapvetően arról volt szó, hogy az FPS növelésével/csökkenésével van e input lag változás vagy nincs? Mert a vita abból indult ki, hogy ha 60 FPSnél van egy limit a monitor feki miatt nincs semilyen feedbacked az ennél nagyobb FPS-ekre, mivel folymatosan 60 frame jelenik meg másodpercenként. Akkor lenne észlelhető különbség, ha az FPS csökkenése mondjuk 100ról 80ra növelné az input laget, és akkor mondhatnád, hogy konstans 60 monitoron megjelenő frame mellett is van érzékelhető változás a játékban. Azt nem mondtam, ha leesik 10 fps-re az nem lassú, az természetesen már diavetítés, és így a reakcióidőd is megnő, mivel nem tudsz olyan gyorsan reagálni a dolgokra, de ilyenkor a képernyőn megjelenő képek frissítési ideje miatt(nem az input lag miatt) van késletetés a reackióidban.
30 FPS ideális, természetesen úgy van belőve minden játék, hogy a minimum ne essen 27-28 alá, ha nagyobb a szórása a játéknak akkor feljebb szoktam állítani pl crysisnál 35 re, illetve még akkor szoktam feljebb állítani, ha a legalacsonyabb átlag fps ami a küszöbérték felett van nagyobb 30nál, pl CS-nál 40et tudok beállítani, mert minden maxon van, kivéve az élsimítást, viszont ha az ráadom akár 2x is, akkor 21 lesz az átlag.De pl Fear 2-t egyik haverom laptopján 29re lőttem be, mert a minimum nem ment 26 alá, és még nem panaszkodott, hogy szarul futott volna, sőt csodálkozott, hogy milyen jó minőségben sikerült futtatni rajta. 24-től folymatosnak látsz minden mozgást, mozi/TV 24,5 illetve 30 (PAL, NTSC ) akinek gondja van az ilyen FPS-ekkel, annak nyilván ezek is szaggatnak, dehát azt tudom sajnálni. -
VinoRosso
veterán
nem azért de szerintem ebben Abunak van igaza. Nagyjából mindegyikkel játszottam, végig keveset vittem, mert a legtöbb nem izgatott igazán, de egyiknél sem vettem észre semmi input laget. Általában annyira állítom magasra a játékot, hogy átlag 30 fps legyen meg. leginkább ez a Stalker CS és a Crysisnál jelentett gondot, illetve még pár játéknál, amikor nem volt elég erős VGA-m éppen. El nem tudom képzelni( legalábbi vsync nélkül ), hogyan lehet akkora késleltetés folyamatosnak mondható framerate mellett, ami zavarna a célzásban(150ms<). Más az is, ha multi GPU-s rendszerről van szó, de hát akinek olyan van az meg is érdemli az input laget meg a mirco stutteringet
-
VinoRosso
veterán
De ne tereld már el a szót. Az a GI SSGI, aminek az égegyvilágon semmi köze nincs a térparticionáló adatstruktúrák újragenerálásához, ugyanis ezt nem a GI shader kódból intézik. Egyedül a pixelek száma, vagyis a felbontás határozza meg, hogy mennyi lesz ha a self time, de még ha total time-ot veszünk figyelembe, akkor sem hiszem, hogy beleszámítana egy BSP fa újragenerálás, mert ilyet pixel shaderből nem csinálnak. Ha labdapattogásod miatt visszaesik a sebesség, akkor az nem a SSGI miatt van, hanem mert valahol előbb leszívja mondjuk az ütközésdetektálás, vagy az útvonalszámítás( tehát fizika ) vagy a nagy poly count, vagy bármi lehet, mert lecseszni egy rendert százféleképpen lehet. Amúgy itt vannak a pattogó labdáid, illetve teáskannáid, hogy egy kis csavar is legyen a dologban. És ez még az "aluoptimalizált" CE2 nem a 3.
-
VinoRosso
veterán
Látszik, hogy meg se nézted a videót
" nem véletlenül nem látsz a videóban valós időben mozgó objektumot."
Lehet a piros szemüveg kiszűri a mozgatásokat ?
Meg
"áthelyezed az objektumot a térrendezőfát újra kell generálni".
Még mindig nem vágom, hogy ez hogy jön ide, mert semmi köze az SSGIhez, ez egy "egyszerű" pixel shader ami a már bevilágított jelenetre fut le . Igen számos info, pontosan három, depth, color, luminance minden pixelre. Mivel ez minden jelenetben konstans adatmennyiséget jelent, független attól, hogy mit teszel bele a jelenetbe. a 300 draw call meg 1,4m tri csak azért volt feltűntetve, hogy lehessen mihez viszonyítani( kb átlagos indoor értékek ), nehogy az legyen, hogy "mer csak 5 low poly objectet raktatok bele." Hogy előtte milyen számítások futnak le az meg kit érdekel, nem szól bele ennek a shadernek a működésébe, annyi erővel amennyivel egy bps fa újragenerálása gondot okoz, gondot jelenthet bármi más, ami előbb fut, lehetne akár egy sprite rajzoló hívás is a szűk keresztmetszet.
-
VinoRosso
veterán
válasz
DigitXT #7209 üzenetére
hátőő...ez szerintem hülyeség, van "pontatlanabb" fizika ( értem visszatérhet e más eredménnyel egy fv azért mert laggol a rendszer
), inputlag( ezt nem értem milyen összefüggésben van avval hogy 60 vagy 600 fps) más az irányítás( ezt se értem, megváltozik a keybinding vagy mi
)?
(#7185): Statikus scene? Mit értesz az alatt, hogy statikus? Úgy érted nincsenek benne dinamikus objectek? Ha vévignézted a videókat, akkor láthatod, hogy vannak benne dinamikus objectek. Térparticipnáló struktúrák meg hogy a túróba jönnek ide??? Mi köze van az SSGI-nek ahhoz, hogy mi van a pályán??? Azért screen space, mert független a jelenet komplexitásától. Az az érzésem, mintha nem is értenéd az egészet, csak odaböknél valami "szakmainak hangzót" azt jónapot.
(#7296) janos666 : nekem innét a BB videó tetszik a legjobban
-
VinoRosso
veterán
válasz
noobsaibot #7155 üzenetére
pedig már megszokhattátok volna, minidg ez van. Emlékszem az r600 megjelenése előtt is beharangozták, hogy a 2900 XT leveri a 8800 GTX-et, aztán még 3870-né turbózva sem bírt el egy 9600GT-vel. Ez inkább siralmas mint nevetséges. Ott ülnek, aztán nézik, hogy pörög a letöltésszámláló.
-
VinoRosso
veterán
már az előbb pár hszel volt ez, de mondtam hogy kamu az összes. Az egyik azt írja, hogy kenterbe veri a GTX 295öt, itt meg éppen hogy megszorongatja, sőtnagyobb felbontásban sokszor a GTX 295 kerül ki győztesen. A lebiztosabb az, hogyha majd kijön a kártya, aztán az ember körülnézeget a topicokban, hogy milyen becheredényeket postolnak a userek, mert még a megjelenés után is egy csomó tesztben olyan eltérések vannak, hogy nem lehet mindegyik igaz.
-
VinoRosso
veterán
GPU hiba volt. Semmi nem melegedett túl, le lett cserélve a gyári hűtés ugyan, de minden mért érték fele akkora volt, mint a gyári hűtővel, viszont nem merem mondani, hogy mi hűtötte, mert megint jön Blugene kolléga a sufni hűtés elméletével, és nincs kedvem az n+1. kört lefutni vele, hogy nem a gyenge hűtés miatt döglött meg a kártya.
-
VinoRosso
veterán
Nem akarlak elkeseríteni, de az én 4850esem is ilyet csinált, mielőtt beadta a kulcsot.
(#7114) madstunt: felesleges megjelenés előtt betenni "tesztnek látszó tárgyakat", köszönőviszonyban sincsenek egymással, nagy része kamu. ( mondjuk megjelenés után is kamu egy része, de ez már más kérdés
)
(#7111) Abu85 : Ha egy videót láttunk, akkor nem tudom mit néztél, mert az GTX285-ön futott. De ha jól emlékszem ez nem SIGGRAPH-os hanem GDC -s volt. Amúgy azt mondod, hogy PC-n nem lesz raytracing motor a jövőben?
na javítom magamat, nem GDC europe, hanem SIGGRAPH, és nem GTX 285 hanem GTX 280.
[link] [link]Amúgy nem tudom, hogy mit csináltk a motorral, mert 120 FPS-el 1,4m tri mellett még SSAO nélkül se fut a CE2( sőt még ha az eget nézed talán akor se
). Na jó talán 800x600ba egy böszme procival, de gondolom a render azért nem abban készült.
-
VinoRosso
veterán
Magát a shadert nem ismerem( nem tudom te találtál róla valami doksit
), de itt most nem arról van szó, hogy milyen ALU -kat fognak munkára, ennél magasabb absztrakciós szintenen dől el dolog . Sokkal több múlik például az ütemezésen, azon, hogy minden tömb el legyen látva munkával. A GI-nél az indirekt fényforrások miatt erősen romlik az adatpárhuzamosság, és ide egy MIMD/TLP( vagy ahhoz közeli) architektúra az optimális megoldás( a tömbökön belül már lehet akármi mivel MIMD nem zárja ki az egyes végrehajó egységeken belüli további utasításszintű párhuzamosítást). Mindehhez meg illik mellékelni egy megfelelő hardveres ütemezőt.A másik meg, hogy ehhez dukál az osztott memória, a nagy regiszterfájl a hatékonyabb tárkezelés érdekében. Nem véletlen erőlteti az NV a raytracinget.
-
VinoRosso
veterán
Azért az a "pár" shader annyira nem pár, mert képszintézis lehet iteratív is, sőt alapvetően az, csak többnyire le van butítva, hogy jobban feküdjön a stream jellegű processhez. GInél ( color bleeding, radiosity, raytracing, photon mapping ) azért jól jön egy kicsit komplexebb vas. Pl a CE3 SSGI/light propagation volumes techdemojában a GTX285( vagy talán 280 már nem emlékszem ) elég hihetetlen FPS-eket produkált, kiváncsi lennék az rv790-et mennyire fogná megy egy ilyen, mondjuk valamennyire lehetne következtetni egy jó SSAO benchből, mert az SSGI lényegében annak a kiterjesztése.
-
VinoRosso
veterán
válasz
tzsolesz #6923 üzenetére
maga az érték nem lenne annyira gyanús, mert csak a chip fogyasztásáról van szó, ami nem elképzeletetlen, ha lekapcsolják a használaton kívül lévő alegységeket. A 4770es fogyasztása idle 23W. Ami gyanús az az eltérés, ami kerek 0 a két chip között, holott fogyasztásban biztos van különbség, hiszen az egyik chip nagyobb a másiknál. ( Természetesen ezutóbbin nem a magméretet értem, hanem a teljesítményét ). Ha egyforma a fogyasztásuk, és ugynaarra a magra épülnek, akkor egyforma erősnek is kéne lenniük, ha az egyikben kevesebb kraft van, akkor nem is kajol annyit.
(#6928) nixx-21: Quake livehoz
-
VinoRosso
veterán
Azért nem egészen.Amiről nem beszél senki, hogy elég nagy válságban van a PC-s játékipar a warez miatt világszerte. Ahhoz, hogy minőségi AAA játékok készüljenek, rengeteg lóvé kell, ha a HW eladásokból nem szivárogna pénz a játékfejlesztőkhöz, akkor már rég becsődölt volna az egész. Abban a pillanatban, amikor beüt egy olyan gazdasági válság, hogy az emberek nem vesznek új vasat, a PC-s játékiparnak lőttek. Ezért kacsingatnak egyre többen a konzolok felé, főleg a "hosszúéletű" kexbox és a warezmentes PS3 irányába.
-
VinoRosso
veterán
Ez már politika, én lginkább kultúrális szempontból gondoltam. 89 előtt mi voltunk nekik a vadkelet, aztán mikor elkezdtünk kacsintgatni az únió fele közép kelet, mióta csatlakoztunk már közép. Abba kell belegondolni, hogy az alattunk lévő szerb, szlovén, horvát, albán, makedón görög már délkelet e.u, a törökök meg már ázsia. De maradjunk annyiban, hogy mi vagyunk a legnyugatibb kelet.
-
VinoRosso
veterán
válasz
leviske #6858 üzenetére
Akárhogy is nézzük egy 4870 a GTX260.al van egy szinten, amit az nvidia középkategóriás kártyának szánt. Ezért nálam ezek a chipek valahol a közép és felső kategória határán helyezkednek el. High endben az AMD.nek sokáig nem volt igazi 1 GPU-s kártyája, ez a helyzet most változni látszik, az r700 már egyértleműen a kiözépkategóriába lesz pozicionálva és a debütáló kárya nem egy eggyel jobb kategóriába, hanem annál jóval erősebbe esik, vagyis valódi high end kártya lesz, ezért kerül annyiba amennyibe kerül, a kettő közti űrt - tehát ahol az r770esek tanyáztak megjelenéskor ) meg majd betöltik az 5700-asok.
-
VinoRosso
veterán
válasz
leviske #6665 üzenetére
bevezető árnak mondjuk egy kicsit drága, de ha tényleg 1600sp akkor 4870 x2 körül kell elhelyezkednie teljesítményben, fogysztásban meg biztos jobb, + a válság, + a nagy magméret + nem olyan jó kihozatal, szóval csodát ők sem fognak művelni. Az erős chip drága, mindig is az volt.
-
VinoRosso
veterán
válasz
ZewaDeluxe #6414 üzenetére
Körülbelül ez lenne :
-
VinoRosso
veterán
válasz
attiLANte #6067 üzenetére
Nem tuom, nekem bejönnek ezek a téglák, legjobban a zöld ledes BFG 9800 GX2-őm tetszett az összes közül. Egyszerű dizájn, nincs semmi csicsa rajta, simán elfogadnék egy ilyet, meg a piroshoz különben is a sok fekete illik. Mondjuk sivitana is az biztos. Jó hosszú lett, vajon mennyire fűthet? Ha elzárják az oroszok a gázt, meglehet slágertermék lesz.
-
VinoRosso
veterán
A GTX280 már kifutott kártya, viszont amikor kijött a 4890 még nem volt sehol. Arra az időszakra készült amig a 4870 és a 4870 X2 voltak az ati csúcskártyái. Mivel jött a válság is, ezért sok GTX280-as marad készleten, ezért is kerül ennyibe. Veszteséggel pedig nem fogják eladni a kereskedők az biztos.
(#5953) Cyberpunk
Ez kamu mint tudjuk, mivel egyrészt GT 300 nem létezik, másrészt az NV nem drótoz be semmilyen kódnevet a driverbe, de ha be is drótoz, akkor sem GT hanem G jelzéssel
-
VinoRosso
veterán
válasz
Bj Brooklyn #5891 üzenetére
mit is szokás itt ilyenkor mondani?
Bizos beszívott!
-
VinoRosso
veterán
Én meg azt hallottam, hogy a Jóska azt hallotta, hogy a Géza azt hallotta, hogy a...Mirodnek Jahodnitek azt hallotta, hogy nem is lesz semmiféle evergreen. Az egészet csak azért találta ki az ati, hogy megtévessze a fogyasztókat. Ja ...hogy nem hallottál sose a Mirodnek Jahodnitekről? Kár, mer énse. Pedig Mirodnek Jahodnitek nagyon közel áll ám az atihoz, és ha Mirodnek Jahodnitek egyszer fingik, akkor az úgy is van!
-
VinoRosso
veterán
Kíváncsi leszek amikor megjelenik a GT300, akkor mit fogtok mondani. Majd akkor talán az jön, hogy nem az a neve "csak" így hívják. Komolyan lassan már nem csak írni de még olvasni sem érdemes ezt a fórumot, annyi marhaságot összehordanak, az meg hab a tortán, hogy el is hiszi a többség. Lassan át kéne nevezni "Abu ati fan klubja" -ra.
-
VinoRosso
veterán
Én csak próbáltam hasonlóan demagóg lenni mit amilyen Te voltál, ezzel egy kis türköt tartva eléd, hogfy lásd milyen.Természetesen nem lehet 100%ig egy álláspontra hagyatkozni, legyen az bármilyen téma, bárkitől, mert a megismerés alapvetően szubjektív. Viszont az a kisarkított nézőpont, ahonnét szemlélve leírod a véleményed, totál olyan, mint amit én írtam ellenvetésként. Tehát ha az enyémet kiforgatottnak ítéled a tied is olyan...Én alapvetően a realitást próbáltam megfogni, amikor azzal hozakodtam elő, hogy a crysiss alapvetően dx9re épül, de nem igaz, hogy az xp-s very high = dx10-el. A crysisban van dx10, ráadásul egyeátalán nem olyan kevés, mint amit itt híresztelnek. Ha valamelyik dev látná amik itt elhangzottak, fogná a fejét. Az fejlesztés kezdeti fázisát is belevéve( a követelményelemzéstől számítva ) kb 1-1,5 évet dolgoztak azon, hogy a cryengine megfelelően támogassa a dx10-et, ez a fejlesztési id cirka 45-50%-át teszi ki, és maguk az eredmények sem lebecsülendők. Ha a crysis ezek alapján nem tekinthető dx10-es játéknak, akkor kb 2-3 dx10-es játék van( és 1 kézen meg fogod tudni számlni, hogy mennyi lesz még ), azok amelyek majdnem vagy egészen dx10es kódot futtatnak. Visoznt ezalapján nem lesz kb 2 évig dx11es játék sem. A vita kiindulópontja pedig ez volt, tehát hogy mennyi előny származik egy hardver gyártónak egy új technolóiából. Abban remélem egyetértünk, hogy csak annyira érdemes támogatni az újdonságokat, amennyire ezeket ki lehet használni.
Miért nincs egy videó sem a cry2 sebességéről? Mert ez a gyenge pontja. Mindenki azzal hozakodik elő, amiben erős. Ezért láttad a videókat a dx9/dx10 jözti különbségről.Dx10 módban jóval lassabb az engine, de ez más lapra tartozik, nem szól bele abba a vitába, hogy a cry2 mennyire tekinthető dx10 mocinak.(#4679) Abu85 válasza VinoRosso:
de bizony egy dologról beszélünk. Olvass vissza figyelmesen, én olyat nem írtam, hogy egyszerre használna offset bump mappingot és POM-ot a cryengine 2. Teljesen az ellenkezőjét írtam, nevezetesen azt, hogy a d3d9es renderer OBM-ot használ, a 3d10-es pedig POM-ot, ezek pedig egyszerre természetesen nem futhatnak egyazon környezetben, mivel egy játék nem lehet egyszerre dx9es és dx10-es. Amit láttál az a Sandbox2 material editorja. A shader paramétereknél van több checkbox, és ezek közt ott van a POM és az OBM is, és akár lehet egyszerre mind2 kipipálva. A használatuk eész egyszerűen úgy működik, hogy a dx9es renderer azt nézi, hogy az OBM ki van e pipálva, a dx10es pedig a POM pipát nézi.Ezen nem vesznek össze, ennyi.
-
VinoRosso
veterán
-
VinoRosso
veterán
Utánanéztem, és valóban rosszul emlékeztem, mert nem dispalcement map az, hanem sima offset bump mapping. Mind1, a lényeg, hogy nem POM. Ezt a két eljárásos dolgot nem tudom honnét veszed, talán részt vettél a fejlesztésében? Vagy megsúgták a kontaktjaid
? Még a Med1on által linkelt írásban is több shaderről beszélnek, egy shaderben meg minimum van 1 függvényhívás. Találtam egy ilyen anyagot, ebből is arra lehet következtetni, hogy jóval több dx10es kód van a cryisban, mint ahogy írod.De tegyük fel hogy igazad/igazatok van, és crysis dx10=dx9 very high. Mivel magyarázzátok azt, hogyha a dx10es renderelő fut ugynazon( Vista, Win7 ) oprendeszeren, akkor - szimpla high setting mellett is akár - konfigtól függően 5-10 fpsel lassabb a játék, mint dx9es renderelő esetén. Várjál kitalálom: a gonosz Crytek az nvidia sugallatára belefordított egy két féket a d3d10es dllbe, hogy lassabban fusson.
-
VinoRosso
veterán
Úgy látom még mindig nem vetted észre, hogy az egyik vid nem gyártói, és nagyjából ezen látszik a legjobban a küli.Én nem szeretem ha valaki demagóg módon vieslekedik, de most túl korán, vagy inkább túl későn van, hogy ezzel foglakozzak. Itt nem arról van szó, hogy jó vegyed meg. Azon az alapon mindent előre el kellene könyvelni rossznak, amit bármilyen gyártó a saját termékéről állít, készít, mert ez önfényezés, promóció stb. Ez természetesen nem így van, és az értelmesebbje nem azt nézi, hogy ki mondja a dolgokat, hanem hogy mi a tartalma annak amit mond. Néha a hülyék is ráhibázhatnak dolgokra, és az okosak is tévedhetnek már puszta statisztika alapján is. Végül véletlenül se tegyél fel Win7-et, mert a mikrofos erről is azt mondja, hogy jó, aztán a Vistáról is azt mondja hogy jó, szóval a logikádat végigvéve ez a Win7 meg dx11 is ugyanolyan szar. Így minekazneked
-
VinoRosso
veterán
Tévedés, hogy a tesszellátor a HD2000-4000-es kártyákon nem lesz kihasználva
Nem hiszem, hogy ki lesz használva, mivel a 2000-es széria már süllyesztőben van, a 3000-eséppen most megy, a 4000-est meg majd süllyeszti a 5000-es. Lesz kb 2-3 játék, ami tesszalációt fog használni, ezek még úgyahogy elfutnak majd 4850 feletti kártyákon, viszont a későbbiekhez szertintem már kevés lesz. Ezért mondtam, hogy nem lesz kihasználva.
"Megnéztem a videókat amiket belinkeltél de egytől egyig fejlesztői videók."
Ezeket találtam hirtelenbe(van sok videó youtubeon, lehet keresgélni ha akarsz), de nézd meg jobban. Egyébként a crytek dolgozóit nem nevezném komolytalannak. De még ha azok is lelnének, akkor sem azt kéne nézni, hogy kik csinálták a videót, hanem hogy mi van rajta.
"nincs jelentős különbség a DirectX 10 és a DirectX9 között."
Elég gyenge cikk. Egyrészt a képeken sokminden nem jön át. Pl a POM-os képnél a d3d9es render displacement mapot használ, csak a d3d10-es használ POM-ot. Ez persze nem látszik a képen, mert mindkettőnél ugyanaz az eltolási érték van megadva, viszont ha mozogna a megfigyelő a textúrához képest akkor érdekes dolgokat lehetne látni. Vajon miért nem tettek be videót
? A többi képről ugyanez elmodható, a sunshafts effekt egyszerűen egy vicc, nappal hátnak egy olyan helyen ahol elég ritkás a dzsungel, bár sűrű dzsungel nem feltétlen kell hozzá, mert lehet olyan beállítást is eszközülni aminél ha a kezed a nap elé tartod kilóméteres fénysugarakat lehet látni. Ráadásul semmit nem lehet tudni a TODról sem, leglább írták volna oda, hogy melyik páylán és milyen időpontban készült.
-
VinoRosso
veterán
aham...beállítod cfgből a very high értékeket, és akkor d3d10es renderer a fog futni. Amikor azt mondtam az előbb, hogy a crysis is használ GS-t, nem arra gondoltam, hogy a dx10ből csak GS-t használ.Pl van dx10 a HDR post process számításban, volumetrikus effekteknél, textúrázásnál, POMnél, víznél, de gondolom még van azokon kívül is amiket ismerek, tehát ez nem az összes. Egyébként ha jól tudom összesen 5 különböző GS van a crysisban. Ez a 98-1%-os arányt nem tudom honnét szedted, van e valami alapod, vagy talán a kisujjadból szoptad elő, hogy a 85 000 shaderből pontosan 1% dx10es 98% meg dx9es. Bár még hiányzik 1% a 100hoz
... de azt biztos elvitte a manó
. Egyébként annyi igaz, hogy a cryengine 2 dx10 port, tehát alapvetően dx9es az engine, mivel 2005 körül kezdték el fejleszteni, amikor még a dx10 sehol sem volt, 2006 végén lett hozzáadva a dx10es renderer. Viszont igazi dx10es motor nagyon kevés van, persze tudom ez is az nvidia hibája, bár nem értem, ha annyival könnyebb, és jobban kifizetődő dx10re fejleszteni, akkor miért nem lepték el a piacot a dx10es mocik. Oké, hogy az nvidia meg tud venni egy két nagy nevet, de az egész játékfejlesztő társadalmat nem tudja. Ott van pl a CoJ, ami full ati szimpatizáns játék, és mégis dx9 alapú a motor. Ők miért nem csináltak ennyi idő alatt full dx10es engine-t, ha annyira megéri
.
-
VinoRosso
veterán
Rendben akkor legközelebb a karcsú kifejezést fogom használni a buta helyett. Remélem ebben egyetértünk, hogy karcsú. Amint írtam a a CUDA egyrészt híd a GPU és GPGPU közt, illetve inkább azt kellene mondani, hogy a CUDA-val utat nyitott a GPGPU piac felé. Mivel ez két eltérő követelményrendszert támaszt, ezért 2 célfüggvény mellett kell optimalizálni, vagyis mindegyikből kell elvenni a másik kárára. Ezért nem került a g80-ba normális GS támogatás, mert a chip már így is sokat fogyasztott anank idején, és csak a magméret drasztikus növelésével tudtak volna javítani a teljesítményen. Amikor tervezték nyivlán mérelgelték, hogy legyen e benne, de a kalkulációkból az jött ki, hogy nem éri meg. Gyorsan hozzátenném hogy igazuk volt, mert évekig egy kezem meg tudtam számolni, hány játék volt amelyik GS-t használt. A g80 pedig 3 éves architektúra, egy architektúra kifutási ideje max 1 év, illetve ha a rá alapuló magokat nézzük akkor 2-3. Ésszerű megfontolások alapján pedig nem érdemes olyat beletenni egy chipbe, amit nem használnak ki, ha a magméret az egyik szűk keresztmetszet. Az ütemezőt meg nem lehet kivenni az architektúrából, mert ez a szíve lelke az egésznek, emiatt jó általános számításokban, egy agyatlan chippel elmehettek volna a sóhivatalba. Persze berakhattak volna még egy tesszallátort is, ahogy az amd tette, de ez csak hátrány lett volna. Annak idején a 2900ben is volt már, és meg lehet nézni hol van a 2900-es széria most. A 3800assal szinén nincs kihasználva, sőt még a 4800assal sem lesz, r800-al már remélhetőleg igen, tehát 2,5-3 generáción keresztül a felhasználók szemszögéből a semmiért tették bele( a fejlesztőknek persze sok tapasztalatot jelent, de erre elég lett volna egy prototípus ). Dx10.1 támogatással detto ez a helyzet, bár a személyes véleményem az, hogy jó lett volna, ha jön egy jó dx10.1es chip, de úgy látszik nekik még így is jobban megéri, ha elhagyják a támogatását. Valószínűleg túl sokba került volna az architektúra átalakítása, és ha már ennyit rááldoznak akkor inkább megvárják a dx11-es reformokat, mert avval 2 legyet ütnek egy csapásra. Nem túl felhasználóbarát, de hatékony. A GS egyébként nem egyenlő a DX10-el, sőt még nem is ezt nevezném a legnagyobb újításnak. Itt "valamiért" azt akarják beletömni a fejekbe, hogy DX10 = gemoetry shader. A dx10 legnagyobb újítása D3D szempontból szvsz a Unified Shader Model és az SM4.0 volt, mivel ez biztosít megfelelő kihasználtságot az architektúráknak eltérő terhelés esetén, valamint több lehetőséget adott az SM3hoz képest. A GS egy szimpla toldás a pipehoz,egy egyszerű feature( mint pl a texture arrays vagy a stream out) amit ráadásul aránytalanul keveset használnak. Egyébként bármilyen meglepő a Crysis is használ GS. Ez is egy urban legend, hogy a Crysis dx9=dx10, nem tudom honnét jön, talán mert xp alatt lehet unlockolni a very high featureöket. A képet persze már nem nézi senki, csak azt veszik észre hogy nem változott semmi, és hogy fú mekkora átverés a dx10-es crysis. Holott van különbség ( [link] [link] [link] ), csak nem Xp-től kéne elvárni a dx10 támogatást.
-
VinoRosso
veterán
A CUDA memóriamodellje teljesen a G80-ra van optimalizálva.
Ez ebben a formában nem igaz, mivel azt sugallja, hogy a G80at készítették először, és erre szabták rá a CUDA-t. Az igaz, hogy memóriamodell optimum g80ra, de fordítva is igaz, teáht a G80 optimum a CUDA-ra. Mégsem lehet azt mondani, hogy G80 architektúrális sajátosságai határozták meg a CUDA felépítését, hanem mind a G80 architektúrát és a CUDA-t együtt tervezték, egy specifikus céllal, és ez a követelmény határozta meg mind a G80 mint architektúra, mind a CUDA 1.0 mint platform felépítését. Ha egészen pontos akarok lenni, akkor a CUDA-val kapcsolatban a Tesla-ról kellene beszélni, mivel a CUDA fejlesztését ezzel hangolták össze.
(#4656) Med1on :
Ez nem elfogultság hanem tény. Az ATI jelenlegi chipjei kevesebet tudnak az NV chipjeinél ahhoz, hogy jól domborítsanak általános számításban. Igaz amennyivel kevesebbet tudnak, annyival jobbak specifikus alkalmazásokban, pl grafikában. A kettőt nem lehet egyszerre, vagy ha lehet is( a G80 elég jónak számított a maga idjében dx9-dx10ben, és GPGPU ként is a maximumot hozta ), nem fél éves fejlesztési idő, mire egy ilyen chipet elkészítenek. Igaz utána évekig megélnek belőle.
-
VinoRosso
veterán
Az NV a CUDA rendszert a saját GPU-ira optimalizálja
Bár már elegem van a folytonos vitákból, de azért itt közbe kell szólnom. Sosem GPUra optimalizálnak, sem semmiylen hardverre, ez abszurd. Van egy célfüggvény, konkrétan az,hogy hídat képezzenek a GPGPU és a GPU közt, és ez független mindféle hardvertől/szoftvertől. Ez még a tervezés előtt megjelenik követelményként, és mindent ennek rendelnek alá. Erre készül a hardver és a szoftver környezet is, vagyis nem a CUDA-t optimalizálja a GPUra, sem a GPU-t a CUDA-ra, hanem az egész plattform egy célfüggvény alá van rendelve, és erre készülnek a GPU-k és a CUDA is. Amit mondasz az olyan mintha valaki elmenne a szabóhoz, és nem a ruhát, hanem saját magát szabatná a ruhára, nem a ruhát magára. Az én véleményem - bár tudom, hogy ez nagyjából senkit nem érdekel, de azért leírom, hátha valaki vezi a fáradtságot - teljesen ellentétes a tieddel a CUDA-val kapcsolatban.Még ha be is jönnek a jóslataid, akkor sem értem miért kell temetni a CUDA-t. Ha el is tűnik a GPU szegmensből, attól még GPGPU-ban egyeduralkodó marad. De szerintem egyik helyről sem fog eltűnni, sőt mégnagyobb teret nyer. A most bemutatkozó CS & OCL kb olyan képességekkel jön, amit a CUDA már évek óta tud. Ez arra enged következtetni, hogy ennyivel előttük is jár. A konkurrens apikat használó alkalmazásokról szinte semmit sem tudni( mivel nem nagyon vannak ) ellenben azt tudni lehet hogy a CUDA-s cuccok nagyon jó hatékonysággal futnak, egyszerű a fejlesztésük( ez nagyon fontos a SW fejlesztések költsége szemppontjából ), széles tudásbázissal rendelkzik ( több egyetemen is oktatják, rengeteg tapsztalat felhalmozódott az évek során másik oldalon itt pár demon és példaprogramon kívül sokminden nincsen) , és nem csak emiatt egyszerű elsajátítani. Hátrányt a CUDA a versenytársai gazdasági fölánye miatt szenved, el akarják nyomni( illetve lopni ), mivel tudják, ha nem teszik, nagyon gyorsan elterjed és a fejükre nőhet. Emiatt alacsony a hardver támogatottsága, de ha megfelelő előnyre tesz szert, pl egy kijön egy új verzió, ami többet tud mint a konkurrens plattformok, és sokkal gyorsabb és oclsóbb is egyben, akkor az utóbbi még az NV előnyére is válhat, mert ennek egyenes következménye, hogy emiatt jelentősen nőni fognak az eladásaik. Ez utóbbira egészen jó esély van, mivel minden egyes GPU generációval frissült valamit a CUDA, és most nagyobb változás van kilátásban a a DX11 miatt. Valószínűleg az új dx11es GPUval új CUDA is jön, és ha a versenytársak a jelenlegi CUDAval akár egyenlő számítási teljesítményű plattformot csinálnak( ez nem valószínű, mert ehhez még ha meg is lesza jó api, hardver is kéne, azt meg kétlem hogy az ATI a buta chipjeivel általános számításokban fel tudná venni a kesztyűt ), a CUDA már egy lépéssel előttük lesz. Az átlag felhasználókat pedig nem fogják befolyásolni ennek a versenynek a kimenetelét, mivel ők grafikára vesznek kártyát, és itt az fog dönteni, hogy melyik jobb dx11ben. Ez a csata ott fog eldőlni ahova kell a számítási teljesítmény, ott ahol meg nem egy két VGA-t vesznek, hanem 50 - 100 karesz fortyog egy klaszterben, és itt már rohatul számítani fog, hogy mennyit kell perkálni a gépidőért, mennyi bugot kell kigyomlálni a fejlesztés során, mennyibe kerül betanulnia a fejlesztőknek, hány és miylen kvalitású ember közül lehet választani, menyi ideig tart a fejlesztés, stb.. egyszóval itt már más jellegű gazdasági megfontolások vanak, mint hogy hány fps-el fut a legújabb játék. Ezekben a CUDA mind jó. Nem tudom, hogy pl az OCL milyen lesz, de szerintem csak akkor fog sikert aratni, ha azon kívül, hogy plattformfüggetlen, fel tud még valamit mutatni a CUDA-val szemben. Ha semmit nem mutat fel, akkor nem hiszem, hogy sok vizet fog zavarni GPGPU szegmenben. A grafika az más káposzta, bár az is megérne egy misét.
-
VinoRosso
veterán
na ja nem egy gamer ismerősöm van, akinek nem mindegy, hogy milyen egérel tolja a cs-t, mert a szarabb egereknek nagy a késleltetése( pár 100 ms-el több mint a gamer egereké )
kipróbáltam az oldalt, ez jött össze:
Nem tom, hogy ez most jó e? Azt írja h átlagos, pedig ez 300 ms alatt van, milyen lehet akkor a gepárd kategória
-
VinoRosso
veterán
Na így már világosabb kicsit, mert bennem még az a kép élt a tesszalálásról, hogy a GPU előtt folyik a procinb. és gondoltam így tolják majd be a GPUba az input assembler után, de ez elég jónak hangzik, hogy a vertex shader utánra kerül. Mondjuk még mindig ott van a többi fázis, de ha már nem kell vertexekkel foglakozni, akkor az negyedével felével csökkentheti a GPU loadot, és a memó használat is 10-20%al csökkenhet minimum. Viszont így nem tudom, hogy mi értelme marad a geometry shadernek?
-
VinoRosso
veterán
Hogyan lesz low poly modell a memóban? Mondjuk én nem vágom a tesszaláló eljárások lelkivilágát megmondom őszintén, de ha a mosani pipeline-t veszem alapul, akkor ott a meshel nem csak a pipe elején dolgoznak, hanem folymatosan használatban vannak. Addig oké, hogy csak a low poly modellek terhelik az operatív tárat, de valahgoy el kell érni az összes vertex adatot hogy lehessen világítani meg transzformálni őket, meg a textúra koordináták leképezéséhez sem árt, ha tudjuk mire van felfeszítve a textúra. Ezeket az adatokat kizárólag regiszterekben tárolni elég vicces lenne egy olyan képnél amit azon a bemutatón csináltak, bemegy egy 10 megás mesh és kijön egy kb 100x nagyobb felbontású, és közbe még ramot se használtunk
az új chip kódneve meg Uri Geller vs David Copperfield lesz.
-
VinoRosso
veterán
A sima tesszalációnál szerintem lesznek memória problémák, legalábbis ahogy néztem azt a képet, volt rajta pár százezer poly. Nem tudom, hogy mire akarják azt lfehasználbni, mert alapvetően a POM nem terrain displacementre készül, hanem egy kis felület anyagtulajdnoságainak a részletezésére. Egy kavicsos textúra helyettesítésére mint ami a képen van ez elképzelhetetlen, több tímillió polygont jelentene egy jelenetben ezt semmi nem bírja rammal, még ha csak wireframbe megy a render akkor se. Az adaptívnál látható, hogy drasztikusan csökkent a poligonszám, de itt mibe kerülhet az, hogy megtalálja a rendszer, hogy melyik élet ddobja el, és melyiket hagyja meg? Meg egyátalán hogy épül fel? Mert ha úgy csinálják, hogy egy teljes gráfból indulnak ki az sok ramot is zabál, esetleg még lassú is lehet, ha sok élet kell elhagyni. Ha meg az alap meshből indulnak ki, az lehet a gond, ha túl finom háló kell. Bár nyilván ha jól van megírva rá a progi, akkor el tudja dönteni, hogy melyik vezethet az optimumhoz. Aztán még ott van az is amit mondasz, hogy ezt még be kell világítani, textúrázni, pff...nem egyszerű dolgok ezek. Egy pár évbe bele fog telni szerintem, mire normális vas lesz dx11 alá, ami ki is tudja használni a pipeline-t teljes egészében.
-
VinoRosso
veterán
hát a sima tesszalációs kép elég durván néz ki. Kiváncsi vagyok, hogy ez mennyire futhat gyorsan, illetve hogy mennyi memó kell egy ilyenhez. Az adaptív már jobb képet mutat, de ott meg az a kérdéses, hogy mennyire számításigényes az algoritmus. Kiváncsian várom, hogy milyen erőforrásigényű cuccok lesznek ezek.
-
VinoRosso
veterán
válasz
Bluegene #4322 üzenetére
Persze de a festménynél nem az a lényeg, hogy teljesen élethű legyen, mint ahogy egy regénynél sem követelmény, hogy a Szomszédok mintájára készüljön.Vagy pl egy southparkot is lehetne említeni, ami jobb példa. De itt egyátalán nem a grafikán van a hangsúly. Lehetne csinálni egy southpark játékot full 3d-ben is, de igazából nem éri meg, mert flashben sokkal jobban nézne ki, és bőven elég hozzá. Olyan koncepciókat mint a crysis, stalker, bioshock, nem lehet flashben megcsinálni, mert a kutyát nem érdekelné. Viszont ha holnap bejelentené valamelyik, hogy real time global illuminationnel jön ki az új motor, ami elfogadható sebeséggel futtatja a játékot, akkor garantáltan az eladási listák elején végezne. Az élethűséget természetesen ez jelenti( megjelenítés, fizika ), nem az hogy Taki bácsi mellé ülsz be az 1200es ladába. Lehet matrixot, terminátort, transformest is csinálni, de ez már nem grafika domain, hanem strory.
-
VinoRosso
veterán
A forma nem helyettesíti a tartalmat, önmagában grafikailag egy játék hiába néz ki jól, ha üres. Viszont ha valami jó, akkor a grafika ki tudja hangsúlyozni, illetve el tudja fedni a kevésbé jó részeket. Pont úgy mint egy nőnél, pl meglátsz egy jó buxát valahol az utcán, és nincs kisminekve kiöltözve, azt mond mmm jól néz ki, megdugnám, stb.. de különösebben nem hoz lázba, aztán megnézed sminkkel, napbarnítottan, egy falat párducmintás szoknyában, és elkiáltod magad hogy oioióóóó, majd a hónod alá csapod, és a legközelebbi liánra pattanva beszánkázol vele a barlanba. A jó dizájn megmozgatja a fantáziád, de kockafejű, pixeles karakterekkel, buta fizikával nehéz megragadni az emberek figyelmét.
-
VinoRosso
veterán
nem hiszem hogy a legmenőbb, csak relatíve jól fogy abban a szegmensben. Az összképet tekintve marginális mennyiség fogy belőle, ha jól emlékszem. Egyébként PS-nál, illetve pár CUDA-s alkalmazásnál jól jön a +512, aki erre vesz VGA-t annak ez tökéltes( bár úk is nagyon kevesen vannak ) játékra meg teljesen alkalmatlan, illetve a 9500GT még valamennyire,
-
VinoRosso
veterán
Szerintem jóaz. Akinek nem akar nagy felbontásban vagy magas AA-val játszani, annak elég a 4730. Minek fizessen olyanért, amit nem használ ki? A gyártók alapvetően nem úgy gondolkodnak, hogy itt van ez a káryta, rakjuk be valami jó köntösbe, aztán basszuk át vele a népet. Természetesen van ilyen is, de ez nem szignifikáns az eladási statisztikákra nézve.Kevesen fognak megvenni egy 1GB-os 9300 GT-t azért mert 1GB ram van rajta, inkább azért mert arra van pénzük. Akik az átbaszásra szoktak törekedni azok a kiskereskedők, de ők többnyire annyira suttyók, hogy magukat basszák át. Leginkább pl olyanokkal trükköznek, amihez nem kell ész, egyszerűen azt mondják, hogy user error miatt halott a termék, és emiatt ugrott a gari. A vevő felelőssége mindig megnézni, hogy mit vesz meg és kitől, pl senki nem fog sajnálni egy olyan emebrt, aki bemegy egy ruhaboltba, és túl nagy van túl kicsi ruhát vesz meg magának, mert lusta felpróbálni, és egyszerűen rábök egyre, amelyik szimpatikus neki. Az hogy nézne már ki, hogy bemész egy cipőboltba, aztán nem 27-52ig vannak a cipők, hanem van 3 féle méret 2 kínai márkából( mert az a legjobb ár/érték arányban), gyerek, kamasz, felnőtt, meg yeti, aztán az emberek 99%-nak a vagy szűk vagy tág lenne a méret. Az a jó, hogy pont a lábadra lehet szabni. Nekem pl 42 & 1/2-es lábam van, és esélytelen olyan márkából választanom cipőt, amiből csak 42 - 43 van.
(#4238) schwartz : Nem így értettem. Ha mondjuk ps4 = 2x rv740 + 2x 2GB ram + 2x Cell mag, akkor 5 évig megint nem kell hozzányúlni.
-
VinoRosso
veterán
Mér? Me nem vagy elég kreatív. Minél több választásod van, annál tágabbak a lehetőségeid. SZerintem ez nekünk csak jó. A mostani gépemet nem mondom meg hogy mennyiből állítottam össze, mert megköveznének, de bőven nem takarja be a 100k-t, és 1650x1050ben fut minden szépen. Ha csak 1-2 gyártó lett volna akkor 0 verseny és b.szahattam volna...
-
VinoRosso
veterán
válasz
VaniliásRönk #4187 üzenetére
igen hogy több magot bele lehessen pumpálni. 32 az édeskevés.
-
-
VinoRosso
veterán
válasz
schwartz #4178 üzenetére
Miért érdekesek ezek? Én popntosan ilyen specifikációkra számítok. Talán az órajelek nem lesznek ilyen magasak, bár a 40 nm miatt ez is simán bennevan.
(#4160) Abu85: Dx9ben elég jó a G80as is, egyetalán nem fossa össze magát. Amikor tervezték erre építették az architektúrát, és ebben ki is használja a képeségeit. Az rv670/r700 meg dx10.1re készült, grafikai szempontból ennyi a kettő közt a különbség. Attól még, hogy többet tud egy chip, nem feltétlenül lesz gyenge grafikában, ez nem egyenes következmény, egyetlen hátulütője, hogy a lebutított chipek karcsúbbak, így olcsóbb őket gyártani. Vagy ha a dx9 nem grafika akkor elfogadható az érvelésed, bár ha nem az akkor nem tudom hogy mi
Túró vagy tejfel biztos
(#4181) Bici: Van ahol nem az számít, hogy mennyire széles körben támogatott a technológia, hanem hogy mekkora teljesítményre képes. Az egész CUDA meg erre van specializálva, sőt az architektúra is ere van kiélezve. Ha kihoznak hozzá egy disznó magot, akkor a gyalogkaukk rakétával a seggében se fogja utolérni és senkit nem fog érdekelni, hogy milyen a támogatottság, mikor a fejlesztési/tanulási kötlségek alacsonyak, és 1,5-2x gyorsabb ugyanaz a számítás.
-
VinoRosso
veterán
válasz
T.Peter #4151 üzenetére
A butábbat úgy értsd, hogy kevés vagy csak 1 dologban jó. Ettől még lehet, hogy abban az egy dologban van olyan gyors, hogy kompenzálja a hiányosságait,de ettől még buta marad. Pl mondjuk ha csak összeadni tudsz, szorozni, gyököt vonni, négyzetre emelni, logaritmust számolni nem, akkor elmondható hogy buta vagy ahhoz képest aki ezeket mind tudja. Ettől még összadhatsz olyan k.rva gyorsan, hogy előbb megvan az eredmény, mint annak aki egy művelettel szoroz. Pl van egy Xenon vagy egy Cell amik viszonylag butának mondhatók egy C2Dhez képest, a C2D újabb is, többet is tud, aztán a másik kettő még így is a p.csájára ver ha lebegőpontos számításokról van szó. A fejlettség meg relatív mérce, mihez képest fejlett? Ha általános számításokat nézünk egy G80as chip fejltettebb az r700nál. Ha grafikát akkormeg nem.
(#4145) Bluegene: Ki mondta hogy a dx10.1hez komplex chip kell? Lehet teljesen suta dx10.1es GPU-t gyártani, sőt az AMD pontosan ezt teszi.
-
VinoRosso
veterán
válasz
VaniliásRönk #4103 üzenetére
Soha sem voltam szemüveges, zöld meg pláne nem. Szerintem nem kell szemüveget horadni ahhoz, hogy kérdőre vonj valakit, aki hasraütésre benyög valamit.
-
VinoRosso
veterán
válasz
VaniliásRönk #4100 üzenetére
ha nem tudod akkor miért mondod?
-
VinoRosso
veterán
válasz
VaniliásRönk #4098 üzenetére
miért, mennyit kap egy gtx295ös mag és egy gtx 285?
-
VinoRosso
veterán
Ugyanazt a tesztet futtattát gondolom. De akkor én is linkelek egy házon belüli másik tesztet:
Ha másban nem is, de abban ezalapján talán egyetérthetünk, hogy a GTX dupla nyákos 295 kevesebbet fogyaszt a szóló nyákos 4870X2-nél. Ha a GTX 285 ezután többet fogyasztana a 4870nél, akkor elég érdekes magyarázatot kéne találni arra, hogy mitől fogyaszt többet a 4870 nála, ergo a GTX295 két nyákkal egy GT285 sli.
(#4091) schwartz: Nem ezzel van a gond, mert az ATI architektúrának nicns szüksége global meg local schedulerekre, mint az nvnek, mert sokkal butább chip. A gond azzal van amit írtma, hogy a 3000 sp az cikra 2db 4870 x2 egy chipben. Kb annyi lenne a történet, hogy lejön a gyártósorról az első darab, és rádugják a tápra, ami után már csak egy nagy pukkot hallani. Gondold meg mennyit energiát vesz fel egy 4870 CFX és képzled el azt egy chipnyi terülteten. Ez a probléma.
-
VinoRosso
veterán
válasz
Bluegene #4087 üzenetére
nem azért mondtam, mintha olyan sokat számítana, csak érzékeltetés képen, hogy az atinál fele akkora a chip, és nagyobb az áramfelvétel. Csupán indoklás volt arra, hogy miért elképzelhetetlen az ATI számára ezel az architektúrával a nagy magméret. Váltás pedig nem lesz az r800-al ez is holt fix.
-
VinoRosso
veterán
pl hirtelen ez [link]
Többet nem linekelek, mert úgyis az jön majd, hogy meghamisították a teszteredményt(nem is jöhetne más), de mikor kijött a 4890 kb. 7-8 tesztet néztem és mindegyikben jobb volt a GTX 285 és a 4890 annyit zabált mint egy GTX280. A GTX285 egyébként még a 4870nél is kevesebbet fogyaszt, anno pont ezzel dobott nagyot az nv, csak erről hajlamosak itt egyesek megfeledkezni. Ráadásul idle még a GTX280 is kevesebbet fogyaszt a 4870nél, holott semilyen szempontból nincs egy súlycsoportban a két kártya.
(#4085) Bluegene : ezért nem rohant az nv gyártástechnológiában.Azért van annyi eszük, hogy nem a legnagyobb chipet kezdik el először gyártani, hanem a kicsikkel kezdik. Ez alap mind2 gyártónál. Ha majd bejáratódik a technológia mehetnek a nagyok is. Ezért nem volt 4890 sem 40nm-en. Majd lesz, de csak ősszel szerintem, sőt abból talán még egy x2-esre is futhatja, ha okosak.
-
VinoRosso
veterán
válasz
Bluegene #4069 üzenetére
csak egy dolgot felejtesz ki a számításból, hogy nem véletlen az alacsony magméret az atinál, hanem azért mert nem akarnak és nem tudnak nagyobbat gyártani.
1: nem éri meg, többe kerül és több a selejt, így kevesebb a haszon
az ati egyedül ár/telejsítményben tud az NV fölé nőni, ez a stratégiájuk, a magméret növelésével ez romlana
2: nem csak a mérete, hanem a fogyasztása is óriási lenne, egy 4890 annyit fogyaszt, mint egy GTX280, a GTX285 azonos csíkszélességen, nagyobb magmérettel, kevesebbet fogyaszt, kevésbé melegszik
3: valószínűleg létezett 1200 sp-os prototípusa a 4890-nek, de szerintem nem tudták, vagy nem érte meg nekik legyátani se 40 nm-en, se 55nmen. Az a tény, hogy inkább belenyúltak az rv770be, azt engedi sejtetni, hogy annak az architektúrának 55 nmen ott van a vége.r800 is szerintem kb 1200 sp-t fog tartalmazni, de azt is fokozatosan érik majd el, először jön egy 800 sp-os kártya 40 nm-en magas órajellel, aztán egy 1200-as, és talán majd a vége fele lehet kijön egy 1600-as, de lehehet hogy ezt már nem fogják tudni kivitelezni 45 nmen. A 3000-es SP számot ezek tükrében kizártnak tartzom, de csak azért nem 0 eséllyel, mert mindig fennt szoktam tartani a tévedés jogát, de jelen esetben ez annyira alacsony, hogy már szinte 0nak tekinthető.
-
-
VinoRosso
veterán
válasz
Dare2Live #4004 üzenetére
Azért ez erős csúsztatás, mert a CPU mag nem egyenlő a SP-al. Egy proci mag magával a GPUval vagy inkább az SP tömbök halmazával lenne összehasonlítható, mivel architektúrális szempontból a SP-ok a CPU magban lévő végrehajtó egységeknek felelnek meg. De ezt így összehasonlítani olyan mint összehaosnlítani egy zsiráfot egy bánlával. Amiért az SP-k funkcionálisan procinak tekinthetők az kizárólag az, hogy a GPU és CPU architektúra teljesen eltér egymástól a granuláltságot tekintve. A CPU sokkal finomabb szemcsézettségű, maga a mag ILP, a GPU meg adatpárhuzamos, vagy masszívan párhuzamos, és sokkal közelebb van a TLP szinthez, sőt a G80< tulképp az is. Ha egy procival szeretnénk összesonlítani eg GPU-t, akkor modnjuk majd jövőre megtehetnénk, ha már lesz Larabbee, ott majd tényleg meg lehetne mérni, hogy mennyire lesz húzható mondjuk 1 45 nm-es Tualatin mag, és egy 32 magos larabee chip. Szerintem 1 standalone mag olyan 4-5Ghz környéke lenne, larabee meg max 1-2 ghz.
Egy chip órejelei kb a következő dolgoktól függnek
- csíkszélesség
- gyártástechnológiai sajátosságok ( milyen szubsztrátumot, dielektriukumot, használnak stb)
- struktúrális felépítés ( ennek van talán a legksisebb beleszólása )
- inegráltsági fok( hány tranyó van )Minden valamire való OC-er tudja, hogy ugyanaz a chip alacsonyabb csíkszélességen nagyobb órajelekre képes, és ugyanazon csíkzéleségen több a mag kevésbé húzható. Ez tök 1x összefüggésekből következik, több tranyó nagyobb áramot vesz fel, nagyobb áramfelvételt több termikus zajt generál, ezt mind proci mind pwm oldalon nehezebb kordában tartani, arról nem is beszélve, hogy minél nagyobb a magméret, annál kevésébé elhanyagolhatóak a jelterjedés fizikai tulajdonságai, annál nagyobb benne a nemlinearitás, és ha valahol egy kis homokszem kerül a gépezetbe, minél tovább hánykolódik anál nagyobb lavinát indíthat magával, ez megugrasztja a költségeket is, nagy magméret kevés tiszta chip, nagy selejtarány stb stb stb...
Yonah meg Prescott meg megint csak nem egy súlycsoport a GPUval, legalábbis amennyire én tudom ezek 100-200 millió tranyós magok, ez a milliárdhoz képest szvsz bolhafing
-
VinoRosso
veterán
Minden hwre egy kicsit másképpen tweakel engine fog kijönni, a konzol kicsit jobban előtérbe fogja helyezni a fizikát, míg pc-n inkább a grafikai látványon lesz a hangsúly, a munka nagy része (gondolom) itt optimalizálás lesz, a cry2re simán lehet építeni még jó pár évig (jelenleg sincs teljesen kihasználva amit az engine tud), magyarul a cry3 = welldone(cry2) + some_new_features(?%)
-
VinoRosso
veterán
válasz
Dare2Live #3976 üzenetére
Igen mert 4 mag, osszd el 4-el és megkapod h 500. Mondjuk ez se kevés kb 2xese az Itaniumnak, és kb egy g80/r600 szint, de közel sem akkora, mint egy rv770/GT200. De szerinted nincs összefüggés a tranyószám és a Mhz-ek közt
?
(#3972) Bluegene: Át de ennyi spvel szerintem nem, úgy meg nem érné meg nekik, ha csökkenteni kellene az sp számot, és nem is nem erre épül az architektúra, ahhoz hogy hatékony legyen át kéne varrni az egészet.
-
VinoRosso
veterán
válasz
Dare2Live #3967 üzenetére
Mennyi? 200 Millió. GT200 mennyi? 1,4 Milliárd...csak a 7x-ese. Azért szerintem ez kicsit nagyobb integráltsági fokkal bír, de lehet h tévdek. Az Nvidiánál évek óta 1000 felett van a shader domain, igazából a back end nem bírja a húzást egyik oldalon se, meg ez még nem is fogja jó darabig. Ha így lenne már régóta 2 Ghzes GPU-k futkosnának, mivel ezen a területen órajelnöveléssel lehet a legolcsóbban + fps-eket hozni.
-
VinoRosso
veterán
szinte bármelyik modolható gammából lehet vramzabálót csinálni. Crysis alapvetően nem eszik sokat ebben a felbontásban képjavítók nélkül, de ha felteszel egy 4096x4096os textúra pakkot nagyon hama becummantja még az 1GB-ot is. Ugyanígy lehet csinálni a CSból is spórolós verziót, ha a SoC textúráit használod, a kérdés úgy helyes, hogy a fejlesztők ill a felhasználók mit akarnak kihozni egy játékból. Szvsz jól néznek ki a nagy felbontású textúrák, csak hát nem nagyon van van még hozzá, vagy nagyon drágán.
-
VinoRosso
veterán
marhaság, a szorzó nem befolyásolja a ram működését, sem a strap. 1066 mhzen mindenképp megy, akár 1:2 akár 3:4, akár 4:5 akár arkámi a szorzó, mert a ram oldaláról ugyanúgy 1066 MHz az órajel, a ram abból semmit nem "lát", hogy miként van felszorozva neki az 1066. Amivel gond lehet az az NB, ez szokás szerint ézékeny lehet stapre és szorzóra egyaránt.
-
VinoRosso
veterán
miért nem rivával méred? Az szerintem sokkal jobb cucc mint a fraps. PL lehet állítani a mintavételezési frekin, meg tud grafikonokat is rajzolni log alapján és lehet vele párhuzamosan mérni n+1 más dolgot is, így ha egymásra vetíted a grafotkat szemre látni mennyire korrelálnak. Ha 32 bites az OS, akkor simán lehetett 100% a ramkihasználtság, ha GBra van fixálva a user módú mem. Proci szintén, ha nem megonként leed a terhelést, hanem kumulált kihasználtságot nézel, akkor egy mat 25%al jelenik meg. Konkrétan nem vágom, hogy hány polyból van egy autó ( v akár ház/egyéb pályaelem a játékban ), de általában ezek a modellek nem rendelkeznek annyira magas poligonszámmal, mert viszonylag szabályos formákból állnak. Ami cinkes ilyen szempontból az a szabálytalan formák, pl karaktermodellek, arc főleg, fák, vagy valami olyan részletes felület( dombormű ), ahol a felületi érdesség meghaladja azt a mértéket, ahol még bump mappel le lehet tudni a dolgot. Meg ha Alapvetően se hiszem, hogy a nagy poly count mert akor fps-ekben is tipikus jelenség lenne ez ( pl cyrsis ), inkább az a gondja, hogy valamiért nagyon gyorsan kell cserélgetnie a procinak front enden az adatokat. Mivel csak grafikailag vertexekkel dolgozik, másra nem tudok gondolni, mithogy a jelenet baromi sűrűn változik. Kiváncsi lennék arra, hogy puszután FSB húzással, ramot kissebb szorzóra véve javul e az FSP, és ha igen mennyit, mert elképzelhető, hogy nem is a ram, hanem az északi híd a szűk keresztmetszet.
-
VinoRosso
veterán
naneee... El nem tudom képzelni mire kell neki a sávszélesség. %-ot( CPU/RAM) nézted? Hány gigával? Pontosan mi történt mérés közben? Volt pár versenyző is, vagy magad mentél csak. Nem értek az autós játékokhoz, csak egyszer játszottam a griddel, és asszem van benne valami drift vagy draft
amikor időre kell menni, és nem tolnak ki hátulról a pályáról a mocsok vetélytársak. Meg kéne mérni úgy ha magad mész csak, meg ha vannak még a pályán rajtad kívül is. Ha csak az utóbbi esetben fordul elő ez, akkor AI, ami talán az ütközésdetektálás miatt kritikus a sávszélességre nézve, bár ekkor nem tudom hogy ennyire nem tudtak vagy nem figyeltek rá, mert ez így nagyon visszafogja akkor, és nincs meg a balansz, vagy ha mindig előferdül akkor fizika, és ott már lehet bármi, de itt is az ütközésdetektálásra tippelnék, legalábbis gyorsulás, erők számítása annyira nem lehet veszélyes normál vezetésnél ( akkor más autósjátékban is előjönne, és erről most hallok először) töréstesznél lehetne megint, de ott csak tüskéknek kéne lenni akkor és droppolna akkor, nem pedig konstans 90 fpsel menne. Ha nagyon részletes a geometria és nem vagy gyengén használnak fizikai proxikat, akkor előforulhat ez, mert a nagy vezetési sebesség miatt relaítve gyosran kell rendelkezésre álljanak a procinak az adatok...próbld ki, hogy lassan mész vagy megállsz
Aktív témák
Hirdetés
- S.T.A.L.K.E.R. 2: Heart of Chornobyl
- Xbox Series X|S
- TCL LCD és LED TV-k
- exHWSW - Értünk mindenhez IS
- Lakáshitel, lakásvásárlás
- MOBILTELEFON / TARTOZÉK / OKOSÓRA / OKOS KIEGÉSZÍTŐ beárazás
- A fociról könnyedén, egy baráti társaságban
- Változó design, tekerhető lünetta: megjött a Galaxy Watch8 és a Classic
- Egérpad topik
- Luck Dragon: Asszociációs játék. :)
- További aktív témák...
- BESZÁMÍTÁS! 1TB Corsair MP700 NVMe SSD meghajtó garanciával hibátlan működéssel
- LG 40WP95XP-W - 40" NANO IPS - 5120x2160 5K - 72Hz 5ms - TB 4.0 - HDR - AMD FreeSync
- Honor 400 lite 256GB, Kártyafüggetlen, 1 Év Garanciával
- BESZÁMÍTÁS! Sony PlayStation4 PRO 1TB fekete konzol extra játékokkal garanciával hibátlan működéssel
- Xiaomi Redmi 12 Pro 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest