- Realme GT 2 - aláírjuk
- Xiaomi 15 - kicsi telefon nagy energiával
- Google Pixel topik
- Kis telefon hatalmas teleppel
- Honor 200 Pro - mobilportré
- Bemutatkozott a Poco X7 és X7 Pro
- Xiaomi 15 Ultra - kamera, telefon
- Xiaomi 14 Ultra - Leica hercegnő
- Samsung Galaxy Watch7 - kötelező kör
- Samsung Galaxy Watch Active 2 - láthatatlan gyűrű
Aktív témák
-
janos666
nagyúr
A nextgen GPU topiclátogatók a GPU gyártás, és grafikus APIk rejtelmei mellett még inkább alaposan kitanulják a hamis eredmények gyártását, az egyértelműen kamu, a valódinak tűnő, de hamis, és a valódi, de kamunak tűnő, és az igazi eredmények szétválasztását. Sokaknak hasznos lehet ez még az élet számos területén.
-
janos666
nagyúr
válasz
#72042496 #8408 üzenetére
1: Többnyire nem fér be a sporttáskámba a dobozuk, márpedig még a parkolóig sem akarom kézben vinni. ("meee' nekem 'ciki' mesefigurás VGA dobozzal lavírozni azuccán" - Mert arról is ők tehetnek, mikor rózsaszín kislányos, meg HarryPottertől is bénább varázslós a díszítés...
) És akkor még mi van ha busszal jöttem...
2: Nekem nem kell semmi más, csak egy zacsis VGA, és az esetleges átalakító kábelek/csatlakozók. Jó, ha van mellette driver CD, ami már a 0. napon elavult, mire hazaérek vele, de elfér. Viszont nem kell nekem semmi bundle, olyan régi játékok, amikkel eszemben sincs játszani, vagy ha volt, akkor már jó valószínűséggel rég végigtoltam, mire kibontom a VGA-t. Még a PowerDVD licenseket is unom, mert van már itthon vagy 8 kulcsom minden Cyberlink szarhoz. Nekem ne építsék be ezeket az árba, majd megveszem, ha akarom.
3: Az ár... Gondolom a bőséges bundle (bár tudom hogy csak részben, és inkább a puszta márkanév) miatt drágább, mint egyes gyártók, akik értelmesen tudják forgalomba hozni ugyan azt az átcímkézett kártyát.
Régen még ajánlgatták a jó garanciaszervizük miatt, de mikor egyszer igénybe kellett vennem, nem volt gyorsabb, mint mondjuk az MSI-é, amiről meg azt mondják, hogy szar. (bár MSI-t sem szivesen veszek)A kedvencem a Gainward, közel annyiért adják a GoldenSamplet, mint az ASUS a simát (vagy félúton a sima és ASUS TOP közt), és eddigi tapasztalataim alapján ők tényleg leválogatják a tuningos kártyákat a GS-ekhez, mert tényleg mennek, mint a fene. Persze nincs sok bundle, de VGA-t akarok venni, méghozzá minél jobbat, minél jobb ár/értékben...
AMD-nél pedig a Sapphire szokott észnél lenni, vagy a HIS legalább próbál rendes hűtőket csinálni az elbaszott referencia helyett. (csak mire kiadják, én már inkább elfelé adom azt a kártyát, aminek kijönnek az IceQ verziójával)
Bár a Sapphire kimondottan ocsmány grafikákat tesz a dobozra és a hűtőre, de a kártyát nem látom, még a gépházamat se, a doboz meg megy a padlásra. Gainwardnál láttam eddig a leg bejövősebb műnőt is a dobozon. (8800GTS). -
janos666
nagyúr
válasz
Tommmmka #8404 üzenetére
Nekem nem holnap derül ki, most nem álltam sorba értük, nekem ASUS nem kell, megvárom a Sapphire-t vagy esetleg HIS-t (ami min plusz 1 hét).
Márpedig akkor derül ki igazán a valóság, ha otthon berakod, és megnézed a te gépedben mit tud az általad áhított beállításokkal, a monitorod felbontásán.Bár ha mást ne, remélem kapunk most futtatható DX11 techdemókat is.
(#8405) Nagynozi - Nyári kánnikula, a 4870x2 magától felpörög 48%-ra, én játszanék a Riddick-el (ami többnyire nem túl zajos játék), én 1 óra után tök szarul érzem magam, míg rájövök, hogy a zajtól kezd már zúgni a fülem. Aztán vizesblokkot lerendelem, a kártyára felrakom, és nem ad többé képet, de ez már másik mese, és történelem...
-
janos666
nagyúr
válasz
Nagynozi #8400 üzenetére
Én meg azt szarom le, hogy normális-e, ha a GPU maghő a nap maghőjével vetekszik, ellenben, hogy az se normális, ami hangot ki tud adni a hűtő 50%-on.
Most a garanciás VGA-dat kell kínozni azzal, hogy a gyárilag belőtt értékeken hagyod, vagy a füled kell megfájdítani, és elrontani a játékélményt a ventilátorzajjal?
Ugyanmár...(#8401) Tommmmka - Pedig fasza volt az az FX5800, én szerettem.
Vitt mindent, amit kellett, míg kijött a Gef6. (Igen, még a hl2-t is dx9-ben.)
És mire jutottál, szerinted akkor megéri?(#8402) wednesday - De nem árt nézelődni, hogy ugyanazt ne drágábban vedd meg, vagy ne olyat vegyél, amit idő előtt cserélned is kell, miközben bebukod az ára nagyrészét.
-
janos666
nagyúr
válasz
Tommmmka #8375 üzenetére
Attól függ, mennyiért tudod eladni a régit, és milyen árban jutsz hozzá az újhoz.
Valamint amit párhuzamosan mérlegelj, ahogy az árakat számolod, hogy jön-e olyan DX 11-es játék, ami érdekel, és ahol valódi előnye lenne a DX11-nek a DX 10.1-el szemben (nem csak teljesítménytöbblet adna oda, ahol a DX10.1-es ikerkártyáddal is bőven elég a teljesítmény, hanem képminőséget is), és döntsd el, megéri-e neked a csere árát.Én bedobtam a 4870x2-met, és valószínűleg 5850 lesz helyette. Pedig nincs is számomra igazán meggyőző DX11-re ígért játék az addigi listákon.
(#8385) theniel - Úgy, ha rögtön kettőt veszel belőle (csak úgy picit drága, ha párosával kell sorba állni értük).
-
janos666
nagyúr
válasz
#72042496 #8369 üzenetére
A HD4-eken csak a DVI-n át jön ki a hang (HDMI kábelre átalakítóval), nincs belső kivezetés.
Geforceokon pedig elektromos SPDIF bemenet van a nyákon, de az megint más.
Amit te írsz, az úgy megy, ha a VGA-t a hangkártyára kötöd (HDMI kábellel, házon kívül), az rárakja a képet, és úgy kötöd a TV-t a hangkártyára (vagyis jobb helyeken közbeiktatod az A/V erősítőt, ami lekapja magának a hangot). -
janos666
nagyúr
válasz
Depression #8365 üzenetére
Ezúttal két slotos lesz, mint a 70-es, és mivel jó eséllyel tök ugyan az a hűtőborda lesz a GPU-kon, ugyan azzal a ventilátorral, csak rövidebb nyákon, kevesebb üres térrel a fedlap alatt, a némileg kisebb fogyasztás miatt halkabb lehet a 70-estől, és azt sem szabadna nekik túl zajosra lőni. Idleben minden esetre tuti dög halkak lesznek, ha igazak a W értékek, csak persze ez nem mentség arra, ha 3D-ben meg fél óra alatt szépen fel-fel zúg, aztán azon veszed észre magad, hogy már a fejed is kezd zúgni.
Igaz történet, mikor a kánikulában Riddic-et toltam, ahol nincs sok zaj, már tényleg fájt a 4870x2 zúgásától a fülem, kb 20 percenként ledobtam a játékot 5 percekre, hogy hűljön.
(#8366) Balika911 - És attól hol a kép, hogy a hangkártya tud védett audió csatornát (amit a HD4-ek nem...)? Ha csak a hangkártyáig kötöd, akkor is kell csati a VGA-ra is. Sőt, ha több a csati, több a veszélyforrás.
-
janos666
nagyúr
válasz
KDavid17 #8359 üzenetére
Akkor most téged is vigyelek be a WC-be, vagy mi?
De legalább Hilbert már izzítja a VGA-t. Neki hiszek legjobban Radeonokkal kapcsolatban, mert az enyhe zöld szemüveg mögül obbjektívebb képet fest majd a vörös lángterger közepén, mint aki eleve csak az AMD féle PR grafikonokat próbálja majd reprodukálni a szerkesztőségben. (ihletet merítve abból, hogy a 8x MSAA az alap, és nem a FullHD-s, hanem a 2560-as eredményekből kanyarítjuk a konklúziót, főképp abból, amit StormRise alatt mértünk...)
(#8357) gbors - Mutass még valakit, aki árul aranyozott HDMI csatis VGA-t, és akkor már nem is lesz viszonylagosan egyedi termékjellemző, hogy ennek olyanja van, mert így azért megemlíthető, mint érdekesség (és ritkaság).
-
janos666
nagyúr
Most miért? Az aranyozott USB port, és jackdugó után ez hova kalapnyírás? Filmezős, netezős gépbe ideális lehet, nem lehetetlen, ha valaki 500k-s HDTV alá veszi, mert játszani nem akar, csak valami kell, ami nem hökken meg egy blu-ray lejátszáson, simán lehet görgetni a böngészőben bármi képeket, animációkat, stb...
(#8349) KDavid17 - Ó, néztem 1 percig, és máris megnyugodtam. Vagyis inkább ki kell mennem a WC-re egy zacskó zsebkendővel. (hogyne...)
-
janos666
nagyúr
válasz
tzsolesz #8320 üzenetére
Mindegy, mert oda van írva, hogy az időpont mely időzónára értendő. Ha épp a holdon tartózkodsz, akkor sem a födfelkeltéhez kell időzítened, vagy épp egy Star-Trek találkozón gizdulsz, attól még nem a helyi csillagidő lesz érvényben, ha egyszer konkrétan megmondták milyen időszámításban kell értelmezni.
Amúgy meg türelem, úgy is tudunk már mindent...
Bár attól tényleg jó lenne szépen egybeszedve, kommentárral megtoldva végigolvasni egy ph-s cikket.
-
-
janos666
nagyúr
Szállingóznak már az 5870 hometesztek: kylzer @ guru3d forum Vantage: P17496 4GHz-es i7-el.
És itt a gigabyte matricája is:
-
janos666
nagyúr
válasz
cowboy_bebop #8190 üzenetére
Újabb dátum, újabb visszaszámlálás.
-
janos666
nagyúr
válasz
#72042496 #8174 üzenetére
Az x2-nek illene olcsóbbnak lenni, mint 2db sima kártyának.
Akár azért, hogy könnyebben elcsábulj (ne okoskodj, hogy ma 1, aztán ha lement az ára megtoldod még 1-2-vel CF-be...), meg hát elvileg nekik is olcsóbb előállítani, és figyelni kell a lélektani határokra a végösszeggel...
Az elhanyagolhatóan vékony réteg, akinek x2-ből sem elég egy, hanem CFX kell, rájuk nézve sem lehet a több lehetséges maximális GPU számra hivatkozva drágább az X2, mint 2db sima kártya.
És mondjuk ha előbb jön a túlárazott 5870x2, akkor a sokkal olcsóbb 2x5850 CF kavarhatna be házon belül, illetve szerintem csak 5850x2 fog most jönni a nagyobb fogyasztás miatt, akkor annak is olcsóbbnak kéne lenni, mint 2db 5850-nek, de legalább is nem lehetne drágább. -
janos666
nagyúr
válasz
leviske #8145 üzenetére
Nem értem miért csinálsz ekkora varázsbotot a Larabee-ből. Az még inkább GPGPU lesz (vagy inkább már GPPU, SPU, vagy nem tudom minek kéne nevezni, ha azért mégse CPU, de majdnem "másodlagos CPU"), mint a ma körvonalazható GT300/Fermi/akármi_DX11_nextgen_NV, még több minden lesz emulálva, még kevésbé lesz hatékony DX11-es grafikus gyorsító, és pár generációig ne is akarja többre vinni, mint a befutó vergődő hal, aki várja a hullámot az ugráshoz, szóval mind ár/teljesítmény, méret/teljesítmény, és abszolút teljesítménykirály kategóriában is versenyezhetne vele az nvidia.
Most kihozzák Larabee-vel a G80 közeli teljesítményt, de addigra kint lesz már a GT300.
Pénzmag van mindkét oldalon, még ha Intelnél több is, de pár évre elég az nv-é is.
Ha tényleg a Larabee-nek áll majd a PC grafika, akkor az nv-nek sem kéne kivonulnia, mert nyugodt szívvel tolhatnák kifelé a Tesla termékek igényeinek tervezett chipeket Geforce-nak is, ráadásul akár nyereséggel.
Persze az is lehet, hogy az nv 1-2 évre kacsint csak ki, csiszolja a Tesla kártyákat, megvárja, míg az Intel kitúrja az R600+t, aztán ha a Larabbe miatt előreverdesik a software rendering felé a játékpiacot, akkor visszatér a Geforce is. (Netán még x86 licenset is szerez a VIA-n át, vagy valahogy ki lesz trükközve, hogy ne legyen ez gond, mert sikerül valami nyílt szabványt betúrni a software redering köré...)
De ez esetben nekem jobbnak tűnne, ha addig is képben maradnak, és vesztes helyzetben is kihoznák a chipjeiket Geforcenak is a Raeonok ellen. -
janos666
nagyúr
3-al még az 1600 se jön ki (mint írták is korábban). Azért számoltam 5-el, mivel egy másik dián így ábrázolják, hogy 4 skalár, és 1 komplex számláló van egy ilyen elemi blokkban, és a korábbi generációkban is 5 volt (innen az 5-el osztjuk, és megbecsültük hány SP-s Geforce-ra hasonlít a valós DX9 teljesítmény...), valamint RV770-nél is beleszámolták a 800-ba a blokkonként 5. komplexet is, mint a 4 skalárt.
Abu: Ez már kérdeztem korábban, de nem emlékszem válaszra:
Az 5. komplex egységre is küld ki hagyományos egyszerű műveletet a driver/ütemező, mikor ilyen számításokkal van tele a kód, vagy ilyenkor ezek a számlálók pihennek?
Illetve, mikor esetleg csak komplexekkel lenne tele a kód, akkor csak ezek, az SP-k 5-ös része tud dolgozni, vagy a skalár SP-ket is be tud fogni 2-esével, 4-esével hogy nyúzzák azt is (mint a G80 is csinálja, ahol eleve csak skalár van, és a komplex 2-esével megy)? -
janos666
nagyúr
válasz
csatahajós #8044 üzenetére
Én is 2x4x4x16x5 (2 nagy blokkban 4-4 oszlopot, 16-16 sorral, és téglánként 4 kisebb blokkal, amikben egyenként 4+1 számláló van), azaz 2560-at számoltam.
Nekem az a furcsább ezen a képen, hogy az elméleti működési vázlat szerint a chip felezővonalába futnak be a TMU-k, és úgy csatlakoznak a gerincben futó globális cachebe. Ezen a képen viszont épp fordítva néz ki, a középső gerincből indul a 4x5-ös rendezésű számlálók sorozata, és a 4. után jön a TMU, ami a chip szélein fut be lokális cachebe.
Persze amennyit én értek ehhez, felőlem lehet, hogy csak úgy van értelme, ami a die-shoton látunk, illetve könnyen lehet, hogy én értelmezem félre. De laikus szemmel ellentmondanak egymásnak az előadásdiákon látott vázlatok, és amit a képen látunk. Valaki szakmaközelebbi (mert úgy tudom Magyarországnak 0 a félvezetőipara, még egy tanszéke sincs mutatóba, tehát igazi szakmabeliek nem nagyon akadnak itt, csak mikroelektronikában jártas lelkesebb műszaki értelmiség, esetleg külföldön élők/hazatelepültek...) elmondaná a véleményét?
Ez szerintem is inkább Core2 Duo, mintsem quad. Bár ott is veszélyes volt a 2 mag dolgoztatása, kellett hozzá szoftveres támogatás, és nem 100%-os hatásfokkal üzemel az sem.
-
janos666
nagyúr
Hát ja, a 8xAA egyrészt az "500FPS alatt nincs élet, csak lag" típusú online FPS martalócokat teljesen hidegen hagyja, másrészt pedig a nagy (1920, vagy inkább afeletti) felbontás mellé párosítva produkálja igazán a nagy %-okat a marketingslideok alá, holott azért minél nagyobb a felbontás, annál kevésbé égető kérdés az AA, és míg 1280-ra a 8x is ráférhet, 1920-ban már bőven jó a 4x is, ha tényleg szépen teszi a dolgát (tehát nem deferrend renderingre, vagy hasonlókra van ráerőltetve...), hogy most 4 vagy 8, már nem sokat nyom a latba.
Persze jó, ha mindegy, míg "ingyen van", de mint tudjuk, semmi sincs ingyen...Mondjuk lehet hogy ez a változtatás tette lehetővé vértes pingvinünk legutóbbi infómorzsáját a Dx 9/10.0-ás deferrend-es motorokra is ráerőltethető rotated grid supersample AA tűrhető teljesítményét. Így viszont tényleg bizonyulhat hasznosnak.
A félelmem ezzel kapcsolatban, hogy ez régi játékokban jönne jól, de a régi játékokkal nekem többnyire meggyűlt a bajom mióta Radeonjaim voltak. Főleg az ilyen AA és AF, de akár sebesség terén is (persze elég jól mentek, de hogy SSAA-hoz is elég jól mennek-e majd ha nem figyelnek oda a driverírók a régebbi játékokra...) -
janos666
nagyúr
válasz
VaniliásRönk #8015 üzenetére
(#8014) eXodus - Nem ment az SLI, majd a következő dirver orvosolja, talán már most is van hozzá beta a neten.
Nagyon jól tükrözi ez a teszt is, amit a múltkori 3DMark06 pontszám, vagyis hogy a régi technológiák alatt bizony nagyon lemarad az új radeon, vélhetően a driverek miatt, vagy mert valami olyasmi áll fent, hogy (nem akarok hülyeséget mondani, de olyasmi, minthogy csak emulálják a dx9-et, de ez így persze hülyeség, csak valami hasonló...)
És persze a konkrét tesztben a GTX260 is elveri az összes Radeont, az új üdvöskét is.
(#8017) laci666 - Mi lenne, ha nem a 2560-as eredményeket néznénk. Tegye fel a kezét, aki ma ilyen monitorral tolja, vagy tervez ilyet 2010-ben. Na ugye...
(#8016) rocket - Már megszokhattuk, hogy a Radeonok mindig majd a jövő játékaiban lesznek csudajók, csak át kell vészelni a jelent, aztán megvenni a következő kártyát, mielőtt rájönnénk, hogy még mind sehol a beígért új aranykor.
-
janos666
nagyúr
válasz
DemonDani #8010 üzenetére
Nem tudom, ti hogy vagytok vele, de ez nekem inkább lehangoló, mintsem meggyőző.
DIRT2 - idényjáték, egynek jó, az csak én bajom, hogy engem még ez sem izgat, de legalább neves játék, reklámértékre oké...
STALKER - Biztos az antiszocializmusom miatt sem bírom a játékot, de nekem egyáltalán nem jön be a grafikája se. Még mikor az első rész alpha verzióját futtattam az FX5800-amon, akkor azt mondtam érdekes, de semmi extra, talán jó játék lesz ha egyszer végre befejezik. Nos, azóta mintha még mindig ugyanúgy néznének ki az új részek is, kicsit vastagabban púderezve, és néhány látványos fény effekttel, amit játék közben nem is lehet élvezni, mert az összkép az szar...
Battleforge - Nem vagyok otthon az RPG-kben, de annyit tudok, hogy ez a játék sem hajaz arra, hogy a látványtól essen le az állam...
LOTRO -- Oké, no comment, valakinek tuti bejön a szőrötalpú.
2 engine - Oké, de mi fogja használni? Az új Harry Potter vagy Hanna Montana játékok?Még az első Frostbite-ból se láttam sokat (kellett volna?), pedig arra is mondogatták hogy DX10 így meg úgy...
Dzsingiszkán játék? - Na, látatlanban ide is no comment, bár nem találtam róla neten semmit.
AVP - Na, ez talán érdekes lesz.Akkor 1 játékot találtam magamnak, ezzel aztán lekenyereztek. Közben Physx miatt ki fogok próbálni legalább két játékot, ha lesz rendes VGA-m a 8800GTS mellé...
-
janos666
nagyúr
válasz
leviske #7972 üzenetére
Szerintem pont, hogy erre nem lehet alkotni, mert ketté kell vágni a matricát, gondolom ha egészben nyomnák rá a középső hézagra, akkor ott lötyögne, púposodna a címke, stb, tehát két darabból kell kirakni az ábrát hézaggal együtt, ami még színes is (piros csík lesz középen), akkor kisebb a mozgástér, mint korábban.
De nekem ettől a hézagtól eltekintve eddig jobban tetszenek az új matricaképek, HD4-nél volt egy-két kimondottan ocsmány is (pl Sapphire féle 4870 és x2). Az eddigiek így hézagolással együtt is egész mutatósak.
-
janos666
nagyúr
Ez se hülyeség, bár én nem látom túl biztatónak. Szerinted két darab 5770 CF-ben jobban futna, mint 1 db 5870? Mert árban közel egyformák, viszont az órajelek is hasonlóak, így a végén ugyan annyi SP-t, és ROP-ot kapsz, csak épp még jobban ketté van vágva a chip, és néhány DX 10-11 eljárás alatt még a CF is könnyen szétmászik az AFR alól, de egyébként sem mindig túl hatékony és stabil. Szóval szerintem okosabb dolog egy 5870, mint 2db 5770. Főleg, hogy előbbivel a tovább bővítés lehetősége is megmarad (jó, van trifire, de az olyan alaplap ritka, és annál is sokszor már csak 8x marad a 3.-ra...)
Valamint, ha mégis olcsóbb lesz az 5770, akkor pedig még mindig összemérhető az 5850-el is, ha az átlagos CF hatásfokot nézzük (~75%). -
janos666
nagyúr
válasz
DemonDani #7940 üzenetére
Nem, érdekes. Ami furra:
1: A Far Cry 2 második és negyedik sorában gyorsabb az 5850, mint az 5870
2: Riddick alatt túl magasnak tűnnek a Geforce-os értékek. Tudom, hogy később a driverek egyenlítettek a kezdeti nagy lemaradáshoz képest, de úgy tudom még mindig jelentős előnyben vannak azért a Radeonok. Szóval itt olyasmi viszonyokat vártam, mint amiket a StormRise-ban mutatnak a számok, nem hogy még kis hátrányból furdul a kocka a GTX295 felé nagy felbontásban, és 8x AA-el, amiben az új radi lesz a király...Meg úgy egyébként is, ahol nincs baki, hogy gyorsabb, ott túlzottan le van maradva az 50-es a 70-eshez. (legalább az eddigiek alapján lehetnének közelebb egymáshoz)
Én az 50-esről eddig sehol sem láttam valódinak tűnő tesztet, pedig érdekel, hogy elég jó-e vagy jobban zsebbe kell nyúlni., ha meg akarjuk kapni a 4870x2 DX9_10 teljesítményét.
-
janos666
nagyúr
Hát ja, az X2 épp ennyit, vagy ettől egy picit kevesebbet csinál 3DMark-ban (drivertől és CPU-tól függően), viszont Stormrise-on kívül még nem láttam olyan játékot, ahol jobb hatásfokkal működne a Crossfire, mint a Vatage teszt alatt, tehát akkor valós életben kb ugyan annyit ér a két kártya DX 9/10/10.1-ben, és csak DX 11-ben mutat majd többet.
És CPU limittel sem kell annyira ágálni, a Vantage mind a 4 magot használja az i7-en, és születtek már ettől sokkal magasabb pontszámok 2db 4870x2-vel, vagy 2db GTX295-el, pedig a 4 GPU még problémásabb, szóval ezzel a procival nem lenne gond 20k fölé tolni az eredményt, ha például elméletben szabadon tolhatnák fentebb a GPU órajelét (mert mondjuk nitrogén alatt van szénnéfeszelve).
Szóval DX9_10-ben ennyit tud a kártya. Nem olyan rossz ez, sőt, nem is kell jobb... Egyedül az róható fel neki, hogy közel annyiba is kerül, mint a 4870x2.(#7936) DemonDani - Volt már vagy 1 hete. De amúgy nekem nem jön be, pedig a vöröset azt szeretem hajszínnek, főleg így fehér bőrrel, de mégsem adja.
-
janos666
nagyúr
Tényleg érdekes. Hacsak nem felejtették el, hogy régi 3DMarkhoz kötelező jól meghúzni a CPU-t, hanem nekimentek valami alapórajeles Q9550-el, vagy E8400-al, és ennyi az eredmény, akkor igencsak szar még a driver, vagy esetleg valami komolyabb porszem van a gépben.
De HD4800-al is volt ilyen, mikor váltottam 8800GTS-eről, hirtelen megfelelőzött, vagy inkább harmadolódott az FPS CSS-ben, pedig korábban is volt benne még CPU limit is, aztán 2-3 hónap múlva (gondolom panaszkodás miatt) rendbe hozták, és kb ugyan annyi FPS-em volt, mint korábban, és mivel később X2-vel is, így tényleg látható, hogy CPU plafonig ment már a 8800GTS-el is... -
janos666
nagyúr
Egyelőre olyan pletyka is van, hogy a négyzetcenti az most épp, hogy csökken. És tranzisztorból sem olyan drámaian többel gurítanak, csak valamelyest többel.
Rengeteg hír volt arról, hogy a gyártósorok is kínlódnak, bár arról is, hogy már rendbe hozták őket.
De ez a szám is lehet kamu, ahogy még ha igaz is, abból sem lehet még messzemenő következtetéseket levonni. Ha félresikerült az első tesztgyártás, hát istenem, csúszik két hetet, de egy ilyen tuti bele volt kalkulálva a várható indulásba. Innen még ugyan úgy lehet fél év, végül kudarcba fulladó vergődés, vagy 2 perc áttekintés utáni 6-8 kattintással drámai javulás.De elég egyszerű ez a statisztika. Ha van egy adott területű ostya, arra a korábbi adatokból valószínűsíthető a hibák várható száma, és elhelyezkedése. Akkor innentől kezdve, ha 10 lapka van az ostyán, és abból 5 hibás, 5 használható, akkor ha 20 lapkád volt az ostyán, jó eséllyel kb 8 hibás, 12 jó. Persze nem ilyen egyszerű, de nem sokkal durvább, ha kiszámolgatnád a valószínűséget, csak pontos gyakorlati adatok nélkül kár lenne. (nagy chipnél több hiba eshet egy olyan chipre, ami egy ilyentől is behalna, kis chipnél több chipet vihet el ugyanannyi baki; na persze nagy chipbe könnyebben belelóg egy hiba)
Akkor miért van halálra ítélve egy kétszer nagyobb chip? Ha beterítené az egész ostyát, az gáz lenne, igen, de ha csak 2x annyi van rajta, még hasonló a %-os esély.Szerintem karácsony előtt már lesz a boltokban, legalább úgy, mint a 8800GT volt.
-
janos666
nagyúr
válasz
sniper elite #7804 üzenetére
Hát, ha a te példád számoljuk végig:
Eladod a CFX rendszert 100-ért, és veszel közel azonos teljesítményt mondjuk 180k-ért, akkor 80k-t fizettél ki csak a DX11-ért (és esetleg apróbb új featurekért, mint amit Abu említett, de semmi komoly).
Persze, ha ez a hobbija az embernek, és idén nincs jobb költeni valója a gépére, hát végül is megéri. De senki se mondja már azt, hogy ez így nem volt drága.
Nálad speciális eset, hogy fellép még a tovább bővíthetőség kérdése sok GPU esetén, vagyis igen, a sok GPU-s maximalistáknak, akiknek amúgy is mindegy a pénz ebben a nagyságrendben, azoknak persze hogy "jó móka" váltani, de ez a piac elenyésző szelete.
Én magamnak számoltam ki felezetten:
Eladom a 4870x2-t ~50-ért, veszek 70-est ~90-ért, akkor 40k-t fizettem, csak a DX11-ért. Megérte? Ha tényleg hasznát veszem a DX 11-nek, akkor igen, de ha nem, akkor végképp drága vásár volt azért a pár apró előnyért cserébe. (És feleslegesen bajlódtam azzal, hogy cserélgessek.) -
janos666
nagyúr
Hmm. És ezúttal annyira szarrá optimalizálták a mintavételt, hogy elviszi a SuperSample-t? Vagy ez valami új öszvérmegoldás, ami nem olyan teljesítményzabáló, mint a hagyományos SSAA?
Bár ha még rotated is, akkor inkább még többet kéne vele számolni, de a korábbi 8xAA Crysis villogtatások után én látatlanban még el is hiszem, hogy bírja majd 1920-ban 4:4-el is (de legalább 2:2-vel, és legtöbbször az is elég).(#7802) Pala -
Akkor miért nem kerül már 1.000.000 Ft-ba egy i7-es prockó? Ha minden teljesítmény duplázáskor duplázhatnánk az árat, miért ne?
Ahhoz, hogy az emberek cserélgessék a VGA-ikat, vagy jelentős (legalább 50%-os) teljesítménynövekedést, és/vagy egyértelműen kimagasló (és kiaknázható) szolgáltatásbeli javulást, vagy alacsony árakat kell produkálni.
De mondom. Ki fog 5870-est venni ennyiért? Akinek 4870x2-je van. Akkor ő most költsön el ~1 év után megint egy nagyobb összeget a VGA-jára, hogy megkapja közel ugyan azt a teljesítményt, néhány extra featureval, ami nem tűnik élet-halál-világmegváltó kérdésnek?
Az, hogy eladja 50k-ért az x2-t, és "csak" 40k-t fizet a DX 11-ért, nem annyira releváns, mert a helyes eljárás az lenne, hogy a rági cucc megy a kukába, max elajándékozod, a használtpiacot ők nem kalkulálhatják be. (Főleg, mert aki használtan jobbat vesz a pénzéért, ahelyett, hogy újat venne, az kieső bevétel a gyártónak.) -
janos666
nagyúr
Na, ez dicséretes.
Akkor valóra vált a lehetetlen?
Viszont ha azt nézzük, hogy az összes eddigi CFAA mód soha semmire nem volt jó a gyakorlatban, így még megvárom én ezzel azt, hogy kipróbáljam itthon.(#7797) Pala - Igen, úgy stimmel, hogy rádupláz a 4870-re, az szép és jó, csak akkor ne kerüljön majdhogynem 1,9-szer annyiba (55k vs ~90k?). Szóval megint ott vagyunk, hogy na...
Mondjuk persze, távlatban nézve nem az 5870 a drága, hanem a 4870 volt olcsó. De ettől függetlenül ezt a szart maguknak kavarták ki, akkor most illett volna valami köztes átvezető korszakot csinálni, semmi bajom nem lenne, ha ~87k-ért adnák a 2Gb-os 5870-et, az 1Gb-osat pedig olyan 70-75k körül, és akkor az 50-est 55 körül. Ezek sem annyira barátiak, mint a HD4 árazása volt, de ez kb. elfogadható lehetne vásárlói szempontból. -
janos666
nagyúr
válasz
00roli00 #7767 üzenetére
Ez mind stimmelne is, ha korábban a 8800GTX csak a 7950GX2 teljesítményét hozta volna, némi pofozgatással, azonos árakon (de szerintem a GX2 drágább volt egy kicsit).
Ugyan már! Hülyeség így levezetni! Szimplán azért drága, mert "miért ne?" De drága.
Az 5870 kb egy jóval kedvezőbb 4870x2, de csak plusz featurek, hasonló teljesítmény, és hasonló ár. És mint írtad, ez egy generációváltás. Ha a generációváltásnál csak ennyit várna el az ember, akkor most annyit tudna egy 4890-es, mint egy Gef3 Ti400.
Igen, az új generáció üdvöskéje nem drága, ha csak annyiba fáj, mint az előzőé, de ha semmi egetrengető javulást nem hoz, akkor azért joggal pampog az ember, hogy se nem olcsóbb, se nem lényegesen gyorsabb, és a plusz tudása sem hozza le a csillagokat, akkor minek váltson?
Mert alapvetően most akkor kukázni kéne a 4870x2-t, az már csak külön kérdés, hogy a legtöbb ember eladja használtan aprópénzért. Vagy akkor ki vegyen 5870-est, ha nem az x2 tulajok? Mert az ár az nekik szól... De miért éri meg nekik cserélni? Csak a DX 11 miatt, semmi egyéb, az meg egyelőre pár játék, és én már meg is bántam hogy eladtam az X2-re való blokkom, és itt ül a kártya, mert nyomott áron sem akar elkelni. -
janos666
nagyúr
A potenciális vevők egy része korábban már egy füst alatt hozta fel a lépcsőn a szobájába a 4870x2 dobozát, és a flexet, úgyhogy nekem már bármi befér a felső PCI-E slotba, nem kell házért rohangálni, ha volt x2-d, vagy 295-öd.
G80-nál volt ugye különbség abban is, hogy a GTS-en a letiltott ROP-okkal csökkent a memóriachipek darabszáma (és ezzel a bit-sávszél is).
Az 5850-es nem hiszem, hogy 192 bites lesz, a fogyasztását sem fogja drasztikusan befolyásolni, amit nyirbálnak rajta. Ebből kifolyólag ugyan annyi tápkör kell (esetleg gyengébb minőségű alkatrészekkel, de sokat nem lehet variálni), nem látom miért lenne elég kevesebb nyák réteg. Tehát alapvetően én is azt vártam, hogy tényleg ugyan az lesz a két kártya, és csak annyiban térnek majd el, hogy egyiken le van tiltva pár SP és TMU, és más a BIOS órajel.
De így tényleg kell akkor külön nyákot, külön hűtő fedelet gyártani, ami pedig elvileg nem sokban térhetne el a 70-esétől.
Sőt, így valószínűleg maga hűtő, tehát a lamellázat-hőcsövezet ugyan az lesz kisebb fedél alatt, de így a 70-esen nem használták ki a rendelkezésre álló helyet. Vagy ebből is gyártanak 1 cm-el nagyobbat?Szóval kívülálló szemmel nekem is egyszerűbbnek tűnt volna, ha egyforma a két kártya, és csak a chipen belül nyírkálnak.
-
janos666
nagyúr
válasz
Gonosz15 #7652 üzenetére
És a kártyából bekapcsoláskor kitódul 2 deka tiszta kolumbiai kóla, aztán mikor gyorsan szétkapod, hogy mi volt az, látod, hogy aranyból vannak a lamellák, és gyémántok vannak a kondik helyén, aztán hirtelen elönt a bódogság.
A gond csak ott van, hogy elvileg nem egy felében letiltott rv870 lesz, hanem egy külön chip, amiben sohasem volt 1600 sp, még a tartalék területekkel együtt sem.(#7654) gyiku - Remélem az 5850-esből is lesz 2gb-os, de inkább sejtem úgy, hogy 5870 alatt 1Gb lesz a plafon.
-
janos666
nagyúr
válasz
Ricco_hun #7647 üzenetére
Kis felbontásban, Medium textúrarészletességgel, visszafogott szűréssel elég lehet, márpedig ezeket nem UHD+ felbontásokra, és UltraVeryHigh-ra szánják.
Persze az lehet, hogy a CPU limit kikerülésére FullHD-ben és AA-val fogják tesztelni, aztán csak azt látjuk, hogy hejj'de elhasal a részletességtől, biza'aszázhuszonnyóc-bit, csak épp soha nem is erre szánták, és ott, ahova készült, oda viszont lehet optimális.
És el sem hiszem, hogy én ezt mondtam.(#7650) nkmedve - Erre jó példa, hogy a 2Gb-oson 6+8, az 1Gb-oson 6+6 pines tápcsati van.
-
janos666
nagyúr
Most hova kell sírni látatlanban?
Tavaly azt mondták a 4870-re, hogy $299, én elsők közt vettem, így még borravaló is lehetett akkor rajta, és valami 56-57k-t fizettem érte, az akkori dollár árfolyamon váltva 55k köré jött ki az ajánlott fogyasztói ár (szinte majdnem annyit számoltam, a megadott $-ból, mint amit fizettem). "Ajánlott fogyasztói ár", nem 1000 darabos törzsvásárlói kedvezményes nagyker nettó ár, hanem ennyit illik rácímkézni a boltban, áfástól, mindenestől. (na persze itthogy gyakorlatilg és értelem szerint több lesz rácímkézve már csak a nemzetközi szállítások miatt, mint ott, ahol gyártják)
Szerintem ha napi árfolyamon váltod a dollárban megadott ajánlott fogyasztói árat, arra rádobsz max 5 ezret, és megvan a kártyád, kár itt bűvészkedni, hogy felkerekítesz, euroárfolyamon váltod a dollárt, aztán megint felkerekítesz, és még szörnyülködsz is.
Esetleg meg kell nézni kitől veszed, nem lerendelni a legelső webshopból.
Ha többe kerül, mint az afá, akkor annak más okai lehetnek, mint rocket is részletezte. De szerintem 40k körül megkapod, max 41990, vagy 45, ha hiánycikk lesz. -
janos666
nagyúr
válasz
sniper elite #7613 üzenetére
Mondjuk a 3 kártya gyorsabb lesz ugyan, mint kettő, de nem biztos, hogy a leg optimálisabb, mivel az X58 is csak 32 sávot ad ki, tehát 2x16@2.0 az megvan szépen, de 3 felé csak trükkösebben osztható, pl 16+8+8, vagy akkor már 8+8+8, csak hogy szinkronban menjen (elvileg BIOS-ból állítható).
1 GPU-s kártyákkal elvileg nem lehet gond, ha csak 8x@2.0 csatlakozókban vannak, de Crossfire-be kötve azért lehetne némi kis javulás, ha inkább 16 sávot kapna minden kártya, nem 8-at. Igaz, a 2Gb VRAM miatt nem kell olyan sok adatot mozgatni menet közben, mint mikor a ph-s tesztben 512-es kártyákkal mentek neki 1920-nak, és talán még 2560-nak is.
Tehát menni fog, csak a 3. kártya már kisebb hatásfokkal növeli az összteljesítményt.
Persze x2-esekkel sem sokkal jobb a helyzet, mivel ott is 2 GPU-ra jut 16 sáv (tehát darabonként 8-8), és bár a nyákra épített swichnek hála haváriában mind a 16 sávot kaphatja külön-külön 1-1 GPU is, sőt, közvetlenül kommunikálhatnak egymás közt a switchen át, nem kell körbejárni az MCH-t, de most HD5 esetében talán már ez sem lesz teljesen optimális, főleg CFX-ben (2db x2).
Szóval kezdj csak nyugodtan 2db 5870-el, és csak akkor tegyél be 3.-at, ha nem elég. De persze gyorsít még a 3., sőt, szerintem nem is sokkal lesz lassabb, mint 2db X2-es, hisz a GPU-k számával egyre csak romlik a hatásfok, és egyre könnyebben ráfutsz a CPU limitre is (na meg az X2-k közti CF hatásfoka is rosszabb, mint két sima kártya közt), stb, így gyakorlatban egész közel lehet a trifire a quadfire-hez.
És ha nem cserélsz rajtuk hűtőt, akkor főleg jobban jársz a több kártyával, mint a hangos X2-esekkel.
-
janos666
nagyúr
válasz
luw2win #7597 üzenetére
Ja, már megdumáltam magammal, hogy 50-est veszek, és duplázom ha kell, erre kibukik, hogy a 2Gb-os lesz "az igazi kártya", mármint hogy 50-esből nem is lesz 2gb-os (legalább is referencia, max később egyedi gyártói nyákos modelleken, de addig nem várok). Most ezzel el is vették a kedvem "az okos döntés"-től.
Mondjuk jó kérdés, hogy gyártótól függetlenül mellékelnek-e hozzá a dobozban legalább egy DisplayPort->DVI átalakítót, mert egyelőre még nem tervezem a monitorcserét, és ahogy hirtelen rákerestem neten, olyan 20$ körül van egy ilyen kis bizbasz. Ha ez nincs benne bundleként, akkor ez plusz felár a 2Gb-osnak.
-
janos666
nagyúr
válasz
janos666 #7594 üzenetére
De, mégis szippantani kellett volna előtte valamit, mert tévedtem.
Az 5870-ből az 1Gb-os lesz sokféle csatis, és a 2Gb-os, "Six"-nek becézett típus pedig 6 display portot nyújt.
Sőt, ez onnantól lesz még érdekesebb, hogy ehhez a 2Gb-oshoz már 8+6 pines tápcsatlakozó kell, nem 6+6 (ezek szerint a több memóriachip miatt a fogyasztás már túllépi, vagy legalább is erősen nyaldossa a 225W-os peak értéket, ez összhangban áll azzal, hogy 190-et jósolnak az 1Gb-osnak.) -
janos666
nagyúr
Ó, rájöttem!
És még csak be sem kellett hozzá tépnem.
Az egy GPU-s kártyák kezelnek majd 3 monitort, és ezeken lesz 2 DVI, 1 HDMI, és 1 display port (csonka hátsó szellőzőráccsal). És az X2-es kártya az, ami GPU-nként 3, azaz összesen 6 monitort kezel , és ehhez 6 display portot sorakoztat fel, felette teljes hosszban szabad szellőzéssel.
Így van értelme az eddigieknek. Egyrészt, hogy jobban kell szellőztetni az X2-t.
De főlképp, hogy nyilván nem az egychipes kártyákhoz javasolják még a 3 monitort sem, (max engedélyezik, mert miért tiltsák), ezért lesz ezeken inkább többféle natív csatlakozó is. Az X2-esnél jönnek majd szóba ezek a sokmonitoros mókák, és gondolva a CFX-es eltúlzásokra is (8 GPU, 24 monitor vagy inkább vetítő), telepakolják csatikkal, had vigyen amit csak elbír.
Szóval a retail 5870-en is 4 csati lesz, 2 DVI, 1 displayport, 1 hdmi, és az x2-n lesz 6 display port. -
janos666
nagyúr
Attól még túlzás két teljes gép, csak két(három) kártya egy lapban, és akár szoftveresen váltogatod, vagy ki-be tologatod őket slotban, ha zavar az idle áramfelvétel.
És még nem láttam olyan játékot, ami ne ment volna 181-es driverrel. Bár a legújabbakat még nem volt alkalmam kipróbálni öszvérben (majd ha lesz hh5-öm...). -
janos666
nagyúr
Én most még az 5850 CF-en is elgondolkoztam. Egy darab 70-es saccra előbb lesz majd kevés, mint hogy kijön egy érdemben erősebb új chip, és akkor anyagi vonzatában talán jobb, ha most csak 50-est veszek, és majd később, ha kevésnek érzem, mellévágok még egyet, az csak elég lesz (két 70-estől jóval olcsóbb, de elég...)
Tavaly ezt azért nem lehetett megjátszani, mert az 50-esek GDD3-al nem voltak elég fickósak oda, ahol kevés volt az 1 GPU teljesítménye, tehát nem lett volna épp optimális a CF, főleg nem 512-esekkel. Most viszont elvileg nem sok különbség lesz köztük, csak némi órajel, és pár letiltott blokk, de sokkal olcsóbb lesz, főleg elég olcsó lesz majd mellé később a barátja, ha CF-re kerül a sor.
De itt van az is, hogy csak nem mernek 700+$-os 5870x2-t kiadni, márpedig ha 2db 5850 áráért két darab 5870-et kap az ember egy nyákon, akkor az az optimálisabb. Főleg, hogy x2-re drágább a vizesblokk, mint a simára, de messze nem kétszer, mint ha kettőt kell venni a CF-be rakott karikra külön-külön. (Sőt, még a 2. slot is megmarad pl Physx gyorsító Geforce-nak.)
Szóval jól megkavarták a dolgokat, még az se tudja, hogy mit vegyen, aki akár még 100k felett is áldozna rá, aki kevesebbet szán rá, annak drága lett az új széria, aki pedig szintén zsebbe nyúlna, de azért egy okos ár/teljesítmény optimumra vadászik az teljesen tanácstalan még.
-
janos666
nagyúr
Hmm. Szerintem nem minden 4890 megy olyan kényelmesen 1Ghz felett, a másik oldalon az 1800 pedig sok, de még nem a lehetetlen kategória.
De kár is így összevetni, mert valami valódi flops éhes gpgpu programban bizonyára a GTX285 nyerne alap órajelek mellett összevetve is. -
janos666
nagyúr
Itt is van káva, csak keskeny, de ha kibontod a borításból, akkor is elég élesen megtöri a képet a holltér a panel szélén.
A gyárilag összeragasztott paneleken sem tart sokáig kiszúrni az illesztési hézagokat.
Ezek csak reklámfelületnek jók, ha az abszolut értelemben vett méret a lényeg.Bár, mikor csak perifériának fordítasz be két olcsó TN panelest, az érdekes lehet. Kár, hogy a felbontást ugyanúgy viszi az olcsó monitor is, amit épp csak látsz.
-
janos666
nagyúr
Az sok, 24% felett már hallani a Radeonok kerekeit, főleg ha semmi más ventilátor nincs a gépedben. Bár a TDP-hez mérten javulás, valami értelmes hőcső-lamella elrendezést rejthet a fedlap.
(#7497) attiLANte - Mindegy, főleg ha asztalon mérték, mert egyébként is elengedi a szellőt valahol, max oldalt, az alaplap felé, vagy felfelé.
-
janos666
nagyúr
válasz
#72042496 #7477 üzenetére
Ez nekem nem tetszik, sőt, értelmetlen. A bluray 1920-as, és vagy 1080, vagy kicsit kevesebb, ha 16:9-től is szélesebb a vászon, de 2560-as filmet hol találsz? Vagy akkor bilinear módban felnagyítja a képet, sőt, széthúzza ilyen méretarányra? Brááhh... neee...
Minden máshoz pedig jobb lehet a 2560x1600, ha már 1920-tól nagyobb kell.Még az FPS témához:
Mikor a játékmotor 30x frissít, akkor utána interpolál, (netán online módban extrapolál is ha kell), majd esetleg még valami mozgássimítást is alkalmaz.
És innen jöhet valami, ami érzésre elkülöníti a fix 60 (ne is Vsync, csak beiktatott fps limit szinkron nélkül), 120, és akár 333 közti különbséget egyes motoroknál.
Ha több FPS-el ketyeg a képfeldolgozás fix monitorfrissítés és fix scene limit mellett, akkor a motor több pontra végzi az interpolálást, több pontból jobban működhet a mozgás simítása (és talán megelőzi azt, hogy úgysem kerül ki minden képkocka a monitorra).De! Amire inkább tippelek: A "gigamega brutál FPS-ek" azok szinte már mindig CPU limitre futnak, tehát, ha ilyenkor visszaesik az FPS, az azt jelenti, hogy nem bírja már a CPU. És mivel a CPU végez minden mást is (interpolál, extrapolál, fogadja és küldi a szerver közt a csomagokat, esetleg hangot kever, fizikát számol, megannyi más...), ha CPU túlterhelés miatt megzuhan az FPS, akkor lassul minden más háttérben futó folyamat is, és voala, már van esély megérezni mikor 333 helyett 120 FPS-t ír a számláló, mert 100%-on fuldoklik a CPU, és ezért nem olyan olajozott minden. De ez is inkább enginefüggő lehet, én a CS:S-t is Vsyncel toltam, mert épp hogy olyankor tűnt folyamatosabbnak, és akkor hittem, hogy ettől játszom jobban, nem akkor, mikor elengedtem 300-ig az FPS-t a 60Hz-es monitoron. (Talán, mert kíméltem a procit, ami tudta tenni egyéb fontosabb dolgait a 240 felesleges képkocka legyártása helyett?
)
-
janos666
nagyúr
Vagyis a CUDA, és a cég nem szűnik meg, csak átalakul. De egyelőre ez is csak jó eséllyel, nem 100%-os bizonyossággal.
(#7441) alien_ - Gameboy?
Egy 5870 árából lazán kijön egy Xbox360 Elite Limited Edition, meg egy plusz játék a bundle RE5 mellé.
Bár szóviccnek nem rossz. -
-
janos666
nagyúr
válasz
Robb202 #7357 üzenetére
A hardware nem összemosódik, hanem sohasem vált érdemben szét. A professzionális kártyákkal a komolyabb, munkára szánt szoftverekre is kiterjedő támogatást vásárlod meg, ami az erre optimalizált driverben és a probléma esetén történő segítségnyújtásban nyilvánul meg.
Maga a kártya legfeljebb Mhz-ekben, másabb nyákban/hűtőben, netán chip revíziókban tér el, de semmi komoly (esetleg néha ezek közül csak a hűtőmatricában...).(#7355) leviske - A legtöbb játék szó nélkül fogadja a 16:10-es képarányt is, ha mégsem, akkor sem feltűnő a két kis fekete sáv alul-felül, de pl. böngészéshez és netán régi 4:3 videókhoz jól jön az a kis plusz magasság. Szerintem inkább 1920x1200-as monitort vegyél, bár ne gond, ha van benne 1:1 pixel mapping, ha mégis Xboxot, vagy hasonlót akarsz rákötni, ne akarja megnyújtani a 16:9-et 16:10-re. De PC-n ezzel sincs gond, inkább arra figyelj, hogy ismerjen natív 24p módot (filmekhez, itt is ki volt tárgyalva nemrég a pulldown), és nem árt, ha bármi más, de ne TN panel, mert az egy *****, nekem játékra és filmre vegyesen az S-PVA jött be legjobban, S-ISP-t inkább akkor, ha képeket szerkesztesz hivatásszerűen, illetve az új E-ISP-t még nem láttam, az lehet hogy jobb már játékra is, a P-VA nekem kicsit fura, de még mindig job, mint a TN, játékra pedig overdrive nélküli necces.
-
janos666
nagyúr
Ami kérdés még nekem, hogy ha kapásból cserélem majd a hűtést, amint lesz rá való vizesblokk, akkor megéri-e 100$-al többet adni a 70-esért az 50-eshez képest?
Ha mindkettőt tuningoljuk, akkor mennyi sebességkülönbség marad majd a két testvér közt? Illetve mennyire rezeg majd a léc 2010 folyamán 1920x1200-ban? Ekkora felbontáshoz veszélyes lesz még az egy 70-es is, és még a következő generáció érkezte előtt CF-en kell már majd agyalni erősen, vagy eleve kár is lenne egyszem 50-estől nagyobbat venni, ha csak a ~10-15 hónap múlva érkező következő érdemben újító szériáig tervezik megtartani, nem 2 évre előre tervezi az ember?A közelmúlt tapasztalata, hogy mire jött a következő, addigra már volt félretéve pár játék, amit nem bírt a gép ekkora felbontásban, illtve 2 GPU után kellett nyúlni. De ha már kevésbé lesz érzékeny a felbontásra...
Illetve akkor a Gb-ok? Megintcsak 512 is elégnek tűnt, aztán 1024 kellett, akkor most inkább 2Gb-os 50-es, mint 1Gb-os 70-es, de lesz ilyen variáns már októberben (5850 2Gb)?Amúgy a lenti vitátokra legjobb példa a Counter-Strike Source. Ott elég átlátható, hogy hanyas ticken fut a szerver, és az mennyit jelent, illetve hogy miként lesz XY FPS a 33-66-100 frissítésből (és a default az 33, viszont ez spórlás nethez, mert a single player már 66-on fut, ha jól rémlik, de ha mást nem, akkor legalább is a 2007-es engineben már igen, és neten is feltolható 100-ig, és ez az egyetlen eset, ahol megéri kikapcsolni a Vsyncet, és maxfps 101-et megadni, más ilyen játékról nem is nagyon tudok, de nem tudom mi az alapérték pl UT3 motorban).
-
janos666
nagyúr
válasz
csatahajós #7293 üzenetére
http://kikurtnagydijo.posterous.com/ és VGA-s bejegyzés
Találd ki, ki az aki itt is felbukkan, és talán linkelget is új híreket, mikor nem előzik meg, és van egy ilyen blogja is. A nickje és a profilképe is hasonló. -
janos666
nagyúr
És pontosítsunk akkor annyival is, hogy a 1920-hoz sem volt mindig elég a 4870, hanem x2 kellett, ez pedig nem sokkal gyorsabb, mint az X2. Akkor vajon meddig lesznek játszható FPS-ek 2560-as felbontásban 4-8x AA mellett?
Azokon a módokon, ahol többet villant a kártya, ott a jelenlegi, és öreg játékokban magaslik ki, de ezek a jövő játékaiban a játszhatatlan FPS tartományban fognak mozogni. Oda is majd inkább x2, vagy CFX kell, de akkor meg az árra nincs kifogás, hogy miért kerül annyiba, mint ha bármire elég lenne, mikor kapásból kettessével is vehetné őket az, aki 1-2 évig használni akarja az összeépítendő gépet. Vagy most vesz simát, fél évre x2-t, aztán megint cserél a következő generációra, de ez sem olcsó móka, és még rizikója is marad, hogy nem mindig lesz elég a gépe amire akarja, és várnia kell egy kicsit az új játékkal. -
janos666
nagyúr
Hmm. Nézem ezeket a teszteket, és várható árakat, és már bánom, hogy áron alul túladtam a 4870x2 blokkomon, és árulom a VGA-mat.
DX 11-ből amit ezévre ígértek az lófasz, a jövőt meg ki ismerné előre. Veszek majd egy drága kártyát, amit már nem az 1920-as monitoromhoz találtak ki és egy darabig még blokkom se lesz hozzá, aztán fél év múlva kiderül hogy új játékoknál x2-re lesz szükség 1920-ban is ugyanúgy, mint 2560-ban, mert nem ez okozza a szűkületeket, de szűkület azért lesz.
Persze ez csak úgy érdekesebb, hogy látom itt még mindenki abban él, hogy milyen jó VGA lesz ez... -
janos666
nagyúr
válasz
VinoRosso #7156 üzenetére
Jobb poén a műved miatt fórumokon kialakult eszmefuttatásokon, ne adj isten vitákon röhögni, mint a letöltésszámlálóra gizdulni.
Még jobb, ha te is beállsz okoskodni, mint ha te is most látnád először.(#7163) - Á, dicséretnek veszem.
(#7157) Chalez - 600fps kell, 'oszt jónapot!
És van hozzá 600Hz-es monitorod?Amúgy tényleg ilyen genyák lesznek? Rávezetik az embert az X2-esükre azzal, hogy alig drágább, mint a sima (mert a sima van túlárazva)?
Ez nagyobb átbaszás, mint mikor középkategóriáról áttérítették az embert a felsőkategória legaljára. Ott legalább tényleg profitált a dologból, itt már csak felesleges plusz teljesítmények röpködnek... -
janos666
nagyúr
GITWOIMTBG
Amúgy nekem még mindig nem világos, hogy jön ez össze, hogy a korábban már linkelt szilikonlapkán mintha a középtengelytől kifelé indulnának az SP-k, és a chip szélén végződnének TMU-kban. A szerkezeti vázlat (pl nemrég linkelt diákon) pedig épp ellentétes, logikusabb felépítést mutat, ahol a középtengelyre fut be az SP-k sora, TMU-kkal a végükön, amik a közös cachebe érnek.
Akkor melyik az igaz, és miért tűnik úgy a szilikon képén, mint ha nem úgy lenne, mint a vázlaton? -
janos666
nagyúr
Hehe!
Ez épp a tükörképe a korábbi vázlatnak. Itt a két nagytömb külső szélén vannak a TMU-k, nem befelé néznek farkasszemet, mint a diagrammon.
Így kevésbé tűnik valószinűnek, hogy közös cachebe dolgoznak, akkor inkább a RAM-ra marad az a kommunikáció.
De ha nem szimmetrikus, akkor hogy gyártják ezt részenként, hogy aztán összetokozzák? -
janos666
nagyúr
Az kevésbé izgat, hogy mondjuk SFR-ben megy-e (főleg, hogy mást már nehéz kitalálni, mert 2 maghoz túlzás lenne a beépített supertile, főleg, ha utána a kétkártyás CF még AFR marad), és hogy a közös belső cachen keresztül kommunikálnak a "félmagok", vagy a memórián át.
A felhasználó oldaláról az a kérdés, hogy kell-e ehhez CF profil a driverbe, vagy teljesen önjáró, és külön programspecifikus támogatás nélkül is hozza a 90-100% közti hatásfokát?
Te most azt akarod sejtetni, hogy ez hardwares automatika lesz, de a kis felbontás miatt nem látok ilyen funkciót a struktúra vázlaton (nem bírom mind kiolvasni, a tesszelátort sem találtam meg). -
janos666
nagyúr
Egyébként annyira nem hülyeség amit mond, csak a végletekig leegyszerűsíti. Ha minden mondatát 6 soros körmondatokkal támogatná meg, hogy miért van részben köze az igazsághoz (legalább becslés szinten), akkor nem tűnne olyannak, mint akit csak idesodort a dagály.
Tömören: a gyakorlatban, a régebbi és sok mai játékprogramokban sokszor állhat elő olyan helyzet, ahol nagyon rossz hatásfokkal dolgoztathatóak az AMD féle shadertömbök, sokkal rosszabbul, mint a Geforceokéi (amik ráadásul chipen belüli hardware-es vezérlésűek, nem a drivernek kell alákínlódnia a csomagokat), és ez az arányítás egész sokszor követi akár az 5-ös osztót is, amit ő is emleget. HD3-G92 korszakban ez még inkább megfigyelhető volt, mára kikopott már a köztudatból.
-
janos666
nagyúr
Hány percig tart átírni "AMD Concerned"-re?
Bár önmagában tényleg hihető, hogy eredeti a grafikon. A gond ott van, hogy ha ezt az AMD mérte ki, akkor ott a legtöbb munka azzal telt, hogy megkeresték azokat a beállításokat, ahol legnagyobb a pozitív értelmű különbözet a riválishoz képest. -
janos666
nagyúr
Egyik jobbról, másik balról?
És akkor új játékban kell majd várni új driverre, hogy beinduljon a GPU másik fele is, vagy okosabban oldják meg, mint a programonkénti CF profilozás?
Nagyjából egyszerre jelennek meg az 1 és 2Gb-os modellek?
(#7025) - Ez csak az ES, és a véglegesen csak 1 sornyi display port lesz, ugye?
-
janos666
nagyúr
válasz
cowboy_bebop #6992 üzenetére
Ez inkább 1 chip egy kupak alatt (kupak nélkül
), csak olyasmi, mint a Core2Duo, hogy egy lapkában 2 mag van, csak még kevésbé különülnek el a magok, sok a közös rész.
Az jó kérdés, hogy ennek itt mi értelme volt.
(Mert CPU-nál ugye nem ment tovább a Mhz, de itt egyszerűen csak több SP-t kellett behajítani.) -
janos666
nagyúr
válasz
Robb202 #6986 üzenetére
Egyelőre azt is jó kérdés, gond nélkül lehet-e ebből 2-t egy nyákra tenni.
x3 és x4 biztos nem lesz, akkor még apró chipeket pletykáltak, de egész nagyok lettek (és ha már van nagy, akkor a kicsikből is kár lenne x3-as csinálni).(#6988) Abu85 - De software-esen ez akkor CF, vagy sem? Jobban driverfüggő lesz ettől a teljesítmény? (és csak én nem látok tesselator-t a rajzon?
)
-
janos666
nagyúr
válasz
csatahajós #6981 üzenetére
Ezen, és a nemrég linkelt képeken is a sokféle csatis kártyák mennek.
A retail-on akkor végül is ezek lesznek, vagy a 6 display port? Vagy lesz kétféle kiadás, utóbbi külön 6 monitoros Eyefiniti támogatással, előbbi pedig csak 2-3 monitort kezelne egyszerre? Vagy összekombinálták a RAM-al, és csak a 2Gb-osra köthető a több monitor? -
janos666
nagyúr
Kivették a sideportot, és nincs elkülönülő hardwares tesselator?
Mondjuk az 1600 SP és 80TM ott van (már ha a négy kis egymásba forgatott tégla a vörös téglákban egyenként 5 SP-t jelöl, mert így 20 sor, 4 oszlop, 4 tégla, téglánként 5számoló adja ki)(#6982) shteer - Mert hátul is vannak RAM- ok (lagalább is a 2Gb-oson eddig úgy mutogatták), és akkor talán jobban hűltek volna fém alatt.
-
janos666
nagyúr
válasz
#72042496 #6969 üzenetére
De itt jön képbe az, amit arról mondtam, hogy szabvány szerint tud 75-öt adni a 6 pines csati, a legtöbb táp ad arra simán 200-at is, ha kell, mert arra csak a 18A-es ágankénti maximumok vonatkoznak, ami 18*12=216, de egy 6 pines csatin azért van annyi tű, mert nem csak 1, de akár 3 ág is köthető rá (vagy ugyan az duplán, triplán, de akár lehet mind külön-külön 18-as, ami már eszement szám, ki se írom, de pl. egy corsair tápon meg még ágankénti bontás sincs...
)
Tehát a kártya kialakításakor csak arra kell figyelni, hogy szabvány szerint a TDP-nél több juthasson át a csatikon, később ez nem fogja majd vissza a tuningot, az esetleg azért lesz, mert a tápköröket is megcsonkítják, és azokon nem jut át a kellő áram, vagy van rajta overcurrent protection, hasonlók...
Mint pl 4850-es is húztak 4870 órajelek fölé.De hosszútávon meg a profitból lehet tőkét visszaforgatni nem? A profitot lehet visszaosztani, az egyéb gyarapodás múlandó (az eszközök amortizálódnak, és tökmindegy, hogy mennyi gép van, ha nem termel, és nem akarják felszámolni...).
-
janos666
nagyúr
válasz
#72042496 #6965 üzenetére
Ugyan így kell számolgatni. Ha csak 1db 6 tűs lesz, akkor 150W-ot kajálhat, abba nagyon neccesen férhet be az 50-es, ha a 70-esre 190-et mondanak (és mondanak valamit az 50-esre is, de az önmagában kevésbé hitelesebb, mint a 70-es értéke, amiből viszont a többi hitelesnek tűnő infó alapján visszasaccolva is hasonlóan 150 felett lesz).
Lehet rajta 1x8 pin, 2x6 pin, vagy 1x6, de akkor vagy gyengébb lesz, mint mondják, vagy nem igazak a 70-es adatai sem, netán hivatalosan nem lesz PCI-E 1.0 kompatibilis. -
janos666
nagyúr
válasz
#72042496 #6958 üzenetére
Aljzatból 75, plusz kábelből 2x75 a 6 tűs csatikból, és így elvileg kaphat 225W-ot, ennyit talán be is kajál, ha rendesen megtuningolják a kártyát.
Na persze ez a szabvány, de ehhez a VGA is ragaszkodni kényszerül, legalább látszólag -> viszont legtöbbször, ha ugyanazt a csatit kettéosztod, sorban rádugod mindkét foglalatra, akkor megy, mert a táp 75W felett is küld a kábelbe, csak a 12V-os ágak max 18A-ére figyel, de abból több is rá van drótozva a 6 pinre is, így mehet akár sokkal több is rajtuk...Viszont szabványon belül maradva érdekes, hogy a 75+75+150, vagyis 300W a maximum, amit foglalat+6+8 pinen fel tud venni egy kártya, tehát effölé elvileg nem mehetnek az X2-vel sem, ami érdekes a 190W-os 5870-el, ha duplázni akarják...
Ha aljzat+8+8 pin, akkor 375W a csúcs, ebbe is épp csak, ha beleférhet majd egy teljes értékű 5870x2, ha tényleg duplázott lesz, nem tiltanak le SP-ket és tekerik kisebb órajere a GPU-kat (hogy kisebb Vcore is elég legyen).
Ha hivatalosan feladják a visszafelé kompatibilitást a PCE-E 1.0-val, akkor mehetnek 450W-ig, de addig nem is kell, mert beleférnek a 8+8-ba (vagy 6+8 és csak 2.0-ás slot a hivatalos). De azért már az is érdekes lesz. -
janos666
nagyúr
Én inkább azért aggódom, hogy 3D-ben terhelten mennyire fog felpörögni az a ventilátor. A 4870x2 evett olyan maximum 280W-ot, ez fog olyan 190-et, de gondolom normálisabb hőleadó felület lesz a fedlap alatt, tehát remélem a tűrhető kategóriában marad a zaj.
(Úgy van összedugva a VGA fölött a két csövem, de ki tudja mikorra lesz rá való blokk.)
Ja, és hogy lesz ebből X2? 350W-ot fog bekajálni? -
janos666
nagyúr
válasz
tzsolesz #6923 üzenetére
Nézd meg a Geforce GTX-eket, már azok sem csak az órajelekkel és a feszültséggel játszanak, hanem a GPU egyes elemeinek lekapcsolgatásával is, és sokkal jobbak az idle mutatóik, főleg egy olyan radeonhoz képest, ami még a GDDR5 órajelét se vette vissza.
Gondolom még tovább mentek, mint a GT-200 esetében, és egyész belépőszintű VGA-ig lekapcsolgatnak mindent, amit csak lehet. Felesleges tápkörök, órajel padlóra, alig marad aktív shader tömb. És ha már ilyen alaposak voltak, remélhetőleg van legalább 1 lépés a full 3D-ig, mint pl PowerPlay-el is volt videólejátszáshoz is közepes órajel, itt is lesz valami, ami még mindíg jóval kisebb, mint a peak érték, de elég gyors marad a kártya netezésre, filmezésre. Ha pedig csak áll az asztal, akkor csak vegetál. -
janos666
nagyúr
válasz
VinoRosso #6917 üzenetére
Az 50-esben elvileg le van tiltva pár SP tömb, és a hozzá tartozó TMUk. Az idle fogyasztás csak úgy lehet ilyen alacsony, ha nem csak az órajelet és a Vcore-t veszi vissza, hanem ilyenkor lekapcsolódnak a használaton kívüli elemek is (mint a G200-ban, vagy még hatékonyabban). Márpedig, ha pl mindkét kártyán ugyanannyi SP tömb, hozzá való TMU (és talán ROP) marad aktív, akkor azonos kell, hogy legyen az idle fogyasztás (pl mindben 16 tömb, azaz 80SP marad aktív, 5 TMU-val, kis feszen, kis órajelen)
A chip peak értéke gondolom szoftveres mérésből fakad, ami nem hajszál pontos, ezért van, hogy csak a teljes kártya összefogyasztásán (amit pl a konnektorból, vagy táp mögé kötött teszterrel is mérhettek) látszik meg, hogy pár tömb le van tiltva, és alacsonyabb az órajel, de terhelten ez nem annyira jelentős, hogy nagyobb legyen az eltérés (ha feltételezzük, hogy ez valami simított átlag-maximum, tehát jellemzően otthon nem ennyi lesz játék közben, de pillanatnyi tüskékben lehet néha még több is). -
janos666
nagyúr
Mármint elméletben.
Régen én is favorizáltam még az "SP osztó törvényt", az egymás ellen pozícionált termékekre sokszor egész jól bevált, főleg a felső-közép kategóriában, ahol a legérdekesebb a ki-mit-tud, órajelaránnyal megjavítva pedig el lehetett vinni még más kategóriákra is. Durva becslésre egész jól alkalmazható.
-
janos666
nagyúr
Szerintem nem valószínű, hogy játszhatósági követelménnyé válna a 4 mag, vagy a szénné húzás.
Kicsit külön kell választani a kérdést, hogy mi az a CPU magszám és órajel, ami felett gyakorlatilag már nem nő érdemben tovább az FPS érték, és azt, ami a folyamatos, sima futtatáshoz kell.
Előbbi egy 5850 esetében egy-két játékban lehet 6 magos i7 6 Ghz-en, de ott is inkább 4 mag 4-5 Ghz-en. Utóbbi kérdés esetére pedig az esetek többségében bőven jó lesz még a 2 mag 3-4 Ghz közt, de máshova is legalább elmegy. -
janos666
nagyúr
válasz
joshua7 #6850 üzenetére
Gondolom úgy veszi, hogy minél több FPS-re hajtott, ezért nem a sárga földig butította, de azért harmatosabbra vette a grafikát, aztán emelgette a CPU órajelet, és azt látta, hogy mindig nő még egy picit a maximális FPS, nem érdekes, hogy már 60-as átlag felett volt, és 60Hz-es a montora...
Én 4870x2-vel is alig vettem észre, mikor áramszünet után visszaállt a Q6600 2,1-re 3,6-ról. Játék közben csak gyanakodtam valamire, rebootoltam, és akkor láttam meg, hogy mit ír ki a postsreen.
Persze GTA IV-ben alapfeltétel volt hogy 4 mag legyen, és meg legyen húzva. -
janos666
nagyúr
Hirtelen látom egy picinyke értelmét a 3 monitornak.
Mivel úgy is csak a középsőre figyel az ember, a két szélső pedig csak perifériának kell, és mikor oda akarsz nézni, nem a fejed fordítod arra a monitorra, hanem az egeret húzod arra (nem ösztönösen persze pont fordítva, de ezt csak meg kell szokni, mert a kurzor/célkereszt meg csak középen marad, a fejed így nem elég átfodítani...), így oda két szélre elég a legolcsóbb, netán itt-ott pixelhibás, TN paneles noname gagyi monitor is (csak colra stimmeljen az átlója a középső rendes monitorral).
Sőt, betolom a kávájukat a rendes monitorom mögé, és annyival kisebb a hézag is. Különböző dolgok kipakolgatására pedig jól jöhet néha az a két selejtes monitor is.Na persze ha az FPS-t meg megfelelzi, akkor már nem éri meg trifire-t építeni alá, márpedig 90%, hogy nincsenek ingyen azok a pixelek.
(#6792) SzlobiG - Tegyél be egy 8800GT-t az X2 mellé.
-
janos666
nagyúr
Vajon 1920x1200-hoz megéri majd 2Gb-osat venni ~50$ felárért?
A 4870 megjelenésekor az 512Mb is elégnek tűnt, aztán mégis kevés lett, és ha most a chipnek fekszik is majd a magas MSAA, a RAM-ot még tovább eszi az is, de akkor már miért ne tegyük optimálissá...
Szóval az életciklusa végéig + némi tartalékidőre nézve vajon megéri a kétgigás? Vagy többet ér a kisebbet venni, mert később meg az derül ki, hogy nem a RAM a kevés, hanem X2 vagy CF kell már FullHD-re is (hiába a sok eszement felbontásos demó, mert kisebb felbontásokkal is izzadni kezd egy chip az új játékok alatt)?Bár én most még arra sem vennék mérget, hogy lesz-e egyáltalán x2, mégsem árulhatják 900$-ért a 2x2Gb-osat, vagy mégis? (Mármint persze addig, amíg nem jön nv chip, és az nem lesz elég jó, hogy szükségessé tegye az x2-t, ami esetleg lentebb vinné a komplett széria árképzését...)
Amúgy az a Crysis tesztes 8X az nem valami mostani, vagy netán újféle CFAA szűrővel jön ki 2-4x-es felszorzással?
(#6766) Abu85 - Szerintem a legelső retail driverrel nem nagyon jött ki a 4870 előnye az 50-eshez képest, csak 1-2 hónappal később nőttek meg a számok pl. UT3 motoros játékokban, aztán szépen tovább.
(#6767) westlake - Nyomtass magadnak matricát.
-
janos666
nagyúr
válasz
#72042496 #6628 üzenetére
Végül is tuti elmegy úgy is, ha nem akar egyébként is megdögleni, és RAM sünikre is lehet cserélni a vékony hátlapot (vagy a hátlap tetejére aggatni a süniket...). De mennyivel egyszerűbb és szebb lenne, ha elől lenne minden érdemben melegedő alkatrész.
(Mármint nekünk, nekik biztos így volt egyszerűbb, azért van így, de ez is érdekes, hisz elég nagydarab kártya, hely tuti lett volna elől is) -
janos666
nagyúr
Miért kellett a nyák hátára is tenni RAM-okat? Így nem teljesen nyugodt az ember, hogy ha az elejére vizesblokkot rak, és nem szellőzteti a házát, akkor nem melegszik-e egy kicsit túl a hátlemez (vagy úgy egyébként is, ha valaki nem nagyon szellőzteti a házát...).
Ez a 6 display port jobban tetszik, mint az a sok különböző csati. De remélem DP->DVI és DP->HDMI adapterből is csomagolnak egyet-egyet a refkártyákhoz.
(#6623) rocket - Hát ja, a kivetítőket szebben lehet illeszteni, mint az LCD paneleket. Ez így már elmegy, ha otthon alaposan kicentizi magának az ember, már fasza.
-
janos666
nagyúr
válasz
tzsolesz #6460 üzenetére
Akkor meg van a következő kártyád: GTX295 a nyerő
Értsd már, ahogy mondom: Tesztekben többször került előbbre ez, mint a 4870x2, nyilván nem lesz jó vétel egyik se, ha a következő generációban lesz gyorsabb és jobb, ami nincs agyon túlárazva (ha meg is kérik az árát, de nem rugaszkodnak el a földtől).Szeretem a szűrőket, de már 1440-ben sem láttam túl sok értelmét 4x főlé menni, vagyis 8x CSAA-t használtam akkoriban, de csak azért nem sima 4x-et, mert kis felbontásban bírta még akkor a kártya. 1920-ban egy Crysis még élsimítás nélkül is egész tűrhető, de hasonló játékokra elég a 2x, a durvábban recézőkre pedig 4x. A 8x már nem javít sokat, de mostani kártyákon sok FPS-t elvisz.
De leszögeztem az elején, hogy jó dolog ez nekünk, csak mivel nem alapkövetelmény a 8xAA a full, de főleg az UltraHD+ felbontáshoz, ezért nem lesz annyira mértékadó ilyen beállításokkal összevetni a korábbi kártyákkal, illetve akár később az új Geforce-al, ha épp az fordítja meg a hejezéseket a közeleső számok közt, hogy 2-4x, vagy 8x AA-val teszteltek FullHD és afelett, ami picit túlzásnak tűnik.
Persze, ha kapunk ingyen AA-t, és mindegy lesz hova állítjuk, az magában örvendetes, de ne arra legyen legjobban kihegyezve a marketing, hogy ezek húde tudják a 8x AA-t, mert nem sokat ér, ha az AA nélküli eredményekben összevetve meg nem is olyan nagy a gyorsulás az előző kártyákhoz képest (az átlagfelhasználót épp úgy nem érdekli az 5840-es triplamonitoros felbontás sem, jó ha van, de 99,5%-nak semmit nem mond egy ilyen mérés, mert sohasem vesz 3 monitort) -
janos666
nagyúr
Arra, hogy pl. 8x AA mellett Crysisban csúnyán veri az 5870 a GTX295-öt, közben mondjuk AA nélkül már csak épp egyenlő lenne, nem hogy máshol mérsékelt AA mellett még annyi se; és hasonlók. Márpedig ha mást nem, hát a CPU limit kikerülése kedvéért is szívesen rádobják majd a 8x AA-t a mai és 1-2 éves játékokra, és örülnek, hogy de jól megy a Radeonnnak (minimálisan szebb képpel, a korábbi kártyákon feleslegesen degradáló setupban)
Aztán meg az ezekből levont következtetések legalább az új geforceo-ok megjelenéséig, de talán egész a HD5 kifutásáig bennmaradnak a köztudatban, hogy megint duplázták a sebességet, sőt, meg is 2,5X-ezték. (Akkor is ha más hangvételű teszt is bukkan még fel később, ami mondjuk 70%-ot hoz ki átlagban 4870-hez képest)
Igen, irreális beállítások mellett, mert ha a dx 11 játékok alatt jobban meg lesz dolgoztatva a kártya, akkor úgy se nagyon marad már majd erő 8x AA-re, és akkor mindegy lesz mennyire gyúrtak rá, megint 2x, 4x megy majd fullHD körüli felbontásban.
Az UltraHD feletti felbontásokról meg kár is szót ejteni, nyilván elenyésző számban lesz hasznosítva otthonra játszani, nem említve a betegségeit, a kávástól egymáshoz tolt monitorok vitatható látványát.A sajtóban a HD5 megint sikerszéria lesz, még akkor is ha nem (mint mikor a főnöknek mindig igaza van). A HD4-ek is überbrutálatyomsikercsodakártyák voltak, pusztán azért, mert az AMD méltóztatott utolérni végre a 1,5-2 éves Geforceokat a piacon lévő játékokban (utolérni, mert a shrink utáni átnevezés és órajelemelés sokat visszajavított, és jött a G200 is), aztán az X2-vel megint csak utolérte így, hogy a GTX-eknek nem annyira jött össze a valós teljesítményduplázás, hiába volt meg rá az esély a számokból, és a méretekből, de így is többször áll nyerésre a végül is befutott GTX295, főleg ha alapos statisztikaelméleti megfontolásokból kihagyjuk a Stormrise-t, mint nem reprezentatív tényezőt, mely kis mintában megrontja az átlagot...
-
janos666
nagyúr
válasz
westlake #6441 üzenetére
Csak nekem tűnt fel, hogy a VR-Zone tudja a kártya FPS-ét? Csak azt mondják milyen felbontás, és beállítás, de hogy milyen program, arról egy árva szó nincs (igencsak crysis), szóval mindenhol ennyit tud fixen, vagy ennyi az átlag X számú tesztnek. Egyik sem túl rózsás.
Amúgy a speckó jó, 32rop, az is gondolom optimalizálva, lehet parasztot vakítani a 8x AA-s tesztekkel, meg Crysis-el. Ez nem is baj, sőt, nekem tetszik, csak a sajtóvisszhangja nem fog, amit a tesztekből leszűrnek az emberek.
-
janos666
nagyúr
válasz
csatahajós #6423 üzenetére
De egy ilyen bemutatóhoz miért nem rakják össze a paneleket a lehető legkisebb illesztési hézaggal (a panel burkolatlan széle ragasztóanyaggal)?
Nekem nagyon nem jön be hogy a káva így szétdarabolja a képet.Ezt csak úgy tudna tetszeni, ha mondjuk mindegyiken valami elkülöníthető scene menne, mondjuk valami modellező programban állna egy tartószerkezet, és akkor 5 féle igénybevételi helyzetre külön-külön mutogatná a hatásokat és deformációkat, a 6.-on pedig lehetne babrálni a modellt, aztán rögtön nézni melyik teherkombinációra hogy reagál a módosítás után, és így tovább. De ez ugye nem játék, hanem munka...
-
janos666
nagyúr
De ki képes így élvezni a látványt, hogy még a kávát sem bontják le a panelekről? Engem még az is irritál, ha csak egy pár milli vastag fekete csík van a panelek közt, az is inkább hirdetéseknek való, nem filmet vetíteni, vagy játszani, de így egymás mellé hajítani a monitorokat, hát...
De legalább ha ekkora felbontásokra gyúrnak, talán már jövőre be lehet támadni a 2560x1600-as monitorokat is, de 1920-al legalább is tuti nem lesz gondja már ezeknek se.Lassan tényleg kiérdemli a nevét a HD széria.
-
janos666
nagyúr
válasz
tome.jr #6332 üzenetére
Ez rossz kifogás:
1: A raktárkészletekkel úgy gazdálkodtak, ahogy akartak, és valószínűleg egy ideje leállt már az RV770 gyártása, ha nem láttak benne lehetőséget a HD5 bevezetése utánra. A 4870x2-t pl nem nagyon forgalmazzák már pár hónapja.
2: Ha minden igaz, a HD5 jobb is lesz, de lényegesen drágább is, ha 2x jobbat csak 2-3x drágábban kapsz, az még nem házon belüli konkurencia, pedig olyat sem ritkán látni egyébként a VGA piacon AMD-nél.
3: Ennyi erővel sohasem lehetne jobb kártyát csinálni, mert mindig van régi raktárkészlet. De biztos is, hogy díszeleg még 1-2 boltban 6800 Ultra 20k-s árcímkével, "hátha sikerül rásózni valakire, ha nem meg mindegy, dísznek megéri nem eladni 5k-ért, mert annyiért már bármikor elkel majd, sőt, bontatlanul esetleg drágább lesz, ha valamiért meg kell majd tőle szabadulni".Amúgy ja, 90%, hogy vannak turpisságok a dologban, és átlagban normális tesztkörülmények közt nem mindig lesz gyorsabb az 5870 a 4870x2-től se, csak ahol nincs CPU limit, és agyonküldik neki az AA-t, mert mondjuk csak a 8x AA mellett lesz tényleg 2x gyorsabb, de úgy is csak itt-ott, máshol úgy is csak ~80, AA nélkül pedig akár még kevesebb...
-
janos666
nagyúr
Hát ja, nem lesz kapós, mert sokan inkább a megzuhant árú 4870x2-ket fogják keresni a jóval drágább és alig gyorsabb HD5 helyett (de jó hogy ma eladom az enyém, mennyit ér majd 2-3 hét múlva?
) Talán nem véletlen, hogy jó előre kivonták őket a boltokból.
(#6170) Dark KillerX - Ezt nem tudom honnan veszitek. Én pl. olcsóbban vettem a 4870-emet a topikból elsők közt, mint amennyit 2-3 hónap múlva kértek érte, kb. használtan adtam volna el újkori vételárán hufban ősszel. Mondjuk abban benne voltak a valutaárfolyamok, de én kb akkori dollárátváltott ajánlott fogyasztói áron kaptam (plusz talán 1-2k borravaló, amiért a legelső kártyák egyike).
-
janos666
nagyúr
Én is lefogom, kapja a vizesblokkot, amint lesz rávaló, aztán ha ez is kinyíródik, hacsak szét mered szedni antisztatikus védőruha nélkül, akkor tényleg nem veszek többé radeont.
(#6093) r1E3S3E7T - Ja, vagy bemutatnak valami harciszimulátort, amiben AMD chipek dolgoznak. Közben az nv meg rohan összekaparni valami ES chipet, csak hogy menjen, aztán "konkurencia híjján" bontják is neki a pezsgőt, az AMD meg másnap rohanhat utána, mint a veszett kutya, mert tajvanon meg elkezdik árulni az 5850-eseket. -
janos666
nagyúr
(#6087) zuchy - Kisebb csíkszél, de több tranzisztor, és picit nagyobb méret, ebből saccra akár többet is fog enni egy lehelettel, mint az RV770, mert ha nem remekel a 40nm-es gyártósor, akkor itt sem lesznek túl harmatosak az alapfeszek. (már ha olyasmi magas órajeleket akarnak mint Rv770-nél, SP-ket és TMU-kat dupláznak, de ROP-okat nem).
Meg úgy egyébként is, ha kevésbé melegedne, akkor lehetne még halkabb...(#6089) Med1on - Kíváncsi vagyok 22.-én mire kell majd átállítanod a visszaszmlálót.
Apokalipszis Most! Nem, holnap. Nem, megint holnap, vagy majd ha 2012-ben lejár a maja naptár. -
janos666
nagyúr
Szerintem sem érdemes, okosabb már a Vista/Win7, szívesebben használja a fizikai RAM-ot, és csak akkor swappol, ha az már betelni készül, de olyankor meg jól jön, ha ott van tartaléknak a pagefile.
Tényleg jó szarul fog kinézni. De úgysem látod. Ellenben ugyan azt a régi lenkereket kapja, mint a HD4-ek is. Nem hogy vennének ők is a deltától olyat, mint az nv. És akkor emellé a szélkerék mellé akkor tökre lefojtják a levegő útját mindenfelé, "had süvítsen!", az se baj, ha a nagyja a gépházon belülre megy, a DVI-HDMI átalakító is tökéletes, de pazaroljuk az értékes helyet ott hátul, nem parasztvakítás az a sok port. (mert akkor meg hagyjanak el egy DVI-t, és helyette 1-1 HDMI-Display port...).
(#6084) rocket
-
janos666
nagyúr
Nincs rá benchmark, de még mérőeszközről sem tudom mivel mérném ki.
Szerintem ugyan azzal az FPS számmal (legyen az akár fix 60 Vsync) simábban adja a képet a Geforce. Lehet köze ahhoz is, hogy legutoljára X2-m volt, és abban volt lag, vagy mikrostuttering a CF miatt, és ehhez hasonlók, de szerintem valahogy a drivereik renderelési stratégiái eleve máshogy vannak belőve, és valamiért radeonnal végül nagyobb lesz a frame latency 1 chippel is, vagy 2-vel jobban nő, mint elvileg szabadna.
És ez még alapbeállítás, az nv control panelben felül lehet bírálni a prerender limitet, nem úgy, mint CCC-ben. Ha nincs 2-3 képkocka előre bufferelve, azt csak megérezni egy jó 1000Mhz-es egérrel, pörgős FPS játékban.
Vagy simán szarok a drivereik (pl náluk a Vsync csak frame limit, és nem függőleges szinkronizáció a monitorhoz), és amiatt szopik ilyenekkel, ahogy szét kell szabdalni mindent a driverben hogy etethessék a 4+1-es statikus szuperskalár tömbjeiket.
Ha legközelebb is lesz valami radeon, és még ez a 8800GTS, ami marad Physx-nek, akkor majd kipróbálom úgy is hogy beküldök valakit, hogy véletlenszerűen tolja be nekem valamelyikre a játékot, aztán a másikra.
Aktív témák
Hirdetés
- Xiaomi 11 Lite 5G NE 256GB Kártyafüggetlen 1Év Garanciával
- Telefon felvásárlás!! Apple Watch Series 9/Apple Watch Ultra/Apple Watch Ultra 2
- Csere-Beszámítás! Asus Rog Thor II 1200W 80+ Platinum tápegység! Olvass!
- DELL PowerEdge R730xd 16LFF 160TB+400GB 2U rack - 2xE5-2683v4 (16c/32t),256GB RAM,2x10G NET,HBA330
- Bomba ár! Dell Latitude 7320 - i5-11GEN I 8GB I 512SSD I HDMI I 13,3" FHD I Cam I W11 I Garancia!
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest