- Huawei Watch GT 5 Pro - egészség + stílus
- Xiaomi Watch 2 Pro - oké, Google, itt vagyunk mi is
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Motorola Edge 40 - jó bőr
- Milyen okostelefont vegyek?
- Azonnali navigációs kérdések órája
- Mobil flották
- Telekom mobilszolgáltatások
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
Aktív témák
-
Departed
őstag
Ez?
Winston 'The Wolf' Wolfe: Az út 30 perc, 10 percen belül ott vagyok!Vagy ez?:
Winston 'The Wolf' Wolfe: Winston Wolfe vagyok. Problémamegoldó.Egyébként pedig normális áron sebesség szerintem a legtöbb játékos igénye, és ezt inkább a topic címében szereplő cég termékeire mondhatjuk el.
-
Abu85
HÁZIGAZDA
Az elképzelhető, hogy az SSAO algoritmust nem írták át PS4.1-re. Amúgy az egész Clear Sky-on van mit javítani ... természetesen sebesség szempontból.
Szerintem a fejlesztők kezét sokban kötötte a TWIMTBP szerződés. Az Xray 1.6-nál (következő Stalker) már nagy sebességbeli javulást ígérnek.
-
janos666
nagyúr
Ezt nem is tudtam, akkor a G80 okosabb, mint az R600.
Ha már ez is tud CUDA-val élsimítani deferrend renderingre, már csak valami olyan "hack" kellett volna a driverbe, mint most az Ambien Occlusion, és mehetne mindenhol a CUDA-AA Gef8 felett. Könnyebb lett volna lehurrogni a DX 10.1-et akkoriban.
Ezt a másik újítást annyira nem tudom értékelni, mivel nem értek hozzá, de azt tudom, hogy pillanatnyilag nem sok haszna van. És ami itt a lényeg volt, hogy ha az ms kivenne azt-azt az nv kedvéért, akkor ezeket most is kihagyhatta volna, és csak azokat teszi be, amit az nv is tud. Ez a gatherezés, és más apróság kibírta volna a fiókban, míg jön a DX 11. -
Dark KillerX
addikt
A H.A.W.K-ban a GT200 széria kártyái,tény és való,hogy jól mennek(kategórián belül persze),de a G80-as és G90-es család tagjai már nem olyan jók.Persze bőven játszhatóak
,de azért rendesen lecsúsznak,ezt tapasztalatból mondom.Pl.:mert amíg a szénné húzott 8800Gs-el ment kb 40-45FPS-t 1280 2*AA-val,addig a mostani húzott 3850-el megy Dx10.1-ben 4*AA-val kb 70-80FPS-et,de ugyanúgy jó példa a Call of Juarez is,mert ott is jóval gyorsabb a Radeon legalább 7-8FPS-sel.
Med1on nem jók a képek.
-
nixx-21
őstag
ahogy az ezt megelöző hsz-edben írtad kb 1600ALU és 80 textúrázó várható....
az RV770-ben lévő 800/40-hez képest szvsz minden a duplája lesz kivéve a ROP-okat így ugye meg is maradnak a 256bit-nél persze egy (jóval) gyorsabb tipusú gDDR5-el társítvameg a 4730-at erősen limitálja a kevés sávszél illetve a nagyobb késleltetésű gDDR5-ös RAMok, nemde?
-
zuchy
őstag
Vajon mér szedték le olyan gyorsan?
Amúgy meg most az AMD kivégzésre megy. Ha igaz az a die shot az RV870-ről, akkor csak az SP-k számának növekedéséből számolva GTX295 teljesítménye van meg. De talán duplázták a ROP-okat például. Ami megint hozna a konyhára. A memóriákat is el tudom képzelni, hogy 5GHz-en fognak menni. Sőt a GPU frekvenciája is valószínűleg nőni fog az X2-hez képest.
SZVSZ ha 300$ lesz az XT ára, az igen kemény árazást jelent, az AMD azt szeretné, hogy minél több juzerhez jusson el a kártyája az Nv előtt. Így telítik a piacot, Nv-t meg csak a fanok fogják megvenni, ha tartja a GPGPU-s irányt, ami elég valószínű. -
tzsolesz
nagyúr
Azt nem tudom, hogy az X1950XT, és a 2900XT között mennyi volt a különbség, de ha most nem dupláznak, akkor elmehetnek a sunyiba.....
Azért írtam ezt a példát, mert ott volt a DX9 --> Dx10 váltás, és az nem ugyan olyan mint a 3000, és a 4000-es széria közötti váltás.
Biztosan van valami magyarázat erre, de én arra gyanakszom, hogy ez még egyelőre csak fake, mint a 4870-el kapcsolatos latolgatások a megjelenése előtt. -
VaniliásRönk
nagyúr
-
janos666
nagyúr
Képminőség beli visszaesést még nem vettem észre, pedig kényes vagyok rá, ha egy porszem kerül a monitorra, már hozom az alkoholos törlőkendőt, ha picit fura a film képe, már frissítem a kodeket és/vagy átnézem a beállításait...
Illetve egy volt, HDR mellett az élek szemcséztek néha, de Multiról Supersamlera tettem a TransparencyAA-t, és fasza (Radeonon a supersample az alap, ha bepipálod ezt az opciót).Mégvalami feltűnő: Érezhetően gyorsabban tölt be most a játék, ennek gondolom a shadercompilerhez, vagy a memóriaallokáláshoz, netán a textúrabetöltögetéshez (mindháromhoz egyszerre, plusz ahhoz amiről nem tudok) lehet köze driverek kapcsán.
Persze, a lagot x2-re értem, és csak CSS alatt éreztem igazán, ez kevésbé érdekelt, mert mostanában úgyem multizom már. Ez a lag is okozhatja azt az érzést, hogy "válaszkészebb" a rendszer (jobban leköveti az 1ms Razer egeret), de a többi eddig elindított játéknál a sima 4870-est próbáltam felidézni (eleve csak olyat vettem elő, aminek illik szépen elfutni 1 GPU-n, az X2-t azért vettem, mert nem minden futott el 1-el, tehát értelem szerint azzal inkább olyanokat toltam, amiknek 2 kell, mert korábbról félretettem pár ilyet, és nem volt meg sokáig a kártya;; nyár elején nem sokat gépeztem, most bezzeg már itthon unatkozom...)
Így végül is nem annyira nehéz összevetni, mert G80-as GTS-ről váltottam 4870-re, aztán X2, és most vissza G92-es GTS-re. Persze mikor 4870-esre adtam a fejem, akkor azt próbáltam bemesélni magamnak, hogy jó döntés volt, illetve X2-nél, hogy kényszerűség volt, nem a hibákat kerestem, hanem az előny feltárására helyeztem a hangsúlyt.Nem tudom pontosan körbeírni, de szerintem 1 GPU-s kártyák közt is sokkal kellemesebb érzés Geforceal játszani (hasonló FPS-ek mellett, akár plafonozó 60-al Vsync mellett). Lehet, hogy mégis lag, ami 1 GPU-ból is megvan mondjuk driveroldalról.
Ha netán visszakapom az x2-t, vagy mégis HD5 lesz a következő kártyám, berakom őket egymás mellé, x2 esetén letiltom az egyik GPU-ját, és windowsból váltogatva kipróbálgatom még őket gyorsan egymás után, de most hiszek magamnak, hogy jobb érzés geforceal játszani! (És nem szivesen hiszem ezt, mert HD5-öt terveztem venni, megintcsak amint jut belőle itthonra, merthát a GTS nem mai gyerek, és most csak ez van a gépben...) -
janos666
nagyúr
Hát, ja, ha chipenként csak 800-800 SP, akkor fejenként 192-192 elég, ha 5Ghz körül van az órajel (most mindegy, hogy külön-külön van jelen 2db 198-as, vagy egy közös 384-es, SP-kre leosztva ugyanannyi marad, esetleg dinamikusabb a sávszélfoglalás, ha a belső busz nem csak 192-es, hanem chipenként is 384-es, ami befut a középső 384-esbe (de ez pazarlás, nem sok gyakorlati haszna lenne). Ha középen van egy 384-es memóriavezérlő, amihez a két chip 192-es buszon csatlakozik, jól adná ki magát, mert akkor az egychipes kártya így lehetne 192-es (ha a belső busz is 384-es, akkor az egyhipes kártya is lehetne 384-es, kevesebbet kéne variálni, tehetnének rá Ghz-ben lassabb RAM-ot, ami nem üti a kellő sávszélt az X2-re)
De legyen akkor reális és ideális maximum, hogy 2x1200 SP, amik fejenként 192 bites busszal futnak be a közös 384-es vezérlőbe, amire 6Ghz körüli RAM-ok vannak aggatva. Ez így kellően izmos jószág lenne, a windows felé 1 GPU-nak tűnhetne, így kevésbé lenne driverfüggő, mint a CF (még ha kicsit kényesebb is lenne a driverre, mint a mostani egy chipes 4870).
Ehhez akkor 1200SP-s lenne az egychipes kártya, és ugye csak 192 bites busz lenne.Vagy az egyhipes kártya 1600SP-s, és 384 bites, a kétchipes 2x1600-as, és a közös vezérlő is mindhárom irányból 384 bites, és switchként üzemel.
Ha elém tették volna ezt a két verziót, és nekem kellett volna rábökni valamelyikre, akkor én az elsőre szavaztam volna (mármint eladó, mert mint vevő, inkább a másodikra).
-
janos666
nagyúr
Attól még hogy MCM, ugyan úgy nem kéne összeadni a sávszélt. Az egyes magok shadereit és textúrázóit ugyan úgy etetni kell. Sőtt, ha már nem a PCI-E switchen és a CF-hídon, hanem a RAM-on át kommunikálnak a magok, az is csak némi plusz sávszéligény. Az egyes magokra jutó elméleti sávszéligény pedig a duplájára nőhet, akkor a gyakorlatit sem árt közel duplázni. 256 bit alá nagyon necces lenne lemenniük, még 7Ghz-s RAM-mal is. És nem hiszem, hogy sokkal olcsóbb az ilyen RAM, mint akár a 384-bit ~5Ghz mellé.
Persze lehet, hogy laikusként rosszul értelmezem az MCM dolgot. -
TESCO-Zsömle
titán
Pedig muszáj lesz nekik a PRE-DX11-es játékokban domborítani, amíg a piacon azok vannak zömmel, különben beszívják mint a torkosborz, épp úgy, mint a tesszellátorral meg a többi "majd vmikor jó lessz" dologgal. Most nem ennek van itt az ideje. Mindenben gyepálni kell nV-t.
-
VinoRosso
veterán
-
Abu85
HÁZIGAZDA
Egy Crytekes gyerek publikálta az SSAO-t. Gondolom tud optimalizálni.
Esetleg az is játszhat, hogy a Crysis képszámításának kis részét teszi ki az SSAO, így kicsi lesz az eltérés is a teljes frameidőben.
Az NV driveres HBAO meg teljesen általános algoritmus lehet, talán a fő szempont a széleskörű hasznosítás. -
-
Nem tudom biztosan, de mintha olyat olvastam volna, hogy a TFT monitoroknak natív felbontásban átlag 50ms körüli bemeneti késleltetésük van - ez nem az utánhúzás - kisebb felbontás esetén még több is lehet az átméretezés miatt.
Kiváncsi lennék, hogy egy 4GPU-s rendszernek összesen mekkora a késleltetése mindenestül.
Abu: Esetleg ilyen teszt a jövőben?
Hátha az új dx11-es nV kari mellett csak ez fog szólni. -
#65755648
törölt tag
Hát, bizony nekem is elég soknak tűnik az a 0,35sec. Sztem annál sokkal jobbak az emberek reflexei.
birkám És ne felejtsük, hogy ennyi idő alatt reagáltunk is már a monitoron bekövetkezett változásra, tehát még ennél rövidebb idejű eseményt is képesek vagyunk észlelni, észrevenni, csak már nem marad időnk reagálni.Már csak ha a Track Mania Nations Forever-re gondolok, ami neten megy, mégsem tudom elképzelni hogy a lag 350ms legyen. Abban van hogy 5-700km/h-val száguld a kocsi (nem tévedés) és ennél a sebességnél is be kell tudni venni a kanyart, sőt sokszor korrigálok ilyen sebességnél a kanyar közepén! Ez azért sokkal-sokkal kevesebb mint 350ms... ha 350ms lenne, akkor mielőtt egyáltalán meglátom a kanyart, a valóságban a kocsi már túl is kéne legyen rajta kb.
-
VinoRosso
veterán
na ja nem egy gamer ismerősöm van, akinek nem mindegy, hogy milyen egérel tolja a cs-t, mert a szarabb egereknek nagy a késleltetése( pár 100 ms-el több mint a gamer egereké )
kipróbáltam az oldalt, ez jött össze:
Nem tom, hogy ez most jó e? Azt írja h átlagos, pedig ez 300 ms alatt van, milyen lehet akkor a gepárd kategória
-
Abu85
HÁZIGAZDA
Már sokan kipróbálhatták az AMD Cloud-ot és játékosok is voltak köztük, nem vettek észre különbséget az otthoni környezethez képest pedig a Cloud 350 ms feletti input laggal dolgozik (ugye internetes képszámítás). Csak azután érzékelték a dolgot, amikor megmondták nekik a jelenséget, de mindannyian úgy nyilatkoztak, hogy nem igazán érzékelhető, gyakorlatilag lényegtelennek minősítették. És itt már komoly lagról beszéltünk, 160 ms az nudli, képtelenség felfogni. Már rajta vagyunk, hogy mi is kipróbáljuk a Cloud-ot, majd beszámolunk.
-
Abu85
HÁZIGAZDA
Ha 25 jelenetet számol a játék másodpercenként (egy jelenet után 40 ms-ot vár - kb ez a megszokott), akkor tök mindegy az FPS, mert 25-nél több scene információ nem kell másodpercenként. Elég egy frame minden sceneből.
A 200-250 ms az brutálisan komoly reakcióidő, ilyen értéket alig pár embernél mértek a világon. Biológiai megközelítésben ez azt jelenti, hogy minden 11-est kivédenél (megfelelően fitt testtel ugye).
Abba gondolj bele, hogy a biológia szerint a pislogás, mint önkéntelen (azaz nem tudatos) reakció és maga az inger érzékelése 220 ms az agy számára. Egy átlag ember reakcióideje bőven 350 ms fölött van. A rutinos gamerek talán tudják a 350-et, de ez is már csodaszámba megy.
-
Abu85
HÁZIGAZDA
Egy játék eleve egy alacsony fix jelenetsebességgel fut általában 25-30 jelenet/másodperc. 25 jelenetnél a proci 40 ms-ot vár, amíg elkezdi számítani a második jelenetet. Ez négy GPU-nál is gyakorlatilag észrevehetetlen input lagot eredményez. konkrétan 160 ms késésben lesz a jelenet és a kép. Egy átlagos ember 500-600 ms sem képes észrevenni, a 300 ms-os tudományos határt pedig csak az veszi észre, aki kifejezetten az alacsony reakcióidőre edz (versenysportolók). Akár nyolc GPU-ig is el lehet menni, ez a legtöbb embernek fel sem tűnik.
Elméletben igen, de most gyakorlatilag milyen más életképes megoldást tudsz az AFR mellé.
-
Abu85
HÁZIGAZDA
Ez rég nem gond, az új motorokat frame és scene limitre írják (ez majd feloldhatatlan lesz) ... a jelenlegi motorokat a driver már most korlátozza, a számítás időzítve megy, ahogy a scene limit. A Microstuttering már rég nem probléma ebből a szempontból, gyakorlatilag nem is az input lag okozta, hanem az energiamenedzsment. A HD4000-es driverektől kezdve már most jó a működés, addig nem kerül ki a köv. frame, amíg egy bizonyos limitidő el nem telik (ez az eljárás nemrég aktiválva lett a teljes HD családra). Gyakorlatilag a frame már 4 GPU-nál is folyamatos ha az FPS a scene limittel azonos, vagy a felett van. Az NV is már ezt a megoldást alkalmazza. De igény szerint át lehet majd térni az objektum alapú renderelésre is. Azzal is foglalkoznak már. Bár sokszor az AFR még mindig jobb, de alternatívának jó megoldás.
-
Abu85
HÁZIGAZDA
Valszeg MCM-en közös memó lesz. Az MCM dual package négy maggal már kérdéses, de a CrossFire Sidebar lehet itt jön majd képbe.
Járható út a két setup blokk is, de minek ha már eleve a több GPU-ra gyúr az AMD. Valszeg tranyószámban sem kellemes ez a megoldás.
A hinteket ne vegyétek azért biztosra, még az AMD nem mond semmit, de egyelőre ezek reális infók lehetnek.
rup1u5: Olyan mint az Intel Core 2 Quad ... két chip egy tokban.
Petya2900XT: Már most is jók a driverek, nem hiszem, hogy ez probléma lenne. Eleve pár sor a programkódban a Multi GPU támogatás.
-
tzsolesz
nagyúr
a jelenlegi felhozatal alapján nálam stabil "nem" a válasz, de elfogadom, ha más másképp gondolja.
A játék gyártók majd tesznek róla, hogy szükség legyen az új hardverekre.
Amúgy szerintem még rá is tesznek egy lapáttal, azzal, hogy lassan minden játék 2-3-4 DVD helyet foglal el. Nem hiszem el hogy nem lenne elég kevesebb hely.
Sőt, én már sokszor azon is gondolkodtam, hogy szándékosan erőforrás igényesebbnek csinálnak meg egy-egy játékot, annál mint amit látványban nyújtani képes ennek ellenére.De itt egy ellenpélda: Kriger Ez az ingyenes FPS játék mind össze 95kb, és nézd meg hogy mi bele fér ebbe a méretbe.
Nem vagyok programozó, de amióta megláttam, nem térek magamhoz, hogy mik léteznek. -
#65755648
törölt tag
Ok, bocs ha sértő voltam, nem annak szántam, de hát Te tudod hogy mit érzel annak és mit veszel magadra meg mit nem.
Másodszor, én direkt nem sarkított példákat emeltem ki, hanem átlagos tesztben, átlagos játékokkal átlagos eredményeket mutattam, olyat ami a valós életben fordul elő a vásárlókkal, úgyhogy ne kend rám PLZ a sarkítást, mert nem igaz...
Harmadszor: meglehetősen semmitmondó, ha szabadon választott, árakat, elterjedtséget, megjelnési időt és abszolút minden mást is figyelmen kívül hagyva kizárólag sterilen a GPU-kat hasonlítod össze. Ez működik egy olyan tesztnél ahol direkt ez a cél, az architektúrák összehasonlítása, de nem működik ott ahol a vásárlói igényeket és az általuk preferált videokártyákat hasonlítjuk össze. Hangsúlyozom videokártyákat. Lehet hogy én vagyok hülye, de úgy emlékszem a 8800GTX 512MB-al jött ki, csak azért linkeltem olyan tesztet ahol 9800as volt, mert csak olyat találtam itt hirtelenjében ahol a G200-al volt összehasonlítva. De a 9800 már mint tudjuk egy kényszermegoldás volt az NV részéről sokkal később, akkor amikor már bagoért voltak a DDR3 ramok, így rápakoltak akár 1 GB-ot is. Jó, tudom, volt ott 768MB-os Ultra is, de arról már mindenki nagyjából megfeledkezett (gondolom a magas ár és emiatt a nagyon kevés eladott darabszám miatt), hát hadd tegyem ezt én is.
Tehát még egyszer: én a videokártya generációkat, vagyis a különböző videokártyákat hasonlítottam egymáshoz és nem érdekel hogy a teljesítményüket minek köszönhetik, mint ahogy a következő generációs kártyák is sokindennek fogják köszönni az előnyüket a mostaniakkal szemben (több számolóegység, magasabb frekvencia, nagyobb memóriasávszél, több vram stb). -
Dare2Live
félisten
-Oké az egyik pldamnal nincs meg sokszor a min +50%. A többinél igen. Ennyi ami cáfol?
-Egyszerüen arra akartam célozni, hogy a +50-100% a mult ismeretében egyaltalán nem valószínűtlen.
-Proci minenhol hozza az elvárt 50+fpst. VGAnal ez egy 4870el se mondható el 1920ban még mérsékelt szürökkel sem.
-
#65755648
törölt tag
Nagyon ügyesen észrevetted az NV utolsó szériája "bukásának" egyik legfontosabb okát. Nem tudták hozni az előző generáció teljesítményének kétszeresét. Ez azonban csak az érem egyik oldala. Ha már elfelejtetted volna, itt egy kis emlékeztető: 7900GTX vs G80 Jól látszik hogy sok játékban még 100%-nál is többet hozott a G80 az elődjén (sőt az ő elődje inkább a 7800GTX volt amihez képest még nagyobb a különbség), pedig elég nyilvánvaló hogy 2X FPS-hez -ha csak egy kicsivel is, de- több mint kétszeres nyers erejű VGA kell, ha a tesztgép azonos). Ez a kiugróan nagy teljesítmény volt a kulcs ahhoz, hogy a 8000-es sorozat anno úgy elgyepálta az ATI 2-es és 3-as szériáit. És valszeg ez az egyik ok, amiért később már nem tudták olyan nagyon növelni a teljesítményt. Hosszú távon csak az átlagosan 2X teljesítménynövelés hozható úgy tűnik és így is történt. G200 már kb 4X gyorsabb a 7800GTX-nél.
Másrészt azért azzal igancsak vitatkoznék hogy 50% sem volt a G80 és G200 közt. Ha nem hiszed, járj utána: 9800GTX vs GTX280
Tényleg van 1-2 játék (Crysis, CoJ) ahol nincs meg az 50%, de jellemzően a játékok nagy többsége 55-60%-al megy jobban és van több olyan játék is ahol közelíti vagy akár meghaladja a 100%-ot!Lényeg a lényeg, mivel a jövőt a múlt tapasztalataira támaszkodva lehet legjobban megjósolni, én azt mondom, hogy ezúttal mindkét gyártó hozni fog átlagosan kb 80-90%-os növekedést, vagyis a jól megírt és nem procilimites játékokban 100%-nál is többet.
Ja a kihajtásról meg annyit, hogy kisza25 nagyon jól leírta mi a lényeg. A CPU ne legyen olyan gyenge, hogy az adott játékban az adott körülmények (felbontás, részletesség stb) között ne bírjon annyi FPS-nyi fizikát meg AI-t meg mittoménmit számolni hogy a játék akadozni kezdjen, míg a videokari ugyanilyen körülmények között képes lenne rá, hogy játszható FPS-t számoljon (és felejtsük el a multit, az más tál tészta)
-
janos666
nagyúr
Crysis alatt szerinted milyen grafikont firkált a taskmanager a Q6600 3600-on járó magjaira? Mert, hogy oda még nem is tökéletesen elég a 4870x2, 1920x1200, DX10-VeryHigh módban.
De épp ma szórakoztam a Half-Life 2 Episode Two-val, úgy hogy -thread 4 kapcsolóval indítottam, és beadagoltam a 4 konzolparancsot, hogy amit lehet többszálúsítson. Szinte hihetetlen, de az 1-es mag ment ~35%-on, az 0-ás 20 körül, a többi meg firkált a grafikon legalján, néhány kis tüske volt benne úgy 10%-ig, de az bármitől lehet (futott utorrent, miegymás... -> ezt rivatunerrel olvastam le).Másik: Az imént írtam, hogy szerintem túl sokat vártok az RV870-től, és túl keveset a GT300-tól (és ezért lehet még meglepődni), erre megmagyaráztátok, hogy milyen keveset lehet várni a GT300-tól, és milyen sokat az RV870-től. Köszönöm.
Van erre egy mondás, úgyis tudod melyik...
Még épp ez szúrja nekem a szemem, hogy a GT200 egy duplájára hízlalt, és ráncfelvarrott G80, ehhez képest mégsem gyorsult sokat a való életben. Ha feltételezzük, hogy sikerül megint 70-80%-al kövéríteni a chipet, amivel még épp csak ott liheghetnének az RV870 nyakában, reménytelenül, de valamit alkotnának a chipen, és felszínre kerülne az, ami a GT200-ban elveszett a kazalnyi tranyó közt a nyers erő mögött, akkor történhetne meglepetés. Ez nem annyira lehetetlen ennyi idő alatt, mint az RV790-et megduplázni, hisz itt kisebbet esik a sávszél, és kevesebb helyen lehet már trükközni a GPU felépítésével. Az R600-ból kisajtolták már a nyers erőt, amit trükökkel kilehetett, a GT200 pedig nem ment úgy, mint a felépítéséből adódóan illett volna neki... -
Dare2Live
félisten
-
DeckardCain
senior tag
Érdekes lesz, most néztem neweggen 4870 4890es kártyákat. (HD 4870 1GB 140$, 4890 190-200$) Biztos lesz még egy árcsökkentési hullám HD 4800as fronton. Nem lepődnék meg, hogyha a 90es kártyáknak 2 hónap múlva 150 dollár körüli áruk lenne, illetve alatta. Azon kívül, hogy baj van a Tsmc-nél, nem hiszem, hogy nagyon erőltetni szeretné az AMD a 4770-et . Valahogy el kell adni a 4830at illetve 4850et abban a szegmensben. HD 5850 (175$), HD 5870 200$ körül de inkább felette. Azt, hogy ehhez milyen teljesítmény párosul nem tudom. Ennél magasabb árral az agresszív piac szerzés nem fog működni, már ha az a cél. De azt is tudjuk a nagy pénz nem ebben a szegmensben van. De most már lassan röhögő görcsöt kapok attól, hogy mi megy a VGA piacon. 2 hónap és simán 40 alatt lesz itthon a 4890. Persze ha nem lesz 320 forint az euró, de ez más kérdés.
-
VinoRosso
veterán
A forma nem helyettesíti a tartalmat, önmagában grafikailag egy játék hiába néz ki jól, ha üres. Viszont ha valami jó, akkor a grafika ki tudja hangsúlyozni, illetve el tudja fedni a kevésbé jó részeket. Pont úgy mint egy nőnél, pl meglátsz egy jó buxát valahol az utcán, és nincs kisminekve kiöltözve, azt mond mmm jól néz ki, megdugnám, stb.. de különösebben nem hoz lázba, aztán megnézed sminkkel, napbarnítottan, egy falat párducmintás szoknyában, és elkiáltod magad hogy oioióóóó, majd a hónod alá csapod, és a legközelebbi liánra pattanva beszánkázol vele a barlanba. A jó dizájn megmozgatja a fantáziád, de kockafejű, pixeles karakterekkel, buta fizikával nehéz megragadni az emberek figyelmét.
-
Bluegene
addikt
igen a számítógépes animáció, szal jól néz ki, akkor is ha ordít h sz.gép
példa a far cry1 v crysis v mirrors edge, látszik h rajzolt de lehet pont emiatt fog meg
ha túl élethű, sőt tök olyan(ezt nehéz még elképzelni) az talán ijesztő, gondolj bele lelősz egy embert és ultra élethűen haldoklik stb, tök úgy néz ki mint a szomszédod azért az már parás
sztem ha elérjük ezt a szintet, lesznek direkt "számítógéppel renderelt kinézetű" oldscool játékok is
-
Abu85
HÁZIGAZDA
Szvsz nem hülyeség. Illetve maga a GPU már eleve többmagos a shader processzorok miatt, de a Shader Core az R600-nál egy mag. Ellenben a mai moder GPU-k problémája a Triangle Setup, ami csúnyán szűk keresztmetszet Tesszellálás esetén. Két shader kód 2 Triangle/órajelet eredményez, ami már jobb.
Az ATI elég régóta tanulmányozza a Teszellálást, hogy tudja hol vannak a technika problémás területei.
-
VinoRosso
veterán
Szerintem jóaz. Akinek nem akar nagy felbontásban vagy magas AA-val játszani, annak elég a 4730. Minek fizessen olyanért, amit nem használ ki? A gyártók alapvetően nem úgy gondolkodnak, hogy itt van ez a káryta, rakjuk be valami jó köntösbe, aztán basszuk át vele a népet. Természetesen van ilyen is, de ez nem szignifikáns az eladási statisztikákra nézve.Kevesen fognak megvenni egy 1GB-os 9300 GT-t azért mert 1GB ram van rajta, inkább azért mert arra van pénzük. Akik az átbaszásra szoktak törekedni azok a kiskereskedők, de ők többnyire annyira suttyók, hogy magukat basszák át. Leginkább pl olyanokkal trükköznek, amihez nem kell ész, egyszerűen azt mondják, hogy user error miatt halott a termék, és emiatt ugrott a gari. A vevő felelőssége mindig megnézni, hogy mit vesz meg és kitől, pl senki nem fog sajnálni egy olyan emebrt, aki bemegy egy ruhaboltba, és túl nagy van túl kicsi ruhát vesz meg magának, mert lusta felpróbálni, és egyszerűen rábök egyre, amelyik szimpatikus neki. Az hogy nézne már ki, hogy bemész egy cipőboltba, aztán nem 27-52ig vannak a cipők, hanem van 3 féle méret 2 kínai márkából( mert az a legjobb ár/érték arányban), gyerek, kamasz, felnőtt, meg yeti, aztán az emberek 99%-nak a vagy szűk vagy tág lenne a méret. Az a jó, hogy pont a lábadra lehet szabni. Nekem pl 42 & 1/2-es lábam van, és esélytelen olyan márkából választanom cipőt, amiből csak 42 - 43 van.
(#4238) schwartz : Nem így értettem. Ha mondjuk ps4 = 2x rv740 + 2x 2GB ram + 2x Cell mag, akkor 5 évig megint nem kell hozzányúlni.
-
Gonosz15
aktív tag
Érdeklődjön a kedves eladótól
Egyébként meg tényleg nincs nagy teljesítmény különbség a 4730-4770-4790 közt.
4770 -ből hiány van mert gyengélkedik a TSMC. 4730 -ból úgy tudom eddig csak a Sapphire és a PowerColor gyártott, szóval azért annyira nincs elárasztva vele a piac. Az 4790 mondjuk már szerintem is felesleges volt ide, de azért ott csücsül rajta egy rv790 amiben tudjuk, hogy nem kis tuningpotenciál van.Addig jó míg ilyen a kínálat teljesítményben és nem tér vissza 8600GT féle "középkategória".
-
Gonosz15
aktív tag
A 4830 -nak már nem is kéne léteznie. Őt hivatott váltani az ugyan olyan tulajdonságokkal rendelkező, csak már 40nm -en gyártott 4770.
Keldor papa: Lehet, de valamivel ki kell söpörni a raktárakat és persze tudjuk nagyon jól, hogy AMD sem jótékonysági non-profit szervezet, hogy még jobban csökkentse a már amúgy is alacsony árakat, még ha meg is tehetné. Szerintem a partnerek sem nagyon hőbörögnének, mert bőven volt már haszonkulcs az eddig eladott kártyákon.
Na mindegy, az AMD ezt az utat választotta, így szeptemberig marad ez a kissé kaotikus állapot az középkategóriában. -
Bluegene
addikt
az a baj h olyan chippel kéne előállni ami mindakettőben jó(DX-ben és software rendering-ben)
mondjuk nézzük 2014-ben kijön 3 softw. rend. játék az összes többi dx-es, 2016ban mondjuk 50-50% a DX és softw. rend.
nehogymá megvegye vki a larrabee-t az Ut5 nagyon jól fut, de néha elővenne vmit nosztalgiázni(crysis, fc2, mass effect), és azt nem tudja futtattni rendesen, a másik oldalról ha veszel egy ati v nv karit(dx-es) akkor az meg azt a 3 új játékot nem fogja tudni vinni, de az összes többit kiválóan
szal mindenképp kompromisszum kell az átállásnál, vmi hybrid chip, különben megbukik és marad a DX
nem értem egyébként miért kellene leváltani a DX-et, jó biztos nem tökéletes de tovább lehetne fejleszteni, azzal is elérhető szép látvány
-
-
zack
nagyúr
De ez teljesen egyértelmű is...sosem fog tudni egy integrált VGA ami 5 éves ciklusokban készül egy konzolhoz, felvenni a versenyt egy olyan hardverhez ami fél évente frissül, 1-1,5 évente pedig nagyot dobbant. A PC-nek jelenleg ennyi az előnye hogy jóval szebb és részletesebb a kép. Kérdés az hogy megéri e 1 vagy 2 XBox 360 árát fél éves viszonylatban 1920x1200 felbontáshoz egy VGA... szerintem megéri. De más másképp gondolja. Ezért van sok konzolos, és sok PC-s júzer.
Így van ez jól...
A gond a konzol játékok portolásánál kezdődik. Nem elég hogy megveszed sokszor annyiért a gépet mint egy konzol, hogy normális minőségben told a játékokat, hanem még a konzolos minőségre is rákényszerítenek. Ez itt a gond. Elveszik a PC előnye. És itt nem a STALKER CS, új Riddick, vagy Crysis + Crysis WH-re gondolok...mert a PC júzerek igenis megérdemelnék hogy CSAK ÉS KIZÁRÓLAG ilyen grafikai szintű és minőségű programokat kapjanak ha már több autó árát elköltik egy 5 éves ciklusban a gépeikre. E helyett kapunk 1 évben jó esetben 3-4 ilyen játékot, és 50db konzol portot. Hol itt a korrektség? Ez a felháborító. -
VinoRosso
veterán
szinte bármelyik modolható gammából lehet vramzabálót csinálni. Crysis alapvetően nem eszik sokat ebben a felbontásban képjavítók nélkül, de ha felteszel egy 4096x4096os textúra pakkot nagyon hama becummantja még az 1GB-ot is. Ugyanígy lehet csinálni a CSból is spórolós verziót, ha a SoC textúráit használod, a kérdés úgy helyes, hogy a fejlesztők ill a felhasználók mit akarnak kihozni egy játékból. Szvsz jól néznek ki a nagy felbontású textúrák, csak hát nem nagyon van van még hozzá, vagy nagyon drágán.
-
janos666
nagyúr
Ígyvan. Mikor 512Mb VRAM-al futottam neki, annyit láttam belőle, hogy vagy gyenge a képminőség mediumon, vagy eltűnnek a textúrák, ha nomemrestrict-el high-ra tolom, de még a memórialimitet betartva is akadozik 1920-ban. Ebből leszűrtem hogy egy fos a program, talán patchekkel jobb lesz, de nem lett.
Viszont 4870x2-vel meg is jelennek azok a high textúrák, és elég is a javarészt sima, átlagban is tűrhető futtatáshoz, és olyankor néha csak ámul az ember, mik vannak a monitoron, ahhoz képest mekkora teret belát, és elgondolkozik, hogy talán nem véletlen kellett legalább 1Gb RAM, és két ilyen GPU is. Persze Cryengine-el is be lehet látni nagy tereket, és összességében szebb, de nem lehet minden motor A legjobb, és emelett ez szórakoztatóbb játék is, és sok szempontból jóval összetettebb mint egy Crysis vagy akár Far Cry 2. Ott is dús a növényzet, de itt is sok épület szépen ki van dolgozva, a hullámvasút meg pl. kimondottan odabasz, és a víz se rossz itt se. -
tzsolesz
nagyúr
A lényeg itt szerintem az, hogy 1-2K pluszért lehet kapni +512Mb-al szerelt (1Gb) VGA-t.
Akinek van ennyi plusz pénzügyi tartaléka, az megveszi az 1Gb-os kivitelt. Abból még baj nem volt hogy ott szunnyadt +512Mb memória a VGA-n kihasználatlanul. Viszont az ellenkezőjére igen is vannak példák, sőt egyre több. -
Power
senior tag
Nem abból indultam ki, csak egy példa volt.
HD2600: 120SPs, 128 bit: ~192 GFLOPS, ~35.2 GB/s; 475/105 = 5.45…
2900XT: 320SPs, 512 bit: ~475 GFLOPS, ~105 GB/s; 475/105 = 4.52...HD3670: 120SPs, 128 bit: ~192 GFLOPS, ~32 GB/s; 192/32 = 6
HD3870: 320SPs, 256 bit: ~493 GFLOPS, ~72 GB/s; 493/72 = 6.84...HD4670: 320SPs, 128 bit: ~480 GFLOPS, ~32 GB/s; 480/32 = 15
HD4870: 800SPs, 256 bit: ~1200 GFLOPS, ~115 GB/s; 1200/115 = 10.43...HD4770: 640SPs, 128 bit: ~960 GFLOPS, ~51.2 GB/s; 960/51.2 = 18.75
HD4890: 800SPs, 256 bit: ~1360 GFLOPS, ~124.8 GB/s; 1360/124.8 = 10.89...Jól látható a tendencia a sávszélesség sokkal kevésbé növekszik, mint a számítási teljesítmény.
-
Abu85
HÁZIGAZDA
Ok ... vegyük úgy, hogy fejlesztettek egy középkategóriás motyót a GT200-ból. A G92 magméretébe GT200 felépítéssel max. 120 stream processzor fér 40 textúrázóval, és 16 blending egységgel, 256 bites memóbusszal. Az órejelknél még ott van a kérdés, de jó eséllyel nem lehetne úgy hajtani, mint a G92-őt. Ezzel kaptunk volna egy G92-vel hasonló méretű, de lassabb chipet a középkategóriába, aminek az előnye annyi, hogy jobban bírja majd a Geometry Shadert (bár a Radeonoknál nem jobban tehát lényegében csak a különbséget csökkentené, elverni nem tudná a konkurenst). A DX10.1 beépítése még jobban fájt volna, mert G92 mérethez már csak 96 stream processzort lett volna használható 32 textúrázócsatornával. Ez nyilván még lassabb chip lett volna.
-
janos666
nagyúr
Hát GTA 4-nél tuti csúnya ha kifogy a VRAM
Patch nélkül még nem is engedte magát 1920x1200-ba rakni, mert kifutott volna a RAM számláló. 1.0.03-as verzió már magától 1920x1200-ban indul, de minden más mediumon, meg alapon van, és a nomemrestrict melletti high-ollás (nem is csutka maxra minden, csak high, vagy csúszka legalább defaultra) továbbra is azt eredményezi, hogy eltűnik a textúrák fele, a többi meg lowres verzióban maszatol a képre a félig átlátszó világban. -
HSM
félisten
Szóval ez kb olyan, mint a 4850 1GB esete....(700mhz GPU, 1Ghz GDDR3) Ott is pl.GTA4-ben feljebb tudtam húzni a view-distance-t olyan 75-re, a detail distance-t viszont le kellett húznom 60-ra, mivel nem bírta a ram sebessége... Hiába lett volna ott a plusszadat, nem segített... (Persze, így is sokkal nagyobb minőségben ment hasonló sebességgel, a mikroakadások, utólagos rajzolások megszűntek, ami nagyon sokat dobott a játékélményen, de korántsem tudta az 1GB-ot kihasználni, olyan 750-et használt....) Arról nem is beszélve, hogy a 4890-en 80-80 ez a két érték, textúra mediumon itt is, minden más maxon, és még így is kb. másfélszer olyan gyors....
Szóval ezzel azt akartam mondani, hogy a 3870 erejéből nem futna az 512MB-ot meghaladó beállításokhoz... Picit jobban menne, nyilván, de sokkal kevésbé gyorsulna, mint a 4870....
Aktív témák
Hirdetés
- Állítólag megérte kitiltani az okostelefonokat az iskolákból
- Kerékpárosok, bringások ide!
- Cities Skylines II
- Xbox Series X|S
- Tőzsde és gazdaság
- Ford topik
- Androidos tablet topic
- Huawei Watch GT 5 Pro - egészség + stílus
- Xiaomi Watch 2 Pro - oké, Google, itt vagyunk mi is
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- További aktív témák...
- Konzol felvásárlás!! Xbox Series S, Xbox Serries X
- Kaspersky, McAfee, Norton, Avast és egyéb vírusírtó licencek a legolcsóbban, egyenesen a gyártóktól!
- OLCSÓBB!!! DDR5 16GB 8GB 32GB 4800MHz 5600MHz RAM Több db
- Dell P2419H P2419Hc Full HD LED IPS 24" + P2719H 27" LCD monitor (vékony keretes)
- Dell OptiPlex MT/SFF 3040, 3050, 7050, 3060, 3070, 5070, 7060 /WIN 11 - SZÁMLA- GARANCIA
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest