Aktív témák
-
VinoRosso
veterán
-
rankesz
veterán
Elsősorban Abu-t kérdezném a hozzáértése miatt de mástól is szivesen veszem a választ
NAmármost 4 g ram van a gépemben, meg egy 2-g-s 4870x2, alapesetben gondolom, csak az egyik kártya aktív. A vista 32 bit oldalsávján van egy gadget ami ki is írja hogy 3g ramból x mega free
mi van akkor ha bekapcsol a crossfire, és elkezd dolgozni a másik kártya? Lövésem sincs pls segítsetek.Rakjak fel vista x64-et?
-
Sárpac
nagyúr
Hmmm.. ez egészen biztos? Mert programozástechnikailag lekérdezni egy képkocka állapotát egyszerű mint a pofon. Sőt különböző becslésekkel a feldolgozást is segíteni lehet, pl. nem szükséges a 2.gpu ha a játékban egy sima alagútban vagyunk ahol kevés a poligon és egy gpu 500képet is le tud gyártani egy másodperc alatt. Inkább szikronizációs hibára gyanakszom. Érdemesebb volna szerintem úgy képet megjeleníteni, hogy az egyik gpu az egyik a másik gpu a kép másik felével dolgozna.
-
DigitXT
félisten
-
Skizz
addikt
Kis GPU-t elvileg csak egy új mikroarchitektúra eredményez. Ez pedig - ahogy te is mondtad - képtelenség ennyi idő alatt. A G80-at pedig csak feltupírozni tudják, bár már az sem dob sokat a helyzetükön.
Szerintem a G300-at direkte nem fogják túlzásokba vinni, hogy legyen idejük és pénzük is fejleszteni. Gondolom már észbe kaptak, hogy ez nem egy járható út. -
Skizz
addikt
NV oldalról egyelőre nyoma sincs a fejlesztésnek, a GT200-ba pedig tudtommal nincs tesszelátor. Ezek alapján elég nagy sansz van arra, hogy a fejlesztők mégsem ebbe az irányba mozdulnak. Viszont más lehetőség egyelőre nincs, ha a CPU képtelen az egyéb alkalmazások mellett még formákat háromszöggé és hálókká varázsolni.
-
Skizz
addikt
De a GPU alapú tesszelációt sem az nV G80-asa, sem a Dx10 nem támogatja. Vagy a 10.1 egyik újítása ez? De ha az nV GPU-i ere nincsenek felkészítve, márpedig 10.1 support híjján nincsenek, akkor ez egyelőre egy veszett ügy. Minden VGA-ra külön optimalizálni egy játékot? Bár eddig se ment ez másképp, de ez talán kicsit durvább. Vagy, ha teszem azt G80-asom lenne, akkor egy 10.1-es, GPU alapú tesszelációt támogató játék alatt nálam a CPU dolgozna (persze ezt nem szó szerint érteni, mert a G80 háklis a 10.1-re). Érdkes.
-
Skizz
addikt
-
Henryk
aktív tag
Vagy az én módszerem, a másik monitoron mellette megy az everest, és játék közbeni valós értékeket lehet látni, mert mire kilépsz a játékból 5-10fokot esik, néztem közben.
amugy lassan megjön a 4870-em, akkor melyik drivert tegyem fel amivel tudok játszani?
persze jut eszembe ezzel ráérek még.. min 2 hét amíg az alaplapom kicserélik..addigra majdcsak lesz valami.
-
rankesz
veterán
Nekem is ilyesmi probélmám van.
Igaz kb 1 órája megy a kártya, de pl a gpu-z is csak 1g ddr5 ramot lát a 2 helyettmod: az is vicces hogy ha a ccc-ben a 3d fülre kattintok csontra fagy a program...
8.8 driver fel se ment vagyis win nem talált kártyát, csak a gyári 8.7es cd-vel...
-
Bluegene
addikt
[OFF]jó írás, átolvastam, tetszett
a fusionról mi a véleményed? szerinted is csak annyi h az alaplapról beköltözik a cpu-ba a GPU, mert szerintem jóval többről van szó(az IGP átveszi a számítások egy részét a procitól, szerinted ez lehetséges?)[/OFF]
-
Skizz
addikt
Ez addig rendben van, hogy 100-120 környékére van belőve és semmi baja nem lesz tőle. Igen, de a HD4850 referencia hűtése a házon belül tartja az esetenként 45-50 °C-ra felhevített levegőt. Az meg kinek kell? Egy kisebb házat (például Elite 331) pár perc alatt képes kazán módjára befűteni. És ezt tapasztalatból mondom. A HD4870 teljesen rendben van, mert a házban lévő egyéb alkatrészek szinte semmit sem éreznek a sok melegből.
-
R.Zoli
őstag
-
az a baj, hogy mindig oda lyukadok ki, hogy a supertiling az egyetlen normális megoldás a kérdésben... pedig kár, mert a 2way AFR nem fájna senkinek (úgyis default a 2 frame pre-rendering a DX9/10-ben), másrészt meg a supertiling implementációjában az ATI nem áll a helyzet magaslatán... és akkor még enyhe voltam.
-
-
Crytek
nagyúr
Ez nagyon karcsú
Világ első legeslegszarabbul megirt játéka ez.
-
luw2win
őstag
-
rocket
nagyúr
Ertettem, de vannak akik jateknak hasznaljak a 3dmarkot, az a jatek lenyege minnel tobb pontot mutasson, aztan persze meglatnak egy pontszamot rogton konkluziot alkotnak nehanyan
Egyre jobban ugytunik nem 480SP, hanem 800SP van az RV770-ben (igy a 32TMU-nak annyi lesz), es most kivetelesen jol csinalja az ATi, szepen osszekavarta a dolgokat mar az elejetol, 480SP, 32TMU, 16ROP, PRO: 850mhz, XT1050mhz, ebbol lesz a valosagban valoszinuleg 800SP 16(24)TMU 16ROP, PRO: 625mhz, XT: 750mhz.
-
janos666
nagyúr
Szerintem nem poénz az, van aki élvezi hogy napjában 3-4x lefuttatja míg rá nem un. Az is egy hobbi ha valaki 3DMark rekordot akar dönteni a maga kategóriájában.
Mikor új gépet raktam össze nálam is lement 4-5x legalább. (bár nem néztem végig, csak tekertem valami órajelen, elindítottam és visszamentem 20 perc mulva...) -
dr.radon
csendes tag
Nem fogja megváltani a világot, ez tény.
De, legyen az akár ATI, akár nVidia, a GPU-kban lévő számítási teljesítményt alkalmazni lehet bizonyos területeken. Ha nem kell az elágazásokkal komolyabban foglalkozni, akkor -gondolom - a sok lúd disznót győz alapon az egységnyi idő alatt elvégzett egyszerűbb számításokban a GPU-k több tucatszoros előnyt élveznek. Az meg a program készítőin múlik, hogy mely matemaitikai feladatokat tudják a sok kis shader procinak leosztani.
Kódfejtésre már használják (vagy csak az elméleti lehetőségét vetetták fel az ukránok?). Lehet, hogy a játékokban is használható lesz valamilyen feladatok elvégzésére a a grafikán kívűl, bár szegény programozóknak van sok egyéb problémája ahhoz, hogy ilyeneken agyaljanak.
-
leviske
veterán
A HD3870 a 88GTS előtt szaladgál AC-ben?????
Már rég láttam grafikont, de azon még a GeForce-oké volt az előny... Ennyit javítottak az új Catalys-tok?
(#2345) Keldor papa : Szvsz, megkéne nyitni a HD4800-asok topikját és utána autómatikusan záratni és csak mikor már kijönnek, akkor kinyitni.
A HD46-osokkal és HD44-esekkel ugyan ezt... felesleges hamarabb kinyitni, mert csak ugyan ugy off lesz belőle. Ezt a topikot meg megkéne hagyni off-nak, míg meg nem jelennek a kistesók és az X2.
-
-
janos666
nagyúr
Lefele könnyebb bővíteni.
Amúgy lentebb elhangzott egy kis kérdés hogy miért nem erőltetni az nv az OpenGL-t. Jön még bármi játék a közeljövőben ami OpenGL-t használ majd? Mert ahogy elnézem a profibb munkaszoftverek is kezdenek DirectX-re átállni (AutoCAD2009 után a többi Autodeskes cucc is az lehet majd...) Fura hogy poénból se hoz ki senki OpenGL2.1-es játékot.
-
VinoRosso
veterán
hát én hajtottam quaddal 3,9ghzen is, 1650x1050-be szal ott nem volt semmilyen cpu limit. Kb 3,2 után már a vga-k limitáltak. Nekem az volt alapvetően a bajom vele, hogy egyszerűen szar volt. Igaz én Vista alatt használtam, és akkor még nem volt sp1-em se. Ha volt teljesítménynövekedés szóló karihoz képest, akkor villogó, hibás képeket renderelt, ha meg jó volt a képminőség, akkor gyengébb volt az fps mint szóló karival 8.3 hotfixig az összes driver ki lett próbálva. Gyorsan el is adtam.
-
-
rocket
nagyúr
Jatekok tobbsege AFR-t hasznal DUAL GPU kartyaknal.
Amit linkeltel tesztet abban is van hol nem gyorsabb mint az ultra, minimum framek nincsenek feltuntetve amiben a jelenlegi dual GPU megoldasoknal jelenetosen alacsonyabbak, megha az atlag nagyobb akkor is mint a single GPU kartyaknal.Ebben a tesztben, atlagban a X2 nagyabol 8800ultra szint 4xaa 16x af mellett (ezzel tesztelnek legtobb helyen. ezt hasznaljak a legtobben), szoval az AFR es a CF/SLI meg mindig zsakutca, persze ha nincs jobb, akkor nem tudnak mit tenni ezt kell lenyomni az emberek torkan, es biztos lesz akinek sikerul
Az ATi-t R700 kapcsan az mentheti meg, ha legalabb megosztott memoriat hasznalna az R700, de ennek nyoma egyelore nincs, hogy bekovetkezne, remelhetoleg van meg valami utokartya a kezukben az R700 kapcsan, kulonben G80-hoz hasonlo idok jonnek, azert az eleg nagy blama lenne ha G80/R600 esete ismetlodne meg, ami az ATI eseteben most raadasul 2 GPU-s kartya lenne, es csak a GTX260 ellen lenne valami keresnivaloja (ha lehet egyatalan egy olyan megoldast annak nevezni ami X jatekban 100+80% teljesitmeny nyujt, Y-ban meg 100%+30%-ot).
Szerintem nehany embernel tul nagyok az elvarasok az R700 kapcsan, semmilyen realis alapja nincs a GTX280 vero R700-nak, valoszinuleg lesz nehany cherry picked beallitas/felbontas ahol gyorsabb lehet, de nagy atlagban nem hiszem eselye lesz, persze volt mar, hogy tevedtem
-
rocket
nagyúr
Dehogynem tragedia, CF AFR = zero, altalaban az ujabb jatekokban vannak gondjai allandoan, kit erdekel Far Cry alatt tokeletesen skalazodik, ha az ujonnan kijovo jatekokban 30% sincs.
Almodban mukodik jobban, sok esetben meg a 9800GTX szintjet se hozza a HD3870X2, hala a csodalatos AFR modnak, es akkor meg a micro stutteringrol nem is beszeltunk amit az AFR megoldasok magukkal hordoznak.
-
tzsolesz
nagyúr
Köszi a felvilágosítást, tanul az ember mindenhol. remélem egyszer eljön az ATI ideje is. unom már hogy mindíg megkapom, hogy "minek a szar ati, vegyé nyócezerhaccáz gétét, az a jó". Na érted. Nem mintha nem szeretném az NV-át, több nv-m volt már mint ATI-m, de akkor is, legyen harc miértünk, a vásárlókért.
-
janos666
nagyúr
Oké, oké. Egy valamit mondj még meg. És tudom hogy ez azért van mert az nv pénzeli a játékokat, de attól így van?
A felsorolt játékok nagy részében jelen pillanatban (és már hónapok óta) melyik kártyákon lehet bekapcsolni valamiféle AA-t? Mert azt tudom hogy a radeonok nem hajlandók AA-t ráerőltetni az UT3-ra, de a Bioshockot, UT3-at, AC-t mind 8x CSAA-val toltam végig és jobb volt így mint AA nélkül. Lehet hogy DX10.1-es AA-val még szebb lett volna, de működött és megfelelt a semmihez képest amit egy radeon nyújtott volna.
A GRAW is kínált valami edge smoothing opciót amivel tűrhető a kép nagy felbontásban. (nem játszottam végig, csak pár órát toltam, de úgy rémlik nem volt feltűnően recés a kép)
STALKER-rel nem játszottam, de úgy sejtem ott is csak az nv driver tud kitrükközni valami átmeneti AA-t a catalist meg azt mondja ilyet nem lehet...
Crysisben meg tökmindegy, még AA nékül se bírja el egy kártya se, max egy 9800GX2 quad SLI, majd egy GTX-280 tri-SLI-nél lehet kérdezni miért recés picit a fák éle 2xAA-val 1920x1200-ban.Szóval jelenleg sokkal inkább a radeon szív élsimításban, sőtt, az AC-nek még AF bugja is volt, nem tudom driver vagy játék és megoldották-e driverrel? (mert ha nem akkor kell a patch...)
Lehet a jövőről tárgyalni de a jelenben élünk.
Amúgy engem is visszaterelt most a 4870 vásárlás irányába a tény hogy nem lesz DX10.1-es a GT-200.
-
Isti-11
csendes tag
Én ezt értem és tökéletesen egyetértek veled, de mikor fogom végre látni is ezeket és nem csak beszélgetek róla.
Azért is irtam ide mert gondolkodok rajta, hogy visszatérek az Ati kártyához (pontosan a Dx 10.1 aa miatt) csak nem szeretnék úgy járni, hogy csak papíron van jó kártyám, és semmit nem tudok használni belőle. -
Bundás22
őstag
Persze, hogy nagyobb üzlet a PC... Világos, hogy jobban megéri legyártani a GTX 280-at és eladni 499-ért, mint legyártani egy Tegrát (alig drágábban) és eladni több ezer dollárért a volumenről elfeledkeztél, nem kell ez a gúnyos hangnem, hányan vesznek szted vga-t és hányan tegrát? fiacskám
-
janos666
nagyúr
Azok a hülyék akik végéignéznek két-három tesztet ami kihozza hogy minden ma kapható játékban ráver a GTX-260 a 4870-esre de nem sokkal drágább? Vagy azok akik úgy megszokásból maradnak a Geforcenál? Vagy azok akiknek egyszerűen a leggyorsabb kell, kerül amibe kerül és ha ezt nem egy Radeon képében találják meg akkor nem azt vesznek?
Nem mindenki úgy vesz kártyát 1 évre hogy azt nézi mit tud majd 2 év múlva.
Amúgy elvileg a mai Gef8/9-eken is el tud majd futni a PhysX játékokat CUDA-n keresztül, ha picit még a hardvert is rápofozták nem lesz azzal gond, a régi Ageia PPU teljesítményét igencsak hozza majd...
Ami itt kérdés az AMD-nek mi az a fizikázós cucca, ott inkább hihetetlen hogy PhysX kompatibilis lesz, de ha nem akkor meg jegelve lesz még pár évre...(#1657) - Nade hány darab Tegra és hány Geforce kel el?
-
Bundás22
őstag
nézd ha abszolút überbrutál 800 dolláros kártya lesz akkor még egy apró vízhűtéssel is megoldható(volt asszem ilyen 8800gtx is, aquatank asszem ez volt a neve), ráadásul ha 55nm-es lesz, akkor...
zal nincs lehetetlen csak pénzkérdése szvsz, nem értek egyet azzal hogy nem lehet megcsinálni
-
janos666
nagyúr
Najó, de akit elbizonytalanítottak a 9800-asok és szemet vetettek volna a 4870-re ahelyett hogy várnának még pár hónapot a gt-200ra most megint elbizonytalanodtak, mert előbb látják mit tud egy gt-200 (ha meg nem is veszik addig míg a 4870 is kapható lesz ami viszont lassabb lesz, a 4870x2 még lehetne jobb alternatíva, de az még később jön...)
-
Akkor ezek szerint semmilyen komoly architektúrális gond nem látszik?
leviske: "túl látványosan keres új utakat" - szerintem tévúton vagytok ezzel. hasonlítsd össze, hogy világszinten mekkora piac a diszkrét VGA-k, és mekkora a hipermodernmindentudó smartphone-oké - ha a jelen VGA-eladások mellett az árbevételük 70%-a az utóbbiból jön(ne), akkor még semmi maradandót nem alkottak smartphone fronton.
-
no ne kezdjünk már itt el online tesszelálni
szedjük össze, miben lassú a GeForce architektúra DX10 fronton:
általában a stream output / input használata (példák jöhetnek, mert ez elég szerteágazó)
itt a kevés L2 cache miatt túl sokat kell közvetlen memória-elérésre hagyatkozni, ettől nyilván leül a kártya. attól tekintsünk el, hogy az ATI L2 cache-e tényleg elég-e mindenre. a probléma kezelése több cache hozzáadása - ez tranzisztorban fáj, de architektúrás újratervezést nem igényel.SBAA
itt nem tudom, konkrétan mi a gond az nVidia oldalon, hacsak az nem, hogy lesz*rták és nincsen megfelelően optimalizálva. ha csak ennyi, akkor ez sem architektúra kérdése.és még?
-
DeSanto
őstag
Nem néz ki rosszul csak nekem olyan "tisztának" tűik.
Az árnyékok nagyon jók, -
tudom, hogy csinálnak ilyeneket, de a 9600GT tesztjük korrektnek tűnik, azt visszacheckeltem korábbi tesztekkel
a Bioshockkal az a baj, hogy mindenki DX10-ben teszteli, ott meg az nV kártyák viszik a prímet a jól ismert okokból. a saját DX9-es tesztemhez alig találtam összehasonlítási alapot, de végül az jött ki, hogy a 3850 és a 9600GT kb. pariban vannak.Carmack: szerintem igazi primadonna lett a csávó, ez is jó publicitás nekik. amúgy szerintem a Doom3 motorja teljesen jó, csak a Valve sokkal ügyesebb reklámot csinálta Source-nak a HL2-vel. Prey rulez.
7600GT: nemtom, milyen AF, felteszem, hogy sima. Vegas shadereit nem ismerem olyan mélységben, hogy milyen adattípus dominál, de annyi biztos, hogy PS-heavy a játék. amúgy az ATI kártyáknak nem a float1/float2 shaderekkel van baja, hanem általában az olyan kódokkal, amik annyira erősen szekvenciálisak, hogy nem tudja pl. két float2-vel és 1 float1-gyel feltölteni a shader unitok 5 slotját (nyilván rövidebb adattípusnál ennek nagyobb a valószínűsége). a legtöbb játék sajna ilyen, szerintem az UE3 motor kicsit előrelátóbb ezen a téren.
hitelt érdemlően még senki nem írta le, hogy mitől lassabbak a Radeonok a sok shader ellenére - én a saját kezdetleges kísérleteim alapján a shader utilizationre tippelek. viszont ha a 4870 tényleg 80-100%-kal gyorsabb lesz a 3870-nél, akkor bukik ez az elmélet.Nahát, mennyire on lettem a végére
-
7600GT
senior tag
"A Vegas az magas ALU:Tex arányt használ, ezért szeretik az Ati-k."
Odáig értem én, hogy magas az ALU:TEX arány, de a shader kódok nagy része nem egyszerű (float1/2) PS kódokból áll? Ugyanis azok meg sokkal jobban fekszenek az nV kariknak.
Szerk.: Tudtommal az ATI karik nem textúrázási limitbe ütköznek általában, hanem a shader egységek rossz kihasználtsága a hártáltató tényező.
-
Miből látod így? Én ilyen összehasonlító teszteket általában a computerbase.de-en nézek, pl. az UE3 16xAF mellett a 3870-en alig gyorsabb, mint a 9600GT-n. A Vegas-on kívül nem látom, melyik játék venné igazi hasznát a sok shadernek.
Carmackot én is csókoltatom - kíváncsi leszek...
-
Hát, a GS tesszelációt inkább hagyjuk, lehet, hogy 1 nagyságrenddel jobb benne a Radeon, de 0.3fps helyett 3fps-sel nagyot nem nyerünk...
Amúgy én nem igazán értem, mi ez az általános para az offokkal kapcsolatban. Az OK, hogy ne a szitakötők nemi életéről folyjon a csevej, de ha egyéb műszaki jellegű témákba nem kalandozna el a társaság, akkor naponta 0.1 hozzászólás születne. Az jó lenne?
R.Zoli: pl. én?
-
rocket
nagyúr
Sajnos jol latszik mire jatszik az AMD, totalis csod vagy a Fusion sikere, ezert is van az, hogy pazaroljak az ATi mernokeit a Fusionre, mikozben sokkal nagyobb prioritasu hosszutavu projecteken kene dolgoznia az ATi mernokeinek (pl. a C2), ha buknak a Fusion kapcsan akkor nehez lesz eladni a ceget, ugyanis a Fusion miatt a majdani vevonek vonzo projectek nem ott fognak tartani ahol kene, igy sanszos nem cegkent egyben fogjak megvenni oket, hanem majd szepen darabokban elosztogatjak a nagykutyak egymas kozott.
Elnezve az AMD tortenetet semmi nem garantalja a Fusion nem fog kesni, es/vagy nagyobb lesz a fustje mint a langja.
Aktív témák
Hirdetés
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Autós topik látogatók beszélgetős, offolós topikja
- Ingatlanos topic!
- Gumi és felni topik
- Autós topik
- Milyen billentyűzetet vegyek?
- Kertészet, mezőgazdaság topik
- S.T.A.L.K.E.R. 2: Heart of Chornobyl
- Kerékpárosok, bringások ide!
- Filmvilág
- További aktív témák...
- Apple iPhone 14 Pro, Kártyafüggetlen, 1 Év Garanciával
- Beszámítás! Apple Mac Studio M2 MAX 2023 32GB 512GB SSD számítógép garanciával, hibátlan működéssel
- AKCIÓ! MSI Z690 i7 12700K 32GB DDR4 1TB SSD RX 6800 16GB Phanteks P600S Cooler Master 750W
- BESZÁMÍTÁS!Gigabyte B650M R7 7800X3D 64GB DDR5 1TB SSD RTX 3080Ti 12GB Corsair 4000D Airflow TG 750W
- DELL PowerEdge R640 rack szerver - 2xGold 6138 (20c/40t, 2.0/3.7GHz), 64GB RAM,4x1G, H730 1GB, áfás
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest