- Magisk
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Realme GT 2 Pro - papírforma
- Tesztpadon az exynosos Galaxy Z Flip7 FE
- Apple iPhone 16 Pro - rutinvizsga
- One mobilszolgáltatások
- Motorola Edge 60 és Edge 60 Pro - és a vas?
- Honor 200 Pro - mobilportré
- Megjelent a Poco F7, eurós ára is van már
- Videón a Z Flip7 méretes külső kijelzője
Aktív témák
-
Med1on
aktív tag
válasz
janos666 #5782 üzenetére
Én is többet várnék 2009-be a játékokban fizika terén. Néhány tárgy eldől esetleg széttör, lövésnél robbanásnál törmelékek repkednek szét illetve nagyon ritkán előfordul a "falbontás".
Jó lenne egyre sűrűbben látni realisztikus folyadék animációkat (megjegyzem a havok tech demok között nem láttam ehhez hasonlót) vagy ilyen szintű cloth animációkat mozgás közben. Szerintem sokkal élethűbb egy játék attól ami pl. Batman-ben megvan amikor is a földön heverő újságok a denevérember mozgásaira reagálva a arrébb repülnek.
Nem akarom ezzel a Physx-et reklámozni (így hirtelenjébe most ezeket a videókat találtam meg a leggyorsabban) egyszerűen csak arra célzok, ilyen lehetőségekkel lehetne bővíteni a játékokat. Az biztos, hogy sokat javulna a játékélmény.
A mai modern GPU-k ereje szerintem már 2009-be elég lenne ilyen célokra is.
-
válasz
janos666 #5782 üzenetére
Nyilván ha a MS kitalálna/beépítene egy fizikai motort a DX-be, és azt támogatni kellene gyártótól függetlenül, akkor viszonylag hamar elterjedhetne az akár komolyabb fizika alkalmazása is a játékokban. Addig viszont, amíg több lehetőség közül választhatnak (semmilyen, saját "kezdetleges" megoldás, PhysX, HAVOK), nem igazán lesz közös nevező.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5703 üzenetére
Ha a játék fejlesztésének elején eldöntik, hogy lesz PC-re és 1-2 konzolra, akkor tök mindegy, hogy mibe írják. Sőt DX11-ben a legköltséghatékonyabb, mert nem kell baszakodni a DX9 nyűgjeivel.
Ha átportolásról van szó, amikor alapvetően egy célplatformra ment a fejlesztés, akkor jó port nem sülhet ki a dologból.Ettől függetlenül a DX11 a gyorsaságával itt is segíthet a sebességen, de a dolog már eleve nyögvenyelősen indul.
-
-
válasz
janos666 #5669 üzenetére
és akkor most elárulod nekünk, hogy TE mit ittál? csak mer' én is kérek belőle!
csatahajós: kb. úgy, ahogy janos mondja, csak mondjuk elég 2400 ALU / 120 TMU is
Gregorg: a duplázás, és pláne a 2.6-szorozás nem csak technikailag meglehetősen nehezen kivitelezhető, hanem piacilag sem indokolja semmi. az nVidia csodakártyája egyelőre a holdban van, és ha mégis szíveskedik egyszer landolni, akkor az AMD egyszerűbb meg tudja oldani a dolgot, ha kijön egy 4-GPU-s kártyával.
-
válasz
janos666 #5661 üzenetére
ehhez még photoshop sem kell. Visioban összerakja az illető az ábrát, kimenti jpg formában, esetleg elvégzi a fentebb említett képernyőfényképezést mobillal, és már kész is az eredmény. miután ugyanazt a processzt követi, mintha eredeti prezentációt nyúlt volna le, élő ember nem mondja meg a különbséget, csak ha valami baromságot tett az architektúrába...
amúgy modellezgettem egy kicsit - ha +60%-ról beszélünk, az kijöhet pl. úgy, hogy azonos core órajel / 1600 ALU / 80 TEX / 16 ROP / 256-bit, memória-órajel pedig 1500MHz
-
Vasinger!
nagyúr
válasz
janos666 #5509 üzenetére
Valóban, az a többlet ár, nem éri meg, de ha ugye "warez"-ről szerzed be, nincs ilyen kérdés. Itt mindenki eldöntheti, hogy hova is tartozik.
Volt már neked W7-ed? Mert akkor megtudod, mi a különbség. Én a vistát nagyon lassúnak találtam, akárhányszor is raktam újra. Ezt a W7-et, csak felraktam és azóta sem nyúltam semmihez. Bezzeg a Vistában, sok mindent ki kellett kapcsolni, hogy mindennapi használatra jó legyen. Szvsz, döntse el mindenki azt, hogy mit akar magának, de szerintem senki sem nyomul Win2000-ről, NT-ről és 98-ról. Haladni kell a korral, még ha nem is akarja az ember és sokba is fáj.
-
TESCO-Zsömle
titán
válasz
janos666 #5459 üzenetére
Ez az egész vita-dolog abból a félreértésből adódik, miszerint AMD és nVidia közt harc folyik. Ez tévedés. Nincs harc! Mint már írtam, AMD Videókártyákat csinál, nVidia pedig G80 óta általános gyorítót. Két különböző termék. Nem versenyezhetnek egymással.
nV szépen lassan kivonul a piacról, és ezt igyekszik minél kevesebb veszteséggel megtenni, míg AMD agresszív árazással igyekszik növelni a konkurens veszteségeit, ezzel ösztönözve a minél gyorsabb távozásra.Ez az én meglátásom.
A többi csak "Technical Bullshit".
MS-nak nem érdeke, hogy csak AMD vagy nV legyen a piacon, vagy nekik kedvezzen a DX. Az ő érdeke, hogy a lehető legmodernebb API legyen az OS alatt, és mivel jelenleg a piacon csak AMD készít videókártyát, (arról nem is beszélve, hogy a szóbanforgó -elérhető- technikai újítások zöme is hozzá tartozik) evidens, hogy az ő segedelmükkel folyik a DX11 megalkotása.
-
leviske
veterán
válasz
janos666 #5436 üzenetére
Nem unod már ugyan azokat a köröket futni? Most őszintén, miért nem mész át az új GeForce topikjába, ahelyett, hogy ezt teleoffolod a sok felesleges, de legalább ismétlődő érdveddel, hogy "az ATi miért is szar"?
Senki nem kíváncsi erre, ha Abuval akarsz vitázni, nyugodtan, de nem fárazd már a többi fórumozót... menj vele privátba.
Nem szereted az AMD/ATi-t, sajnálod az nVIDIA-t, jobbnak gondolod a GeForce-okat, közelebb állnak a szívedhez, most a következő videokártyád GeForce lesz. Felfogtuk!
Egyéb építőljellegű hozzászólás a témával kapcsolatban, vagy már Te is belátod, hogy elég embernek vésted bele az agyába a fentieket?Tényleg, őszintén sajnálom, hogy ennyire nem voltál megelégedve a HD4800-asaiddal, de ez talán még nem jogosít fel arra, hogy teleszemeteld a következő szériáról szóló topicot. Remélem ezt nem veszed sértésnek. Szeretem, mikor Abuval vitázik valaki, mert gyakran sok plusz információt szerez belőle az ember, de mikor periódikusan váltogatják egymást ugyan azok a témák, az már kicsit unalmas és az információértéke sem túl jelentős...
(#5433) Bluegene: Nem feltétlen. A HD4800-asok a legtöbb ember számára nem voltak számottevően gyorsabbak, mint az nVIDIA megoldásai. A HD4870 esetek többségében a GTX260 köré illeszthető, a HD4890 a GTX275 köré, a HD4850 a 9800GTX+ köré a HD4830 pedig a 8800GT köré. (Elnézést az össze-vissza sorrendért.) Erre én sem jelenteném ki, hogy "Hűűű, de aláz az ATi", elvégre jobban utánajárni a pénzügyi és technikai dolgoknak az átlag vásárlók nem fognak. Így szvsz nagyon szép eredmény a 4%-os térnyerés.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5436 üzenetére
Én nem a személyed ellen küzdök (téged bírlak
) ... csak próbálom a júzerek érdekéből nézni a dolgokat. A lényeg, hogy az NV és az AMD is rábólintott anno arra, hogy a DX10.1-ben lesz megoldás az AA problémákra. Ezeket a speckókat közösen hozzák össze, ha valakinek nem tetszik valami felszólhat ellene, aztán majd elemzik az érveket. Fejlesztésre bőven van idő minden gyártónak. Az meg az NV egyéni döntése, hogy milyen architektúrát készít. Nekik számított a GPGPU piac, az AMD-nek annyira nem. Ez jelenleg a legnagyobb különbség, és hátrányos az NV-re nézve.
gbors: Nyilván a gyorsulást csak az algoritmus erőforrásigényére értem. A teljes képkockának ugye csak kis része az SSAO. Persze el is lehet kúrni a dolgot.
Mackósajt: Faja ... bár nekem holnapra mondták a Q2 eredményének közzétételét, de mindegy.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5427 üzenetére
A Multisample Accesst tudná minden DX10-es kártya, persze nem a fázisokkal párhuzamosan futtatva.
A Gather4 az X1900-ban bevezetett Fetch4 szabványos változata, sebességre nagyon jó hatással van. Például egy SSAO algoritmus majdnem négyszer gyorsabban fut le négyszeres mintavétellel, mint nélküle. -
válasz
janos666 #5397 üzenetére
Két dolgot fűznék hozzá a fentiekhez:
- A Stormrise-ban az élsimítás minden CUDA-kompatibilis GeForce-on megy, azaz a 8000-es sorozattól kezdve
- A DirectX 10.1-ből én két dolgot látok jelenleg. Az egyik a több render targetre korrektül működő AA, amit ugye tudnak a GeForce kártyák is, csak mivel nincs részleges DX10.1 kompatibilitás, DX API-n keresztül nem lehet hozzáférni. A másik a Gather4-es mintavételezés, amihez viszont az nVidia textúrázóit át kellett volna szervezni, és egy rakás extra tranzisztort jelentett volna. Ettől még persze megcsinálhatták volna, csak a GT200 már ezzel a tranzisztor-mennyiséggel is szívás. Meggyőződésem amúgy, hogy a Stormrise 90%-ban a gather4 miatt annyira gyors a Radeonokon (ill. egyes Radeonokon).
-
Abu85
HÁZIGAZDA
válasz
janos666 #5405 üzenetére
Van olyan játék, ami használja boxon a Xenos tesszellátort, csak a PC annyira erős, hogy megbirkózik a teljes részletességű modellel. A Tessellation SDK is nagyon lassan készült el. 2009 áprilisában lett mindenki számára publikus a rendszer. Mondjuk az is igaz, hogy sokkal többet tud az ígértnél, hiszen képes a DX11-es kód értelmezésére is, ami nem volt tervezett. Ez persze nagyon tetszik a fejlesztőknek, hiszen jelentősen megkönnyíti a munkát, ráadásul minden jövőbeli DX11-es hardvert támogat. Konkrétan ez jelentős segítség a multiplatform fejlesztéseknél elég ha ezt a programot használják és az Xbox360 mellett a PC GPU-k is támogatottak az R600-ig visszamenőleg.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5403 üzenetére
Az UT3 még az Ageia rendszert támogatta. Sweeney egyébként nem is tagadta soha, hogy a PhysX-be egy kölcsönösen előnyös szerződés vitte bele az Ageia-val. Az NV később megvette a céget és elkészítette a támogatást, amihez az Epicnek semmi köze nem volt.
A multiplatform fejlesztést mindig PC-n kezdik, még akkor is ha nincs PC port. Utána írják át a kezdeti alapokat konzolspecifikusra. A GeForce PhysX jelenleg azért működik, mert az NV pénzt ad, ha beépíted a támogatást. Az AMD soha nem ad anyagi támogatást, mert ők minden pénzt a fejlesztésre költenek. Az NV azért költ a PhysX-re, mert fejleszteni felesleges számára egy olyan piacra ahol nincs már jövője. Gyakorlatilag az eladásokat is a PhysX fogja generálni, más lehetőség nincs ... teljesítményben már nem tudják tartani a lépést, hiszen a GPGPU piac eltérő felépítést kíván.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5401 üzenetére
Ha megnézed kik támogatják, akkor láthatod, hogy a komoly pénzmag miatt kattantak rá. A GRIN konkrétan leamortizálódott, bár ők nem is kapták meg a zsét a Terminatorért. Ahol nincs szükség pénzre, ott a PhysX-et nem is emlegetik ... jó dolog ha van anyagi fedezet a Havokra.
A PhysX-et sem viccből kínálják ingyen. Sőt a GeForce PhysX támogatásért fizet az NV.
A tényleges fejlesztési pénzt a szoftveres támogatásra fordítják.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5399 üzenetére
Szerinted ők ezt így tervezték. Azt hitték mostanra már nem lesz Ati. Tévedtek.
Jelenleg tudják, hogy ez egy veszett ügy, de még van a piacban pénz, a lényeg, hogy a kiadásokat kell visszafogni, mert egyre kisebb a bevétel lehetősége. Láthatod, hogy a GPU piac az NV-nél is működik tovább csak leépítik arra a szintre, ami mellett nyereséges tud maradni.Ahhoz, hogy valami ipari szinten elfogadott szabvány legyen el kell, hogy terjedjen. HA ott álna a CUDA mögött az AMD és az Intel, akkor már menne a TWIMTBP úthenger a platform terjesztésére. Amíg nincs mögötte a piac többi szereplője, addig felesleges köröket futni, mert mindenhol ajtót mutatnak.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5397 üzenetére
Meg lehetett volna valósítani, hisz a DX10.1 hardveres követelményeit 2006 végén zárták le. Idő volt, mint a tenger. Azért nem támogatták, mert a CUDA-t kellett lenyomni mindenki torkán, így valahol a DX mellett, valahol pedig ellene kellett dolgozni. CUDA nélkül nincs az NV-nek jövője, ezt ők is tudják.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5392 üzenetére
A HD 2900XT a 8800GTS 640 ellenfele volt. De a 8800 GTX-et már hozza.
A DX10-et szerintem az NV miatt kellett megkurtítani. A GPGPU mellett nem tudtak normális rendszert fejleszteni. A DX10.1 pedig időt adott nekik, amit végül nem használtak ki. Ez az ő bajuk.Departed: UE3-ban be elehet kapcsolgatni az AA-t, AMD-n és NV-n is. Az AMD az effektett tartja elsőnek, így sok helyen nem működik, az NV az AA-t tartja meg, és a textúra minőség lesz rossz, illetve eltolódnak az effektek.
A Wolfenstein (vagy a GTA4) például már Deferred Lightning, itt semmit sem lehet tenni, bármit állítasz nem lesz eredménye. A teljes deferred lightning fázist ki kell ütni, ami lehetetlen driverből. -
Departed
őstag
válasz
janos666 #5393 üzenetére
De most akkor mennyire igaz az, hogy az Nvidia hátráltatta a DX10 elterjedését? Engem amúgy ez csak olyan szinten érint, hogy sohasem szabadott volna úgy tervezni a dolgokat (DX-et), hogy ha egyszer mondjuk 3-4-5-6-7-8 éve semmi gond nem volt az AA-val, akkor mindig úgy jöjjenek az újabb DX-ek, hogy ez végig megmaradjon. Elvégre a mem-sávszél az megvan hozzá, és rengeteget dob a látványon, vagyis inkább nem rondítja el a legszebb grafikát is.
Hmm..tehát a GT200-asokon driver-ben állítva AA-t lehet tenni mindenre? UE3-as játékokra, Wolverine-re, Fuel-re, Wolfenstein-re, satöbbire?
Mert ha mindre igen, akkor az Ati felé fordulok: mikor érkezik meg ugyanez a Radeon-ok esetében?Mod: bocsi, AMD-hez fordulok, még szokni kell, hogy már csak AMD van
-
rocket
nagyúr
válasz
janos666 #5392 üzenetére
Inkabb az AMD-t szivatta meg a M$ a "megcsonkitott" DX10-zel, DX10 es a DX10.1 egyuttesen lett volna normalis esetben az uj API ha az NV is kepes lett volna a megfelelo architekturat prezentalni melle, nem eloszor huzta ki a M$ az NV-t a sz@rbol az API-javal, ugyhogy ez a "M$ es az AMD kozosen szivatjak az NV-t az API-val" egy baromsag.
Xenos nem hozz semmi pluszt az AMD-nek, nehany kiveteltol eltekintve aranyaiban nem futnak jobban az xbox360-nat fejlesztesi platformokent hasznalt PC portok az AMD jelenlegi es elozo generacios kartyain mint a konkurens termekeken.
-
#65755648
törölt tag
válasz
janos666 #5260 üzenetére
Hehe, az a 3 kis bizbasz hangszóró történetesen egy Logitech Z5500 része, amilyen nekem is van. És ennél (jelentősen) jobb már tényleg csak külön erősítő + jó minőségű hangfalak lehetnek, de abban eléggé biztos vagyok, hogy Neked még nem volt ilyen jó hangrendszered, mint a Z5500... csak nyugodtan olvasd el a róla szóló kismillió teszt bármelyikét.
Ja és nekem személy szerint csorog a nyálam a 3 monitor láttán, de Te tipikusan a "savanyú a szőlő" csapdájába estél. -
válasz
janos666 #5261 üzenetére
ne hasonlítsd a két GPU-s megoldást az 1-hez, mert 2 GPU-nál az AFR miatt eleve nagyobb lesz az input lag, ha a prerender limittel szórakozol. próbálj inkább a single 4870-re emlékezni
amúgy ez az "nvidián simább" dolog kb. olyan, mint hogy az ATI kártyáknak szebb a képe - biztosan van benne valami, de nem mindenki veszi észre.
-
sniper elite
senior tag
válasz
janos666 #5257 üzenetére
Igen de ezt mondtam én is hogy CFbe kettő kártyát lehet kötni max, na mindegy! Sztem megegyezhetünk abban hogy kettő bőven elég mindenre, 30" monitort meg lehet 2010ben veszek, ez a mostani annyira szupi, sajnálnám lecserélni most! Crysis meg nem olyan jó játék, hogy megérjen 3-4 vga kártyát
-
Bluegene
addikt
válasz
janos666 #5174 üzenetére
tehát egy RV790@40nm mondjuk 152mm2(hohó és ez nem az RV770!!!, az még ennél is kisebb!), van 170mm2-ed(ha 320mm2) hogy telepakold plussz végrehajtó egységekkel a meglévő 800sp mellé, úgy h a többi rész(pl UVD) arányosan kisebb mint 55nm-en, és úgy h módosíthatsz a felépítésen is
így már elképzelhető a 3-4000sp és a hozzátartozó textúrázók és Ropik
a 4770-es chipjével fogsz jönni ami a 4850 teljesítményét hozza, az 137mm2 ugye, de abba nagyon sok redundáns területet raktak bele, hisz csak tesztelték a 40nm-t, tehát egy RV770@40nm akár 140-145mm2 lehet, innen induljunk el 300mm2-re, mennyi pluszt lehet belenyomni
, szal 2000 felett reális
-
Bluegene
addikt
válasz
janos666 #5169 üzenetére
A memóriavezérlőt hidjük akkor ugyan úgy 256 bitesnek, ne kerüljön be semmi felesleges újdonság, amivel pedig tuti hogy előhozakodnak.
40/55*290=210mm^2, tegyük fel, hogy ennyit nyernek a kisebb csíkszéllel (gyakorlatban kevesebbet szoktak, ha ugyan azt zsugorítják, de direkt ráhagytunk egy kicsit az elején).(40/55)2 * 290, bocs, az 152mm2 rosszul számolgatsz, területről van szó
-
TESCO-Zsömle
titán
válasz
janos666 #5150 üzenetére
Én se szedtem le, de nálam átlátszó a piros műanyag és látom a két batár csövet (8-as vagy 10-es). Nálam a 70-es idle halkabb, mint a táp vagy a vinyók, pedig szabadban van mind, a fejemtől 60 centire.A melegség az "normális" egy olyan GPU-tól ,ami nyugalmi állapotban zabál meg 40-50W-ot... Figyelembeféfe, hogy a venti alig pörög 1k-t, és hogy a radiálventik nem az alacsony fordulatszámon nyújtott légszállításukról híresek... (...hanem a magas fordulaton produkált légnyomásukról)
szvsz több, kisebb hőcsővel jobban jártak volna, a csövek kébbé folytják le a levegő útját, a több csővel pedig egyenletesebben lehetne eloszlatni a hőt.
A gyári borda azért nem kapcsolódik az alu-laphoz, mert félő, hogy a GPU a hűtőn keresztül melegítené a többi alkatrészt, ahelyett, hogy a borda hűtené azokat. Nálam a VRM mindíg jóval hidegebb, mint a GPU, pedig az a laphoz csatlakozik...
-
janos666
nagyúr
válasz
janos666 #5122 üzenetére
Lejárt a szerkesztés, de alul a PCI-E csatlakozónál miért tűnik úgy, mint ha azt csak paintben rajzolták volna oda? Ha valami sorozatszámot akartak volna eltűntetni, akkor vagy levághatták volna egy az egyben, vagy átkopyzhattak volna egy normális csatit egy másik fényképről.
-
DeSanto
őstag
válasz
janos666 #5114 üzenetére
Szerintem nem csak az Nv miatt nem létezett Dx10.1 és hasonló hanem az M$ és az xbox360 is van e mögött.
Mivel a konzolokon nem igen futnak a dx10-es játékok és a dx10.1-esek így nem is erőltették a játékfejlesztők ezt a vonalat.
Ez csak az egyéni véleményem és nem tény. -
sniper elite
senior tag
-
-
sniper elite
senior tag
válasz
janos666 #5087 üzenetére
Hát a hátulról készült képeket látva, mintha nagyobb helyet foglalna mint a 4870x2, de majd meglátjuk! Vízhűtésre nincs szükségem, egyszer kipróbáltam és csalódás volt! Másik dolog hogy az én gépemben 6 darab 12 centis cooler biztosítja hogy sose legyen hőség, persze lehet hallani a kártyákat de az se vészes! Amúgy az 1 kártyás megoldást nehezebben tudnám elfogadni a mostani CF helyére, mert ha már váltok akkor 2 kártyától szeretném kapni azt a nagyobb teljesítményt ami meggyőz hogy egyáltalán érdemes-e váltani! 1 kártya amúgy se lesz erősebb a mostani egybekötött 4870x2nél ez biztos! Ha mégis valami vastag megoldást húznak elő, akkor megvárom az nv kártyáit!
-
Abu85
HÁZIGAZDA
válasz
janos666 #5071 üzenetére
Carmack azon kevés fejlesztő közé tartozik, akit nem lehet megvenni kilóra. Egyszerűen a lehető legjobb technikát akarja piacra dobni, amihez az aktuális kor legtutibb hardvere kell. Ettől Carmack nem fordul el az NV-től eddig is minden gyártó igényeit maximálisan figyelembe vette.
A másik, hogy Carmack sokkal többet tud, mint mi. Valószínűleg már látja, hogy mi van - esetleg mi nincs - az NV kezében. -
Redneck
nagyúr
válasz
janos666 #5071 üzenetére
Pénz beszél...
Szerintem az AMD csak szeretne gyorsan, nagyobb teret nyerni és a létező összes piacon megszorongatni az ellenfelét... Technológia előnyben vannak így addig kell kihasználniuk ezt lehetőséget ameddig lehet. Mire az nV feljön, már kezükben akarják tudni a megrendelések jelentős részét. Ezzel a lépéssel, piacot vesznek a zöldektől. Carmack bácsi szintén szeretne minél nagyobb szeletet vágni magának a videójátékok tortájából ezért bármikor hajlandó szövetkezni az aktuális "legmodernebb" chipgyártóval. Jó játékot akar csinálni amivel sokat kereshet...
-
TESCO-Zsömle
titán
válasz
janos666 #5071 üzenetére
A hosszú időn keresztül egymás tenyere alá dolgozók nem ugrálnak úgy, mint a bolha, 10 jövedelmező év után 1 laposabb már mindegy.
Ezt mond a sok nV exkluzzívnak, akik a sok jövedelmező év után tavaj nekiálltak AMD-t árulni...
Persze, ha az AMD zsíros szerződést köt velük, az egy dolog
AMD a Microsofttal karöltve feljleszti a DX11-et, ami az elkövetkező legalább 3 év API-ja lesz. Mindenféle kenőpénz nélkül, pusztán a logikára hagyatkozva is AMD a jó választás minden játékfejlesztőnek és ezt Jani is tudja. Amúgy sem kifizetődő egy olyan gyártó mögé állni, aki bevallottan 2-3 éven belül kivonul a piacról, és már nem ebbe az iparba tolja a pénze zömét.
Ez csak feltételezés, de ha Intel 2-3 éven belül elérné azt a szintet mint AMD, mi tartaná vissza, hogy elindítsa saját TWIMTBP programját és megvegye az egész játékipart kilóra??
Tudom rosszindulatú feltevés, de azt az 1Mrd€-s büntit se a kék logojukért kapták, és valljuk be, keret is nagyobb van ilyen célokra, mint nV-nél volt, pedig ők se szaroztak. (kivéve az ATI-t, azt szarozták) -
TESCO-Zsömle
titán
válasz
janos666 #5069 üzenetére
Ilyen hosszú barátság után már mit számított volna, ha 1-2 évig még fenntartják a látszatot?
Kapitalizmusban nincs barátság. Amíg jövedelmező volt nV-vel dolgozni, nV-vel dolgoztak. Ennyi. Most AMD a ziccer, amit nem lehet kihagyni. Ha Intel megerősödik, akkor velül kooperál majd mindenki...
-
Abu85
HÁZIGAZDA
válasz
janos666 #5065 üzenetére
Fejlesztési szerződést kötöttek az ID-vel és a cég partnereivel. Carmack atyánknak mostantól az AMD szállítja a hardvert. John meg optimalizálja rá a cuccot. Az új Wolf is AMD reklámmal jelenik meg.
Amúgy ez várható volt. Az Intel még nem versenyképes, az NV-ről meg össze lehet rakni a részleteket ... valszeg tipliznek. -
rollins
őstag
válasz
janos666 #5065 üzenetére
Azt én sem tudom mit keresnek a QuakeCon-on. Remélem a Splash Damage -hoz eljutottak a radeon vga tulajok sirámai az etqw + catalyst nem éppen felhőtlen viszonya miatt és leba**k végre az Amd-t. [link] (nem fogadnék rá, de megérdemelnék) A 8.11 drivertől egész idáig csak 2 volt igazából hibátlan vagy kompromisszum mentes az etqw-hez.
A catalyst 9.8 ismeri már az opengl 3.1-et állítólag, lehet hogy azzal "villognak".
gbors: Kösz az infót! Hát remélem talán elég lesz. -
válasz
janos666 #5061 üzenetére
a 2x1200 ALU-s multichipet még esetleg el tudom képzelni, bár én inkább a 2x800-at tartom valószínűnek. amikor a sávszélességet kalkulálod, akkor érdemes figyelembe venni, hogy az ALU-k sávszélességet nem igazán esznek, tehát inkább a ROP-ok és a textúrázók száma számít (meg a tesszelátor, de az még igen homályos). ha marad az RV770 ROP / memória felállása (és nem mennek el az RV740-féle irányába), akkor a ROP-oknak kényelmesen elég a sávszélesség, és ha az ALU:TEX arány tovább nő, akkor egy 384-bites, 24 ROP-os konfigurációban még tartalék is lesz sávszélesség terén.
rollins: határeset. a 4870X2-nek már van, ahol kevés a PCIE2x8 sávszélesség, viszont a duplázott memória miatt ez a kártya több busz-sávszélességet eszik, mint egy elméleti 1600/80/32 felállású egychipes szörnyeteg. talán még elég, de fogadást nem kötnék rá.
-
-
csatahajós
senior tag
válasz
janos666 #5049 üzenetére
Tök igazad van egyébként, de az azért nem teljesen igaz hogy nem lehetne a 4890 GDDR5-ösénél gyorsabbat rápakolni. Ha jól emlékszem a Samsung hónapokkal ezelőtt demózott már 7Ghz effektív órajelő GDDR5-ösöket.
Ettől függetlenül én sem tartom valószínűnek, hogy visszalépnének 192 bitre, valszeg ugyanúgy ahogy a 48xx-es szériában a mainstream és az X2 kártya is ua-t a buszt kapja, azaz 384-est (már ha igaz a pletyka).
-
Komplikato
veterán
válasz
janos666 #5013 üzenetére
Azért sokféle melóhoz kellhet 3 vagy 4 monitor, tözsdés emberkék néha használnak többet is ennél. Miért pont 3D-ben lenne értelme? Az előző Fire kártya is lightos volt 3D-ben, de volt 4db kimenete ...
No és ott vannak az olyan elmebeteg monitorok, mint az IBM 22.2" kis "CAD" monitorja a szolíd 3840x2400-as felbontásával. -
TESCO-Zsömle
titán
válasz
janos666 #5013 üzenetére
1 - Miért kötelező a monitorokat FullHD-ban hajtani?? Nekem tervben volt 3db 19"-os 5:4-es LCD beszerzése (3820x1024), ami nagyjából annyi pixelt jelent, mint egy 2560x1600-as moncsi. (de filmezés miatt inkább egy 26"-os IPS-panelos dögöt néztem ki)
2 - A 2560+-os felbontáshoz legalább kettő kb 400k-s monitor kell (30"). Akinek erre van pénze, az biztos nem 1 VGA-val hajtja, tehát a termék nem nekik szól.
Majd elválik... Jelenleg, ha az ember egy VGA-val akar 3-monitoros rendszert megvalósítani, be kell szereznie egyet a Matrox Triple Head 2 Go nevű termékéből, ami olyan 80k.
-
-
Bluegene
addikt
válasz
janos666 #4897 üzenetére
nincs igazad
SP-ken kívül minden mást illene megduplázni,miért is? az UVD-t, a PCI-E Exp interfészt a GDDR5 memory interfészt mi a túrónak duplázni? sőt ezeken még nyerhetnek is ha hatékonyabbá még kisebbé zsugorítják(nem csak a 55-->40nm miatt hanem azontúl is kevesebb tranzisztorból építi, tehát spóronaka tapasztalatok alapján), tehát a chip nagyrésze ténylegesen feleakkora lesz, több hely marad az végrehajtó egységeknek h hízzanaka textúrázókat például a jelenlegi 40-ről lehet csak kismértékben növelni hisz túl sokra nincs szükség az újabb játékokban
a sp-ket magukat amik csak a chip 1/3át foglalják arányaiban jobban lehet növelni, és még sok trükkjük lehet
ha igazad lenne az RV670 192mm2 320 sp-vel(55nm), akkor a te elved alapján az RV770-nek ennek 2,5 szeresének kéne lennie hisz annyival több a sp, 480mm2-nek kéne lennie, mint tudjuk csupán 260mm2, igen trükköztek így vagy úgy de megcsinálták, alig nőtt mégis a nyers teljesítménye duplázódott(nyílván az UVD, memory interfész...nagyjából ugyanakkora maradt szvsz, nem tudom honnan veszed h ezeket is "duplázták")
honnan veszed h az rv870-et nem fejlesztik tovább, nem trükköznek, sztem simán beleférhet több mint 2000sp anélkül h óriásira duzzadna a chip
az Ati chipjét eleve úgy tervezték h nagyon jól lehessen továbbfejleszteni, az RV870 die-shotja pedig úgy fog kinézni h az "egyéb" területek(pl UVD) egész apróra zsugorítják(nem duplázzák!
), az SIMD pedig nem 1/3-át hanem inkább több mint felét fogja kitenni, és "sűrűbb" is lesz
-
válasz
janos666 #4897 üzenetére
A 4870X2 elég jól áll CF hatásfokkal - az más kérdés, hogy sok esetben nagyon rondán orrbaveri a platform limit, de ezt az új kártya is meg fogja élni
Amúgy, ahogy írod, a ROP-okat muszáj lesz egy kicsit megturbózni, mert a 16 már az RV770-hez is kevés egy kissé. Abban valahogy nem hiszek, hogy ismét duplázzák a z-teljesítményt, az AA melletti fillrate-et meg ugye felhozták 1/clockra, azon már nem sokat van reszelni. Marad a darabszám növelése, ami már csak sávszélesség szempontból is üdvös lenne.
A TEX meg vszleg az ALU-val együtt fog nőni, és az is jól van úgy, az utóbbi 1 évben megjelent játékokra nem lehet éppen azt mondani, hogy teljesen közömbös nekik a textúrázó-kapacitás.A többi alkatrész közül pedig nem mindegyik skálázódik jól a csíkszélesség csökkentésével...
-
TESCO-Zsömle
titán
válasz
janos666 #4897 üzenetére
Ez mind szép, jó, és le a kalappal a szakértelmed elött, de ha mondjuk egy csöppet udvariasabb lennél, és hanyagolnád ezt a lekezelő hangnekem, mindjárt jobb volna.
Értem én, hogy Ő kezdte, meg miért nem olvas, mielött kinyitja a száját, de egy udvarias ember akkor is udvarias, ha vele nem azok. Másfelől meg az egymásra mutogatás sosem hoz eredményt.
Köszönöm, hogy elolvastad.
-
Bluegene
addikt
válasz
janos666 #4893 üzenetére
55-ről mennek le 40nm-re, ami számtanilag ~53%-ára csökkentheti a területet,jah vagy másszóval közel a felére csökken az rv770
[link]
de ha megnézzük a felépítést az SP-k csupán (ránézésre) harmadát foglalják el a chipből
tételezzük fel h a többit jól lezsugorítják, felére(memory, PCI-E interface, UVD, narancssárga színű vmi), ami az SIMD és Texture rész azt arányaiban jobban lehet növelni
ergo a többi rész apróra zsugorodik, tehát a végrehajtókat jobban lehet növelni mint duplája
szal végeredményben 2000, de 3000 sp felett is lehet(utóbbi ha növelik a magméretet)
tehát ebből azt akartam kihozni, h az sp-k számát duplázzuk azonos gyártástechnológián, nem lesz duplaakkora chip hanem kb másfélszerese, elég csak ránézni a felépítésére
-
Sheltem77
aktív tag
válasz
janos666 #4893 üzenetére
Nem kell cinikusnak lenned,egyszerűen arról van szó, hogy (mint ahogy az első hozzászólás is mutatja!) másabb információk szivárogtak ki eleinte mint most a kártyákról. Persze véglegeset csak akkor tudunk ha az ati jelenti be én azért örülnék egy bivalyerős kártyának(ami crossfire nélkül is az). Peace
-
Crytek
nagyúr
válasz
janos666 #4868 üzenetére
Tuti igazad van én nem értek ezekhez,de ettől függetlenül nekem olyan VGA kell amin a leirt beállításokkal fog menni a Crysis normálisan játszhatóan.
Jelenleg a 8800GT-mel 0-6 fps,de ezt már említettem! És ez állandó már mióta kijött a Crysis kijött sok új driver és állandó kb ez az 0 -6 fps.
Szal várom a megváltó VGA-t! -
Abu85
HÁZIGAZDA
válasz
janos666 #4865 üzenetére
Ebből csinálni kellene egy filmet.
Nem tom, hogy mi volt pontosan a háttérben, de szerintem a DX10-et visszabutították az NV hardverhez, mivel a DX10-ben már nincs caps bit, így mindent kell tudni a GPU-nak. Szerintem eleve a DX10.1 volt a DX10. Túl kevés idő telt el a két API megjelenése között.
Az MS-nek világos volt, hogy az NV a CUDA-t fogja tolni. Azért az ottani elemzők benne vannak annyira a szakmában, hogy láthatták az NV esélytelenségét a CUDA nélkül. Az ATI felvásárlása és a Fusion tervek kiszivárgása után nem volt nehéz kitalálni, hogy a platform nélkül, itt senki sem marad életben.
-
tzsolesz
nagyúr
válasz
janos666 #4865 üzenetére
Jajj, ez kemény volt. Mondták már hogy "jóízűen" tudsz fórumozni?
Ez a Crysis körüli szűrőkkel való agyalás egy hülyeség. A crysis egyenesen arányosan csúnyul/torzul a szűrők bekapcsolásával, és mértékének emelésével.
Ezt az 5 évesek is tudják. A Crysis 1680x1050-ben szép DX10-ben veryhigh-on, szűrők nélkül. Mert akkor még nem mosott, és tompa a kép. AA-tól nálam valami szörnyű randa lesz a játék egyébként is.
-
Crytek
nagyúr
válasz
janos666 #4862 üzenetére
Én nemtudom hogy mi a szitu mert nem értem ezeket a dolgokat amiket itt irtok hogy pom meg tökömtudja még mi.
A lényeg AA-t minél nagyobbra teszem egyre jobban lassul a game és AF-el ugyanez a szitu szal müködnek.Én ezeknek a game-en ill driveren belüli maxra huzását nevezem maxnak!
Ha Atinál a game-en belül a 8x a max akkor az ha nvdiám lesz akkor a 16xQCS lesz a max.
Mostmég mindegy mert nemigen van olyan vga amin jól menne így.
Ezért akarok olyan VGA-t mert ha a Crysis így fog normálisan menni 30-40 fps között akkor már mással sem igen lesz gond.
Most ilyen beállításokkal a 0-6 fps-t erőteljesen pumpálja a képernyőre! -
Abu85
HÁZIGAZDA
-
zack
nagyúr
válasz
janos666 #4859 üzenetére
Nem tudom milyen ATi-val próbáltad, de nekem 8xAF gyönyörűen látszik, ha ráeröltetem driverből. Bár sokat elvesz a teljesítményből 1920 Dx10 VH-ban. Gondolom azért mert ahogy Abu is írta a game nem tudja, és mivel ráerölteted, megcsinálja, csak túl nagy áldozattal. GTX295-nél is ez volt a helyzet, szóval ebből az aspektusból "egyik 19 másik 1 híjján 20". Mert nV-nél hiába tudsz 16xQ beállítani, ha még jobban megfogja a kártyát, ráadásul képhibákat is generál néhol a 16xQ. Ennyit az nV csodálatos kényszerített szűréséről.
-
Abu85
HÁZIGAZDA
válasz
janos666 #4859 üzenetére
De mit jelent a Max. A játék eleve nem támogatja az AF-et. Így lehet AF-es maxról beszélni? A játék eleve összeütközik az AA-val.
Amúgy elég szar ez a probléma, nyilván nem tudunk mit csinálni azzal, ha egy gyártó a saját érdekeit előrébb tartja a felhasználók érdekénél, de ezt már nem sokáig lehet fenntartani.
Szerencsére csak egy ideig lehet vakítani.Előbb utóbb mindenki elfordítja a fejét, vagy végleg megvakulnak.
-
Abu85
HÁZIGAZDA
válasz
janos666 #4857 üzenetére
Senki sem tudja a nem kompatibilis effektekkel összehozni az AA-t és az AF-et. Erre az NVIDIA sem képes. Minden ugyanúgy működik az AMD és az NV oldalon is a Crysis-ben. Eleve nem értem miért akarsz Edge Detect-es CFAA-t erőltetni az AMD oldalról, amikor a CryEngine 2 nem támogatja! Igen NV oldalon sem.
Erre van a beépített Edge Detect Shader ami nyilván az AA bekapcsolásával azonnal kikapcsol a motor. A POM meg ugyanúgy működik az AMD és az NV AF-je mellett. Ugyanúgy szarul lesz szűrve a textúra. HA az NV tudna olyan algoritmust ami mellett működne az AF a POM-mal, akkor minek dolgozták volna ki az MS-sel és az AMD-vel a DX10.1-be a LOD utasításokat?
-
válasz
janos666 #4404 üzenetére
Miután általánosságban beszéltem, sok értelme nincs szélsőséges példákat hozni. A Crysisben biztosan jobb lesz az 5xxx, mert botrányos a játék CF skálázódása (és az SLI sem sokkal jobb), de nem túl sok ilyen játékot tudsz mondani (tudtommal még a Far Cry 2 ilyen). Aki ezekért vesz új generációs VGA-t, magánügy, de szerintem nem éri meg.
A Half Life 2 a leírtak alapján a platform memória-sávszélességéből futott ki, nem a VGA-ból.A GT200 fő baja az alacsony órajel - a legdurvább összevetés a 9800GTX+ vs GTX260-192, ahol a 1.5-szeres ALU-szám ellenére GFlops-ban ugyanazt tudja a két kártya.
-
leviske
veterán
válasz
janos666 #4375 üzenetére
Az nVIDIA lazsált? Most mutatták be az első DX10.1-es szériájukat. Nem lazsálnak ők, csak más utakon járnak. A GT200 nagy ugrásnak számított, mindenből dupláztak, az NV fanok el is élveztek tőle. Utána szépen lassan kiderült, hogy alig-alig ér többet játékok alatt, mint a fele akkora RV770. Hogy miért? Mert nem is a desktop volt a fő célpont vele, ahogy várhatóan az új GPU-val sem.
A nagy nevekkel meg nem tudom mit akarsz. Milyen nagy neveket akarsz? Mondjuk Battlefield 3? Esetleg Colin Mcrae Dirt2? Mind a két játék várhatóan toplistás eladásokat fog produkálni és sokan fognak miattuk a boltba rohanni DX11-es kártyáért. Megjegyzem, ugyan ez a szöveg ment a HD3870X2 és 8800GTS512 tulajok részéről a HD4800-asok megjelenése előtt és az jogosabb is lehetett volna, hisz a HD4800-asok teljesítményen kívül semmi pluszt nem hoztak. JA??? Hogy van esély rá, hogy a HD5800-asok is csuklóból hozzák a HD4870X2 teljesítményét, HD4890 áron???
Lehet, hogy már csak emiatt is várható, hogy jó páran rohannak majd értük a boltokba...
Azt pedig látom nehéz felfogni, hogy a hozzászólásom lényege pont az volt, hogy esélytelennek látom, hogy túláraznának... Várhatóan hasonlóan fognak árazgatni, mint a HD4800-asok esetén. Hogy miből gondolom ezt? Olvasd el az említett hozzászólásom úgy, hogy agyilag fel is fogod.
Erősen kétlem, hogy az AMD előre dörzsölné a tenyerét. Amekkora GPU méret különbségek várhatók az AMD és az NVIDIA fő GPU-i közt, nem lehet túl sok jót jósolni az NVIDIA üdvöskéjének, miután az AMD saját pályáján nehéz volna több, mint háromszoros teljesítményt ráverni az AMD-re. Főként azután, hogy jelenleg annak is örülhetnek, ha pariban tudnak vele maradni. (Ahogy a GT200 vs RV790 "csatában")
Amúgy nyugodtan nevess és ess le a székről, csak nehogy utána még pofára is ess az NVIDIA üdvöskéjének premierje után.
-
válasz
janos666 #4301 üzenetére
de ugye azt tudod, hogy amit az első felében fejtegetsz, az nem technológiai kérdés, és semmi köze nincs a a GPU-k sebességéhez?
amúgy, hogy őszinte legyek, én marhára nem értem, mi olyan jó abban, hogy fotorealisztikus környezetet csinálunk realtime. ha ilyenre vágyom, kimegyek az utcára. sokkal többre értékelek egy egyedi valamennyire-realisztikus képi világot - nekem a mai napig a Bioshock a kedvencem grafikai szempontból, ill. az idei évből a Mirror's Edge tetszett a legjobban, mert mindkét játékban a grafika első körben az atmoszféra szolgálatában áll.
-
Bluegene
addikt
válasz
janos666 #4301 üzenetére
A 4db RV770 GPU csak a nő arcát renderelte, és a háttér fixen oda volt vágva, vagy az is lemodellezett és élőben kirajzolt cucc? Mert ha így nézzük egymagában csak az arc, még nem akkor "húde" 4 GPU-nak, kéne még vagy 4 másik a háttérnek, és még 4 a teste többi részének.jó de kábé évente duplázódik a gpu-k teljesítménye, szvsz
5 év múlva egy R1200 9890X2 kártya el fogja bírni, meg aztán optimalizálni lehet
egyébként fless lehet a filmszerű játék, vannak mozifilmek amik számítógéppel csináltak(pl Beowulf), persze az más, nem real time-ba
-
válasz
janos666 #4201 üzenetére
Elméletileg igazad van, két feltétellel:
1 - Az nV kibírja a sw render idejéig (~2014) így kevésbé sikeresen.
2 - amikor ez bekövetkezik, akkor még lesz lehetőség nem-homogén rendszerek összerakására.
Emlékezz vissza, régen a pentium1-es korszakban belerakhattál egy AMD, vagy Cyrix procit is egy intel csipes lapba, mert minden kompatibilis volt mindennel. Hol van ez ma?
Simán lehet, hogy Hypertransport-al, vagy QPI-vel fognak csatlakozni a gyorsítókártyák, vagy gyorsítóprocik az alaplapra, és nyilván nem fog az intel és az AMD csak azért kompatibilis rendszert használni, hogy az nV is csinálhason kártyát a rendszereikhez.
Vagy az nV licenszelheti mindkét gyártó megoldását, ha azok úgy akarják, de egyre gyűlni fognak az ilyen licenszköltségek, és a végén ezek többe fognak kerülni, mint amennyi haszon lesz az nV termékeken. -
South Velen
addikt
válasz
janos666 #3963 üzenetére
de nem lehet, hogy az 1.0.0.3-as patchel már 4 magot is bevon maga a játékmotor?
Mondjuk ez elképzelhető, de én úgy tudom, eleve 3 magot támogatott, amit bizonyított az ajánlott gépigénye: intelből c2q 6600-ast ajánlottak, phenomból pedig mindössze egy X3-ast. Amúgy én nem tettem fel egy patchet sem, mert a win7 nem akarta az igazságot.
Emlékeim szerint E8200-zal alapon 32 fps-em, Q6600-zal alapon 42 fps-em, E5300 @ 3,2GHz-vel 27 fps-em volt. (Medium, Medium, 1400x1050, 25. 25) a beépített benchmark szerint. -
HSM
félisten
válasz
janos666 #3883 üzenetére
(#3901) janos666: "Tudom, az se véletlen, hogy a 4890-ből nem jött 512Mb-os, így el lehetett adni 512Mb-os 4870 tulajnak is."
Ha meg lenne 512-es, akkor az lenne a baj, hogy átbaszás, mert nem bírja a GTA4et 8XAA-val FullHD-ben, maxon...(#3904) Dare2Live: Nem akarok erről 10+1.-i alkalommal is vitát nyitni, de GTA4, FC2, Crysis tuti... És 1680*1050-ben, szűrők nélkül is.
CSak amik nálam érezhetően sokat javultak. Persze, sok (legtöbb) játéknál egy árva FPS-t se hozott...
De akkor se vennék már 512-es karit...
-
HSM
félisten
válasz
janos666 #3883 üzenetére
Najó, de amint lehetőség volt rá, kihozták az 1GB-os verziót. Az emberek döntése volt, hogy az 512-es vették, amiben igencsak benne volt a HW site-ok keze, hogy az 512MB elég bármire...
Te erőltetted volna az 1GB-os karit drágábban, ha aktuálisan az 512-es pont ugyanolyan gyors volt (pillanatnyilag) jóval olcsóbban, és az emberek is inkább azt vették? Még jó, hogy nem... Az NV se jópofiságból tett 1GB ramot a GT200-akra, hanem mert az 512bites buszra nem lehetett kevesebbet...Meg lehet nézni, hány db GTX-en van 2GB ram... Pedig a GT200 crossbar memóriavezérlése mellé nem ártana...
Amúgy nem volt törvényszerű, hogy úgy alakuljanak a dolgok, hogy kevés legyen az 512MB RAM.... Ugyan nem tudom pontosan, de elvileg ha az alkalmazások nem a DX9 vonalon fejlődtek volna, hanem az AMD által megálmodott DX10.1 útján, akkor még akár elég is lehetett volna az az 512MB ram...
-
rocket
nagyúr
válasz
janos666 #3889 üzenetére
Az AMD hosszu evek alatt megtanulta milyen befolyassal bir az NV szoftver oldalon, nem akartak ismet ugy jarni mint a TWIMTBP-el.
A CUDA az NV-nek egy eszkoz (mint a TWIMTBP) a sikerek eleresehez, nem csoda, hogy nem tamogattak, es mivel van alternativa igy a felhasznalok nem vesztettek semmit, sot igazabol nyertek, mert nem lesz elnyomva a CUDA alap PhysX-szel az AMD ha eljon az ideje, ezzel a PhysX megmenekul, es opciot nyujt majd minden felhasznalonak.Hamarosan az NV is befogja latni, hogy a PhysX a CUDA-n veszett helyzet mar, es meglepi azt ami az adott helyzetben a legjobb, hogy OpenCL alatti tamogatast nyujt majd melle.
-
rocket
nagyúr
válasz
janos666 #3883 üzenetére
Az AMD se jotekonysagi intezmeny, azert jott 512mb rammal a referencia HD4870 mert nem volt szukseguk akkoriban tobbre, a jatekok tobbsege ment szepen full HD-ben (jelenleg is vannak boven jatekok amikhez boven eleg), igy tudtak megjobb aron adni akkoriban, ami hozza jarult a HD4870 sikerehez.
A kapitalizmus mar csak igy mukodik, es ha ez neked eddig nem tunt fel, akkor valami alom vilagban elsz
Neha olyan dolgokert tudjak egyesek szidni a gyartokat aminek semmi alapja nincs, ez kb. a 100$-os HD4770 esete, volt aki nem ertette miert nem 1GB ram van rajta mar alapbol, mert azzal mar sokkal jobb lenne full HD-ben, biztosan az az AMD celja, hogy a jelenleg meg highend aljanak szamito full HD felbontasban tundokoljon a kozepkategoria 100$-os VGA, es a 200$-300$-400$-os termekeket meg ledaraljak
-
Abu85
HÁZIGAZDA
válasz
janos666 #3896 üzenetére
Most már jó lesz így is. Lement a CUDA vonat, és jönnek a független szabványok. Mi a probléma? Mindent átírnak OpenCL-re és Compute Shaderre. Ha az NV akar valamit a PhysX-ből, akkor azt is át kell pakolni egy független API-ra. Ennek pedig egyenes következménye lesz, hogy minden GPU-n futni fog.
-
Bluegene
addikt
válasz
janos666 #3872 üzenetére
nem hinném h az AMD-nek megérte volna a CsUDA, meg a fiziksz
nem jó ha a konkurrencia megoldását befogadjuk, sohase, nyílván ezen keresztül tervezte volna az nv szivatni az AMD-t(licenszdíjak, nvidia platformra való tervezés/optimalizálás, az új CUDA fejlesztések késedelmes átadása stb)
nagy naivitás feltételezni h az AMD-nek hosszútávon hasznos lett volna, kifejezetten káros
elég érdekesen látod a dolgokat, a zöld szemüvegen át
én speciel nem sajnálom ezeket a videókártyát azért veszi az ember h játszon, nem azért h a DNS molekulákat számolja a Csudával, meg kódot fejtsen
-
Abu85
HÁZIGAZDA
válasz
janos666 #3864 üzenetére
A GeForce-nál sincs semmilyen memory leak. Ezt csak kitalálták, mert nem tudták, hogy a Radeon 256 MB memóriája, miért fogy el később, mint a GeForce 384 MB-ja. Igazából itt semmi hiba nincs, egyszerűen a Crossbar partíció alapú vezérlése ennyire képes. Nem véletlen cserélte le az AMD a Ringre és a HUB-ra.
Ez olyan, mint az AMD PowerPlay rendszere. Mindenki azt mondja, hogy hibás, közben nem hibás, csak nem képes többre. -
HSM
félisten
válasz
janos666 #3864 üzenetére
"Sőt, beetették, mint engem, hogy itt nincs memory leak mint geforceokon, elég lesz 512Mb VRAM is a 4870-re FullHD-be is, aztán nagyon nem."
Ezt a review-okban lehetett csak olvasni, és a fórumokon, Egy hivatalos AMD anyagot mutass, ahol bárki ilyesmit írt volna.... Kizárólag azért jelent meg kizárólag 512MB-os kivitelben a kari, mert akkor még nem nem gyártották az 1GB-oshoz szükséges nagyobb kapacitású modulokat, és mikor el is kezdték, nem volt elég sok, ezért először a 4870 X2-re rakták csak....
"Vagy akár bedőlt annak, hogy lesznek DX 10.0 játékok, amik sokkal jobban muzsikálnak szintúgy HD 2xxx óta akármin mint G80-as vagy attól újabb Geforceon (amit vehetett volna helyette, és ez döntött a kérdésben)."
Valódi DX10 kódban az R600 alaposan elpicsázza a G80-at, lásd Stormrise....
Más kérdés, hogy nem olyan gyorsan terjedt, mint szerették volna... Még a tesszalátor miatt is lehet amúgy ok röhögésre, ha majd az új címek emiatt sokkal jobban fognak menni R600-on, de legalábbis szebben, mint akármilyen Nv-n...
És a 3850/70, 4670, 4770, 4850/70/90 stb. karikon pedig igencsak hasznos lesz, a DX10.1-el egyetemben.
Aktív témák
Hirdetés
- Gyúrósok ide!
- BestBuy topik
- LED világítás a lakásban
- Fortnite - Battle Royale & Save the World (PC, XO, PS4, Switch, Mobil)
- Tőzsde és gazdaság
- Milyen autót vegyek?
- Bambu Lab 3D nyomtatók
- Milyen TV-t vegyek?
- One otthoni szolgáltatások (TV, internet, telefon)
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- További aktív témák...
- Telefon felvásárlás!! iPhone 12 Mini/iPhone 12/iPhone 12 Pro/iPhone 12 Pro Max
- Telefon felvásárlás!! Apple iPhone 16, Apple iPhone 16e, Apple iPhone 16 Plus, Apple iPhone 16 Pro
- Fém, összecsukható és kihúzható fotó állvány eladó
- DELL PowerEdge R730xd 12LFF+2SFF rack szerver - 2xE5-2680v3,64GB RAM,4x1GbE,H730 RAID v ZFS
- Több mint 70.000 eladott szoftverlicenc
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest