Új hozzászólás Aktív témák
-
abunak volt egy hsze valamelyik topicban, ahol konkrétan felsorolt címeket is, de már nem találom. de a 70et én is optimista becslésnek tartom, ami nem számol a halasztásokkal és beleérti a már megjelent játékok dx12re való portolását is. ez utóbbiak viszont akár instant is jöhetnek, előre lehet dolgozni rajtuk. ha a fele meglesz, akkor már jók leszünk, és ha ezek közül lesz 3-4 új aaa cím is, szerintem senki sem panaszkodhat. az ünnepi szezonra elég sokat terveztek be.
-
HSM
félisten
Olyan jó kártya volt a 980 GTX+, hogy jelentős részük gyári órajelen is kuka volt, mert széthibázta magát.
De legalább kínkeservesen nagyjából utolérték vele a G80-as elődöt.A Pitcairn jogos, azon én is húztam kicsit a szám. Ugyanakkor azt is hozzá kell tenni, hogy architekturális szempontból azzal semmi kivetnivaló nincs abban a szegmensben, ahova bedobták, még ha szolgáltatások tekintetében nem is makulátlan.
A G92-es 9800GTX+ elnevezés viszont erős volt olyan elődök után, mint pl. egy 8800 GTX vagy Ultra.(#7628) kovsol: Az a 65-->55nm váltás pont nem volt egy sikertörténet, én is örültem anno, hogy 65nm-es GTX260-at sikerült szereznem.
(#7630) imi123:
-
Abu85
HÁZIGAZDA
Annyira azért nem érdekes. Korábban is kiderült, hogy 4K-hoz a hidas technológia korlátozó. Megfogja a skálázódást és rontja az egyenletességet. Radeonnál szimplán az XDMA előnye látszik. Jobb lesz tőle a skálázódás és kevesebb lesz az akadás. Majd a DX12-nél a híd úgyis elveszik.
-
HSM
félisten
Nem legenda, logikus gondolkozás a saját eddigi tapasztalataim alapján.
Ennek nem a motorhoz van köze, hanem egyszerűen ha több mindent csinál egyszerre a GPU, akkor egyszerre több adat fog kelleni, azaz nagyobb sávszélesség.(#7463) daveoff: Nem érted az egészet. Alapvetően DX11-re készült a BF4. A Mantle csak kiegészítésként került bele, és a töredékét használja ki annak, amit tud az API. Nincs benne streamelés, nincs benne aszinkron compute, és nincs benne semmi, amit ne bírna el a DX11 is.
(#7477) sayinpety: Végre egy reális hozzászólás.
(#7489) imi123: Véletlenül se zavarjon, hogy mindeközben mindkét konzolban GCN-es AMD APU van...
(#7490) Ghoula: Annyival jobban reagált rá, hogy DX11 azonos sebességből másfélszeres előny lett DX12-ben a GTX980 és a 290X között....
(#7492) korcsi: Pontosan. Jól érted.
Mindenképpen ki fogják használni, mivel Nv-n is gyorsul tőle a kód, és egy fontos újítása a DX12/Mantle/Vulcan-nak.
(#7498) imi123: Azt írta Abu, hogy a jelenlegi DX12 példaprogramok alapján a GCN1 10-15%-ot gyorsul tőle, akárcsak a Maxwell2, szóval ezzel sokan jól járnak. A GCN2-3, ami viszont jóval nagyobb mértékben gyorsul, ha jól emlékszem, 35-45%-ot írt, de aki tutit akar, keressen vissza.
(#7496) tailor74: Igen, DX11-ben nincs, a többiben pedig opcionális lesz. Pl. a BF4 még nem használta a Mantle kódban sem.
-
HSM
félisten
Az aszinkron compute-nál nemcsak a kihasználatlan erőforrások miatt, hanem a lényegesen nagyobb memória sávszélesség miatt is. Sose feledkezz meg arról, hogy a számolókat folyamatsan etetni kell adattal. Valamint az is érdekes, amit Abu írt nemrég, hogy a Maxwell-nél nem futhat akármikor aszinkron a kód, csak bizonyos állapotokban, míg a GCN-en nincs ilyen megkötés.
A kérdőjelről csak annyit, szerintem nem ROP/CU-ok miatt jön fel magasab felbontásban a Fury, hanem azért, mert ott a driver kevésbé limitáló tényező.
Pl. BF4-ben van egy érdekes tapasztalatom, a Shanghai térképen, miután leomlik a központi toronyház, tele lesz a levegő is törmelékkel. Na, az pl. elég látványosan betett az AMD driverének maxgrafikán DX alatt, míg ugyanott Mantle-ben csak úgy hányta ki magából a pixeleket, mintha mi sem történt volna...
Ilyen: [link]. Bár a grafika eléggé nullára van állítva, a lényeg látszik, mindenféle darabkák, füst, romok... Érdekes, hogy a beszámolók alapján az Nv kártyákkal ott korántsem volt ilyen rossz a helyzet azon a helyen.
Persze, azt tegyük hozzá, ez bő fél éve történt, az akkori driverekkel a 290-emen. A proci egy i5 volt, 4,4Ghz-en. -
HSM
félisten
A "Hunting Titans" szerintem hatalmas.
És ha nem csal az angolom, akkor jelentésben is teljesült, a Titánokat űzi ez a kártya. Az első üzközetet a Titánok nyerték, de ez csak az első csata volt, nem a háború.
Ami a FHD-t illeti, szerintem ott már ezen kártyák alatt a DX11 fogy el elsősorban, az AMD alatt kicsit a driver is. Az E3 press grafok nekem kimaradtak, vagy legalábbis úgy kezeltem őket, ahogy kell, mint egy "cherry picked" scenario-t. Nyilván a nekik legjobb eredményeket fogják prezentálni.
(#7354) mcwolf79: Mit mondtál meg? A nagy semmit!
Azt írtad a linkelt hsz-ben, hogy azért kell rá a víz, mert kazán lesz. " Mert oké, vízzel le tudják hűteni, de kell ott Watt-nak lenni rendesen, ha vízre van szükség" Hát nem lettek Watt-ok. [link] Szóval igen, jófejségből tettek rá vizet, végre olyan hűtés került rá, ami nemcsak méltó egy csúcskártyához, de az Nv agyondícsért hűtésénél is bizonyos tekintetben (terhelt zajszint) lényegesen jobb.
(#7357) Milka 78: "az a 15% lehet pont annyit jelen,hogy 8 hónappal tovább használhatom a karimat kompromiszumok nélkül."
Ez 100% bullshit, tekintve hogy a DX12 küszöbén vagyunk. Ezek a kártyák életciklusuk végét már bőven a DX12 korszakban fogják élni. Ami kifogna rajtuk, az előbb kifog a DX11 API-n. Tehát nem a DX11-ben kell majd 15%-al gyorsabbnak lennie, hanem majd a DX12-ben, ha az a cél, hogy a lehető legtovább kompromisszumok nélkül játszhass a pénzedért. Márpedig jelenleg úgy fest, több ponton is lényegesen erősebb lesz a Fiji DX12-ben, mint a 980Ti/TitanX. Gondolok a memória sebességére, és a durvább aszinkron terhelés melletti kiegyensúlyozottabb teljesítményére. Persze, árnyalja a képet a kisebb méretű memória, és a kisebb háromszög feldolgozó képesség, de ezek számomra kevésbé tűnnek a sebességre meghatározó tényezőnek.
Amúgy, ha anyagilag jól akarsz járni, akkor 8 hónap spórolásból lévő pénzt nem erre költöd. Egy vizezett 290-el is még szerintem nagyon sokáig remekül el lehet majd lenni, és lényegesen kevesebb pénz fog kirepülni az ablakon kb. semmire. Nem akarok a pénztárcádban turkálni, de ez egy kicsit szemet szúrt. -
lowzor
veterán
Érdekes. Nálam is (mondjuk i5-el), meg másnál is aki mért a fórumon nagyon megdobta a min FPS-t. i7-el nem tudom hogy viselkedik DX-el, lehet hogy a 8 szál annyival jobb neki, hogy nem lesz akkora CPU limit. Mondjuk volt olyan itt a fórumon, akinek i7-el is jóval gyorsabb volt Mantle-el a 64 fős BF4 multi. Az már más kérdés, hogy NV-nél DX11-ben sincs CPU limit, egy gyengébb procival sem.
-
HSM
félisten
Szerintem nagyban változtatott volna a vásárlók hozzáállásán a termékhez, ha ezt megemlítik.
Jó, akkor ugorjunk a Titán témáról (munkára amúgy semmivel nem tűnik rosszabbnak a Hawaii sem, azon gyárilag is aktív a tetemes DP kapacitás, nem kell hozzá Titán verzsön, meg driveres kapcsoló) és nézzük mondjuk a 780 vagy 780Ti-t, azoknak is bőségesen megkérték az árát, és kizárólag géming kártyák.
Te nyilván halál nyugodt vagy az újkorában 230 dolláros kártyáddal, ott nyilván egyáltalán nem nagy dolog, ha kukázni kell durván kétévesen. Egy 500 dolláros GTX780, vagy 700 dolláros 780 Ti vásárlása után viszont nem vagyok benne biztos, hogy olyan őszinte lenne a mosolyod, főleg amikor a konkurenciát a legkevésbé sem fenyegeti ilyen veszély, főleg, hogy még olcsóbb is volt akkor egy 290X, mint a 780 Ti....
(#6809) imi123: Megfelelően gyors monitorral állatira de látható és érezhető volt a difi.
Természetesen mérhető is, csak piszkosul drágák az 1000FPS körüli kamerák, és mocskosul nem figyelnek az ilyesmire a tesztek, ahogy a képminőség vizsgálata is rendszeresen elmarad.(#6813) daveoff: Igen, nagyon jó, hogy ottvan a driverben a kapcsoló, csaképpen kár, hogy nem csinál semmit.
-
HSM
félisten
Szerintem a jelenlegi AMD procik a legkevésbé sem ilyen szintű rendszerekbe készítik. Ez látszik az árazásukon, piaci pozicionálásukból is.
Márpedig nem látom, mi a gond abban, hogy nem erőltették bele a saját cuccukat. Persze, lehet úgy nézni, hogy ciki, hogy nincs kellően erős vasuk a saját csúcsrendszerük alá, de ha egyszer jelenleg nincs?Persze, a jövőben ez még változhat, pl. a DX12-ben új erőt kaphatnak az FX procik, és a GCN-es APU-k is az új algoritmusokkal, de ez még a jövő. A jelenben DX11 van, oda pedig a jelenlegi AMD procivonal még egy Fiji mellé sem lenne (sajnos) elég. Ez van.
Persze, elsüthették volna, milyen jó lesz mindenkinek, ha majd jön a DX12, és az IGP-n hűdenagyongyors lesz minden, de ha meg nem jön be, és nem arra indul a játékfejlesztő világ? Akkor megint öngól, hogy az AMD behülyítette a vásárlóit... Szóval veszélyes terep ez. Szerintem a lehető legjobban tették, hogy itt most konzervatívok maradtak, és nem ígértek semmi bizonytalant. Most hogy néhányan kiszúrták a videóból a leglényegtelenebb részletet... Hát no comment.
-
Abu85
HÁZIGAZDA
Ez még a jövő, nem a történelem. Be is mutogatták a Builden az Unreal Engine 4-gyel, illetve a Stardock is elmondta, hogy nekik is olyan a rendszerük, hogy az IGP-t is beszámítja a feldolgozásba, ha van. Erről már volt is szó, hogy a 290X-szel egy A10-7850K +20%-ot ad, ha az IGP-je aktív. Ez egy nagyon fontos lépés, amit a Microsoft letett a WDDM 2.0-val és az IOMMU módjával, mert alapvetően erre épül számos Xbox One játék, csak ott statikus particionálással dolgoznak a fejlesztők. PC-n ez nem kell, mert eleve ott az IGP, de a funkciót lehetővé kell tenni. Valószínű egyébként, hogy a pathfinding innen szivárgott le a PC-s kutatásnak is.
A váltásnak az elsődleges előnye, hogy az IGP kihasználása a CPU-s SIMD-ekkel szemben olcsóbb és egyszerűbb. -
Abu85
HÁZIGAZDA
Ez teljesen válasz a kérdésre. Az E3-ra építettek rendszereket, arról van videó. Az a rendszer kereskedelmi forgalomba nem kerül.
Nem kell benne hinni vagy nem hinni. Lesz egy új lehetőség, ami nyilván ki lesz használva. A gyártók előtt ott a lehetőség, hogy ezt lefedjék a megfelelő termékekkel a Quantum projektben is, ha az alaplap Mini-ITX-es és nem fogyaszt többet a proci 95 wattnál.
-
Abu85
HÁZIGAZDA
Ezek tesztrendszerek, amelyeket az E3-ra raktak össze. Mint mondtam a gyártók nem ilyet fognak összerakni maguknak. Egy LGA1151-esben és egy Socket FM2+-osban opcióban gondolkodnak. Nyilván egyébként lehetne Broadwell-K is, ami az Intelnek a DX12-höz tervezett Gaming rendszere nagy IGP-vel, de ez drágább marad, mint a Skylake, mert jóval erősebb az IGP-je és jóval jobb lesz az IGP offloadot használó játékokban. De lehet, hogy lesz olyan cég, amely Broadwell-K-t rak bele, és azzal egyik helyen sem lesz a leggyorsabb a procirésze a rendszernek, de alapvetően mindkét irányt tisztességesen kiszolgálja. Mint írtam a Mini-ITX alaplap az egyetlen követelmény, maximum 95 wattos procival.
-
-
#85552128
törölt tag
Metro Last Lighttal tesztelik
"Average: Metro: Last Light at 1920x1080, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen). In order to heat up the card, we run the benchmark once without measuring power consumption."A GPU is nagyobb feszt kap mint egy ref 290X (1.14 V vs 1.21 V).
-
-
Szerintem pont 4K alatt lesz ez a ROP probléma (TMU amugy mennyi lesz?).
Ugyanúgy szar prognózist állítottak fel mint anno a 2900XT-nél... aztán a 4xxx szériáig kellett várni hogy versenyképesek legyenek valamennyire (addira jutott el a játékipar is oda hogy jó lett), mert ugye a 3870 is egy beváltatlan ígéret maradt (csak a fogyasztás lett jobb, 14/16nm váltás valaki?
).
(Compute az isten ugye, minek textúrázni/pixeleket rajzolni stb stb. ezért tervezzük alul / szarabb aránnyal.)Ez az egyetlen dolog (főleg) ami nem szimpatikus, megint csináltak egy félkarú óriást. Tökmindegy milyen trükköt vetnek be mellé.
-
proci985
MODERÁTOR
ajj.
(#6474) TTomax: ja a kitesztelt stabil fesz azert elegge elterhet a TDPtol. nekem anno a q6600am vitte 1.008Vn az alaporajelet (default 1.285 helyett), azon flesseltem egy idoben, hogy 35-45W korul evett prime alatt es 8-10W korul az asztalon. a legjobb az volt, hogy 3.6@1.46 az asztalon (6x400on) melegebb volt a proci, mint 2.4@1.008on alatt prime alatt. meg vicces volt nezni a vizesek reakcioit, amikor kozoltem, hogy hat a kupak az stabil +15os deltaT alatt marad teljes terheles alatt legen (ertsd 36-37 fok 22-23fokos szobaban). viszont annak a procinak meg q66 viszonylatban is meredeken nott a fogyasztasa. G0as volt, alapbol 95Wos TDPvel, prime alatt 25% tuninggal nem evett annyit. 50% tuninggal viszont megvolt a 175W is!
szivargas Hawaiinal nem lebecsulendo, nalam 510re esett 610rol a fogyasztas miutan levizeztem a karit, es 94 fok helyett megall 67en. ja meg prime alatt nem dobalja le 700ig az orajelet hanem tartja az 1000ret (jatek alatt 1050et). viszont a Matrix hutes a 290xre nem sikerult jol.
amit mondani akarok az az, hogy a "kitesztelt" "stabil" fesz meg a TDP koszonoviszonyban sincs egymassal. ill adott esetben a TDP es a valos fogyasztas se stimmel, ld Intel P4, GTX480, az osszes OC Maxwell (GTX970 G1 nalam 200Wot evett, bar kb a vanilla boostra siman 20%ot vert), vagy a 290X (a Matrix Platinum tippre legen 310-330W korul evett alapbol). sot, az amit adott esetben a forumozo stabilnak hisz meg ami tenyleg stabil szinten nem fedi egymast. lattam eleg peldat arra amikor szidott valaki adott forumon (nem feltetlenul itt) egy kartyat, meg a drivert, aztan az esetek egy reszeben kiderult, hogy hat megse biztosan stabil az a beallitas. otthoni korulmenyek kozott stabil test suiterol nem tudok, a harom kor gond nelkul lement firestrike* meg szerintem max annyit jelent, hogy harom kor firestrike alatt nem dobta el magat a kartya.
*tetszoleges applikacio behelyettesitheto.
-
Locutus
veterán
Helyesbítek akkor, lesz e olyan AAA játék, ami széles kör figyelmét élvezi?
Mert én bármennyire is szeretem az ilyen Supreme Commander szerű játékokat, azért egy ilyen játék nem fog VGA vásárlási lázat kiváltani.. De válaszolok is, persze jön, az SW Battlefront pl... de DICE-nak ugye már azt se hisszük el amit kérdez, főleg aki a BF4-et ismeri...
-
sayinpety
tag
Jobb. Dev driverrel tilthato tessellation. Ugy a Hairworks ketszer gyorsabb GCNen. Am nem szamit, az LDS usage optimalizalas 4-5 ms budgettel felesleges. 0.2 ms nyeres nem eri meg. A tessellation belassitja.
- akarnak dedicated GPUkat eladni harom ev mulva.
- a GRID cloud graphics configuration medium-high szint. -
HSM
félisten
"Ha az nVidiának a cloud gaming a jövő, akkor miért érdekeltek a "teljesítményrontásban"?"
Egy tippem van... Ha tudják, hogy nekik ketyeg az óra (márpedig sejthetően tudják) akkor abban érdekeltek, hogy minél hamarabb, minél több terméket szórjanak ki. Ehhez pedig az kell, hogy a usernek igénye legyen gyorsabbra, jobbra. (Igény-teremtés.)Amit az IGP-kről írsz... No igen. Bár az Intelnek lesz mit behozni a driverek terén. Viszont a Zen CPU ha jól sikerül, valami friss GCN-el, HBM-el nagyon-nagyon finom kis cucc lenne az AMD-től is, a jelenlegi tényállás mellett sanszosan annál kötnék ki asztali gépben.
-
sayinpety
tag
Nehez megallapitani, am nem tunik jonak az LDS usage. Optimalizalatalan kodjaim jobbak.
Velemenyem szerint senki nem erti mi baja Nvidianak. Harom ev mulva az Intel nem kinal tobb cserelheto CPUt. 2018ra 6-7 TFLOPS IGP, 32-64GB HBM, 1-1,5TB/s chip jon PCIExpress nelkul, 200-250 watt a TDP budget. AMD maganak tervez PCIExpresst, am tul pici a piac. 2020ra feladjak ok is. Nvidianak ket eve van megmutatni, hogy a GRID cloud gaming uj PC Gaming. A GameWorks ennek resze, ahogy a dokumentaciok hianya. Fusson rosszul az application, az a jo. Nem ertek egyet vele, am nem tehetnek mast. Meglatasom szerint az Intel nem gondolja meg magat. Tobbszor beszelgettem veluk. Nem akarjak az Nvidiat. A Federal Trade Commission egyezmeny decembertol nem kotelezi oket, hogy biztositsanak 16x PCIExpresst.
-
#85552128
törölt tag
A vízen is 64x van pedig az állítható .ini-ből is...
A másik dolog a middlewarek önmagukban nem hibáztathatóak a piac alakulásáért, azért teljesen más dolgok (is) felelősek voltak az egyik/másik cég oldalán...
Sőt ha azt vesszük az nVidia is csak a fejlesztői igényeket elégít ki
Mert eszerint van rá -
Abu85
HÁZIGAZDA
Módját vagy hiányát? Mert ez az, amit a fejlesztők a legjobban kritizálnak, hogy nem tudják optimalizálni a zárt middleware-eket. Mi sem láthatjuk azt, hogy ezek jól optimalizált, jó minőséget kínáló rendszerek lennének. Ha azt látnánk semmi gond nem lenne, de helyette azt látjuk, hogy szimpla felhasználói hack minőségvesztés nélkül a kétszeresére gyorsítja a HairWorksöt. Milyen optimalizáció ez, amikor ilyet meg lehet tenni? Miért kellene ezt titkolni? Az iskolában kellene oktatni, hogy ezt ne csináld.
A másik dolog, hogy ezt mennyire célszerű megcsinálni, hogy közben tudod, hogy az iparág nagyágyúit elveszted ezzel a stratégiával? Ők nem akarnak feketedobozokat. Évek óta ezek ellen küzdenek, mert csak megakadályozzák őket abban, hogy jó minőségű programot szállítsanak.
-
Abu85
HÁZIGAZDA
Sok más oka nincs annak, amiért megéri szívatni a fejlesztőket. Az innováció a PC-n nem szolgálja az NV érdekeit. Ezért minden olyan effekt, amit átadnak a fejlesztőknek zárt, hogy bármennyire okos és tehetős egy partner ne tudja úgy módosítani, hogy szebb és gyorsabb legyen az adott effekt, mint ahogy azt az NV elgondolta.
Cégen belül tök jó példa az AndroidWorks. Nemrég mutatták be. Abban a GameWorks for OpenGL nyílt forráskódú és szabadon módosítható, annak érdekében, hogy a fejlesztő lehetősége meglegyen az innovációra, ami Androidon már érdeke az NV-nek. -
Milka 78
nagyúr
Na ja csak a bukás szinte borítékolt.Persze lehet itt piacot/euro árfolyamot nézni,eladni a generáció váltás előtt és alaplapi ratyi karival ellenni ideiglenesen,de kinek van erre ideje.Én Majd 1.5-éve vagyok Hawai tulaj,bukok rajta egy valag pénzt,de ez van,bele volt kalkulálva.Ha a vadi új kocsit megveszed és kijössz a szalonból az -xxx ezer ft .
Spanom is eladta a 290-et kis bukóval,majd a 970 kis bukóval,majd most a 980-at is eladja kis bukóval (már ott tart lassan mint amit én egyszerre buktam) és most várja a csodát 2 hónapig az alapalapi karival amíg én vígan játszok.
Erre mondják,hogy ilyen szakma a popszakma. -
-Solt-
veterán
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra
Pedig szerintem ez lényeges kérdés, mert nem mindegy, hogy 1 év múlva mire mész azzal a kártyával amiért most vagyonokat adtál... idáig bátran lehetett vásárolni, mert szinte semmi lényeges változás nem történt már jó ideje... én is elvoltam 2 évig a 780-l és korrekt árcsökkenés mellett (2 év alatt kb érték feleződés) el tudtam adni. Ha az új API-k alatt a Hawaii jobban szerepel mint a Maxwell, akkor kinéz a utóbbinak egy az átlagosnál nagyobb értékcsökkenés, aminek nem hiszem, hogy a tulajok örülni fognak... főleg a 980 felett.
Ez szerintem független attól, hogy nagy lépés lesz a gyártástechnológiában... ahogy jön majd a W10 és a DX12 tesztek, átrendeződhet az erősorrend, és ezzel az árak is, de itt is sok múlik majd azon, mennyi és milyen játék érkezik az új APIk-ra. Persze mint írtam ez mind feltételezés, bőven benne van a forgatókönyvben az is amit te írsz.
Meglátjuk... mindenesetre érdekes lesz mondjuk egy év múlva elővenni, hogy ki mit ötletelt!
-
bunygyi
tag
Szia!
Ennek fényébe kivárom a 16nm vga-kat.
Szeretnék egy átmeneti VGA kártyát!
Kis veszteséggel átlag játék felhasználásra!
Most a 980ti vagy a fiji volt tervbe véve, de így
kivárom az év végét!
Szóval mit tudnál ajánlani? kis veszteséggel!
Nincs most semmilyen kártyám és wot-ra kell csak! -
Abu85
HÁZIGAZDA
Nem szerintem, hanem a Microsoft szerint.
Szerintem az egész rendszer úgy ahogy van rossz, ha a gyártók nem képesek betartani a szabályait. Gondolom ezért veszi el a kernel drivert a Microsoft a DirectX 12-ben, hogy a gyökerénél tűnjön el az alapprobléma. Ezzel az a gond is eltűnik, hogy a kevés valós processzoridő miatt nem lehet komoly AI-val konzolra tervezett játékokat PC-re portolni.Az is fontos, hogy az első dolog, ami fejlődni fog a DX12-vel az az AI. Megvannak az algoritmusok. Nem állt le a fejlesztés, csak nincs meg a számítási kapacitást hozzá PC-n, de nem a hardver, hanem a grafikus driverek miatt.
Kevin Floyer-Lea low-level leírásában is ott van ez: "Ability to increase the CPU budget for other systems like AI". -
Loha
veterán
Azért ez rendesen ki van csavarva.
Nagyon finoman fogalmazol, és most nagyon finoman fogalmaztam...
Értelmezzük kicsit ezt a 2 mondatot Abu85-től:
A mai multiplatform címek szándékosan rendkívül butítottak a játékmenet szempontjából, hogy maga a szimuláció kevés processzoridőt igényeljen, és az NV driverének is legyen elég szabad erőforrás.
Tehát a fejlesztők lebutítják a fő bevételi forrásuknak számító Xbox Oneos és PS4-es a játékaikat, hogy az NV-s PC-k is elbírják a konzolokénál többször erősebb procival a szimulációt.
A Halo 3 azért nem jött PC-re, mert nem volt elég processzoridő a driver szálak mellett.
Tehát PS3-ra és PS4-re is az NV-s driver szálak miatt nem jött a Halo 3, ahogyan a legújabb Tomb Raider is csak ezért lett Xbox exkluzív, mert az NV-s driver szálak keresztbe tettek a PC-nek és PS4-nek is.
-
Abu85
HÁZIGAZDA
A Microsoft már magára vállalta a felelősséget. Amikor bemutatták a DirectX 12-t, akkor elmondták, hogy DX11-ben használt modell egy totális tévút, és mindenkit lebeszélnek azóta róla. A probléma egyébként jelentős. Minden évben azt tapasztalták a fejlesztők, hogy jönnek az új processzorok, és eközben csökken az elérhető processzoridő. Ez nem jó irány sehogy sem.
Ha olvastad, amit írok, akkor az Intel drivere ebből a szempontból a legjobb. Az AMD a két végpont között lavírozik.
-
Abu85
HÁZIGAZDA
A WDDM 2.0 alatt megmarad a régi WDDM szegmentált fizikai címzése. Ez egy legacy funkció lesz, de maga a low-level API meg fogja engedni, hogy a fejlesztő megírja az implementációt a programban a szegmentált fizikai címzés működéséhez. A kezdetekben valszeg ilyen motorok fognak születni, mert túl kevés lesz a Windows 10 felhasználó WDDM 2.0 only játékokhoz. Ilyen esetben a fejlesztőknek lényegében ugyanolyan lehetőségei vannak a VRAM vezérlésére, mint ma a kernek drivernek, persze a közvetlenebb elérés miatt a WDDM ellenőrzésre vonatkozó funkcióit el lehet felejteni, tehát a sebesség jobb lesz.
-
Abu85
HÁZIGAZDA
A low-level API-nál azt is figyelembe kell venni, hogy mit csinál a program. WDDM 2.0 alatt nem szükséges tudnia, hogy mennyi VRAM van a kártyán, mert ott a virtuális memóriára vonatkozó GPUMMU mód. Ha a program mindenképpen fizikai címzésre akarja kényszeríteni magát, akkor kell tudnia a hardver VRAM kapacitását. Ez lehetséges, főleg akkor, ha nem akarják, hogy az alkalmazás csak Windows 10-en fusson. De többen mondták már, hogy 2016 végére inkább bevállalják a Windows 10 only dolgot, mert a WDDM 2.0 túl sok előnyt kínál a GPUMMU-val és az IOMMU-val.
(#5814) Szaby59: A low-level API igazából mindegy. A WDDM 2.0 kínál olyan előnyöket, amelyekkel a VRAM használata a mainál lényegesen hatékonyabb lehet, és igazából lesz is. Mindegy, hogy DX12, Vulkan vagy Mantle, mindegyik rendszerből kihasználható a WDDM 2.0 extrája. A GPUMMU rendkívül hasznos, mert igazából a VRAM működése sokkal jobban fog hasonlítani a rendszermemória működéséhez. Az IOMMU pedig még egy lépés előre, mert igazából az adatnak nem is kell a VRAM-ban lennie, egyszerűen olvashatja és írhatja azt a hardver a rendszermemóriában is. A különböző linkelési lehetőségek is nagyon jók. Például egy GPU-val minden különösebb probléma nélkül olvashatod egy másik GPU memóriáját, sőt írhatsz is abba. Ezek a mai limitált modellhez képest nagyságrendi előrelépések. Elsődlegesen ott fog ez érződni, hogy jóval több szabad VRAM-od marad, amit persze elhasználhatsz másra. Tehát önmagában a mai pazarló rendszer ki lesz ütve.
(#5826) gbors: Hagyományos fizikai címzéssel a fejlesztő is képes beleírni az alkalmazásába, hogy a GTX 970 esetében 3,5 GB gyors memória van és 0,5 GB lassú. Tehát ez egyedi szinten lekezelhető. GPUMMU mellett nem lehet kezelni, mert ott az OS jelzi a rendszernek a VRAM méretét. A user-mode driver csak arról dönt, hogy az allokációhoz 4 kB-os vagy 64 kB-os lapméret legyen használva.
-
proci985
MODERÁTOR
persze, ismerosi korben legalabb ket 970 lett az ajanlasommal azutan, hogy en mar legariztattam a sajatomat es levizeztem a 290xet.
tanulsag... passz, ne vegyel megjelenesen beluli hat honapban videokartyat? soha ne vegyel olyan videokartyat aminel nem adnak meg gyari TDPt? segit, ha tisztaban vagyok par computer science alappal? megis inkabb
pekvizvezetekszerelo? -
HSM
félisten
Elég csúnya lenne, ha így működne a direkt memóriaelérés, hogy a driver "csak úgy" beleír...
Jelenleg még a "kapcsolható" GPU-s notik esetében is fejvakarás van, hogy kerül majd low-level API mellett az egyik kártya framebuffere a másik kártyába. Pedig ez aztán nem nagy matek....Ha pedig a játék csak 3,5GB tartományt kap, akkor ugyanott tartunk, mint írtam, hogy látszani fog a turpisság elég rendesen.... (Vissza fogja jelezni a játék.)
-
HSM
félisten
Igen, csak a Vulcan/DX12 alatt nagy kérdés, mit fog majd jelenteni a driver. Ha 3,5GB-ot jelent, akkor az Nv-t kb. lehet perelni a 4GB-os kártyákkal, ha 4GB-ot, akkor pedig a programot speckón fel kell készíteni, hogy ez a 4GB-os kártya mégsem egészen 4GB-os, és ez eléggé szöges ellentétebn van minden normális VGA működésétől.
Ez az eshetőség viszont csak a GTX970 és barátaira áll fenn. Ugyanis ha a 980-on lejelenti a játéknak a 4GB-ot, és a játék elkezdi használni, nyugodtan teleírhatja. A GTX970-en lejelenti 4GB-nak, a játék elkezdi használni és hopp, szivacs van 3,5GB felett...
Én nem azt mondom, hogy ez biztos hatalmas probléma lesz, én azt mondom, potenciálisan ebben benne van egy elég kemény szopóroller ezeknek a kártyáknak. Lehet paranoia, de ez a véleményem a kártyáról.
A maga idején a Titanicot is elsüllyeszthetetlennek tartották, megnézheted hol van most.Ami a 970-est illeti, nem a GTX970-et rühellem, szó se róla, az csak egy termék. Azt rühellem, ahogyan eladták (4GB, 256bit, 224GB/s), és hogy ugyanígy adják el a mai napig. Ez viszont nem kicsit nyitogatja a bicskát a zsebemben, ezt aláírom.
(#5805) gbors: Én ugyanezt gondolom rólad.
Respect!
-
HSM
félisten
Teljesen korrekt 3,5GB-os kártyád LEHET belőle, ha figyel a driver.
-Ugyankkor szivacs van, ha valamiért nem megy a driver (értsd ki vagy szolgáltatva elég keményen a termék supportnak, és azt is tudjuk, az Nv milyen kegyesen bánik a régi szériákkal)
-Nagy kérdés, fog-e működni DX12/Vulcan alatt az ilyen driveres magic, mert a fejlesztők nem biztos, hogy erre kellőképpen oda fognak figyelni maguktól.Szerintem itt műszakilag egyáltalán nem állnak szépen a dolgok.
Nem műszakilag persze, le lehet tudni annyival, hogy jelenleg csak keveseket érint, és jelenleg van működő workaround, és különben is kit érdekel, mi lesz holnap, úgysem tudjuk. De egy 100 000 forintos kártyánál ekkora ordító műszaki disznóságot, vagy lesz belőle gond, vagy nem? Háááát....
-
HSM
félisten
Egyáltalán nem felesleges ezt figyelembe venni. A nagy mennyiségben szórt csipeknek nem volt megpiszkálva olyan részük, ami gázos lett volna, és ez nagyon nem mindegy. Oké, volt az 5830, ami kicsit gázos lett, de kis mennyiségben és nagyon olcsón szórt termékről volt szó, ott szerintem ez belefér. Ezzel szemben a 970 Maxwell a széria legnagyobb számban terített terméke....
A 970-el is éppen ez a gond, 4GB-ot reportol magáról, amikor épkézláb módon csak 3,5GB kezelhető. Sok játék/beállítás mellett nem is enged a driver 3,5GB-nál többet belepakolni, így nem jön elő a hiba, de ez csak tűzoltás, nem megoldás.
A 660 Ti is legjobb tudomásom szerint itt okozott gondot, hogyha több, mint 1,5GB volt belepakolva, akkor kezdett kiszámíthatatlanná válni a sebessége. De nyilván ezzel jobban képben vagy tulajként, mint én. Másfelől a 660Ti esetén nem annyira gázos a szituáció mint a 970 szervezésénél.
-
proci985
MODERÁTOR
igen, utanna a 3.5GBt nagyon ugy nez ki megprobaltak driverbol orvosolni (plusz kb osszes erintett jatek kapott patchet, ami utan parszaz megaval lejjebb esett a terheles), szoval elvileg normalizalodott a helyzet jelenleg. ha kijon a kov utanna ez meg szerintem lehet gond, de addigra mar ugyse fogjak birni a kartyak a leghuzosabb effekteket, szoval talan ebbol se lesz baj.
---
ami a fo para volt a 970el, hogy nezd meg az osszes tesztet szept-oktoberbol, a 970 SLI a 2x145W TDPvel egy vallalhato aru, vallalhato teljesitmenyu surround/4K megoldasnak tunt (foleg, hogy a masodik kartyaval ki is lehetett varni ha az ember kompromisszumkepes volt). a 980 SLI ugye lenyegesen dragabb volt (es igazabol az a +20-25% nem annyira kritikus), a 290x CFnek meg hiaba nyestek le az arat, levizezessel egyutt az is 980 SLI arban (es teljesitmenyben) volt. legen a 290CF nekem kiesett.
ismerosi korben ketten kuldtuk vissza a 970eket (neki mar megvolt az SLI, en az akciot vartam mert felment a G1ek ara kb 25%al ahhoz kepest ahogy vettem), mindketten aktivan multimonitorozunk. viszont a tobbi kb 6-7 ember mind megtartotta es orul neki.
---
980 ti egy teljesen jo megoldas lehet ha esszel nyesik meg a dolgokat.
HSM: 970nel se volt jellemzoen annyira gaz a helyzet gyakorlatban. fHDben szinte lehetetlen belefutni a hibaiba, szoval a tobbsegnek meg mindig jo.
-
HSM
félisten
Az 5830 az egy limitált szériás termék volt, a kiszórásra ítélt "selejtes" csipeknek pimasz olcsón.
Ne az ilyen termékből induljunk ki. "Elsővonalas" termékeknél nem volt ilyen. 3850/3870, 4850/4870, 5850/5870, 6850/6870, 6950/6970, 7970/7950, 290/290X....
Az NV találta ki ezt a marhaságot a memóriabusszal, még talán a 660Ti-vel 192 bites buszra 2GB ram.
Mert ugye nem az a gáz, mint amit elsütöttek a GTX580/570-nél, hogy volt a fullos cucc 1,5GB rammal, a kistesó meg 1,2GB rammal, mivel ott a memóriabusz is ehhez igazodott. Itt az a gáz, hogy idióta a szervezése az össze nem passzoló memmóriaméreteknek és adatutaknak. Ettől még lehet a termék gyors, de elég súlyos, nem determinisztikus performance gondokat okozhat.... Ahogy láthattuk a 660TI-nél és a GTX970-nél is. -
Loha
veterán
az egyik tesztben a 980Ti azonos órajel és kevesebb unit mellett gyorsabb, mint a T-X. Vagy fake a teszt, vagy jóval magasabbra boostol a tesztben a kisebbik kártya, vagy power / temp limitbe fut a T-X.
Nem hihetetlen, ha azonos a 980 Ti power limitje a TX-el, akkor a -6GB VRAM, vmint a pár letiltott shader miatt magasabb órajelre boostolhat mielőtt belefut a power limitbe, aztán ha a refnél vmi jobb hűtő van a kártyán, akkor temp limitbe sem fog belefutni, ami szintén magasabb boost órajelet eredményez.
TTomax: A maxwell nem csonkítható máshogy a felépítéseból adódóan
Szerintem ez nem igaz, az SMM-ek tiltása független a backendtől, amit a 970-nél csináltak az egy ötletes megoldás volt arra, hogy a backend sérült GM204-es GPU-kat ne kelljen 3GB-os 192 bitesként eladni.
Hamarosan úgy is kiderül, hogy mi az igazság... -
HSM
félisten
Igen, nem véletlen fordítottak ekkora energiát a szoftveres oldalba az elmúlt években és a HBM-be.
Ennek is köszönhető szvsz, hogy jelenleg olyan helyzetben vannak, amilyenben. Érdekes lesz a folytatás, remélem bejönnek a számításaik. Egy HBM-es APU mondjuk nagyon nagyot durranhatna. -
HSM
félisten
Legjobb tudomásom szerint megvan az oka az AMD-nek arra, hogy ezt használja. Jobb procikon az Nv megoldása szerencsésebb, gyengébb procikon viszont elméletileg az AMD-é, mivel nem kell a szinkronizációval plusszmunkát generálni a CPU-nak.
Szerintem, ha a VGA.k teljesítményét hasonlítjuk össze, akkor sokkal relevánsabb egy ROP-limites program, mint egy CPU/driver/API-limites.
De igen, egyetértek amúgy a második bekezdéssel, bár én inkább csak a számtani átlagot venném, a mértanit nem keverném ide. Inkább frametime elemzéseket vennék alapul. -
#85552128
törölt tag
"A GCN 1.2 és 1.0 között azért van számos különbség"
nV-nél is volt Maxwell1 a 750/Ti-vel, de óriási különbségek nem hinném hogy vannak támogatás szempontjából főleg nem annyi mint egy Kepler -> Maxwellnél...
"Mindettől függetlenül, én nem tartom elfogadhatónak, hogy a last gen erősen csökkentet supportot kapjon"
Csökkentettnek nem mondanám mivel továbbra sem eget rengetőek a különbségek inkább a Radeon gyorsult ami mivel aktuális termék egyáltalán nem meglepő.
Ebből leginkább az látszik, hogy AMD-nél 2 év kell, mire kapunk olyan drivert ami már maximálisan vagy ahhoz közelien kihasználja a hardvert, miközben a konkurencia már a kezdetektől gyorsabb és utána sem marad el jelentősen...
Érdekes lesz majd látni, hogyan lesz DX12-vel ha ugye a driveres optimalizációk lényegében megszűnnek... -
#85552128
törölt tag
Vagy inkább mivel nincs új gen így azzal kell alkotni ami van és az kapja a maximális supportot ami van...
Az meg mellékes, hogy a HD7 és az R200 is nagyrészt ugyanazokat a GPU-kat tartalmazza meg várhatóan a következő szériában is több átnevezés lesz így az lenne a csoda ha ugyanaz a GPU másképp teljesítene...Az nV két teljesen eltérő architektúrát támogat jelenleg (Kepler, Maxwell), míg az AMD egyet (GCN) egyáltalán nem meglepő, hogy a régebbi nem kap már annyi figyelmet.
Ugyanez volt a HD4000-rel is amikor kijöttek a DX11-es kártyák, 4 évvel a megjelenés után meg a teljes support megszűnt... -
Abu85
HÁZIGAZDA
Hogy minek? Hát ők írták volna meg az erőforrás-igényes effektek 80%-át a játékba. Azt kell kérdezni, aki megírja, mert ők ismerik a forráskódot és azt, hogy mennyit tudnak rajta gyorsítani x időtartamon belül.
Gondolom nem úgy lett 2013-ban bemutatva az a videó, hogy ezeknek az effekteknek a többségét nem tudjuk megcsinálni, de kell a hype, így rámondták, hogy meglesz. 2013-ban még mindenki kőkeményen hitt benne, hogy ez működni fog. -
Abu85
HÁZIGAZDA
Nyilván 2013-ban látták, hogy miképp fut. Volt mondjuk 10 fps. Megkérdezték az NV-t, hogy 2014-re lesz-e ebből 30. Mondjuk azt mondták igen. Ilyen esetben a fejlesztő csak abban hibás, hogy elhitték, amit mondanak. Ez is valahol egy hiba a fejlesztőknél, csak itt az a gond, hogy nagyrészt meg volt kötve a kezük, tehát még ha akarták sem tudták volna megoldani a problémákat.
Konkrétan ezért menekül az EA az összes zárt környezet elől. Nem rajtuk műlik a problémamegoldás, ami több területen hazavághat egy nagy projektet. A Havokot is csak akkor hajlandók továbbvinni, ha kapnak egy olyan licencet, amivel szabadon átírhatják a forráskódot, ha nem, akkor el fognak menni a Bulletre. Költséges? Az, de a saját kezükben lesz a sorsuk. -
HSM
félisten
Hát ezaz... És mint láthatod, még így is a pincébe lehetett (volna) őket is alulfeszelni, ha nem esnek össze az offsetes mód korlátai miatt hamarabb 2D-ben....
(#5430) Loha: Az utolsó linkeden a formának nem sok fogalma volt a CPU-limit fogalmáról és természetéről.
Nagyon szép dolog az az összehasonlítás, hogy a 750Ti-t hasonlítanak egy másfélszer erősebb 260X-el egy i3 majd egy i7 mellett, és az "AMD driver szar", hogy többet veszít az FPS-ből CPU-limittel, hülyék ezek?
Miért nem nézik meg inkább, mennyivel marad el a 750Ti-től? Ja, hogy szinte semennyivel, CPU limit mellett? Jajj....Az API Overhead tesztben persze, jól mutat, hogy 1,9-2,2M draw call helyett DX11-ben csak 1,1M-t tudnak az AMD driverei, de ennek a valós alkalmazásokban nem sok hátránya látszott eddig. Talán csak a BF4 DX módja, de ot meg az is nyilván közrejátszik, hogy AMD-n alapból a Mantle az ajánlott mód, nyilván nem foglalkoznak annyira a DX-es résszel se a fejlesztők, se az AMD.
-
Loha
veterán
Innen van az idézet: ComputerBase.de
A Project Cars proci limites AMD jobban mint NV-n, valszeg a sok rajzolási parancs miatt.
Extra olvasni való, hogy miért van ez:
AMD Radeon Catalyst Drivers: High DX11 CPU overhead, very low performance.HSM: Nem az Nv driver vár többet, hanem az NV már egy ideje megkerüli a DX11 rajzolási parancs limitációit (337.50-es driver óta).
-
rocket
nagyúr
"Es ist davon auszugehen, dass der Verursacher dieses Verhalten in der DirectX-11-API zu suchen ist, genauer gesagt im API-Overhead, der durch zu viele Zeichenaufrufe entsteht. Dann arbeitet die CPU zwar am Limit, kann die Grafikkarten aber dennoch nicht richtig auslasten. Nvidia trickst diesbezüglich bereits seit längerer Zeit im Treiber und hilft so entsprechend kritischen DirectX-11-Spielen auf die Sprünge. AMD tut dies jedoch nicht, sodass Radeon-Karten bei für die DirectX-11-API zu vielen Drawcalls in Schwierigkeiten geraten. Die Vermutung stützt sich durch die Benchmark in höheren Auflösungen. Dort kommen die Radeon-Produkte deutlich näher an die Konkurrenz heran, da die GPU durch die zusätzlichen Pixel besser ausgelastet wird und die Anzahl an Drawcalls nicht ansteigt.
Wer nun als Schuldiger anzusehen ist, ist nicht so einfach geklärt. Auf der einen Seite muss sich AMD Kritik gefallen lassen, da der Catalyst-Treiber anders als das GeForce-Pendant bei zu vielen Drawcalls nicht eingreifen kann. Auf der anderen Seite hat der Entwickler die Limitierungen von DirectX 11 offensichtlich völlig ignoriert und wenig Wert auf eine gute Radeon-Performance gelegt. Beides darf eigentlich nicht passieren."
-
Ghoula
senior tag
Abban az esetben lehet, hogy ha el akarod fedni a rosszabb példányokat, mert túl nagy a szórás szivárgásban és a bottom X%-ot nem LE és egyéb variánsként akarod értékesíteni.
Te onnan nézed, hogy adott órajelet a szükséges fesszel érjük el, a legrosszabb esethez viszonyítva, hogy TDP-ből ne lógjunk ki, én pedig onnan, hogy szivárgás alapján bin-eljük a chipeket egy bizonyos órajelkeretbe, TDP ami fix.
És mondjuk ez esetben az asic quality-t úgy adom meg, hogy az alap órajelet a TDP hány százalékán érte el, ha túllépi, akkor csökkentett órajel, shader vágással mehet másik variánsnak.
Ha túl jó, kap egy kis extra feszt, hogy mondjuk min a tdp 80%-a meglegyen, így minden chip közel azonos TDP-re van belőve,2 féle konfigurációban. -
Ghoula
senior tag
Én más okot is el tudok képzelni.
Ha az alacsony szivárgású chip-eket túlfeszeled, akkor csökkented a szórást a kártyák között.
Egységesebb lesz a hőtermelés,fogyasztás, azonos ventivezérléssel nem lesz akkora difi a 2 véglet között.
És mivel így az egész széria tdp-jét emelted, az alsó minőségi régióból több chip fogja megütni a limitet, jobb a kihozatal. A legszarabb chipeket nem érdemes szétfeszelni, nagyon meg tudnak lódulni, ha az áramfelvételüket nézzük. Szerintem inkább azokon tiltanak shadert (hogy úgy beleférjen a tdp keretekbe), és mehet X nélküli kártyának.Bios editor nagyon kéne már, sajnos Stilt ott megállt, hogy bányászatra editált bios-okat, illetve láttam xtremesystems-en, bohóckodik a firegl konverzióval, de nem úgy tűnik, hogy ebből lesz valaha is editorunk.
Project Cars témához: Még nem tudták AMD-ék driverből kiszűrni a pálya alatti tengert
-
HSM
félisten
"lehetnek takarékosabban az ALU-k is"
No, ez az, amit technikailag nem igazán látok kivitelezhetőnek a jelenlegi architektúra felrúgása nélkül, tehát ezt nem találom jó útnak. Viszont a Tongánál bevezetett "fél pontosságú" műveletek kicsit máshonnan megközelítve, de éppen ezt szolgálják, és akár hasznosak is lehetnek.Azt saját tapasztalatból mondom, hogy akár a Tahiti, akár a Hawaii csipek óriási ráhagyással dolgoztak üzemi feszültség terén. Nálam a 290-em 900Mhz-en ment, -20mv-on, de nem azért, mert nem hajthattam volna 950-en, csak 950-en túlfeszelte magát a szükségeshez képest elég csúnyán, nagyobb alulfeszelést meg nem bírt el, mivel az üresjáratban úgy már nem volt stabil. Ez a kis mókolás -50W-ot jelentett fogyasztás terén. Ez kb. megfelel a Maxwell-Hawaii perf/watt különbségének legalább a felének önmagában.
Ami a Vishera-t illeti, lesd meg ezt, szerintem szépen megy: [link].
A fogyasztást én továbbra is a béna gyártástechnológia és magas órajelek számlájára írnám (nagyon rossz kombináció!), ezenkívül az FX cache szervezése sem épp a legjobb ebből a szempontból. A Sandy Bridge fogyasztásban egy kisebb csoda, a notimban is olyan dolgokat művel, hogy csak lesek. -
HSM
félisten
Pl. a csip szügségleteit jobban figyelmbe vevő áramellátás, takarékosabb memória-alrendszer, jobb órajelkapuzás, jobb csip-vezetékezés/elrendezés, jobban belőtt üzemi órajel/feszültség, csak hogy a műszakilag kivitelezhetőeket említsem.
Amiket említsz félrement paramétereket, az nem a Bulldozer koncepciójának bukása, hanem a béna gyártástechnológiájáé, és a rosszul megtervezett órajelosztó hálózaté volt. Nézd meg, mennyit javítottak a Vishera-nál.
-
HSM
félisten
Egyáltalán nem lenne logikus a kukába dobniuk a GCN-es technológia előnyüket, amire a komplett elmúlt kb. 3 évet építették, úgy mindennel együtt, ami ráadásul most kezdene valódi előnnyé válni a DX12-vel.
Számtalan módja van a perf/watt arány növelésének, csak az egyik közülük a hardver belső struktúrájának egyszerűsítése és a szívószál szélességű memóriabusz alkalmazása. -
MiklosSaS
nagyúr
-
Drizzt
nagyúr
Igen, de az is lehet azert jon 600-650 korul a 980Ti, mert nem akarnak piacot veszteni. Es most a par generacioval korabbi helyzethez kepest valoszinuleg szinten forditott a helyzet, a Maxwell valoszinuleg olcsobban gyarthato, mint a konkurens termekek, tehat NV elott nagyobb ter van az arversenyben. Vagy legyen igazatok, s legyen olyan jo a 390X, de meg mindig nagyon szkeptikus vagyok a dologgal kapcsolatban. Picit az elvarasok, meg a WCE alapjan R600 feelingem van.
-
Abu85
HÁZIGAZDA
Azért nem árt, ha van egy tapasztalt rendszerprogramozó a fejlesztő mellett. Viszont gondolod az AMD-nek megvan az erőforrása mindenkire? Ott van náluk az EA, a Capcom, a Square Enix, a SEGA, az 505 Games, a Deep Silver, a 2K Games, a Stardock, illetve a fejlesztőktől az Oxide Games, a Firaxis, a Rebellion, a CodeMasters, a CIG, a CCP, stb. Ennyi partnerrel a hátuk mögött túlterheltek. Kisebb stúdiókat talán tudnak vállalni, de a mostani nyolc mellé még egy kiadót biztosan nem.
Ezzel szemben az NV csupán három nagyobb kiadóval van partneri viszonyban, tehát bőven van szabad erőforrásuk. Azért lenne jó, ha ők is segítenék a top fejlesztőket, mert az AMD kapacitása véges. -
Abu85
HÁZIGAZDA
Mi köze a konkurenciának ahhoz, hogy az NV kínáljon egy olyan alternatívát a TWIMTBP partnerprogramba, amely segíti a tehetős, pénzes és komoly tudással rendelkező szakemberek munkáját? Egyáltalán mi az, ami miatt rájuk az NV mostohán néz? Ők is ugyanazt teszik, amit egy indie, csak alkotni akarnak valami egyedi technikát, így saját pénzből, saját erőforrásból megépítik maguknak. Ha valaki nem így gondolkodna, akkor ma nem létezne a Crysis, a Ryse, vagy sok egyéb AAA játék, amelyek a maguk területén valami egyedit alkottak (most a játékélményt hagyjuk, szorítkozzunk a technológiára). Egyetlen reális okot nem tudok mondani, ami miatt a jövőben meg kellene akadályozni a PC-s grafikai innovációt a fejlesztők munkájának korlátozásával. És amíg erre nem lesz reális ok, addig ez „hiba”.
-
Abu85
HÁZIGAZDA
Nem a GameWorks-szel van a baj önmagában. Bizonyos szempontból megmagyarázható, hogy van egy olyan réteg, ahol ez előny. Le is írtad melyik. A probléma forrása itt az alternatíva hiánya. A GameWorks lefedi a célzott réteget, de mi van a másik réteggel, ahol van pénz, szaktudás, erőforrás, stb. Számukra az NV nem kínál semmit, pedig hiba azt hinni, hogy ők olyan isteni képességekkel rendelkező szakemberek, akik pusztán a VGA vizuális látványától tudják, hogy a rajta lévő szilícium hogyan működik. Az is hiba, hogy számukra a GameWorks nem kínál olyan konstrukciót, hogy a forráskódot szabadon, korlátok nélkül át lehessen írni.
Az NV-nek a piacra levetített hipotézise a probléma. Az a feltételezés, hogy itt bizony minden fejlesztő birka, így az lesz a legjobb, ha kikötjük őket.
-
HSM
félisten
Érdekes cikk, köszönjük.
Egy fontos dolog viszont nagyon hiányzott viszont nekem az okfejtésből. Az pedig a memória-sávszélesség. Ha nő a GPU kihasználtsága, az azt jelenti, hogy több adatot dolgoz fel adott idő alatt, ami pedig azt vonja maga után, hogy több adattal is kell etetni. Ez pedig nem túl jó kilátás főleg a GTX970/980-as kártyáknak, melyek textúratömörítéses varázslata nem működik "általános" számítások adatainál.
Ha ez szűk keresztmetszetté válik, ott a 290-es Radeon péppé verheti pl. a riválisát. -
proci985
MODERÁTOR
kijott anno a driver Far Cry 2hoz AMDhez is, en vegul 5760x1080 ultran toltam ki anno 6950 2GBvel.
do3om: kompakt vizzel jellemzoen minimum el lehet erni a csucskategorias leghutoket. az indok hogy berakja valahogy az user meg annyira nem erdekes, amikor a 290x pl tulmelegedett egy Cosmos SEben is valakinel a forumon.
-
-Solt-
veterán
Én pont fordítva látom... a sebesség egy dolog, általában az jól beárazott, és a többség az ár/érték felé húz. A bugok, grafikai és egyéb bosszantó hibák sokkal nagyobb károkat okoznak hosszú távon, ráadásul olyan dolgokról van szó, amiknek kiadás előtt ki kellett volna ütközniük, és tudtommal a gyártóspecifikus hibáktól való mentesség megjelenéskor nem ördögtől való dolog, "lazán" kivitelezhető, és ez kizárólag a fejlesztőn múlik.
Far Cry 2, NV-n hiba nélkül ment, ATI-n mikrolaggolt... fix 60 FPS, de ahogy mentél előre, azonos időközönként akadt egyet. Ebben az időben forrt egybe az ATI neve a mikrolaggal, és azóta is ha a mikrolag szóba kerül, 10-ből 7 ember csípőből ATI-t említ. Driver nem segített rajta, egyszerűen szar volt... nem hagyott nyugodni, addig gyötörtem, amíg rájöttem, ha valami külsős programmal rögzítem az FPS-t fix 60-ra, akkor megszűnik ez a jelenség. Ezen a készítőkön kívül szerintem senki nem tudott volna javítani, a köztudatban meg maradt az, hogy ATI-n szar.
BF3, a 6990-l volt két pálya (nem emlékszem a nevükre, nem sokat játszottam vele) ahol bármit csináltál, CF alatt ahogy forgolódtál akadt a kép, hiába volt meg a fix 60 FPS. Fórumon rákérdeztem, kb az volt a válasz, hogy AMD-n szar, vegyek NV-t... leadtam a hibát, jelezték, hogy nem tudnak mit tenni, az AFR kódban van a hiba, a DICE tud róla, majd javítják... nem tudom mi lett, mert jött a 7970, egy GPU-n pedig nem volt gond.
IL2-CloD, tipikus 1C termék, egy raklap szar programozási szempontból... mit ad Isten, NV-n szinte semmilyen hibát nem produkált, SLI támogatás előbb volt hozzá, AMD-n pedig grafikai hibák sokasága, CF támogatás után is random FPS feleződés CF alatt, stb. Minden hibát az AMD-re fogtak, aztán ahogy frissült a játék szép lassacskán, kiderült, hogy nem az AMD volt a sáros, csak addigra már olyan mélyen beleült a júzerekbe, hogy ide NV kell, mert AMD-n szar, hogy pár magamfajta kísérletezgetős marhán kívül mindenki NV-t vett hozzá.
Ezek csak azok a példák amik az én emlékezetemből hirtelen előjöttek, de gondolom a lista bővíthető lenne. Nem akarok messzemenő következtetéseket levonni ezekből, és nem állítom, hogy ezek mind szándékos dolgok, de a véletlenekben nem nagyon hiszek egy bizonyos arány után. Fordított esetet, vagyis olyat, hogy NV-n lettek volna ilyen gondok, miközben ATI/AMD-n minden rendben volt, nem is tudok, azt pedig nehezen hiszem el, pontosabban elég kicsi a valószínűsége, hogy erről mind az AMD tehet.
Hogy az AMD-ről is mondjak valami terhelőt... hiányolom belőlük a jó értelemben vett csibészséget. Látják, hogy az NV jól feküdt a fejlesztőknél, a DX az MS kezében, ezért máshonnan kellett volna egy kis pluszt előcsalni. Példának okáért ott volt a 6950@70. Véletlen volt vagy sem, akkor nagyon sokan ráharaptak a 6950-re, emlékszem SG-n is tele volt az AMD fórum a kérdésekkel, hogy melyiket lehet 70-re moddolni. Ezt meg kellett volna lovagolni... mondjuk kihagynak egy szériát, majd a következőben megint eljátsszák ezt... a 290-l. Biztos vagyok benne, hogy sokkal több fogyott volna belőle, ráadásul milyen jót lehetett volna most "trollkodni" vele, "Nálunk a 4GB az 4GB, a 290 pedig akár 290X is lehet", vagy valami hasonló...
Ezen kívül például hiányolok egy olyan kizárólagos prémium partnert, mint az NV oldalán az EVGA... a Sapphire a közelébe nem jön.
Mindezektől függetlenül az AMD az elmúlt 1.5 évben szerintem hatalmasat alakított a képzeletbéli sakktáblán... nyilván ennek a hatása még nem látszik, de egy sarokba szorított helyzetből legkisebbként úgy lavírozni, hogy utána szinte minden úgy alakuljon ahogy nekik jó, plusz ennyire összeborulni a fejlesztőkkel, nagyon nagy tett... papíron... aztán meglátjuk, hogy a gyakorlatba ebből mi ül át a következő 1 évben.
-
HSM
félisten
"Ha csak az egyik gyártóén, akkor igen valószínű, hogy a gyártónál van a probléma."
Ezt úgy írtad, mintha nem lehetne a kódon belül DX11 alatt detektálni, milyen vason fut, és aszerint alakítani a kódot.Ami a drivereket, sebességet illeti, AMD-n leginkább a CF-el, és a friss cuccokkal az első pár hónapban voltak kisebb bugok és kb. ennyi.
8800 GTS után 3870-em lett, utána 4850, 4890, 5850, ráadásul mind megjelenés körüli vásárlás, és teljesen jó volt, mindegyikkel tudtam játszani bármivel, egyáltalán nem éreztem rosszabbnak a driveres támogatást. Sőt, a 4890 előtt volt egy GTX260, amitől igen hamar megváltam, éppen driveres gondok miatt, nálam nem hozta azt, amit korábban megszoktam a Radeonokon stabilitást.A GCN debütálása volt kicsit gázosabb történet, ott egy évvel a debütálás után lett csak 100%-os a driver, ami sokaknál gond volt, érthetően egy 180 000 forintos 7970-nél pl. Persze, technikailag érthető egy vadiúj architektúránál, de ezt jobban kellett volna levezényelni. Ugyanakkor így visszagondolva elég jó vételek voltak a horror áraik és a korai drivergondok ellenére, mivel még ma is szépen megállják a helyüket, ami 3,5 évvel a megjelenés után igencsak korrekt teljesítmény.
-
rocket
nagyúr
A GTA5-ben bizonyos AMD kartyakon (foleg a Tahiti erintett, 15.3beta es a 15,4betaval is csinalja) MSAA bekapcsolasaval a jobb also sarokban jelentkezo "szemeteles" meg nem derult ki kinek a sara, de eltelt 1 het, es nem javitottak meg.
Ilyen hibat, hogy nem lehet eszre venni megjelenes elott? (attol fuggetlenul, hogy Rockstar vagy az AMD sara)
Az meg szamomra alapbol se megoldas a problemara, hogy kapcsoljam ki az MSAA-t, raadasul I5-4590-el CPU limit van MSAA nelkul FHD-ben.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming D OC Eladó!
- Csere-Beszámítás! Asus Tuf RTX 5070Ti 16GB GDDR7 Videokártya! Bemutató darab!
- Csere-Beszámítás! Asrock Challanger B580 12GB GDDR6 Videokártya! Bemutató Darab!
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming Elite Eladó!
- Csere-Beszámítás! Asus Rog Strix GTX 1080Ti 11GB GDDR5X Videokártya!
- BESZÁMÍTÁS! ASUS H81M-PLUS H81 chipset alaplap garanciával hibátlan működéssel
- BESZÁMÍTÁS! Microsoft XBOX Series S 512GB játékkonzol garanciával hibátlan működéssel
- ÁRGARANCIA! Épített KomPhone Ryzen 5 5600X 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
- ÁRGARANCIA! Épített KomPhone Ryzen 5 9600X 32/64GB RTX 5070 12GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! Asus TUF B550M R7 5700X 16GB DDR4 512GB SSD RTX 3060 Ti 8GB Rampage SHIVA FSP 700W
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged