- Android alkalmazások - szoftver kibeszélő topik
- Profi EKG-s óra lett a Watch Fitből
- Honor 400 Pro - gép a képben
- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- Honor Magic7 Pro - kifinomult, költséges képalkotás
- Samsung Galaxy A54 - türelemjáték
- Milyen okostelefont vegyek?
- Telekom mobilszolgáltatások
- Apple iPhone 16 Pro - rutinvizsga
- India felől közelít egy 7550 mAh-s Redmi
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
HSM
félisten
válasz
daveoff #9458 üzenetére
Ez így nem igaz.
A 980-akra hasonló méretű, vagy még nagyobb (!!!) hűtők kerültek, mint a 290-ekre.
Nézd meg pl. a Giga Windforce3-asát:
290-en: [link]
980-on: [link]
Ugyanaz az 5 hőcső, csak a 980-on sűrűbb bordázás, tehát nagyobb hőleadó felület, miközben a GPU némileg takarékosabb.
Asus-on nem linkelek, de ugyanaz a hűtő van a Strix 980-on, mint a 290 DC2-eseken. [link]
MSI van még, azért arra is igen komoly borda került [link], messze komolyabb, mint bármilyen korábbi "165W"-os TDP-jű kártyára.
Az extrémebb 980/290 verziókat végképp nem linkelem, azok nyilván vígan elvannak a mégjobban túltervezett hűtéseikkel halkan/hűvösen.Nem hinném, hogy a 95 fokkal lenne a gond, higy nem férnek bele. Mellesleg nem tudok tömeges 290 referencia-elhullásról azóta sem, tehát valamit csak tudtaka mérnökök, hogy ma is talpon van a nagyja, pedig jópár bányászatban is részt vett....
(#9459) ffodi: Legjobb tudomásom szerint 55% körüli ventivel már egyik 290-es sem throttlingol. Az olyan bő 3200rpm. Az se halk, de 4200-nál klasszisokkal jobb azért.
Persze, teljesítményben nyilván jobb egy 980 1400Mhz-en, ez nem is kérdés. Bár 4200rpm-en a 290-eket is azért már jobban meg lehet ráncigálni, ha van benne huzat azért hűt az a referencia hűtő rendesen. Csakhát az átlagember már 3200rpm körül se marad szívesen sokat együtt a kártyával, hát még 4000 felett...(#9460) gbors: Ja, kiszámíthatatlan meg anti-BOOST-al.
-
proci985
MODERÁTOR
válasz
daveoff #9393 üzenetére
ez a hany venti az idealis erdekes kerdes.
anno a 6950nel volt custom megoldasok kozott egy, ketto es harom ventis megoldas is. nekem pl HIS 6950 ICEQm volt, normal vastag ADDA ventivel. csodak nincsenek, a helyet vagy a borda, vagy a venti viszi el tehat tobb ventivel vagy a borda lesz kevesebb, vagy a venti lesz vekonyabb es vegeredmenyben gyengebb nyomasu. utobbira pelda pl a Gigabyte GTX970en a WF3.
namost, emlitett HIS kb 200Wot evett terheles alatt, a GTX970 G1em szinten (gyari ertekekrol beszelunk). a HIS 85 fokig ment, a G1nek is kb ott lenne a vege ha a thermal throttling nem fogna meg 80nal (viszont hangban ennyivel jobb volt a HIS). hosszra a G1 31 centi 27 helyett, de nyakra kb egyformak. ja igen, hofok: ezek tobbkijelzos adatok egy csendre/halksagra osszerakott hazban, tobbi forumtarsnak jellemzoen jobb ertekei voltak.
szoval eltero ventimennyiseg, kb hasonlo minosegu borda (a HIS mondjuk teljesen nikkelezett volt de a G1 is oke), hasonlo tudas... viszont, volt egy fontos kulonbseg. a HIS iszonyatosan erzekeny volt a hazhutesre (tulnyomas es direkt szellozes kellett neki), a G1 kevesbe volt finnyas. viszont mindket kartyat imadtam.
amiben a 3 venti rossz, hogy 80as ventikkel is legalabb 26-27 centi lesz a kartya.
illetve amiben a kompakt viz a jo, hogy kozvetlenul exhaustra lehet rakni a bordat, nem limital az atx mint meret, plusz konnyebb elvezetni ugy altalaban a meleget. problema a pumpa (annyira halk nem lesz mint egy hocsoves, legalabbis nem a pici es olcso egyberendszerek), de 200-300Wnal legen se lesz halk a megoldas, szoval ez is vallalhato.
fullcover blokk meg ugye szep meg jo, csak az egyreszt niche produkt, masreszt meg iszonyatosan megnoveli a szerelesi idot. az egysegsugaru user + BYO viz meg ugye elegge veszelyes -garancialis szempontbol- egyvelegnek tunik nekem.
btw emiatt is mergelodok picit a 970 tervezesi betegsegere, decemberben a 295x2 nagyon szolid vetel lehetett volna. csak jelenleg 50kval dragabb az akkori arahoz kepest.
-
-
válasz
daveoff #9393 üzenetére
hát én azért elsőnek megvárom az adatokat. itt azért mégis csak 1 gpu-ról beszélünk, így lehet hogy lesz olcsóbb, léghűtéses változat is. Gyári kártyákat amúgysem szokásom venni, csak AIB-ket.
Jelenleg ami miatt nem várnám hogy őrült drága lenne, az hogy már 700-750 dolcsiért van a newegg-en 295X2, 350 körül 290X, 560-580 körül 980. Tehát nem nagyon engedhetik meg maguknak szerintem, hogy 900-1000 dolláros kártyaként jöjjön ki. 600-700 dolcsi lehet szerintem a max. Az meg áfával meg mindennel kb 180-220k
-
-
Abu85
HÁZIGAZDA
válasz
daveoff #9365 üzenetére
Gondolom valaki használta az eszét is, amikor azt a táblázatot összerakta. Legalábbis megnézte, hogy miképp lehet 4 GB-nyi VRAM-ot építeni HBM-ből.
(#9366) Malibutomi: Attól, hogy pár motort direkt sávszélkímélőre tervezték vannak és lesznek olyan motorok, ahol ez nem igaz, és ott a Hawaii elhúz. Például Assetto Corsa. Itt a Fiji még jobb lesz. Aztán ugye ki tudja mit hoz a jövő, arra nem mindig lehet építeni, hogy majd a fejlesztők takarékoskodnak a sávszéllel.
(#9368) -Solt-: Nem mond sok újat, majd ha lesznek a VR projektről konkrétumok.
-
Abu85
HÁZIGAZDA
válasz
daveoff #9352 üzenetére
Így van. Biztosan nem ilyenek lesznek. Nem mondom, hogy minden paraméter hülyeség, de egy részük az, nagyon az. Én nem értékelnék olyan forrást, amely szerint 1024 bites buszra lehet rakni 4 GB memóriát. Ha valaki ezt leírja úgy, hogy eközben a Hynix HBM termékek listázva vannak (tehát a specifikációik publikusan elérhetők), annak bizonyosan gőze sincs az egészről.
Ahhoz még "kici kínai munkás" forrás sem kell, hogy értelmezni lehessen a Hynix listázott termékeinek specifikációját. Világosan le van írva, hogy 1 GB-nyi memória 1024 bites buszra rakható rá. Ha 4 GB-ot akar valaki, akkor 4096 bites buszra van szükség. Ez nem spekuláció, hanem a Hynix friss termékkatalógusa alapján egy tény (második oldal). -
válasz
daveoff #9310 üzenetére
az elsőre igen, szerintem így lesz versenyképes. ha 500 USD-ért adják, akkor a 980 egy pillanat alatt alámegy. 450-et el tudok még képzelni, de az kérdés, hogy egy 500 USD-s 980-nal szemben mennyire lenne vonzó, ill. a 980 is lemehet 450-ig. én aggresszívan áraznék - amúgy is kell most piacot visszanyerni, mert a 970 keményen odacsapott.
a másodikra nem, ugyanis a 380X-re a 980-nak is árat kell csökkentenie. a 390X-nek pedig még ezzel együtt is fenntartható lesz a 600 USD.
-
Malibutomi
nagyúr
válasz
daveoff #9310 üzenetére
Pedig ez lenne a logikus, mivel fogyasztásban a 380X nem kel versenyre valószínű a maxwellel, de ha kb. 980 teljesítményt olcsóbban megkapsz, akkor a 970 vitorlájából jórészt kifogja az AMD a szelet.
A 970 a slágerkártya, azt kell semlegesítenie az AMD-nek elsődlegesen.
A 390X ha jóval gyorsabb mint a 980 akkor szerintem felette lesz árban, ott hagyniuk kell egy kis teret, hogy ha netán a 980ti erősre sikerül, akkor legyen lehetőség az árral játszani. -
válasz
daveoff #9296 üzenetére
Igen, elképzelhető, hogy erre találták ki a kompakt vizet, de az meg egyértelműen az ár rovására megy, és nem is biztos, hogy praktikus minden felhasználó számára, behatárolja bizonyos mértékig a ház választást...
Nem tudom mennyire engedhetik meg ezt a luxust maguknak, hogy réteg termékké tegyék így a kártyát...Minden esetre, ha utolérik a 980-at, és le is tudják hűteni rendesen, ráadásul halkan, akkor megemelem a kalapom előttük...
ennek fényében viszont kicsit kezdek tartani a 390/390X árától, pedig azok lesznek a valóban új kártyák..
-
Malibutomi
nagyúr
válasz
daveoff #9293 üzenetére
Csak a graphics scoret néztem. A pontok egyénenként változóak, itt a tesztben 13900 volt a g1 eredménye, azt nálam a 290x olyan 1260 körül hozta de még tavasszal, szóval jó régi driverekkel. Ebböl saccoltam. De mondjuk úgy 1250 kell minimum hogy vetekedhessen a custom kártyákkal is.
Tényleg ha már szóbakerült, van bárhol olyan teszt, hogy egy húzott 980 mennyit fogyaszt?
-
proci985
MODERÁTOR
válasz
daveoff #9276 üzenetére
picit higgadtabban
(meg a korabbiakra)
--
namost, ami errol a grafikonrol nem latszik, az az, hogy megis mit neztek latency alatt.
a problema az, hogy a frame latencyt lehet tobbfelekeppen merni. amit az afterburner mer, az a gyarkolatban nemi kepet kapni jo, viszont nem igazan azt meri, amit kene. ez az anandtech cikk ami melyebben belemegy a teruletre. de elotte tomsHW is foglalkozott melyebben a terulettel.
felreertes ne essek: lehet jo informaciokat neztek, lehet valid az eredmeny, de igy kontextusatol megfosztva ebbol a kepbol nem mernek mely kovetkezteteseket levonni.
-
HSM
félisten
válasz
daveoff #9271 üzenetére
Én egy fórumtárs kérdésére válaszoltam, Te kötöttél bele.
Szerinted a High beállítással nem adtam elég előnyt a DX módnak? Nem is értem, mi van veled... Nyilván Ultra-n a DX-nek esélye se lett volna a Mantle-s 70-90FPS-el szemben 50-70-el.
(#9272) stratova: Szerintem nem ehhez van köze. Amúgy csináltam még DX-el ilyeneket, és rendben volt teljesen. Komplett meccseket értékeltem ki többféle pályán is utólag LOG-okból.
A Mantle előnye másban volt szerintem.
(#9273) NetTom: Van bizony ilyen téren előny az Nv részére. PL. BF4-ben Nv-vel jó az FPS Ultrán is multiban DX alatt, míg AMD-n nekem már procilimitem volt több helyen is, ezért kellett vissza vegyem High-ra. A procilimit annak ellenére volt, hogy egy 4,4Ghz-re húzott i5 4690K volt a gépemben, 4*4GB 2133MHz-es rammal.
Ugyanakkor nem hiszem, hogy ez jelentős hatással lenne más paraméterekre, mint pl. a DX-mód input lagjára. Sőt, egyes források szerint az Nv 5 képkockával dolgozik előre, míg az AMD DX alatt csak 3-al, Mantle alatt 1-el, de ezt se megerősítő, se cáfoló bizonyítékot nem sikerült még hoznia senkinek.(#9274) gbors: Pedig a nagyobb tranzisztorsűrűség amellett, hogy valóban nehezebben hűthető csipet eredményez, rövidíti a vezetékhosszakat, aminek kapcsán csökken azok parazita-kapaciása, ami direkten csökkenti a csip fogyasztását. Ez tény.
A 285 szalmabáb érvelés, ugyanis én a Tonga GPU-t említettem, NEM a 285-öt, amire a selejtesebb csipek kerültek, atom túlfeszelve.Nézd inkább az R9 M295X-et.
Már bocsánat, de pl. az ütemező compilerbe költöztetése pl. nem erős butítás? Dolgozzon a proci inkább többet az ütemezéssel? Vagy a belső erős ringbus helyett egy sokkal "korlátozottab" crossbar felépítés, ahol csak meghatározott utakon járhat az adat?
"az volt az alapvető felvetésem, hogy az architektúrás innovációt az AMD nem tudja kézzelfogható előnyre váltani. ezek szerint egyetértünk?
"
Alapvetően igen.De én úgy gondolom, nem az AMD "nem tudja" előnyre váltani, hanem a piaci viszonyok nem teszik számára lehetővé, hogy megtegye.
(#9275) namaste: Ha már tévedések...
" A Hawaii hiába rendelkezik több DP számolóval, ha nem használjuk nem fogyaszt,"
De fogyaszt. Mivel ott van a csipben a képesség, növeli a vezetékhosszakat, bonyolítja a logikát, ezenkívül kérdés, mennyire lehet/nem lehet kikapuzni a hozzájuk tartozó részeket, ha egyáltalán lehet.A memóriacsipes dolog valós. Legjobb tudomásom szerint a csipek száma és az órajel számít. Kérdés, melyik mennyire. Szerintem a Maxwell ebben is hoz jópár wattot.
A Maxwell-re sem írhatod, hogy "többet tud", mint a Kepler (feltételezem, a 780-akra gondoltál Kepler alatt) bizonyos szempontból többet, de más szempontból jóval kevesebbet. Pl. egyáltalán nem tud értékelhető duplapontosságot, mivel kihagyták az egységeket. Az sem véletlen, hogy HPC piacra nem Maxwell-t hoztak ki, hanem kicsit feltuningolt Keplert, a GK210-et. [link]
A priorizált adatutakban én is látok buktatókat, bár eddig a számok szerint jól teljesít.
(#9277) Abu85: Igen, pont itt látom a nehézségeket. Most DX11-ben tök jó ez a priorizált adatbusz móka, de mi van akkor, ha valami fejlesztő kitalál valami eljárást, amihez egy szokatlan egység részeredményére van szüksége egy másiknak? AMD-n látszólag ez nem okozhat gondot, hogy egymás adatait elérjék, míg Nv-n a megoldhatatlan kategóriát is súrolhatja.
-
stratova
veterán
válasz
daveoff #9268 üzenetére
Szerintem ahhoz egy késleltetésdiagramot kellene mérnie DX11 és Mantle kód esetére azonos beállítások mellett, ami ha nem tévedek azért nem két perc. Nem gyakran csinálnak ilyet a fórumtársak (bár páran igen).
-
HSM
félisten
válasz
daveoff #9268 üzenetére
A számok az AMD-s DX-en is rendben voltak, mivel csak High-on toltam.
Én azt próbáltam itt átadni, hogy volt, ami a számokból nem jött át.
Nem városi legenda, hanem saját tapasztalat.Sajnos nem volt megfelelő technikai felszerelésem, hogy bármit is bizonyító erejűen dokumentáljak ebből, de ettől függetlenül a jelenség tapasztalható volt.
Nem szarja le az Nv-seket a Dice, ott van nekik a DX mód, mivel Mantle azokon nincs.
-
HSM
félisten
válasz
daveoff #9266 üzenetére
Nekem SEMMI bajom nem volt DX alatt a minimum FPS-el, mint írtam, átlagosan 10-el jobb is volt a kisebb grafikai minőség végett a DX.
De ne menjünk bele újra ebbe a parttalan vitába. Kérdezte a fórumtárs, mit tapasztaltam, és én bizony ezt."NV-vel a DX kód meg ugyanolyan jó, mint a Mantle, ha nem jobb...."
Hát hogyne. Úgy tűnik, ezt nem tudta a Dice, mikor lefejlesztették a Mantle kódot. -
Laja333
őstag
válasz
daveoff #9195 üzenetére
Ezt próbáltam kifejteni fentebb. Ahhoz hogy 2-300-al megemeljék, mialatt nem vagy minimálisan nő a fogyasztás (értsd 300 watt alatt marad) nem csak egy átnevezés kell vagy kis finomhangolás. Ott azért belenyúlnak rendesen. Már csak a Hawaii tuning potenciáljából kiindulva.
Ipon pl addig merészkedik a cikkben, hogy esélyes frissebb GCN-t jósol a Gerendának. És am kabbe, azóta mindig gerendának olvasom mióta leírtad. -
Laja333
őstag
válasz
daveoff #9185 üzenetére
Newegg-en a MSI gaming 290x most 310 dollár, a Tri-x meg 340. GTX 980-ak 560 dollártól indulnak. Ha 100 dollárral drágábban adják a 380x-eket mint a 290x-eket, még így is egy százassal olcsóbb mint a 980. Szerintem tudnak hova nyújtózkodni az árral. 390-ek meg ugye 980 fölötti árral kell számolni, eleve afölötti kategória lesz.
-
HSM
félisten
válasz
daveoff #8938 üzenetére
Átnevezésnél pedig gyakran előkerülnek az új revíziók. Pl. a 7970-->280X átnevezésnél is először úgy volt, kap egy új revíziót, az XTL-t, ami végül a sok készleten lévő csip miatt csak részben valósult meg. Ugyanakkor mikor kihozták a 7970 Ghz-et, meg a BOOST kiadásokat, az már egy új revízió volt (Tahiti XT2), kisebb fogyasztással. Bár a gyári agyonfeszelés miatt ez nem látszott, de normálisan belőve a csipeket már tetten érhető volt.
A Fiji esetén a HBM-el sokat nyernek, de szerintem ők is érzik, hogy a Hawaii-nak jót tenne még kis optimalizálás a jelen piaci környezetben.
-
HSM
félisten
válasz
daveoff #8936 üzenetére
Eddig nem kellett annyira foglalkozzanak a fogyasztással, sebességgel, hiszen versenyképes volt a konkurens 780-akkal. Most viszont a Maxwell-ek mellett azért nem fog ártani kihozni a maradék pár lóerőt (3072 shader és a hozzá tartozó textúrázók) és kicsit faragni a fogyasztáson, pláne, ha hosszabb távon terveznek a csippel és úgy tűnik, igen. Nem olcsó ugyanis egy új revíziót kiadni.
Csodát én sem várok, de azért elég ha megnézed a sima 290 és a 290X verziókat, ott is sokkal békésebb az X-es csipek fogyasztása.Kicsit még gyúrnak rá jó lesz az.
-
Departed
őstag
válasz
daveoff #8921 üzenetére
Így van, újdonság elvileg csak a HBM-es 390/390X lesz horror áron.
Mostanában az R9 290 85ezer körül kapható, ha a 380 mondjuk hamaraosan 75k-ért megvehető lesz akkor már elgondolkodom a lassan 4 éves 6950@70 lecserélésén.
Mondjuk jobb lett volna kisebb csíkszélesség és fogyasztás, de hát az átnevezéstől nem fog kevesebbet fogyasztani. -
Abu85
HÁZIGAZDA
válasz
daveoff #8912 üzenetére
Az EA most abban látja a lehetőségeket, hogy technológiailag mindenkivel szemben kiépítenek egy nagynak mondható előnyt, és ezért hajlandók igen sokat költeni.
Főleg azért választották le a DICE-tól a Frostbite Teamet, hogy a jövőben nekik ne kelljen speciálisan egy-egy játékra koncentrálni, hanem csak fejlesszék a motort házon belül aszerint, hogy az EA stúdiók mit szeretnének. Egyszerűen bezárkóztak és olyan technológiát fejlesztenek maguknak, amellyel más kiadó képtelen versenyezni, ez persze nagyban köszönhető annak, hogy az EA pénzes cég. Hosszútávon ennek két előnye lesz. Az egyik, hogy a legtöbb játékot a Frostbite motor alá rendelik, és ezek a játékok PC-n csak az Originen érhetők majd el. Az Origin terjesztése kritikus fontosságú, mert a Steam túl nagyra nőtt, és ez az EA-nek nem tetszik.
Igen a Mantle jövőjét az nagyban meghatározza, hogy az EA átszervezte magát. A Frostbite Team egyik feladata, hogy kutassák a PC-s lehetőségeket a Mantle-ön keresztül. Nem szabad elfelejteni, hogy ez az API bár jogilag az AMD tulajdona, a fejlesztésben az EA szakemberei nagyban részt vettek. Ők voltak az elsők, akiket ebbe az AMD bevont (igazából az EA vezető motorprogramozója kérte az API-t). Tehát az EA számára ez egy saját technológia. Úgy utasították az AMD-t a fejlesztésre, hogy az nekik biztosan jó legyen. Valószínűleg ma is jelentős szerepe van az API továbbfejlesztéseiben annak, hogy a Frostbite Team mit akar. Ez szintén egy stratégia. Hiába gondol el valamit az EA a jövőről, ha az adott API azt nem támogatja. A Microsoft esetében sokkal nehezebb elérni az olyan változásokat, amelyeket az EA esetleg akar, míg az AMD-nél ez nagyon könnyű, aztán a Microsoft úgyis követni fogja ezt az irányt, mert nem hagyhatják figyelmen kívül azt, amit az egyik legnagyobb kiadó akar.
Az EA két legyet üt egy csapásra. A saját igényei szerint formálják a piacot, és folyamatos fejlesztésre kényszerítik az MS-t. A nagy iramban két lehetősége van a konkurens kiadóknak. Követik az EA-t, ami sok pénzt emészt fel, de ekkor is az EA vezeti be leghamarabb az újdonságokat. Esetleg elhatározzák, hogy nem követik az EA-t, mert nincs elég pénzük versenyezni, de így a játékaik technológiailag lemaradnak az EA mögött. Mindkét lehetőséggel az EA lesz a leginnovatívabb vállalat a maga területén. -
Abu85
HÁZIGAZDA
válasz
daveoff #8897 üzenetére
Mivel a két API-nak a GPU command modellje teljesen azonos, így azokban a tesztekben amelyek ezt terhelik nyilván azonos lesz a teljesítményük is.
Játékokban biztosan lesz másik API a Mantle mellett. Valószínű, hogy a DX12 lesz az. De egyébként az AMD is azt mondja a fejlesztőknek, hogy ha nincs valami olyan dolog, amit a DX12 nem tud, akkor ne használják a Mantle-t, mert nem az a célja, hogy a DX12-t kiváltsa. És ez szerintem logikus is. Ha fejlesztő minden felmerülő problémát meg tud oldani DX12-ben, akkor ne foglalkozzon még egy API-val. A 3DMark azért foglalkozik vele, mert ez egy benchmark. Nekik az a dolguk, hogy támogassanak minden értelmes dolgot, de a játékfejlesztőnek sokkal specifikusabban kell gondolkodni.
(#8900) HSM: Nem egy memóriaterhelő motor a Nitrous. Biztos számít valamennyit, de közel sem ennyit. Egyszerűen nincs megírva rá az optimalizáció. Ezeket egyszerű kipróbálni. Rakjatok vissza egy új, de komolyabb játékhoz egy 1 évvel korábbi drivert. Rossz lesz. Ugyanez a baj csak itt maga az alkalmazás a driver, tehát oda kell megírni a vezérlést.
-
Abu85
HÁZIGAZDA
válasz
daveoff #8864 üzenetére
Ezt nem érdemes így kimondani, mert ezek a low-level API-k pont azt csinálják, hogy elérhetővé teszik a memóriát a programozóknak. Eddig az API-k ellentétesen dolgoztak. A fejlesztő hozhatott létre puffereket és a szükséges allokációt az API a driveren keresztül elvégezte. A programozó csak ezeket láthatta és kezelhette, de a valós munkát a driver végezte vagyis a memória el volt rejtve. A low-level API-kkal ez mind ki lett vágva. A hardver inicializálásánál a program megkapja a memóriát, azt csinál benne a fejlesztő, amit akar. Itt jön az, hogy mindent nekik kell megírni és látható, hogy bizonyos allokációs technikákkal jobban is lehet bánni a memóriával, mint ahogy a Sniper Elite 3 teszi. Ott bár a memóriahasználat DX11-hez hasonló, de nő a textúrák minősége. Hasonló modellt vezetett be a Dragon Age: Inquisition is.
Mivel a tartalom minősége nőni fog, így ezek sem lesznek igazán jó alternatívák a jövőben. Főleg az Xbox One miatt olyan koncepciók kerülnek előtérbe, amelyek kevés memóriát igényelnek. A virtuális textúrázás a mostani API-ban ugyan elérhető, de nagyon rosszul működik. Egyszerűen az a gond vele, hogy maga a tartalom törlése rendkívül költséges, tehát lényegében van egy funkció a DX11.2-ben, ami használhatatlan, mert túl magas többletterhelést jelent. A low-level API-kkal ezek a funkciók ugyan eltűnnek, de mivel a programozó mostantól teljesen látja a memóriát és úgy kezeli, ahogy akarja, lehet a GPU-ra írni egyéni virtuális textúrázó rendszereket. Ez a két új konzollal és a legtöbb mai GPU-val (Gen8, Fermi, Kepler, Maxwell, GCN) simán megoldható. Persze a texturalapok külön memóriaallokációt igényelnek, ami limitáció, de például nem kell sokat frissíteni a modernebb hardvereken, hogy több textúralap is tárolható legyen egy allokációban. Ez lényegében teljesen új irányt nyitna meg a textúrák tömörítése szempontjából, radikálisan csökkentve a memóriaigényt. Volt tervezet a Khronosnál a szabványos sparse texture kiterjesztésük kiegészítésére tile-pool támogatással, de elvetették, mert az elmúlt év tavaszán még nem támogatta semmi ezt a technikát hardveresen. De a Radeon R9 285 (aka Tonga) ma már támogatja, és igen nyilvánvaló, hogy az elkövetkező két év során a többi gyártó is beépíti, tehát érdemes foglalkozni a kérdéssel. A konzolokon is megoldható pár alternatív opció, hiszen van egységes memória.
Ezek majd alapvető technikák lesznek, hogy növelni lehessen a textúrák minőségét úgy, hogy töltőképernyőket se kelljen használni. Persze utóbbi majd megint igényel fejlesztéseket, hiszen a tartalmat ki kell kódolni stb., ami megint para, de ezekre PC-n is lesznek megoldások. Elsőként az új API-kkal felszabaduló temérdek processzoridő, majd az IGP-k befogása, és így tovább, ha esetleg gondolkodnánk fixfunkciós technikákban. -
HSM
félisten
válasz
daveoff #8765 üzenetére
Kb. 30 percen keresztül ecsetelik a motor fejlesztői, mekkora szívás a Dx-re fejleszteni, mennyire korlátolja a lehetőségeiket, és mennyi felesleges plusszmunka, és mennyire lemaradt a hardverek fejlődéséhez képest. [link]
Persze, biztos csak reklám, megvették őket kilóra...(#8766) -Solt-: A StarSwarm végülis reklám abból a szempontból, amit írsz. Viszont itt a prezentáció, ami azért elég sokmindenről lerántja a leplet.
-
-Solt-
veterán
-
-Solt-
veterán
-
HSM
félisten
válasz
daveoff #8755 üzenetére
A Mantle-nek semmi gond a jelenlegi formájában, csaképpen mivel kb. egy éve sincs a piacon, még nem készültek rá programok, amik kihasználnák.
Másfelől igencsak szemet kényeztető azoknak, akiknek nincs atomdrága gépük fullos, széttuningolt i7-es procival. Még nálam is CPU-limites volt a BF4 DX-ben, 4,4Ghz-es i5-ön Ultrán, így csak High-on tudtam tolni a 290-es Radeonon. Igencsak kellemes volt utána Mantle+Ultrára emelni, amit így már kirázott a proci a kisujjából másfélszeres tempóban.(#8756) Departed: Az 5850-em több, mint megduplázta sebességben már a 7950-em is...
Az 5850-nél pedig nem sokkal gyorsabb a 6970. A 290 meg végképp brutál. A fogyasztása meg túl van reagálva.
900Mhz-en a gyári 950 helyett, -20mv feszen 300W volt a komplett gépem fogyasztása konnektorból BF4 Mantle-ben, ami 80%-on tekerte a húzott i5-öm, és 100%-on a 290-est, és közben gyorsabb volt egy szénné húzott 280X-nél is... De amúgy hamarosan aktuális a 300-as széria, ott sanszosan jöhet pár szimpatikus alternatvía. -
Abu85
HÁZIGAZDA
válasz
daveoff #8666 üzenetére
Pedig de. Mondok egy példát rá az Alien: Isolationből. A modern GPU-s részecskerendszer, amit használ teljes mértékben mentes a többletrajzolás problémájától. Ez az első mozaikos alapokra épített algoritmus, és kapaszkodj meg ... legalább ötször gyorsabb azoknál a GPU-s megoldásoknál, amelyet ma az egyes játékok használnak, és a még szintén használt CPU-s megoldásoknál nagyjából százszor gyorsabb. Persze a CPU-s megoldások eléggé le vannak butítva, ahogy a GPU-sak is, hogy a többletrajzolás ne okozzon gondot, de az Alien: Isolation motorja koncepció szintjén védekezik ellene. Több tucat ilyen trükkből tevődik össze az Alien: Isolation sebessége. És az oka a nulláról írt motor.
-
Bandi79
aktív tag
válasz
daveoff #8657 üzenetére
Ha el is fogadjuk, hogy 5-6 éves grafika (szerintem nem), akkor hasonlítsuk a GTA 4 PC portjához (2008):
GTA 4-et ha fel tudtam volna tenni maxra (1 giga VRAM maxon kevés neki), akkor kb diavetítést nézek, Alien Isolation meg röccenés nélkül megy. Nincsenek hatalmas FPS esések, textúra hibák, memory leak stb...
Ez a különbség az optimalizálatlan és a jól megírt között.
Régi C64-es időket sírom vissza, akkor még a játékkészítők tudtak programozni. ~1MHz CPU + 64K ram. Ennyi van, erre írj játékot. Nem volt "minimum" és "recommended" specs
Ennyi off elég is, köszönöm a válaszokat !
-
Abu85
HÁZIGAZDA
válasz
daveoff #8659 üzenetére
Igen. Játszottam már vele. Első osztályú a megvilágítási modell és a részecskerendszer. De ezt eddig is tudtuk, hiszen a fejlesztők már jó előre elmondták, hogy a legjobban implementálják, ami létezik és bevethető. Majd később a többiek is bedobnak valami hasonlót.
A Creative Assembly előnye, hogy ezt a motort a nulláról építették fel. Úgy választhatták össze a működéshez szolgáló komponenseket, ahogy azt jónak látták. Persze sok pénz volt, de amikor valami mindig a nulláról készül el, az előnyt élvez egy darabig, mert a többi motorba az új technikák nem feltétlenül építhetők be problémamentesen. Ez az oka annak, hogy ebben a motorban van most a legjobb indirekt fénykezelés és részecskerendszer. Egyedül a CryEngine közelít hozzá. -
Abu85
HÁZIGAZDA
válasz
daveoff #8657 üzenetére
5-6 éve a seggünket csapkodtuk volna a földhöz ilyen minőségű GI és particle effektek, illetve anyagárnyalás láttán:
Azt a fény-árnyék kezelést, részecskerendszert és radiosity modellt, amit az Alien: Isolation használ, még több mai játéknak sem sikerült elérni. Persze no para, majd később más is megkapja azokat az effekteket, amelyeket ez a játék alkalmaz.
-
Abu85
HÁZIGAZDA
válasz
daveoff #8592 üzenetére
A mai programok még DX11-re vannak tervezve. Kivéve a Frostbite 3, ami sajnos egyre instabilabb DX alatt, ahogy nő a motorverzió. Ezt mondjuk nem tartom jó ötletnek. Tudom, hogy fél az EA attól, hogy mit szólnának a játékosok, ha a DX grafikát butítanák/sebességet visszavennék, de az instabil program a legrosszabb döntés: [link]
Azért mondtam példának a StarSwarmot, mert az olyan program, amerre megyünk, és ott már nem csak 2000-et rajzol a konfig. Ez a 2000-es határ a DirectX 11 miatt él, és nem azért, mert "hú de elég" ez a mennyiség.
Nem kell, hogy meggyőzzön téged. Nem te fogsz erre az API-ra programokat írni. -
stratova
veterán
válasz
daveoff #8592 üzenetére
Csak sanda sejtés, de lehet hogy Abu kifejezetten a shader procik kihasználására célzott.
Ettől függetlenül a többi egység (pl TMU ROP) már komolyabban ki van használva, így nem mutatkozik meg komolyabb javulás vagy más ponton nem teljesen kiegyensúlyozott a VGA.
Viszont ha úgy vesszük pl a Hawaii/Tahiti kártyáknak jelenleg játékos szempontból teljesen feleslegesen magasabb a DP Flops aránya. Kérdés ez is hasznosítható lenne-e általános számításra más API-val játékok alatt.StarSwarm számomra mondjuk azért furcsa példa, mert tipikusan olyan területet szimulál, ahol rengeteg egységgel kell számolni, így komoly a CPU-ra jutó teher.
Pár online MMO is elég durván skálázódik magszállal és IPC-vel együtt (korábbról Guild Wars 2 talán). -
Abu85
HÁZIGAZDA
válasz
daveoff #8587 üzenetére
A StarSwarm abból a szempontból nagyon fontos, hogy az már egy új elvek szerint épített motorra épül. A Nitrous ledönti azt a régi modellt, hogy van egy viszonylag egyszerű leképződ, és nagyrészt post-process effekttel szépíted meg. A filmekben a CGI azért néz ki piszok jól, mert nem ilyen formában valósul meg. A Nitrous működése a filmekben használt CGI modellhez hasonló, vagyis ez az első motor, ahol funkcionálisan lehetségessé válik a grafikai minőségugrás gondolata.
A StarSwarm technikai demó célja az, hogy bebizonyítsa, hogy a CGI minőségéhez szükséges alapokat képes stabil teljesítménnyel feldolgozni. Ez elég jól sikerült, hiszen az aktuális játékokban alkalmazottnál százszor nagyobb terhelés mellett sem omlik össze a sebesség, azaz nem a hardver az akadálya a grafika fejlődésének. -
HSM
félisten
válasz
daveoff #8584 üzenetére
Azért azt ne felejtsd el, hogy a mai játékok elsősorban még DX11-re készültek. Amúgy a saját tapasztalat, hogy igencsak erős CPU-val is nálam igencsak erősödött a VGA is pl. BF4-ben, DX-ben csak High-on tudtam tolni, Mantle-ben pedig minden tekintetben jobban futott Ultrán is.... Pedig egy i5 4690K 4,4Ghz-en nem épp gyenge 16GB 2133Mhz-es ram társaságában.
A Mantle csak lehetőséget ad a kihasználatlan erőforrások kihasználására, de kell a játék is, ami él vele. Másfelől a felszabaduló rengeteg processzoridőt is ezer dologra használhatja a fejlesztő, csak ha használja, akkor nagy cumi lenne DX alatt.Javaslom ezt a régi APU13-as előadást: [link].
Magam is bár rég elmentettem megnézendő videónak, de csak nemrég volt lehetőségem megtekinteni, és eléggé szépen körbejárják a témát. Ez is elég jó, Johan Andersson-tól: [link].A StarSwarm demó pedig igenis jó példa arra, micsoda lehetőségek lakoznak a Mantle-ben, ha kihasználják őket....
-
Abu85
HÁZIGAZDA
válasz
daveoff #8584 üzenetére
Annyit elértünk, hogy az új API-val készülő játékok terhelése 60-70% közötti. Ami egy jó ~10%-os ugrás az ide tartozó játékok DX11 portjaihoz képest. Ami nagy ugrásnak tűnik az a Nitrous. A StarSwarmban a hardverkihasználás sosem esik 50% alá, míg DX11-es portnál a hardverkihasználás 2-20% közötti. Persze ez a program alpha, de ezt tényleg nem a DX11-re építették, tehát látszik, hogy működik.
Amiről még nincs adat az az asszinkron compute, ami most került be az Omega driverrel. Ez növelheti a hardverkihasználást 80-90%-ra. Ezzel egyes compute effekteket teljesen ingyenessé tehetők. Ha bekapcsolod, akkor nem fogja levenni érte az fps-t. Ez egyelőre csak pár PS4 exkluzív játékokban működik, de idővel át lesz mentve PC-be a koncepció. -
Abu85
HÁZIGAZDA
válasz
daveoff #8582 üzenetére
Nem ezt mondtam, csak azt, hogy a prioritás a szoftver, mert ott van több éves lemaradás. Az új hardver sok előnyt nem kínál, max annyit, hogy több erőből lesz kevés kihasználva. Az AMD szerint a PC-piac érdeke jelenleg az, hogy a ma elérhető hardvereket használják ki jobban a fejlesztők, mert a teljesítményük kétharmad részét simán bennük hagyják. Jó nem kell mindent kisajtolni, de legalább a 60% legyen meg. Ez jó az új hardvereknek is. A felhasználóknak pedig főleg, mert nem feltétlenül kell hardverre költeniük.
-
Crytek
nagyúr
válasz
daveoff #8524 üzenetére
Ha csak nem adnak ki rá 2 hétre egy 390x+t akkor kevés.Nv bármelyik pillanatban piacra tud dobni egy 980ti-t ami akár 30%-al is verheti a sima 980 at mert a fogyasztást meg mindent bőlére eresztehetnek még.
Amd inkább az árakkal játszhatna a többet olcsóbban elv alapján.
Mekkora népkártya és világsiker lenne 85k-s 970 verő vga.
Kár hogy a xiaomi nem gyárt vgakat akkor kb a csúcskártyák 80k fölé nem mennének a cég elvei miatt.
Csak hát amd és nv csőves cégek. -
HSM
félisten
válasz
daveoff #8495 üzenetére
Nem a létjogosultságát, hanem a népszerűségét. Az Nv-nek sikerült akkora marketinget tenni a terméke mögé, amivel megvette kilóra az embereket. Persze, a termék is jó lett, szó se róla, de azért közelsem egy akkora eresztés, mint amennyire népszerű lett. Persze, ez csak az én véleményem.
Ha ma VGA-t kéne vegyek, nem lenne kérdés, R9 290-et vagy Maxwell 900-ast vegyek, egy jóárasított 290-es lenne újra.
-
HSM
félisten
válasz
daveoff #8493 üzenetére
Elvileg még kb. 200 shader van benne, letiltva.
Azt be tudják kapcsolni, plussz tudnak szinte biztosan egy revízióval is kicsit javítani a fogyasztáson is. Nem tudom, mennyire lesz ütős, meglásuk. Nekem a jelnelegi 290X-ek is bejönnek, szóval ha jó áron adják, kicsit javított fogyasztással, szerintem teljesen jó lehet.
Ez a 980 Ti ellen tuti kevés lenne, de egy sima 980 megközelítésre jó lehet.
-
HSM
félisten
válasz
daveoff #8449 üzenetére
Erről már egyszer elmondtam a véleményem... A gyári hűtő sem éppen olcsó, nem hiszem, hogy ha sikerül nekik egy jó megállapodást kötni az Asetek-el egy nagy volumenű hűtő-megrendeléssel, akkor az annyira drága lenne. Simán érthető lépés lenne, évek óta szidva vannak a hűtéseik, logikus lépés lenne prémium hűtést rátenni, ami minden szempontból a legjobb egy ilyen egyszerű kompakt víz.
Egy csúcs-VGA árába szvsz simán beleférne.
-
TTomax
félisten
válasz
daveoff #8436 üzenetére
Jahm azért hullottak eddig is szép számmal a két gpus kártyák... mert a 105Cfok az nem vészes...az pont annyira vészes,hogy egy gramm tartalék se marad a kártyában... garit jó eséllyel kibírja,azon a két gpus kártyán pont ugyanaz a VRM van mint a refen... és pont ezért nem örülnék neki ha ez a hűtés kerülne a 390X-re.Pontosan ezért,mert csak a gput hűti...
-
válasz
daveoff #8426 üzenetére
Mivel a mobil és a desktop vonal azonos fejlesztésre épül, így az AMD-nek is oda kell figyelnie az alacsony fogyasztásra (20nm, HBM, HDL, architektúra, stb. útján), ha nem akarnak több generációnyi egér utat adni az nVidiának a laptop szegmensben.
Így az asztali megoldásnak is jó teljesítmény/fogyasztás arányúnak kell(ene) lennie. -
-
janos666
nagyúr
válasz
daveoff #8367 üzenetére
Ha nem elég tág a mintavétel, akkor hiába, mert csak annyi változik, hogy a tudatos manipuláció helyett a véletlen fogja eldönteni egyenként 50/50 valószínűséggel, hogy épp melyik versenyzőnek kedveztek a feltételek, szóval csak sok-sok reprezentatív pont átlaga mond majd valamit (azzal közelítesz a valós 50/50 szóráshoz). De ha bevonjuk a képbe, hogy akár már a játékok készítői is részrehajlók, akkor nem 50/50-ről indulsz. Viszont az sem valószínű, hogy minden tesztoldal és fejlesztő ugyan annak az egy gyártónak a zsebében van. Sőt, valószínűleg nem a vásárlás pillanatában már megjelent játékok lennének a mértékadók, hanem amik az alatt jelennek meg, míg rendeltetésszerűen használod ezt a kártyát (amit még nyilván nem tudsz előre tesztelni).
Szerintem egész jó a helyzet olyan szempontból, hogy a kvázi "futures market" most inkább az AMD manipulációiról szólt (ők adták el a tesszelációt, GCN-t, Mantle-t, stb, mielőtt valós gyakorlati haszna is lett volna), miközben a jelen inkább az nVidia-ról (kb. DX9-re ragasztva sok minden, de ami DX10+, az sem szállt el GCN párti irányba, legfeljebb néhány kivétel többé-kevésbé), így különböző rétegeket tudtad elbűvölni (aki már tegnap vs. aki majd csak holnap akarta használni a kártyát, aki pedig azonnal, az valószínáleg nem ért rá bővebben foglalkozni vele).
Ha úgy teszteled a kártyákat, hogy hónapokon át mindkét versenyző nálad van és rendszeresen veszel mintákat (itt-ott egy-egy fps érték különböző játékok különböző jeleneteiben, ami épp megtetszik).
-
Drizzt
nagyúr
válasz
daveoff #8364 üzenetére
Pedig mi sem természetesebb. Különféle architektúráknak különféle bottleneckjeik vannak. Lehet olyan pálya, ahol sok a tesszelláció, ekkor az egyik architektúra, amelyik erős ebben, jóval nagyobb arányban fog vezetni, mint egy olyan pályán, amin nem nagyon van tesszelláció. Ilyesmire gondolj, hogy mondjuk az egyik pálya dzsungelben játszódik, a másik meg egy hajón az óceánon. Ez két eléggé sarkított eset, de ilyen nagy különbségek esetén valószínűleg már teljesítményben is van különbség( ahhoz képest, ha mondjuk két dzsungel pályát nézel). Legegyszerűbb ilyen befolyásoló bottleneckek szemléltetésére a memória. Egyik kártya mondjuk 3 gigás, a másik meg 2. Elég ha felbontást növelsz, s messze nem maradnak meg a korábbi arányok. De a kártyán ugyanúgy el tud fogyni a shader, a tesselator, bármi más.
-
-
KillerKollar
őstag
válasz
daveoff #8341 üzenetére
Kíváncsi leszek
Most az NV szerintem megsürgette az AMD-t,mert az új generációs Nvidia kártyák verik az 1 éves AMD-ket értelemszerűen,kínos is lett volna az NV-nek ha nem így lenne,viszont a fogyasztásuk és meglepően még az áruk is elég korrekt ami mostanában nem jellemző az NV-re.Főleg a 970-é.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Vicces képek
- Nyaralás topik
- Xbox Series X|S
- One otthoni szolgáltatások (TV, internet, telefon)
- Delta Force (2024)
- Sütés, főzés és konyhai praktikák
- lezso6: Nem látszik a kurzor Chrome alatt a beviteli mezőkben?
- Call of Duty: Black Ops 6
- Autós topik látogatók beszélgetős, offolós topikja
- Vezetékes FEJhallgatók
- További aktív témák...
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming Elite Eladó!
- ASUS GeForce GTX 1650 Phoenix OC 4GB GDDR6
- PowerColor RX 6700 XT 12GB GDDR6 Hellhound Eladó!
- 3 hónapos Sapphire NITRO+ AMD Radeon RX 7900 XTX Vapor-X 24GB, még 33 hónap garanciával
- Csere-Beszámítás! Sapphire Pure RX 7700XT 12GB GDDR6 Videokártya! Bemutató Darab!
- Telefon felvásárlás! Samsung Galaxy A15, Samsung Galaxy A25, Samsung Galaxy A35, Samsung Galaxy A55
- BESZÁMÍTÁS! GIGABYTE AORUS MASTER RTX 3070 8GB GDDR6 videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! Gigabyte H510M i5 11400F 16GB DDR4 512GB SSD GTX 1070Ti 8GB Rampage SHIVA TT 500W
- BESZÁMÍTÁS! Gigabyte A620M R5 7500F 32GB DDR5 512GB SSD RX 6700 XT 12GB ZALMAN S3 TG CM 700W
- Honor 9X Lite 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest