- Mobil flották
- Samsung Galaxy S25 - végre van kicsi!
- Android szakmai topik
- Xiaomi 14 - párátlanul jó lehetne
- A sógorokhoz érkezik a kompakt Vivo X200 FE
- Samsung Galaxy A54 - türelemjáték
- Apple iPhone 16 Pro - rutinvizsga
- 6 év biztonsági támogatást ígér a Motorola
- iPhone topik
- Mi nincs, grafén akku van: itt a Xiaomi 11T és 11T Pro
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Xmister
senior tag
válasz
#85552128 #10984 üzenetére
Úgy kezdi a tweaktown, hogy rumor, majd kijelenti kerek-perec, hogy nem lesz gyorsabb.
Érdekes módon a kitguru nem is említ ilyesmit, és az eddigi pletykák/találgatások is az ellenkezőjét jósolták.Szerintem inkább várjuk meg a teszteket, mielőtt kijelentjük, hogy lassabb/gyorsabb lesz.
Szerk.: Minél többször olvasom a tweaktown cikket, annál inkább tűnik ez egy "4GB csak lassabb lehet a 12-nél, de a 8 az már majdnem ott van" kijelentésnek, ami elég gáz egy ilyen újságtól. (Nem is beszélve a CF esetén nem stack-elő memóriáról)
(#11000) Szaby59: Jó, csak te is úgy fogalmaztál, hogy "biztos", ami azért erős jelen helyzetben.
-
válasz
#85552128 #10990 üzenetére
eleve aki a jövőre meg vr-ra tervez, annak szerintem legalább 8 gigában kell minden (!) kártya esetén gondolkodni. Nem hiszem hogy vennék 4 gigás 390X-et. Szóval ha valaki ilyen kategóriás teljesítményt akar, az vegyen dual 980/97 vagy 290X kombót (bár ugye cfx/sli terén néha küzdős lehet mindkettő üzemeltetése szoftver ügyileg. Hátha dx12 és vulkan alatt már nem lesz gond. meg vr-ban sem hinném)
-
HSM
félisten
válasz
#85552128 #10825 üzenetére
Igen, csak erősen nem mindegy, mennyit veszít az értékéből adott idő alatt...
A HD5850-em pl. 3 év alatt vesztett az értékéből összesen 35K-t, pedig 1 hónaposan vettem, szinte újonann, és 2 évig kb. kompromisszummentes volt, az utolsó egy évben kellett minimálisan visszább venni ezt-azt.
Két éve, aki 7970-et vett 70-80K környékén és megtartotta, az se csinált rossz boltot, mert még jövőre is jónak ígérkezik, és tartja az árát. A 290-ek se vesztettek olyan nagyon sokat az értékükből, még most is 70K felett mennek használtan, erős a gyanúm, hogy innen már sokat nem fognak az értékükből veszíteni, pláne, ha jön a DX12.
Ezzel szemben mik a kilátások egy akár használtan is 100K-ba kerülő 970-el, vagy 130-140K-ért vesztegetett 980-akkal? Kijön a Pascal, meg pár játék DX12-re, olyan bukó lesz rajtuk, mint a ház...
Persze, most még mindenki örül, gyorsak, halkak, takarékosak (ami zseniális üzleti húzás az Nv-től elismerem, jókor, jó termék az Ő üzleti szempontjukból), de ennek előbb vagy utóbb meglesz a böjtje.Nyilván ez nem szempont azoknak, akik pénzüket nem kímélve mindig ragaszkodnak az elérhető legerősebb VGA-hoz, de a maradék többségnek igen.
-
válasz
#85552128 #10809 üzenetére
Abban a pillanatban, hogy egy program megfelelő módon kihasználja a GPU "láthatóbb" erőforrásait, a 980 és a 290X sorrendje gyakorlatilag megfordul - a főbb részegységek kapacitása alapján a 290X-nek 10-20%-kal gyorsabbnak kellene lennie (emellett jelenthet még előnyt a "CPU-sabb" felépítés, ez általánosan nem nagyon számszerűsíthető, úgyhogy jobb nem jósolgatni rá). Hogy ez most mégsem így van, annak több oka is van (nem csak a DX11), és ezek közül nem biztos, hogy mind megszűnik egy-egy DX12-es motorban - viszont valószínűleg egy éven belül lesz 1-2 olyan, ahol igen.
(#10812) HSM: 2016H1 végéig aligha lesznek jelentős fájdalmak - pár játékban jobb lesz a konkurencia, na bumm. Ha valakinek meg ennyitől összemegy az e-pénisze, azt hadd ne sajnáljam
-
Xmister
senior tag
-
7time
senior tag
válasz
#85552128 #10789 üzenetére
Ehhez még annyit hozzátennék ha +10% a ref 980-ra és nincs tuning az is gázos lenne.
Elfogadható érték nekem +20-25% lenne de nem OC kártyával, persze lehet majd bilibe ér a kezem de a 4000+ GCN mag és a HBM sávszél minimum ennyit kellene hozzon, viszont továbbra is kérdés számomra hogy hogyan rakják rá 28nm a 4000+ magot mert minden pletyka ilyen értékekről szól, vagy valóban nem 28nm jön. Valójában annyi a pletyka és annyi féle hogy nem is érdekelne ha nem kellene sürgősen egy VGA.
-
7time
senior tag
válasz
#85552128 #10784 üzenetére
Nem mindegy mennyivel lesz a ref 980 előtt, mert egyrészt attól a custom verziók
Pont erről beszélek hogy nem tudjuk mi előtt és mennyivel lesz, ha a GTX 980 teljesítményt hozza és nincs tuning akkor az gázos de nagyon, ha a Titán X teljesítményt hozza de GTX 980 áron viszont nincs tuning az jó, tehát azt akarom ezzel mondani hogy nagyon korai a tuningról vitázni, de ez ebbe a topikba simán belefér.
-
válasz
#85552128 #10784 üzenetére
Játékok alatt viszont a 290X sem melegszik annyira. Meg nem is fogyaszt annyira sokat. De megintcsak... a ref hűtő csak akkor számít, ha nincs más. Titan X-ből nem tudom jön-e/jött-e custom hűtős.
Illetve egz OC-zett Titan X is kényelmesen el tudja érni egy 980 SLI fogyasztását.
-
hugo chávez
aktív tag
válasz
#85552128 #10745 üzenetére
Semmi különös, kicsit benézték a dolgokat. Magonkénti teljesítményben kezdett elhúzni az Intel, az AMD meg kitalálta, hogy nem az IPC-re gyúr rá, hanem inkább ráfekszik az órajel komoly emelésére (ami szép kis bukta lett, gyártástechnológiai és szimplán fizikai okok miatt is), meg a "többmagosításra/modulosításra", hogy versenyképesek maradhassanak. És persze az APU-ra, vagyis az IGP általános célokra befogására. Csak épp a piac, meg a szoftverfejlesztők nem tudták és/vagy akarták ezt az irányt lekövetni.
-
HSM
félisten
válasz
#85552128 #10738 üzenetére
Az ugye megvan, hogy egy processzort nem csak játszani gyártanak? Kb. ez a leggyengébb pontja azóta is az FX-eknek, hogy a DX11 nem skálázódik, így pedig hátrányban van a gyenge magjai miatt.
Ettől függetlenül bőven megvan a maga területe, ahol akár a korabeli i7-eket is lenyomta.(#10744) Abu85: Azt viszont nyilván már jó előre látták, hogy a magok erejének a fejlesztése már gázos, és hogy egyre több program skálázódik jól, így igazából logikus irányba indultak el. Én inkább úgy vélem, azt nem láthatták előre, hogy ilyen sokáig megragad ez az őskövület "egyszálas" DX11 API....
-
Abu85
HÁZIGAZDA
válasz
#85552128 #10745 üzenetére
Mert a Microsoft a DX11-be rakott multi-thread támogatást, csak az meg tényleg nem működött. De 2005-ben már látták, hogy a Microsoft mit akar. Amilyen szerencséjük van most, olyan pechük volt a DX11 esetében.
(#10747) do3om: Minek kellene nevezni? Vannak nyolcmagos procijaik egy olyan DX11-hez, amely még mindig egy szálon adja át a parancsokat a GPU-nak. A DX12 pedig ezt többszálúsítja, ráadásul teljesen függetleníti a feldolgozást. Az, hogy ez így alakult semmi más csak kőkemény mázli. Jó persze egy saját API-val ők is hozzájárultak ehhez, de a mázlifaktor benne van.
-
Malibutomi
nagyúr
válasz
#85552128 #10724 üzenetére
Lehet hogy a te konfigoddal úgy érzed nem hozott semmit. Okés.
De mit gondolsz a fél játékipar hülyékböl áll hogy irják a játékokat mantle/vulkanra? A khronos groupról nem is beszélve.
Amúgy én mindíg visszásnak érzem a " van egy szuperkicsi lowend amd gépem, és nem hasít ahogy vártam....de az nv gépem az igen az hasít...mondjuk háromszor annyiba került de akkor is az nv jobb látszik" hozzászólásokat.
-
Attix82
addikt
válasz
#85552128 #10713 üzenetére
Szerintem befejezheted ,hogy a Mantle nem hoz. Nem érted a gyakorlati lényegét.
Ennyit a DX11-ről. (i7-2600K@4+Ghzen CPU + R9 290)
Playerek száma 60+, ahogy csökken úgy növekszik a DX11nél az FPS is.
Single playeres játékba nem kell erős CPU, ahova meg kéne ott meg a DX11 hulladék.
PHs kolléga is megnézte: [link]
-
HSM
félisten
válasz
#85552128 #10713 üzenetére
Persze, a DX11-ben problémás a ramkezelés, ezért az elsősorban DX11-re írt motorokban még vagy nem használják a dinamikus kezelést, vagy még nem túl optimálisan.
BF4 Mantle-hez erősen kellett a VRAM, még kicsit több is, mint DX11 alá, nálam Ulta+FHD + 4X-es MSAA-val szűk 3GB-ot evett, a korábbi verziók elvileg 3,3GB-ot is. Nálam a 290-el ezzel mondjuk nem volt semmi gond.Nálam a gyakorlat úgy nézett ki, hogy DX11-ben max High-on tudtam játszani (+4X-es MSAA persze), mert felette megette a CPU-t (továbbra is i5 4690K 4,4Ghz-en, 16GB 2133Mhz rammal), Mantle alatt viszont mehetett röhögve az Ultra is, és még úgy is közvetlenebb volt az egész.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #10713 üzenetére
A Frostbite 3 motorba be van építve egy memóriafigyelő. Azzal kiírathatod, hogy mennyi VRAM-ot igényel a program aktuális beállítása. Ezt azért rakták bele a tervezők, hogy mindig úgy állíthasd be a játékot, hogy a rendelkezésre álló memória alatt lehess.
A DA: I patch5 és a Battlefield Hardline alatt már a VRAM használat csak picit nagyobb, mint DX11-ben. A többi motor eleve előre allokálással dolgozik, tehát ugyanazt használják, amit most a Frostbite 3 új verziója.
-
válasz
#85552128 #10709 üzenetére
Nézd, ha az én személyes tapasztalatom ellentmond annak amit egy másik oldal állít, tökmindegy, akár a Pápa is mondhatja, nem fogom minden esetre igaznak venni. Ott, azon a körülmények között lehet hogy nekik tényleg ez jött ki, de saját példámon tudom cáfolni hogy a mantle lassabb lenne mint a dx11. Volt időszak egy-egy játékban amikor az volt, ez egy patch-el vagy egy új driverrel javult.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #10703 üzenetére
Ha valahol lassabb és nem BF4 R9 285 kombóról van szó, akkor azt elrontották.
Nekünk is van erről tapasztalatunk a PH-s tesztekben, ráaádsul 4,2 GHz-re húzott procival. A minimum fps-ben a DX11-es kód nagyon lemarad. Az átlag nem igazán változik. Szóval alapvetően csak előny van. Ráadásul tényleg ott ahol a legfontosabb, a minimumok területén.Nekem megmagyarázható miért gyorsabb 3-4x. Q9550 limitálja a DX11-et, miközben amúgy maga a processzor teljesítménye bőven elég a DA: I játékra.
-
Malibutomi
nagyúr
válasz
#85552128 #10691 üzenetére
Talán mert dx11-re irják a játékokat, aztán kapnak mantle támogatást. Csak olyan effekt, és annyi van, amit a dx11 elbír. Akkor hogy látszana hogy a mantle jobb? Mintha F1 autót és utcait hasonlítanál de 40-es tábla mellett versenyeznének, aztán mondhatnád hogy az F1 kocsi semmivel nem jobb mint az utcai.
Nézd meg az AoS dx12/mantle tesztet, vagy az új 3dmarkot. A dx11 kifingik pár fps után. Ha úgy megírnak egy játékot hogy kihasználja a dx12/mantle/vulkant akkor ott a dx11 ugyanigy kifulladna.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #10700 üzenetére
Nem érted a low-level irány lényegét. Az ilyen API-kkal a grafikus kernel driver eltűnik. Tehát jön egy játék, amelyet a Marika GPU architektúrára terveztek, de később érkezik a Marika 2 modernizált architektúra, amelyen ez a játék már nem fog olyan jól futni, mint az első Marikán. És mivel a grafikus driver eltűnt, így a programot kell frissíteni, hogy jobban fusson a Marika 2-n. Ezt egyébként a Thief esetében meg is tették.
Ez minden low-level API-val így lesz, azaz a DX12-vel és a Vulkan API-val is. Ez az egyik hátránya a koncepciónak, hogy a fejlesztő írja meg azt, amit eddig a gyártó szállított a driveren belül.
Ettől függetlenül van előny is. Nekem a DA: I DX11-ben 10 fps-sel megy maxon MSAA nélkül, míg az AMD API-jával 37 fps-t kapok ugyanazzal a beállítással. -
Abu85
HÁZIGAZDA
válasz
#85552128 #10698 üzenetére
Pedig egy ideig csökkenni fognak a processzorigények. Manapság a driver elviszi az erőforrást. Tehát hiába lenne elég egy i7-2600K teljesítményének a 10%-a, a grafikus driver annyira soros feldolgozásra kényszeríti a rendszert, hogy muszáj a tervezésnél úgy dolgozni, hogy van az i7-2600K teljes processzorideje és abból nagyjából 10% használható. A low-level iránnyal a teljes processzoridő elérhetővé válik, vagyis effektíve nagyjából tízszer nagyobb számítási kapacitásra tervezhetnek a fejlesztők úgy, hogy senki sem cserél gépet. Viszont az elején ez nem lesz elterjedt, mert az aktuális motorokat nem így tervezték. 2016 végén már érdekes lesz a helyzet, ott már jönnek azok a motorok, ahova már bedobják a fejlesztők a low-level API-k miatt megindított AI fejlesztéseket, és hasonló dolgokat.
-
válasz
#85552128 #10698 üzenetére
Azért szoftveres, mert az api maga egyetlen magon végzi a gpu-val való kommunikáció jelentős részét. Mint itt is látható. Ez a dx11-ből fakad. Onnantól hogy eloszlik a terhelés, egész más sebességet hoz majd.
"Mellesleg egy 4 magos i5/i7 azért nem ritka játékosok körében és ezek is hasonlóan teljesítenek DX11."
És amd-s procik sem annyira, pláne idehaza. Nem mindenki dobálózik azért 3-400 dolláros procikkal (nálunk 70-100k-sakkal). Az FX8320-amat egy gyengébb i3 árából vettem (a legolcsóbb i5 kb 40-50%-al lett volna drágább), és mantle alatt elég szépen meggyorsul."Btw CPU limit ide vagy oda miért lassabb a Mantle a DX11-hez képest ?"
Talán mert a linkeden kb mérési hibán belül volt az eltérés (pláne hogy más teszteken meg gyorsabb, tesztekből mindig átlagolni kell és tendenciát nézni, nem egy kiragadott chartot nézni), de nálam pl stabil 15 MIN (!) fps-t hozott az fx8320-asom mellett a mantle DA:I-ben a 290X-emmel, mivel dx11 alatt a 290X-hez már kicsit kevés az FX. BF4 alatt meg pláne hozott. -
válasz
#85552128 #10691 üzenetére
facepalm... Őszintén mintha a levegőbe beszélnénk... i7 3930k mellett nem volt cpu limit?
mintha nem lett volna százmilliószor meg egyszer elmondva, hogy a mantle ott mutatja meg JELENLEG az erejét, ahol a cpu limitáló tényező (mivel sokkal kevésbé terhel egyetlen magot, ellentétben a dx11-el). De nem. Szartok is bele, csak hajtogatjátok a magatok hülyeségét, hogy "nézmá', egy 1000 dolláros 5960x cpu mellett egy cpu limit eltörlésére készített api nem hoz előnyt"
-
pibor
csendes tag
válasz
#85552128 #10662 üzenetére
Gondolom AMD azért sem siet kiadni az új VGA szériát, mert amíg nem jelenik meg az új Windows és vele a DX12, addig az új kártyák is csak korlátozottan mutatnák meg a foguk fehérjét. Gyanúsan egybeesik az új Win és az új AMD kütyük megjelenése. DX11 alatt túl sok csodát nem lehet várni szerény véleményem szerint. Logikusabbnak tűnik, hogy megvárják az első olyan DX12 progikat, amin már lehet látni az új kártyák előnyeit.
-
-
stratova
veterán
válasz
#85552128 #10564 üzenetére
Érdekes vita, bár szerintem a GTX 960 esetében adná magát egy GTX 960 Ti nevű 192 bites 3/6 GB-os GM 200 csonkítással elért variáns, a NYÁK alapján. Ha a szóban forgó VGA pedig az eddigi tesztek szerint R9 285-tel volt kb. azonos szinten, úgy GTX 960 Ti - R9 370X és GTX 960 - R9 370 párhuzamot lehetne vonni a R9 28* széria kifutásával.
-
-Solt-
veterán
válasz
#85552128 #10590 üzenetére
Na jó, most akkor találd ki, hogy mondjuk egy 2GB-s GTX770-n microlaggol a BF4... ilyen eleve nem lehet, mert a microlag AMD sajátosság, ezt már megtudtam több játék fórumában is.
Szerintem mielőtt teljesen átmegyünk komolytalanba, egyezzünk ki abban, hogy a jelenleg piacon lévő játékok 90%-hoz elég a 2GB vram még erős GPU és max beállítások mellett is 1080p-n, akinek meg a maradék 10%-hoz kell több vram, az úgy választ VGA-t, vagy lejjebb vesz a szűrőkből...
-
-Solt-
veterán
válasz
#85552128 #10584 üzenetére
Nem értem miért kéne hagyni, de igazából ebbe már nem is akarok belemenni...
BF4 elég új?
De nézzünk erősebb GPU-t, remélem ezek elég új játékok...FC4, BF4, AI
Látsz az erősebb GPU-tól eltekintve lényeges különbséget a 2GB-s 680, és a 3GB-s 780 közt?
EZ a "legfrissebb" teszt, sok új játékkal, szerintem elég beszédes a 2 vs 3 GB tekintetében.
-
-Solt-
veterán
válasz
#85552128 #10580 üzenetére
Nem arról van szó, hogy a HBM-től mit várok, hanem arról, hogy az AMD-től... ha úgy látják, hogy elég rá a 2GB HBM, akkor annak oka van, vagyis így illik a sorba a 4GB-s 380X és a 4GB-s 390 közé... nyilván árban és teljesítményben is ott lesz köztük.
Teszem fel, ha 4 GB HBM-l jönne, akkor lehet, hogy mind teljesítményben, mind árban nagyon megközelítené a 390-t, vagy túl eltávolodna a 380X-től. Tehát csupán én annyit feltételezek, hogy nem hülyék!
Mint ahogy nem hülye az NV sem a 2GB-s 960-l még akkor is, ha 4GB-l gyorsabb... 2014 januári statisztikák szerint a júzerek 31%-a még 1366x768-s felbontásnál tart.
-
-Solt-
veterán
válasz
#85552128 #10573 üzenetére
Értem, tehát még mindig ott tartunk, hogy fingunk nincs arról mit tud a HBM a gyakorlatban játékok alatt, de a vélemény már kész, szar, kevés, átverés stb...
Ezekkel én nem tudok mit kezdeni, de azért a játék kedvéért tegyük fel, hogy kevés a 2GB mondjuk 1080p-n, és ezért kevesebb lesz az FPS. Mihez képest viszonyítunk? Felette és alatta is lesz alternatíva, ráadásul gondolod, hogy árban nem úgy lesz belőve, hogy illeszkedjen a sorba?
-
TESCO-Zsömle
titán
válasz
#85552128 #10573 üzenetére
Szerintem felesleges bármilyen teszten lovagolni egy olyan technológiával kapcsolatban, melyet még nem láttunk működés közben...
Arról nem beszélve, hogy még ha igazad is van és a 2GB szörnyen visszafogja a kártyát, akkor mi van? Nyilván a hasznosítható teljesítménye alapján fogják beárazni, szóval nem fogsz vele anyagilag rosszabbul járni.
-
-
-Solt-
veterán
válasz
#85552128 #10557 üzenetére
A Titan X árban más ligában játszik, nem véletlenül írtam 9xx szériát.
Valószínűleg tud valamit az a HBM, ha úgy gondolják, hogy a 2GB-s verziónak is van létjogosultsága... majd a tesztek pontot tesznek az ügy végére.
(#10554) TTomax: Mit és? 2GB vram vs 1080p "vitához", hogy viszonyul bármi is, ami "all resolutions"? Nem értem.
-
-Solt-
veterán
válasz
#85552128 #10552 üzenetére
Hogy ki mivel jár jobban, azt majd az árak fogják meghatározni, illetve az, hogy a gyakorlatban mit jelent majd a HBM!
Pedig egyszerű... a 38x széria a sorban a 3. az AMD-nél, mint ahogy a 960 szintén a sorban 3. az NV-nél... az, hogy felső, vagy középkategória, majd az ára eldönti... amíg viszont árat nem tudunk, csak az elméleti erősorrendre tudunk alapozni.
(#10551) TTomax: "All resolutions"
-
-Solt-
veterán
válasz
#85552128 #10547 üzenetére
De nem FPS értékekről van szó, hanem a szériák sorrendjéről, hogy házon belül mit kínálnak... Ha a januárban megjelent 9XX széria 3. leggyorsabb kártyájának esetében megfelel a 2GB, akkor ugyanez az AMD-re vetítve miért nem igaz?
EZ alapján a 2GB-s kártyákkal sem lehet gond, ha meg valakinek ez kevés, akkor vesz 380X-t 4GB-l, vagy 390-t 4GB HBM-l...
1080p-re ugyanúgy jó lehet, ahogy a 2GB-s 960 is jó...
-
-
TESCO-Zsömle
titán
válasz
#85552128 #10525 üzenetére
Azért ez elég erős kijelentés, ha tényleg HBM-ről van szó. Vannak felhasználási területek, ahova nagyon jól jönne egy ilyen kártya. Például 1080p@144hz monitorokhoz, hogy meg is legyen a 144fps, vagy ugyanezen apropóból ott a VR. Ahol a felbontás és a memóriaigény nem nő drasztikusan, de a teljesítményigény annál inkább.
-
Crytek
nagyúr
-
7time
senior tag
válasz
#85552128 #10227 üzenetére
Nem csak a régi játékoknál de ha az új API-val kisebb frekvencián nagyobb teljesitmenyt nyújt akkor abban is le lehet venni a feszültséget.
kovsol
Eddig nem azért volt annyi a fogyasztás amennyi hanem mert neked ment 60% kihasználtságon a kártya 1000Mhz -en és ehhez kapott 1,25V feszültséget, a DX12 80% kihasználtságon csak 700Mhz megy a GPU és elég neki 1V feszültség, ezek az értékek csak tippek részemről de nagyjából erről lesz szó. -
Malibutomi
nagyúr
válasz
#85552128 #10207 üzenetére
Akkor írd azt hogy szerinted ahogy most, ne kinyilatkoztass mint fentebb.
Számomra az egyik leghihetöbb leak eddig az xfx 370 kiszivárgott infói, és ott 40w fogyasztáscsökkenés volt feltüntetve.De amíg egymásnak ellentmondó infok jönnek addig felesleges nagyon találgatni.
-
-
Malibutomi
nagyúr
válasz
#85552128 #10154 üzenetére
Épp ez a lényeg, ha igaz, hogy a 380x a 980 ellen akar menni, akkor át kell dolgozniuk, mert csak órajelböl azt nem lehet megoldani (nem képes rá a hawaii, csak komoly fesz+melegedéssel megy 1200 fölé).
Viszont ha a 370x-en tényleg el tudtak érni ~25% jobb fogyasztást, akkor ezen is alakíthattak simán. -
7time
senior tag
válasz
#85552128 #10154 üzenetére
A 370X miért is hozná a 380X teljesítményét ? Mi értelme lenne kiadni mindkettőt ha egy szinten vannak ?
Természetesen R9-280X akart az lenni de valószínű hogy az R9-380x sem ugyanaz mert GCN 1.2 lesz ha a pletykák igazak, GCN -rol pedig egyhamar úgy sem vált az AMD csak mindig átalakítják és növekszik a verziószám.
BiciMit fog tudni az 1.3 az 1.1-hez képest, amit ki is fognak használni a szoftverek?
Valószínű hogy majd Abu elmeséli ha eljön az ideje.
-
7time
senior tag
válasz
#85552128 #10143 üzenetére
A GCN 1.1 és az 1.3 között azért van különbség nem is kevés és ha az R9-370X hozza az r9-380X teljesítményét 130W fogyasztáson a kutyát nem érdekli mit csináltak a címkézéssel, amugy a csíkszelesség köztudott hogy egyik gyártónál sem változott és nem is fog 2016 Q3 -ig.
-
Crytek
nagyúr
válasz
#85552128 #10143 üzenetére
Lehet rosszul látom, de szerintem a kutyát sem érdekli ha átcímkézés lesz ha nem ,ha ott lesz az a 1x-2x% többlet és 980 közeli teljesítménnyé lesz ,de árban bőven alatta.
Ha 110k vagy picivel alatta nyitna a 380X kb a 970 eladhatatlan lenne kéne egy jó nagy price cut hogy 380x ellenében azt vegyék.
Bár mindig amikor az ember jót és olcsót vár az lesz hogy 125 k alatt nem lesz ilyen -
-
Televan74
nagyúr
válasz
#85552128 #9901 üzenetére
/troll on: A top terméken jól fog menni a driver a továbbfejlesztett zero core miatt.A többi tulaj meg fossa össze magát a gyönyörtől ha jól működik a kártyája az új driverel. /troll off
Szép a táblázat amúgy.Jó lenne a valóságban is ezeket látni.Talán már ez a kártya és a másik oldalon a titanx való 4K -ra.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #9755 üzenetére
Nem valószínű, hogy a DX12 sok memóriát igényelne. A Frostbite 3 VRAM igénye folyamatosan csökken a BF4 megjelenése óta. A Hardline-ban már egy egészen új modell lesz, ami 2 GB memória mellett is elvan. Az explicit memóriamodell egyik előnye, hogy lehet tervezni a VRAM-mal úgy, ahogy a konzolban, ergo a teljes felügyelet mellett, ha előre lefoglalják az egyes dolgokra szánt memóriaterületet, akkor ingyenes lesz a defragmentáció, amit szimplán pointerkorrekcióval meg lehet oldani. Ma azért fogy el a VRAM gyorsan, mert a DX11-ben nem lehet komoly teljesítménybüntetés nélkül törölni a már régóta nem használt puffereket, így inkább otthagyják azokat, míg a low-level API-khoz még nincs kialakult menedzsment az ezt támogató motorok első verzióiban. De a második verziókkal már igen jó az eredmény. Főleg a Frostbite 3-on frissítésein. Vagy ott a Sniper Elite 3. Az már eleve a közvetlen vezérlésre épített.
Később ez szintén javulni fog. A GDC-n az MS és a Khronos már mondta, hogy szemeznek az új hardveres extrákkal, mint a tile pool és a Wang mozaikok hardveres kezelése. Ezekkel tovább javítanak a memóriahasználaton. Jelenleg létezik pár prototípus kód rá, mivel az R9 285 már támogatja ezeket az extrákat. A virtuális textúráktól függetlenül, 4K-ban gyakorlatilag 500 MB-ra lehet csökkenteni a textúrákra használt VRAM-ot, miközben hagyományos streaming textúrázással 2-3 GB-ot is elvinne. A fejlesztők újrahasználhatnak bizonyos mozaikokat, és egyedi textúratömörítéseket is írhatnak. Ez lesz a következő lépcső egyik nagy dobása. -
válasz
#85552128 #9760 üzenetére
Persze, nem állítom hogy 640kb (köhöm 4 GB) mindenre elég lesz akár egy év múlva is. Van létjogosultsága a nagyobb kártyáknak, okkal... Már most is tud kevés lenni, ha az ember szétmoddolt skyrimet vagy egyéb játékot tol.
Ugyanakkor jelenleg ettől független ez van. Kell a tapasztalat a hbm-ben, de jelenleg nem lehet többet gyártani rá. Ezt ugyanúgy mérlegelni kell kártya vásárlás során mint minden egyebet. Pl nagy felbontásra lehet két 8 gigás 380X (amennyiben ezek nem hbm-esek lesznek) lehet hogy jobb megoldás lesz.A 390X-et nem gondolnám túlságosan időtállónak, ahogy az átmeneti termékeket sosem. Ahogy nv, úgy amd oldalon is vannak időtállóbb és kevésbé időtállóbb kártyák, nos ez utóbbi közé fog tartozni
Viszont ugyan lehet hogy nem lehet majd 1-2 év múlva mindent 4k @ ultra textúrában tolni, csak high-ban mert az fér be a 4 gigába, ellenben ettől függetlenül maga a lóerő benne lesz, akár a fent említett 2 gigás, de amúgy erős nv kártyában. Szóval ha nem is 4k@ultrában hanem 4k@high-ban, de pörögni fog az fps.
-
válasz
#85552128 #9755 üzenetére
Ez nem illem vagy nem illem kérdése. Jelenleg technológiailag ott tartunk, hogy nem lehet csak 4 darab 1024 bites memóbuszt beilleszteni, erre pedig 1-1 giga ramot tudnak csak rétegelni. 8 giga hbm-ben még legalább egy évig nem tud jönni, viszont valamikor el kell kezdeni információkat és tapasztalatokat szerezni róla. Úgy vagyok vele hogy most még épp belefér, egy év múlva már nem férne bele.
4 giga feletti vram leggyakrabban ténylegesen nagyobb felbontásnál kell (4k vagy több 4k), oda (meg vr-hoz) meg lehet elkellhet még két kártya, viszont low level apikban már meg lehet úgy oldani bizonyos esetekben a rendert hogy ne kelljen pontosan ugyanazoknak az adatoknak meglennie mindkét vramban (SFR esetén)
TTomax: annyira maradnak csak el, mint most a 4 gigás 980-asok esetén.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Bomba ár! HP Elitebook 850 G3 - i7-6GEN I 16GB I 256GB SSD I RadeonI 15,6" FHD I Cam I W11 I Gari!
- Dell USB-C, Thunderbolt 3, TB3, TB4 dokkolók (K20A) WD19TB/ WD19TBS/ WD22TB4, (K16A) TB16/ TB18DC
- Honor X7B szép állapotban 6/128GB fekete / 12 hónap jótállással!
- Bomba ár! Lenovo X1 Yoga 1st - i7-6G I 8GB I 256SSD I 14" WQHD Sérült I W10 I CAM I Garancia!
- Felújított számítógépek/merevlemezek Számlával, garanciával! Ingyen Foxpost!
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: CAMERA-PRO Hungary Kft
Város: Budapest