- Android szakmai topik
- Milyen okostelefont vegyek?
- iPhone topik
- Apple Watch
- A hagyományos (nem okos-) telefonok jelene és jövője
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Fotók, videók mobillal
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Android alkalmazások - szoftver kibeszélő topik
Új hozzászólás Aktív témák
-
AsakuraDave
őstag
válasz
TTomax #44175 üzenetére
Ha te adsz X csillió dollárt egy cégnek, hogy a TE nevedet húzva csináljanak valamit akkor te sz@rsz rájuk, hogy még is mit és milyen minőségben adnak ki? Bár jelen esetbe tény, hogy az AMD akármennyire is rúghatta az ubi seggét ennél jobbat úgyse tudnak alkotni...
A szponzor ELVÁR dolgokat ha ez NEM TELJESÜL akkor nem szponzorálja tovább! Persze itt nem tudjuk, hogy az AMD mit tett és mit nem de az FC6 számomra nem hozta meg a kedvem, hogy AMD kártyát vegyek vagyis inkább, hogy őket támogassam mert látom, hogy tesznek azért hogy egy kiadó jó játékot és jól optimalizálva adjon ki az Ő hardvereire. Lehet, hogy ez történt de nem ezt látjuk/látom de érthető hisz olyan kiadót szponzorálnak akik notoriusak arról, hogy már évek óta csak a szennyet adják ki. -
-
válasz
TTomax #39460 üzenetére
na hát erre egy hatalmas +1..
Arról van szó hogy a világ egyik legjobb marketingjével lett eladva a vásárlóknak egy olyan operációs rendszer egy olyan fejlesztés, ami abszolút nem az ő igényeiket szolgálja, hanem a Multi cégekét, lásd Microsoft, hogy minél kevesebb munkával tudják átportolni a konzolokról a játékokat. Az egész Dx12 a pénzt szolgálja és nem a grafikai fejlődést, ezért egyedi az egész. Várhatunk mi csodát, de olyan nem lesz.
Persze azért technikai oldalról van benne ráció ez tény hisz nagyon sok mindenben hasonlít Vulkanra közös alapokra épül,kitágította valóban a határokat és adott lehetőséget a több magos CPu-k színre lépésének és még sok egyéb dolog, de jelenleg a fejlesztőknek nem ez az oldala a fontosabb úgy gondolom,-sajnos,- hogy ezt kiaknázzák.CsonkaImo: Turing sok szempontból jobban/ legalább úgy támogatja a Vulkant mint az AMD hardverek. Nincs már igazán Explicit API hátránya az új gennel , lásd Wolf vagy Doom.Most AMD ezért gyúr a magas Vram igényre, ez lesz az új mantra helyette.
-
Abu85
HÁZIGAZDA
válasz
TTomax #39468 üzenetére
A PCI Express 4.0 nem elég. Az csak sebességet biztosít, de memóriakoherenciát nem. CCIX vagy CXL kell. Előbbit az AMD, míg utóbbit az Intel fogja támogatni. Ők hoznak is hozzá majd GPU-kat.
Nem nagyon érdekli a szoftvereket, hogy mi az általános nézet. Ha fizikát akarsz a GPU-n, akkor ahhoz bizony gyorsabb adatkapcsolat kell.
-
Abu85
HÁZIGAZDA
válasz
TTomax #39466 üzenetére
A Microsoft azért vette meg a Havokot, hogy beépítse azt a DirectX-be. Ezzel kapcsolatban már javában mennek a munkálatok, de idén a DirectML lesz a nagy újdonság. A probléma egyébként itt a hardver. A PCI Express túl lassú, illetve nem is koherens, hogy normálisan lehessen gyorsítani a fizikát. De ugye az AMD és az Intel már tervez olyan platformszintű rendszert, ahol ezt megoldják, és arra veti majd be a Microsoft a saját szoftveres hátterét.
-
rumkola
nagyúr
válasz
TTomax #39460 üzenetére
a tökéletes hozzászólás
amit javítanék:
"ÉN még ilyen apit mint a DX12 soha,de soha nem láttam,se DX8,se DX9,se a DX11 nem múlta ALUL ennyire a várakozásokat,és a ennyi évvel a megjelenés UTÁN ennyire nem mutatni semmit,az nem semmi."Röhej ez az egész tényleg ami évek (tized?) óta itt megy a PH!-n a DX12/mantle/vulcan körül (visszaemlékezve DX8.0-8.1 óta). Mindig istenítve van a legújabb mintha valami csoda jönne - hamis illúziókat keltve a fiatalabb usereknél - , miközben igazából csak kicsike lépésekkel haladunk előre.
Teljesen biztos vagyok benne, hogy tudnék olyan képet vagy játékmenet videót linkelni olyan DX9 játékból amiről senki nem mondaná meg, hogy nem DX 2/mantle/akármifaszom api. És fordítva is.szerk: Stuttert meg nehogymá kimagyarázza valaki az SSD-k és giga ramok korában...
-
Abu85
HÁZIGAZDA
válasz
TTomax #39463 üzenetére
Az akadások azért vannak, mert a benchmark elején még vannak fordítási munkák. Egy idő után jó is lesz, ha megnézed. Nagyjából 10-12 perc játék után ezek megszűnnek, illetve jelentősen megritkulnak. Ez is részben a driverekből eredő gond. Emiatt dolgozik még mindig ezeket az AMD és az NV, mert van egy rakás kihasználatlan teljesítmény.
-
Abu85
HÁZIGAZDA
válasz
TTomax #39461 üzenetére
Ennek utánakérdeztem, mert a GDC-n már halottam, hogy ez az első játék, ami Vulkan 1.1-es képességeket használ. Mindenki elmondta, hogy kellenek még frissebb driverek, mert nagyon új kiterjesztéseket használnak. Az AMD a kiadás előtti utolsó héten javított +10-15%-ot. Ha a driverek rendben vannak, akkor last minute ennyi nincs benne.
Valamikor mindig van olyan, aki bevállalja az elsőt. A Doomon is rossz a Vulkan NVIDIA-n, aztán jöttek a driverek és javult. Ugyanez a helyzet most. Azt nem tudni, hogy mennyi idő kell hozzá. Tudtommal az NV-t nagyon váratlanul érte a subgroupra vonatkozó igény, de már ráhelyezték az erőforrásokat. Időpont még nincs, viszont dolgoznak rajta. Mivel alapvetően másképp működnek a subgroup shaderek, így beletelhet némi időbe, mire megoldják. Az biztos, hogy az AMD és az NV is mondja, hogy van még teljesítmény, ami nincs kiaknázva, de ez normális akkor, amikor elsőként nyúl egy játék az új kiterjesztésekhez. Egyébként egyik gyártó sem varrta eddig a fejlesztők nyakába, hogy új Vulkan képességeket használnak. Sőt, örülnek neki, még akkor is, ha munkájuk lesz vele. -
Abu85
HÁZIGAZDA
válasz
TTomax #39456 üzenetére
Nem erről van szó. Ez az első játék, ami egyáltalán wave/subgroup terminológiát használ, ráadásul szabványos formában. Eddig ilyet csak úgy használtak a fejlesztők, hogy az AMD-nek a kiterjesztései alapján specifikus shadereket írtak, míg az Intel és az NVIDIA kapott szabványos shadereket. Mivel a shader modell 6-tal, illetve a Vulkan esetében a subgroup kiterjesztéssel lehetővé vált ennek a szabványos formája is, így nem kell az Intel és az NVIDIA hardvereire külön kódot írni, hanem minden gyártó kapja ugyanazt, erre való a szabvány. Viszont amíg az AMD már túl van hozzávetőleg egy tucat wave/subgroup terminológiát használó játékot, még akkor is, ha nem volt szabványos a shader, addig az Intel és az NVIDIA most találkozik az elsővel, és nyilván nem annyira van erre kigyúrva a shader fordító, mint az AMD-nél.
Nincs igazán különbség itt a hardverek között, legalábbis nem ekkora. Az AMD előnye csak abból ered most, hogy nagyjából másfél éve optimalizálnak erre, míg az Intel és az NVIDIA számára ez nem volt kritikus szempont, mert egyetlen fejlesztő sem volt hajlandó nekik nem szabványos shader szállítani. Most már ugyanez a lehetőség áll szabványos formában is, tehát jönnek majd a driverek tőlük. Bizonyos idő múlva nyilván tudni fogják ők is azt a sebességet, amit ma tud az AMD Vulkan implementációja, csak ez nem megy egyik napról a másikra. Hetek és hónapok munkájáról van szó.
-
GodGamer5
addikt
válasz
TTomax #39456 üzenetére
Egyszerűen arról van szó, hogy a vega explicit apikra van kigyúrva és ez most kezd is látszani. Nem dísznek van benne ennyi shader processzor stb, pl a Wolfensten 2-ben is jól teljesít. A dx12 címek nem támogatnak radeonos feature-öket pl felezett pontosság stb és csak karcolgatják a felszínt, a dx11 meg soha nem is lesz olyan jó AMD-n mint az Nv kártyáin, mivel az Nvidia kártyáin speciálisan gyorsítják a kódokat, erre van kigyúrva az architektúrájuk. Leírták már több helyen is, hogy minél több a compute feladat a radeonok annál gyorsabbak és ez most látszik is. Ez pedig egyáltalán nem álmodozás, a dx11-et meg el kéne már felejteni gyorsan, mert a legnagyobb visszahúzóerő.
-
Devid_81
félisten
válasz
TTomax #39143 üzenetére
Sajnos nagyon elavult termekskala van csak AMD-tol jelenleg, es fogyasztasban sem allnak a helyzet magaslatan.
Mondanam, hogy majd a Navi...de ha kinn lenne mar is majdnem keso lenneSzerk: ahogy elnezem meg a GTX 1660 is erosebb lehet az 590-tol itt ott, szoval van mit behozniuk
-
Abu85
HÁZIGAZDA
válasz
TTomax #39047 üzenetére
Az Intel nem úgy képzeli ezt el, hogy majd te választasz a proci mellé VGA-t, hanem odarakják a dedikált GPU-t a tokozásra, és kifizettetik veled, akkor is, ha neked nem kell. Ilyen szempontból az OEM-eket már megnyerték, mert ők aztán tuti nem raknak majd VGA-t a gépekbe, ha közben az Intelnek muszáj fizetni ezért +200-400 dollárt.
Az AMD is ugyanezt fogja csinálni. Látod, hogy már felkészültek rá az I/O lapkával, ami mellé nem csak CPU chipletet rakhatsz, hanem ugyanúgy beköthetsz IF-en keresztül egy dedikált GPU-t is. És onnantól kezdve az OEM-ek döntésének megint harangoztak, mert nyilván nem éri meg az extra VGA-val jelentős többletköltségbe verni magukat.
Szóval nem, nem abból lesz piaci előny, hogy leraknak valami "dulva" cuccot az asztalra, hanem abból, hogy eldöntik, hogy ezt veheted meg és kész. Aztán verheted az asztalt, hogy neked kurvára nem kell, de ez a kínálat, szóval vagy fizetsz érte, vagy veszel konzolt.Azt veszi amúgy itt az Intel számításba, hogy ha az OEM-eket kiüti a VGA-piacról, akkor olyan szinten megdrágul a VGA-k gyártása, hogy luxuskategória lesz az egész szegmens, és ezzel gyakorlatilag mesterségesen kihúzzák a piac alól a jelenlegi vásárlóbázis 80%-át. Így nagyon könnyű ám piacot nyerni.
-
pengwin
addikt
válasz
TTomax #39060 üzenetére
Igazából ha csak átdolgozza az utolsó Intel IGP parancsprocesszorát és az egyéb szűk keresztmetszetet adó dolgokat és az egészet felskálázzák, akkor már szerintem jók lesznek. Mindez az Intel 14nm-én simán versenyképes lesz a 7nm-es Vegával, avgy a 12/10nm-es NV-vel.
Szerintem sok tapsztalata van az Intelnek, csak nagyon az látszik, hogy nem tudnak kitörni a saját gondolkodásmódjukból... ez egy megfelelő vezetővel simán megoldódhat, és ez most adott.
-
pengwin
addikt
válasz
TTomax #39051 üzenetére
Az Intelben az a vicces, hogy pl. Linux fronton az AMD-vel karöltve a legnormálisabb cég grafikus meghajtók fejlesztése terén, mindeközben WIndowson szörnyű a terméktámogatásuk.
Szóval tudnak ők nagyon jó támogatást is adni a termékeikhez, és én várom is nagyon, hogy mit domborítanak.
nem szabad elfelejteni, hogy náluk megvan a pénz és a kapacitás egy általános célú, GCN-szerű kompót architektúrára, és utána ennek butítására/átdolgozására is.
(#39058) Devid_81
Persze, nem viheti magával a technológiát, a konkrét megoldásokat, de az ellen nem tehet senki, hogy vigye magával a tapasztalatot, know-how-t.
Már van sok tapasztalata, hogy mivel mennyit nyerhetnek kb., mi az, ami biztos nem fog működni, esetleg kialakult olyan elképzelése, hogy milyen irányba kellett volna vinni a fejlesztést egy GCN-szerű architektúránál. Az is megeshet, hogy a fejlesztési ötleteit nem lehetett az RTG-nél alkalmazni, mert annyira fontos volt pl. a konzolok (és a már befektetett pénz és idő) miatt a GCN továbbfejlesztése.Intelnél ilyen nincs, meg pénz is van fejlsztésre, a modern gyártástechnológia is rendelkezésre áll, és vannak jó megoldásaik bizonyos dolgokra (pl. fixfunkciós blokkok, multimédia támogatás).
-
zovifapp111
senior tag
válasz
TTomax #39051 üzenetére
Most majd lesz mindenük. Átment mr. india ezt ne felejtsük el, úgyhogy az elméletben nem kell a nulláról indulni, persze ki kell, hogy forja majd magát minden téren, de én jó esélyt látok rá, hogy pár év múlva méltó ellenfél legyen pirosaknak és zöldeknek is. Lehet, hogy fikázzák az Intel cpu-kat, de nem kevesebben az Amd-t is.
-
Petykemano
veterán
-
szmörlock007
aktív tag
válasz
TTomax #39038 üzenetére
Na 2020-tól már hárman lesznek.
Tekintve, hogy az intelnél valamelyik főnök nemrég azt nyilatkozta,hogy dgpu piacon is olyan szintű részesedés a cél mint cpu fronton, láthatólag komolyan gondolják. (Szerény véleményem szerint elég sokan semmibe nézik az intel gpu-s terveit, szerintem hibásan. Persze a siker nincs garantálva.)
Reméljük a legjobbakat -
pengwin
addikt
válasz
TTomax #38986 üzenetére
"ugyanannyiért"
Max. az 590-nel lesz egy árban, az 570 még mindig életképes lesz a mostani árán(-10%).
A már szivárgó 1650-nel egészen biztosan bevégeztetett a Polaris-oknak, de szerintem az 1660 csak a kategória felső részét tarolja le.
A VRAM mennyisége meg sok embernek továbbra is zavaró lehet az 1660 6GB alatti kategóriában: ide megint 3-4GB-os NV kártyák fognak érkezni, ami ilyen teljesítménybeli előrelépés mellett már nevetséges lesz.
-
Abu85
HÁZIGAZDA
válasz
TTomax #38960 üzenetére
A compute culling compute shadert követel, nem muszáj hozzá DX12.
(#38961) Szaby59: A PBR bármibe bele lehet rakni. A forráskódot ismerik szóval nem nagy kunszt. Ennek a nehézsége nem igazán a programkód megírása.
Nem tudom igazából, hogy milyen stabilitási dologról van szó. A compute culling kikapcsolhatatlan. Nincs szállítva mellette a legacy culling path. Túl körülményes lenne megoldani ezt egy végtermék szintjén.
Senki sem beszélt a DX12-ről. Ez egy API, de az eljárások alatta API-tól függetlenek. A leképező az egyetlen különbség, de az kb. kétezer kódsor, ami a teljes motorhoz képest igazán elhanyagolható. Funkcionális szempontból viszont a DX11 és a DX12 ugyanarra képes, csak utóbbival van explicit párhuzamos parancsgenerálás.
-
válasz
TTomax #38835 üzenetére
hát igen. ez tényleg semmilyen formában nem előrelépés. ráadásul a minősége is kérdéses lesz egy olcsónak tűnő, de nem olcsó kártya. Kb éppen arra elég , hogy konkuráljon az RX kártyákkal. Jelenleg 285 Euros áron vehető GTx 1070
Ősszel remélem valamit tényleg bemutat NV a Samu féle 7 nm gyártáson, nem más egy csúcskarit vagy valamit. -
proci985
MODERÁTOR
válasz
TTomax #38673 üzenetére
egyre jar az agyunk.
Nalad nem tudom mennyire szempont a csend, de nalam kritikus.
(#38674) b. : az egyik kartyam egy asus 290X matrix platinum ami overclockers dreamkent volt leirva. es le volt matricazva a csavar.
a masodik kartyamnak annak ellenere nem matrix lett, hogy a vizhutes miatt kreativnak kellett lennem a csatlakozokkal (el volt tolva a matrix blokk csatlakozasi pontja amit ket 90es csatival tudtam megoldani)
-
Abu85
HÁZIGAZDA
válasz
TTomax #38436 üzenetére
Csak API szinten nem lehet. Nem a lapalapú menedzsmentre találták ki a rendszert. Új WDDM-mel és egy ahhoz írt teljesen új API-val megoldható lehetne, de annyira nagy változás szükséges hozzá, hogy megint dobni kell a kompatibilitást. A legegyszerűbb módja ennek a hardveres megoldás, vagy hardveresen asszisztált, amivel a Microsoft az OS szintjén kezelné azokat a hardvereket, amelyeknél az x86/AMD64 licenc hiánya probléma. De nem biztos, hogy mondjuk az NV nem nyomná kapásból a nagy piros NEIN gombot, mert az AMD és az Intel teljesen hardveres tud lenni, ők pedig egy szoftveres rétegre lennének utalva. Nekik sokkal inkább az lenne a jó, ha a Microsoft beemelné az ARM-ot az ökoszisztémába, és kivégeznék a picsába a Win32-t, aztán mehet minden a Store-ról.
(#38437) HSM: Azok az adatok picik méretileg. Ezért nincs igazából ebből probléma, feltéve, ha nincs nagyon elbaszva a motor streaming rendszere.
-
Abu85
HÁZIGAZDA
válasz
TTomax #38416 üzenetére
Az egész VRAM kezelése nem normális PC-n, ez tökre látszik a HBCC-n, ami akár negyedannyi fizikai memóriával is működik, mint a játék követelménye. Egyszerűen nagyon magas a pazarlás, tipikusan kétszeres-háromszoros. Szóval a probléma igazából nem a valós igénye a játéknak, hanem a WDDM-en belüli, rendkívül rossz hatásfokú erőforrás-kezelés. Ezt nem lehet megoldani szoftveresen. Hardveresen kell fellépni a allokációk kezelésénél keletkező probléma ellen.
-
Abu85
HÁZIGAZDA
válasz
TTomax #38413 üzenetére
Nem kell ezt ennyire mellre szívni gyerekek. Ha az AMD nem fizet azokért a textúrákért, akkor be se kerülnek a játékba. Szóval, akinek ez nem tetszik kiválasztja az Ultra helyett a High részletességet, és menni fog. Aki pedig nagyon érzékeny a legapróbb részletekre is, vesz olyan VGA-t, amin van elég VRAM.
-
Chalez
őstag
válasz
TTomax #38208 üzenetére
Valójában pillanatnyi "használtpiaci" áron mondtam a 30k-t, az a 3 game megjelenéskor újonnan 60€/db
Egyébként régen valóban járt mindenféle a top hardverekhez, de pl amikor a Trident 9000 512k-s vga-t váltottam le Tseng ET6000-re, na arra már nem emlékszem, mi járt hozzá -
gV
őstag
-
arabus
addikt
válasz
TTomax #38207 üzenetére
Stilusod neked gyenge nem gondolom hogybármi sértőt irtam volna mimóza lelkednek!
NADe na és akkor ezek a tegnapelőtti játéktesztek mit is bizonyitanak?
Hogy vegyek egy kártyát tegnap előttre?
És mi lesz két honap mulva vagy fél év mulva?
Ne már hogy azt akarod itt mindenkivel elhitetni hogy te ezzel pár hónap mulva
multizol 4K-n?
Ezt te sem hiszed el!
ui:utolso hárm már harmat gyenge. -
válasz
TTomax #38204 üzenetére
Hát jah, nem csodálom, mert teljesen igazad van abban amit írtál feljebb. 2070 szinte értelmetlen a 2060 mellett és az 1080 után, a 2080Ti meg brutálisan túlárazott még az eddigi Titanokhoz viszonyítva is.
Egyszerűen jelenleg a 2060 kártyán kívül nem látom értelmét így az egésznek. Mondjuk szokták írni, hogy rossz kártya nincs, csak drága van, szóval nagyon remélem megnyesik az árakat sürgősen. Úgy gondolom a 2080 nak simán 500 dollárra kellene lemennie, a 2070 nek 400 ra a 2060 nak meg 300 körülre és akkor lenne értelme 250 dollárért az1160Ti nek és 200 körül az1160 nak.
2080Ti meg 750 dollárért talán elmenne. -
válasz
TTomax #38199 üzenetére
2060 az előrelépés azért ugye az ára miatt, mert azért 20 % árelőny is van az 1070 TI hez és kb 30 % az 1080 hoz. A többi szerintem is értelmetlen ilyen áron. ha a 2080 lenne most 500 dollár akkor azt mondanám, hogy talán oké,de azonos áron mint az 1080 Ti hülyeség...
Az egésznek kellene egy 20-25 % árvágás. -
keIdor
titán
válasz
TTomax #38112 üzenetére
Ezt aláírom, egyet is értek veled a Fury és Vega-val kapcsolatban, nyílván én is emlékszem a "Hunting Titans" meg "poor Volta" szövegekre, meg a kommunista propagandára emlékeztető képekre: [link]
Most viszont fordult a kocka, melyik gyártó generálta hónapokon keresztül a hypeot? A zöld a Turinggal.
Mikor csináltak augusztusban egy bemutatót, de még egy hónapot kellett várni a termékek bemutatására. Nekem már ott deja vu-m támadt, csak most zöld színt láttam a monitoron és nem pirosat...
Nézd meg mekkora bukás eddig az RTX-2000 széria, talán a 2060 kivételével. Eltelt lassan fél év, hol vannak az RT játékok? A DLSS? Dehát ezt promózták még augusztusban. Január közepe van, könyörgöm.Ezzel szemben a VII-t szép csendben bejelentették, semmi hype nincs mögötte, ez számomra szimpatikus. Nem váltja meg a világot, de legalább nem is csinálnak fesztivált köré, ellentétben a bőrdzsekissel.
Ja, majd egyszer hasznos lesz. Ismerős nekem valahonnan ez a szöveg... neked is? Igen, a másik oldalról.
A 2080Ti-k meg jobban hullanak, mint annak idején a Fury X black screen of death-el. De legalább kétszer drágább, ha nem háromszor.Nem védem én az AMD-t, isten ments, csak nálam az nVidia most ugyanaz a vicc kategória, mint az AMD 2014-2017 között. Ugyanazt csinálják.
A 1080Ti teljesítménye meg még mindig ugyanannyiba kerül a zöld oldalon is, mint 22 hónappal ezelőtt, csak most RTX-2080 névvel keresd.
-
Abu85
HÁZIGAZDA
válasz
TTomax #37897 üzenetére
Akkor megfogalmazom egyszerűbben. Ezt úgy képzeld el, hogy amíg régen egy 2K-s textúra mondjuk foglalt úgy 7 MB-ot tömörített formátumon, addig ma ugyanez egy PBR pipelinnal 70-80 MB közötti. 4K textúránál ~30 vs ~300 MB-ról van szó. 8K-nál egy fémfelület tömörítetlen PBR textúrázása ~1 GB, és ez egyetlen egy textúra. A tömörítés szempontjából egy jó minőségű, de jobb formátummal is ott lesz a memóriaigény fél GB/fémfelületere való textúra (ennél még mehetsz lejjebb, csak ugye a minőség...). Az RE2-nél ugye sok a fémfelület, tehát ahhoz azért kell a hét BPR komponens. Szóval ma már nem olyan egyszerű ez a dolog, hogy ez csak egy textúra.
-
Abu85
HÁZIGAZDA
válasz
TTomax #37894 üzenetére
Nem játék típusától függ ez, mert attól, hogy csőben mész, még lehetnek részletesen az objektumok, amik megjelennek. Leginkább ma a PBR pipeline-ok zabálják a memóriát, mert ma már nem csak egy szimpla textúrával tapétázod a felületeken, hanem az ezekhez tartozó textúrakomponensekkel is (akár 5-7-tel). Hiába hordoznak ezek csak "kiegészítőinformációkat" az alaptextúrához, a tömörítetlen méretük ugyanakkora. Az RE Engine új verziója már továbbfejlesztett PBR, az előző motorhoz képest.
-
#45997568
törölt tag
válasz
TTomax #37859 üzenetére
Nem az FPS-en van a hangsuly, a korabbi "parbeszed"-re reagaltam itt.
A texturak betoltese abban az esetben ha VRAM-hoz van kotve itt megoldhatova valik, a Vega 7 annyival lesz elorebb, hogy nem kell egyet kattintani a HBCC-t bekapcsolni, illetve hoz nemi tempo novekedest.
Lehet memoria management is szamit
Marmint a 6GB+ amit beker NV-n.
-
Abu85
HÁZIGAZDA
válasz
TTomax #37884 üzenetére
A késleltetéselőny nincs ingyen. Ha megnézed mondjuk a Radeon Chillt, akkor a kikapcsolt állapot default 1 pre-renderjéhez képest az aktív Chill 0-s pre-renderje már önmagában -10%-ot eredményez a teljesítmény tekintetében a legtöbb programon. Most elképzelheted ennél a motornál a 7 és az 1 közötti eltérést. Persze ez motorfüggő nyilván, de számít, hogy mennyire tudod etetni a GPU-t, ha úgy döntesz, hogy a magas késleltetést mint tényezőt nem számolod problémának.
-
Abu85
HÁZIGAZDA
válasz
TTomax #37876 üzenetére
Nem is a sebesség csökkentése volt a cél DX12-nél, hanem a késleltetés csökkentése. Ebben a DX11-es leképező az átalakításokkal eléggé rosszul működik. Annyira, hogy az már káros lehet a játékélményre. Azért 7 pre-render frame-et használni egyáltalán nem egészséges. Sokkal kedvezőbb a DX12-es módnak az 1-es beállítása. Emiatt törték annyira magukat, hogy legyen egy normálisan működő memóriamenedzsment, amit tényleg minden VGA-n jól lehet beállítani, és nem azt írja ki, hogy kevés a VRAM-od, szóval dobd vissza a textúrabeállítást. Végeredményben a választást adják meg feléd. Ha nem érdekel a késleltetés, akkor használhatod a DX11-et is.
Az a baj manapság, hogy minél jobban tolsz egy motort a DX12 felé, annál több kompromisszumra kényszerülsz DX11-ben. Muszáj hozni a leképezőt, mert sok a Win7-es user, de borzalmasan nehéz minden egyes szempontból jó minőséget biztosítani alatta. Emiatt csinálta például azt a Rebellion, hogy írtak egy Vulkan leképezőt is a DX12-es mellé, és így megszabadultak a DX11-től, miközben a Win7-es userek is futtathatják a programot. Csak ez se könnyű út ám, hiszen bármennyire is ott a spiregg projekt, az mégse gyári támogatású, tehát nem feltétlenül úszod meg, hogy a HLSL shadereket ne írd át. A Capcomnak még az is problémát jelent, hogy az AMD-re külön shadereket is szállítanak, és azokat nem tudja ám fordítani a SPIR-V codegen. Például a Rebellion az új motorverziónál már nem foglalkozik ezzel, mindenki szabványos shadert futtat, nincs olyan, hogy az AMD nagy puszipajtás, aztán rájuk külön optimalizálnak.
-
Abu85
HÁZIGAZDA
válasz
TTomax #37834 üzenetére
Az nem jelent igazán problémát. A gond inkább az allokációk kezelése. Az az optimális, ha a textúrákra egy nagy allokációt használsz, mert azon belül az adatokat igen hatékonyan lehet kezelni, defragmentálni, stb. De ugyanakkor a nagy allokáció gond is, mert gyakorlatilag egyet létrehozhatsz a VRAM-ban, és abban kell megoldani mindent. Emiatt terjedt inkább az a nézet, hogy a kis allokációk a jók, és abból legyen sok. Így viszont a memória szemetelése harapta meg a fejlesztőket. Az igazság valahol a kettő között van, de nem tudsz mondjuk alkalmazni egy optimális 2 GB-os allokációt, mert azzal nehezen kezeled a kevés VRAM-mal rendelkező kártyákat. Emiatt dolgozta ki a Capcom ezt a megoldást, mert így gyakorlatilag a felhasználó dönti el az allokációk nagyságát. Csak ezt a program oldalán nem nem könnyű ám megírni, hogy ez a rendszer működjön is mindhárom gyártó driverének, amúgy teljesen eltérő memóriavezérlésével.
Az előnyei viszont egészen egyértelműek. Ha nem ez lenne, akkor egy nem HBCC-s 8 GB VRAM-os kártyán csak benyomnád szimplán a High beállítást és kiírná, hogy nincs elég memóriád hozzá. Így viszont egyrészt kiválaszthatod a High 8 GB-ot, amivel azt jelzed, hogy a maximum lehetséges VRAM-ot akarod adni a programnak, amit az alkalmazás ki fog számolni, kb. 6,5 GB lehet, és arra létrehoz egy 6,5 GB-os egybefüggő allokációt, amit könnyű menedzselni. De akár azt is mondhatod, hogy kérsz 4 GB-os allokációt, és akkor lesz neked egy 4 és mellé egy nagyjából 2,5 GB-os allokációd. Az hardver- és driverfüggő, hogy melyik működik jobban, a lényeg az, hogy kapsz egy rakás választási lehetőséget, aminél nem biztos, hogy tényleg megkapod a maximális részletességet, mert a memória fizikailag hiányzik a kártyádról, de jóval jobban jársz, mint a medium opcióval, ami minden textúrát visszavenne közepesre, így viszont csak a textúrák egy részének a minősége csökken, attól függően, hogy a hardvered mit enged.
Azt tudni kell, hogy a fejlesztők képtelenek a hardveren pótolni a hiányzó memóriát, de arra van befolyásuk, hogy ha már van mondjuk 8 GB-os VGA-d, de a medium igazából 6 GB VRAM-ot igényel, akkor azzal a maradék 2 GB-tal kezdjenek valamit. Mert ha szimplán visszavetetnék veled mediumra, akkor buknád ezt az erőforrást.
(#37833) b. : Ebben semmi görénység nincs. Ezzel jól jártok. Megkapjátok a lehetőséget, hogy ha kevés a VRAM, akkor ne kelljen szükségszerűen a közepes részletességet választani, hanem valamelyik magas részletességű opció tud biztosítani bizonyos felületekre magas részletességű textúrákat. Hardverenként eltérő, hogy melyik működik igazán jól, de ki lehet próbálni. Full részletességet amúgy sem kapnának a kevés VRAM-mal rendelkezők, de nem mindegy, hogy minden textúra közepes részletességű lesz, vagy csak egy részük. Ennél jobban ezt nehéz megoldani, mert nem tudod úgy kiszolgálni a 11-16 GB-os hardvereket, meg a HBCC-t, hogy az ne jelentsen hátrányt a 8 GB-os hardvereknek. De a hátrány mértéke csökkenthető. Megcsinálhatták volna azt is, hogy 8 GB VRAM mellett kiválaszthatatlanra rakják a High beállítást. Nekik ez sokkal egyszerűbb lett volna hidd el.
-
HSM
félisten
válasz
TTomax #37733 üzenetére
Ezzel egyet értek, szerintem is jóval komolyabb követelmények mellett lett volna szabad csak a FreeSync plecsnit odaadni. Oké, legyen minden Vesa Adaptív sync monitor támogatva, meghajtva, de valahogy ki kellett volna szűrni a silány minőségű megvalósításokat.
Nem is feltétlen a panellel láttam én a gondokat... Sokkal inkább az elektronika nem volt szvsz sok esetben a helyzet magaslatán FS-el (pl. overdrive).
Ugyanakkor ez nem menti fel a másik céget, hogy nem támogatta az Adaptív sync Vesa szabványt.
-
HSM
félisten
válasz
TTomax #37730 üzenetére
Semmi nem akadályozta volna meg őket, hogy támogassák a saját megoldásuk MELLETT az ipari szabványt is a kezdetektől, mint ahogy most teszik....
Nekem nincs bajom a saját megoldásokkal, azzal van bajom, ha az kényszerítve van, ipari szabvány megoldással szemben, mesterségesen korlátozva a vásárlók döntési szabadságát. -
#45997568
törölt tag
válasz
TTomax #37546 üzenetére
Rosszul ertelmezed, nem a tegnapi lepest kritizalom, sot, szerintem jo dontes volt engedelyezni az adaptiv sync-et vegre
Ami nem tetszik, hogy eddig is megtehettek volna hogy ugyanugy tamogassak ingyen es bermentve az adaptiv sync-et, ehelyett eloalltak egy fizetos megoldassal
Most mar mindket megoldas ott lesz januar 15-tol, ez remek
Szaby: persze, a vicc kategoria amikor megjelennek NV altal szponzoralt jatekok, es a GSync honapokig nem mukodik (lehet meg most sem) a kirakat jatekokban, ala Destiny 2.
Freesync-el is vannak gondok, volt/van hogy bugos, lattam en mar 1080-on GSync monitoron ledadogni Wildlands-t is 35FPS-en
-
Petykemano
veterán
válasz
TTomax #37212 üzenetére
Igen, a kérdés nem egyszerű. De nézzük a másik lehetőséget: az nvidia sok esetben 1:3-1:5 arányban értékesíti túl az amdt. Ez azt jelenti, hogy egy ugyanakkora lapka (~azonos változó költségek) fix fejlesztési költségeit 3x-5x akkora volumenen tudja teríteni. Ez a differencia szerintem rugalmatlan, tehát szerintem természetesen némiképp elmozdulna, de semmi esetre sem fordulna egy épphogy jobb termék esetén. Persze lehet ezt célként megjelölni és törekedni mondjuk egy 1:1 arányra.
De az igazi volumen valószínűleg nem is a hagyományos boltokból jön, hanem az oemektől és a notebookokból.
Az Adoredtv leakben szerintem pont olyan termékek szerepeltek, amik akár oemeknek és notikba is célozható. Legalábbis ma. De még egy év múlva is ez a kategória jelentheti a legnagyobb volument. Extraprofitot meg úgyis csak akkor lehet elkérni - egy kisebb volumenű, drágább termékre - ha sikerül áttörni a márkahűséget, a marketing előnyt. Ez meg más tészta.
-
HSM
félisten
válasz
TTomax #37206 üzenetére
Az 580 egészségeset emelt az órajeleken, TDP kereten, plusz fejlesztettek annyit a csipen, hogy kb el tudták felezni a videólejátszási fogyasztását, ami azért szerintem fontos fejlesztés. Az egy korrekt döntés volt szerintem új néven kiadni, az emelt TDP miatt amúgy is új kártyák kellettek alá.
Ami az 590-est illeti, szerintem nem rossz, hogy így minimális befektetéssel tudtak a partnerek, gyakorlatilag a meglévő Rx580 prémium kártyákra egyből egy mégjobb GPU-t tenni. Így az Rx580 mehet majd kicsit olcsóbb régióba, a prémium 580-asok meg így most erősebb GPU-t kaphatnak. A baj szerintem egyedül az árazással van, kicsit lejjebb kéne vinni, de nyilván lejjebb fog.
Ők se hülyék, meglovagolják az újdonság erejét.
-
Petykemano
veterán
válasz
TTomax #37200 üzenetére
Figyelembe véve azt, hogy itt már többszázmilliós fejlesztési költségekről van szó, szerintem a volumen legalább annyira fontos, mint a jó profitráta.
Lehet a többszázdolláros drágulást a nagy és egyre dráguló wafer és megmubkálási költségekkel szétkenni, de egy közepes lapka esetén is az egy működő lapkára ilyen $20-50 jön ki. A fix költségek egy lapkán viszont jelentősek és nagyon nem mindegy, hogy 1 egység vagy 2 egység mennyiségre tudod teríteni.
Számoljunk egy átlagos 7nm-es lapkával, aminek abtervezési költsége az iparági megmondóemberek szerint $300m. Ha ebből eladsz 5m-t, akkor egy lapkára $60 jut, ha 15m-t, akkor $20
Az egész kártya árából ez a $40 persze nem hangzik soknak, de hát a lapkákra ilyen $60-100 szoktak számolni, ez meg egy AIBnak már nem mindegy.Ezzel együtt természetesen nem gondolnám, hogy a kereslet az egyes gyártók kártyáira ezen a $20-30-40 különbségen múlna, vagy másként fogalmazva $20-30-40 alacsonyabb ár nem fog 3x akkora keresletet generálni.
Ennél összetettebb ez a viszony.Mindenesetre szerintem az AMD ezúttal nem a kellemes profitrátára fog menni, hanem a volumenre.
-
HSM
félisten
válasz
TTomax #37200 üzenetére
Pontosan. Sajnos semmi olyan esemény nem történt, ami hirtelen indokolna komolyabb árcsökkentést. Hirtelen nem lett piszok olcsó a memória, nem olcsóbb a NYÁK, a VRM, a megmunkálás, és a kétszerakkora GPU többszörös gyártási költségét is valahol be kell hozni. Ez esélytelen, hogy egy bejáratott, eléggé kicsi és emiatt olcsón nagy tömegben szuper kihozatallal gyártható GPU-s kártya ára közelében nyisson az RTX2060.... Legalábbis egy 450mm2-es GPU-val garantáltan nem. Az RTX2070 500 doláros ára alapján jó lesz az mondjuk egy GTX1070 szintű 350-400 dollárnak is a memória kivitel függvényében. Összehasonlításul egy GTX1060 most bő 200 dollár.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Csere-Beszámítás! Sapphire Pure RX 7900XT 20GB Videokártya! Bemutató darab!
- ASUS GeForce GTX 1070 Ti 8GB GDDR5 256bit
- Csere-Beszámítás! Asus Tuf RX 9070 XT 16GB Videokrátya! Bemutató darab!
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming D OC Eladó!
- Csere-Beszámítás! Asrock Challanger B580 12GB GDDR6 Videokártya! Bemutató Darab!
- ÁRGARANCIA! Épített KomPhone Ryzen 7 5800X 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! Xiaomi Redmi Note 10, Xiaomi Redmi Note 10s, Xiaomi Redmi Note 10 Pro
- BESZÁMÍTÁS! MSI B450M R7 5700X 16GB DDR4 512GB SSD RTX 3060 12GB Rampage SHIVA Chieftec 600W
- AKCIÓ! MSI Z690 i7 12700K 32GB DDR4 1TB SSD RX 6800 16GB Phanteks P600S Cooler Master 750W
- Telefon felvásárlás!! iPhone X/iPhone Xs/iPhone XR/iPhone Xs Max
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged