-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
-
Abu85
HÁZIGAZDA
Az más miatt van. Ott a magas szintű shader nyelv specifikációja a lényeg. Ha az megegyezik konzolon és PC-n, akkor igazából minden megvan ahhoz, hogy konzolra és PC-re egységes shadereket írj. A hardvert alatta majd a fordító kezeli. Ez már az Xbox One-ban is opció volt, csak az a konzol rendelkezett még egy mono hozzáféréssel, ami a DirectX 12-nél is jobb lehetőségeket kínált, emiatt a leképező lehetett más a PC-n és konzolon. A shaderek már nem igazán. De azt tudni kell, hogy nagyon kevesen mentek a HLSL friss specifikációira, mert onnan csak shader modell 6-nak megfelelően lehet fordítani. Sokkal többen választották az AMD AGS-t a szabvány helyett, mert kis módosítással megette a PSSL shadereket, és gyárilag kezelte azt a helyzetet is, amikor a többi gyártó nem támogatta ezeket. Lekonvertált egy másik, persze lassabb kódot rájuk, és az sem számított, hogy a program milyen DirectX API verziót támogat.
Az új Xboxnál annyi változik, hogy a Microsoft a magas szintű, újabb specifikációjú HLSL nyelvet teszi alapértelmezetté. Ebben az idő segít, ahogy múlnak a hónapok, egyre több embernek lesz Windows 10 operációs rendszere, lassan kikopnak a nagyon régi hardverek is, mint például a Kepler, a legeslegelső GCN-ek, stb. Tehát nyugodtan lehet emelni a minimum gépigényeken, és azt mondani, hogy innentől kezdve csak DXIL IR-t kap a PC. Ez tök jó, mert arra a magas szintű shadert megírod konzolra, majd elég csak lefordítani DXIL-re. Mindeközben az Xboxon marad a bináris szállítás lehetősége is, tehát lehet rá assembly szintű optimalizálásokat csinálni, de ettől a magas szintű HLSL kód meg fog egyezni a PC és a konzol között. Ezzel feleslegessé válik az AMD AGS-hez nyúlkálni, ami eleve nem szabványos shadereket követelt PC-re.Ha képes shader modell 6-ot támogatni a hardver, akkor az elég lesz. Persze nem mindenre, de futtatni képes majd a programot. Meg ugye a legtöbb hardver, ami támogat shader modell 6-ot, az támogat 6.2-t is.
Annyira tehát nem kell kidobni a régi hardvereket. A shader modell 6.2 elég jó alap, egy csomó dolgot meg lehet benne csinálni, amihez ma AMD AGS-t használ egy játék, csak azért, mert esetenként kell a DirectX 11 mód kiszolgálása is. A DirectX 11-nek annak vége lesz az új lehetőségekkel, nem mintha ez olyan nagy gond lenne. Én szerintem inkább legyen szabványos a kód végig, minthogy a DX11 miatt gyártóspecifikus kiegészítéseket alkalmazzanak. Annak azért vannak karbantartási költségei is. Az év végére már megéri tömegesen bevállalni a Windows 10 only címeket. Ha meg valaki nagyon akarja a Win 7-et, akkor a Vulkan SPIR-V-je már megeszi a shader modell 6.2-t. Nem tűnik a mostani helyzet kellemetlennek, a DX11-nek persze kampó.
-
Abu85
HÁZIGAZDA
Itt arról van szó lényegében, hogy maga az ISA változik, a memóriamodell folyamatosan módosul, mert ugye skálázni kell a dizájnt. Ami mondjuk jó volt a GCN-be, az nem jó már az RDNA-ba, mert más határok közé van tervezve az architektúra. Na most teljesen fölösleges egy rakás utasítást megtartani a régi ISA-ból, ha azoknál fejlesztenek jobbakat az újba. Egyszerűen az IR-ben szállított kódot az újra fordítják PC-n és kész. Konzolnál az a para, hogy ott a shadereket is binárisban szállítják, tehát meg kell lennie a régi operációknak, vagy legyen egy olyan egyszerű emuláció, ami a kivont operációkat azért könnyen helyettesíthetővé teszi, különben maga a program nem tud lefutni. Ez a visszafelé kompatibilitáshoz kritikus. Így sem egyszerű persze bármi régit futtatni az új gépeken, de a legnagyobb problémát az AMD kezeli hardveresen, vagy egy optimális emulációval. A többire ki lehet találni szoftveres megoldásokat, csak ugye egyenként kell végigmenni az egyes címeken, és letesztelni azokat, hogy tuti jók-e.
-
Abu85
HÁZIGAZDA
A lényeg a visszafelé kompatibilitás. Az RDNA2 a PC-be nem így lett tervezve. A konzolokba igen, mert ott számított, hogy legyenek meg a korábbi operációk, vagy ha nem, akkor is legyen egy emulációs lehetőség, ami nem jelent nagy hátrányt a programfuttatásra nézve. Elég baj, hogy ez csak ma esik le a WCCFtech-nek. Az a gond, hogy nem gondolkodnak, amikor írnak, így mindenféle hülyeséget összehordanak, lásd Navi 10 a PS5-ben, majd amikor kiderül, hogy hülyeség volt, akkor jön a hír, hogy mit kiderítettek már megint. De ezt lehetett tudni már azóta, hogy a gépeket bejelentették, és elárulták, hogy bizony a visszafelé kompatibilitás prioritás volt.
PC-n ezek nagyon nem számítanak, mert nulla binárist futtat a GPU. Természetes, hogy némileg máshogy tervezik meg a hardvert ide. Amíg a konzolnál bizonyos dolgokra kell két utasítás, a bináris programfuttatás miatt, addig PC-nél elég a jobbik verziója ugyanannak.
-
Petykemano
veterán
De hát azt eddig is tudtuk, hogy nem ugyanaz.
Amit a fél világ állít az az, hogy nem úgy készülnek a konzolok, hogy hát az RTG készítgeti szépen a kis radeonjait, amik mögött ott vannak az IP és aztán ebből a MS/Sony igényei szerint elkezd összelegózni saját magának valamit, ami csak nagyon mélyen emlékeztet a benne levő Radeon IP-re
Hanem
ad1: az RTG-nek vajmi kevés saját elképzelése (vagy kapacitása) nincs a saját termékpalettára vonatkozólag
ad2: az RTG közreműködése egészen odáig elmegy, hogy együtt készítenek az ügyfél elképzelései szerint egy prototípust, egy vázlatot a Radeon IP-kből, ami nagyjából leírja a gpu felépítését, szerkezetét, működését, stb, és aztán abból csinál az RTG saját terméket és átadják a Sony/MS-tal együttműködő semicustom részlegnek, akik beleépítik az egyedi megoldásokat, esetleg itt-ott az ügyfél kérésére ezt-azt apróságokat módosítanak is.Mondok egy példát. Van három autógyártó cég. Ebből egyikük foglalkozik motor tervezéssel és gyártással, a másik kettő alapvetően márka, amelyik marketinggel és branddel foglalkozik, autót saját kezűleg nem gyártanak, más gyártókkal gyártatják le a kocsikat, de saját elképzelés alapján.
Amit abu állít:
Van az autógyártó gyártó és annak vannak saját autói olcsótól a drágáig saját designnal, saját piaci elképzelések alapján, saját exteriőr és enteriőr, felszereltség, minden. Van a kormány, meg a motor, meg hát kell valamilyen szélvédő, ülések, stb. Majd odamegy a a másik két márkaorientált cég és az ilyen alkatrészekből elkezdenek összelegózni egy autót. És a végeredmény az autógyártó gyártó egyik széria kocsijára sem igazán emlékeztet. Max a motor ugyanaz.Amit a fél világ állít:
Van az autógyártó gyártó és bármit le tudnak gyártani, természetesen vannak saját alkotóelemeik a kormánytól a motorig. Odamegy a márkaorientált cég és lényegében együtt terveznek egy kocsit. Külső megjelenéstől a tömegen át hogy milyen motor kerüljön bele. Ebből a konkrét autótervből az autógyártó cég gyárt egy saját implementációt, ami rendelkezik a saját külső-belső formai jellegzetességekkel, technikai felszereltséggel. És a márkaorientált cég is áttervezi a külsejét, (általában a kocsi pofája és segge szokott márka-jellegzetességeket hordozni) felrakják a spoilert, kicsit turbózzák a motort, meg beépítik az önvezető képességet, mint kényelmi funkció..
-
-
#82819712
törölt tag
Persze tudom én Intelre is.
Holnap úgyis jön ABU a cikkel ott majd elolvassák az emberek, csak próbáltam egy populárisabb részét megmutatni a beszélgetésnek.
A Mesheknek a használatáról sokat beszéltek de most mutogassak itt unalmas C++ videókat?
Igen úgy néz ki a videó mint egy búcsúban látott olcsó műanyagból készült krómrobot, írta is alatta valaki hogy The future is CHROME!!!
Az ősember szervezete azt találta ki erre hogy ne mérgeződj meg hogyha azt látod a valóság nem egyenlő a képzelt valósággal akkor kidobod a taccsot mert feltételezi a szervezeted hogy drogtartamú ételt ettél, ezért émelygünk a VR szemüveg alatt, ezért vagyunk rosszul a 3DTV-ktől és ezért érez az ember egy diszkomfort érzést is amikor túlnyomják a tükröződést, részben erre vezethető vissza a uncanny valley (hátborzongató völgy) jelenség is, tehát megértem ha valakiben visszatetszést kelt, de techdemó direkt túltolják.
Nem szólt másról mint kinek nagyobb a fa.. faraway kinek ér meszebb a tracing sugara
De azért ha megnézed a miről szól a videó Intelnek egy nagyon erős fricska . -
Petykemano
veterán
40-44%-os marzsról >50%-ra kívánnak átállni.
Ez jelentheti azt is, hogy több datacentert sikerül eladni, ami felfelé húzza.
De jelentheti azt is, hogy a tavaly tervezett árazást idén már komolyan gondolják. (nyilván persze kéz a kézben a versenytársakkal) ami a mai árszinthez képest +10%-ot jelent kb.Egyébként ezzel csak akkor van baj, ha a végeredménye az, hogy az új termék perf/$ értéke közben - emiatt - nem javul.
-
-
Mármint melyik nem HBM2?
A Radeon Pro Vega II tavaly novemberben jött ki 32GB HBM2 RAM-al... -
#82819712
törölt tag
A bőrszerkó is szép de azért a Latex az igazi
Whispers of AMD Big Navi | Fixing RDNA 2.0 before Ampere & Intel Xe Launch
Moore's Law Is Dead -
-
sutyi^
senior tag
MSI Gaming X-en csak GPU órajelet emelik. Lesz Gaming Z kiadás amin majd lesz gyorsabb memória. ASUS STRIX szintén zenész csak GPU órajelet emelik rajt... aztán lesz STRIX TOP.
Szóval az MSI és az ASUS is 14Gbps-es memóriával szerelt kártyákat küldött a tesztereknek, holott a piacra szánt darabokon ezek szerint viszont 12Gbps van...
-
-
sutyi^
senior tag
CB és TPU szerint is 19-20% különbség a 1660S és az RTX 2060 között, szóval annyi az annyi.
Szóval ha +20%-ot tud a 1660S-hez képest az elég sok. Karácsonyi szezon már akkor elúszott az AMD-nél, mikor effektíve lecsúsztak róla időben az 5500-al és az 5600-al is. Nyilván itt megint az ár fogja megszabni, hogy miként fogadja majd a tech press és nagy érdemű.
Szvsz 1660S-re is lesz válasz, vagyis már van. Szerintem oda jön egy 32CU-s sima 5600-as és azért lett feljebb srófolva az 5600XT löncs előtt.
RX 5600 6GB - 229-239USD (GTX 1660S +10%)
RX 5600XT 6GB - 279USD (~RTX 2060)Ez így persze papíron jól mutat, de mivel ebben a szegmensben fontos a kompetitív ár és ha megint megúsznak a partnerkártya árak akkor ott vagy ahol a partszakad.
Na meg az örökzöld kérdés, hogy a drivert mikor ütik végre helyre...
(#45483) tom_tol
vótmá' -
sutyi^
senior tag
Miből gondolod hogy olyan viszonyban lesz ez egy RX5700-al, mint a 1660S a 1660Ti-vel?
-15% TDP limit
-25% memóriasávszél
-2GB VRAM100% - GTX 1660S legyen ez a baseline
115% - RX 5600XT bemutató slide és órajelek.
120% - Új emelt órajelekkel ≈ RTX 2060
135% - RX 5700 ≈ RTX 2060S
RTX 2060 és 2060S között van kb. 13% különbség, annál kevesebbel én nem számolnék. -
Televan74
nagyúr
A mondanivalódnak meg nincs köze a topikhoz, igaz az enyémnek sem. Inkább vs topikba valók lennének a Nvidiaval kapcsolatos dolgok.Itt jó lenne megmaradni a pure AMD -s találgatós témával.Nem mindig az Nvidiát felhozni példának.Tudom persze néha kell,mert hát mégis csak konkurencia.de ez a pénisz méregetés nem hiányzik.
-
Z10N
veterán
"Már sok gyártótól megjöttek az olcsóbb modellek 350 alatt, nem csak EVGA-tól."
Lattam, de ez mar $300 alatt vanTovabbra is draga a kategoria, de azert meg is $80-s (25%) arvagasrol beszelunk az msrp-hez kepest. Az AMD meg kenyelmesen sznobozik a 7nm-s araival, de kinek, minek?!
Az AMD-nek helybol -25% arcsokkentes kene az 5500
XT/5600XT-re.Sosem gondoltam volna, hogy ilyet irok, de ha az NV ezt meglepi akkor sokat no a szememben. Ezzel akkor korrigaljak az arsavokat, amivel tovabbi arversenyt kezdenek. Ezzel az eleve halott 5500
XT-t gyakorlatilag kigyomlaljak a piacrol, amit meg is erdemel. -
Petykemano
veterán
Hasonló következtetéssel követte le "Chris from GoodOldGamer" nevű youtuber. Egy ilyen esetben - de talán még akkor is, ha nincs Windows - nem lehetne $1200-ért adni egy 2080Ti-t.
Illetve ugyanitt jelent meg a gondolat, hogy ha a 9tflops-os PS5 $399 lesz, akkor az $350-es navi10-nek is vége.Úgy tűnik, most nagy elég a várakozás a konzol árletörő hatásával kapcsolatban.
Persze nyilván ez nem feltétlenül törvényszerűség. Abu visszatérő érve, hogy az AMD-nek mindegy, hogy ezt vagy azt veszed. Illetve az se biztos, hogy olyan nagy a tényleges átfedés a két piac közönsége között. Persze ha a MS megteremti... -
-
Abu85
HÁZIGAZDA
Erről beszélek. Az a koncepciója, mint az AMD-nek a régi SFR supertillingjának. Ugyanazokkal a hátrányokkal, amelyek miatt az sem működik jól, és csupán +40-50%-os előnyt tud felmutatni egy extra GPU-val. Egyszerűen duplán számolja a geometriát, és minden jelenetszámítással kapcsolatos futószalaglépcsőt.
Ennél sokkal-sokkal jobb az, amin a Microsoft dolgozik, mivel azzal magát az árnyalást osztod szét több GPU-ra. Így nem csak a hatékonyságot maximalizálod, hanem gyakorlatilag annyi GPU-ig tudsz vele skálázódni, amennyi rajzolási parancsra csinálsz texelszintű árnyalást. Nyilván eddig senki sem fog elmenni, de 30-40 GPU-ig ezzel simán tudsz közel lineárisan skálázni (ami szintén egy extrém szám, de kelleni fog majd a chiplethez, hogy azok a dizájnok skálázódjanak). A gond vele az, hogy új leképezőket kell írni hozzá, mert a legtöbb motor leképezője fragment szinten árnyal.
-
paprobert
őstag
Szerintem a multi GPU még túl korai, és Wang pár hónapja erősen tagadta az ezt firtató kérdéseket. Illetve pont a jobb kihozatal előnye bukik egyetlen 500mm2 chip gyártásával a chipletekhez képest, tehát az megint csak fura lenne.
Ez szerintem az a nagy monolitikus Navi lesz, amit már annyi ideje vártunk. A leggyorsabb konzumer kártya lesz, alacsony(abb) órajelekkel, de brutál TDP-vel. A kérdés csak az, hogy hány hónapja marad a csúcson a 7nm-es NV széria előtt.
-
Abu85
HÁZIGAZDA
Nem az AFR a lényeg. Az egy technika, amit meg lehet valósítani egy csomó módon. A WDDM 2.0 AFR egy mód rá, amit az AMD dolgozott ki, és a Microsoft kiadott. És ez a mód nem vegyíthető. Itt konkrétan arról van szó, hogy a Microsoft a rutint megírta magába a WDDM 2-be, amit a fejlesztő pusztán meghívhat, így nem kell megírnia a saját DirectX 12-es vagy Vulkan játékába. Ennek az előnye, hogy egy sor, míg hátránya, hogy csak Windows 10 alatt működik, még akkor is, ha a játék Vulkan API-t használ.
SFR ezer éve létezett. Benne van még a driverekben a rutin, de csak tesztelési céllal. Az AMD driverében konkrétan engedélyezni kell hozzá a developer módot, másképp elérhetetlen. Különösebb haszna amúgy sincs, nem igazán működik a modern játékokban, mert duplán kell hozzá számolni a geometriát.
Az NV driverébe egy Checkboard Frame Rendering került be. Ehhez hasonló az AMD-nek az SFR supertillingja. Az is sakktáblaszerűen osztja fel a képet, de ugyanaz a hátránya, mint az SFR-nek. A geometria duplán terhel, és ez igaz a sugárkövetésre is, vagyis nem elég egyszer átmenni bejáráson, kétszer kell minden egyes frame-ben.
A több GPU-s problémákra egyébként ez lesz a megoldás: [link] - kap majd az API is módosítást, hogy ezt segítsék, viszont a probléma vele az, hogy az árnyalást a motorokban át kell írni az objektumtérbe, vagyis texel shading nélkül nem működik. -
Petykemano
veterán
-
Abu85
HÁZIGAZDA
Az explicit API-s multi GPU-nak nincs köze a driverhez. A Microsoftnak van rá egy szabványos WDDM AFR implementációja, amit arra írtak, hogy a hardverekben van két DMA. De amíg az AMD régóta DMA-val oldja meg az AFR-t, így építettek a GPU-kba egy fast pathot a multi GPU kommunikációra. Ez az NVIDIA GPU-iból hiányzik, mert sosem DMA-val oldották meg ezt a kérdést, tehát értelmetlen volt erre hardvert építeniük, inkább az SLI híd linkjére fókuszáltak, viszont a Microsoft kvázi meghajtója nem használja az SLI hidat, hozzá sem nyúl ahhoz a linkhez, és a DMA-n keresztüli kapcsolatra fókuszál, amire az NVIDIA sosem gyúrta ki a hardverét. Ezért tud nagyon erősen skálázódni a Radeon a WDDM AFR implementációjával.
Azt fontos kiemelni, hogy a WDDM AFR implementációja egy hirtelen fejlesztés volt. A Microsoft mindig is arra gondolt, hogy jobb ezt a fejlesztőkre bízni, de aztán az AMD írt egy olyan WDDM kódot, ami csak meghívható az alkalmazásokon belül, és működik az AFR. A Microsoft fogta ezt a kódot, és bemásolta a Windows 10-be, így a DirectX 12 és a Vulkan kapott egy egy extra lehetőséget a több GPU-ra. Viszont érthető, hogy hardverben senki sem készült erre, mert sosem került megbeszélésre a funkció. Az AMD megírta, a Microsoft pedig a többi gyártó véleménye nélkül kiadta. Ugye ezt megtehetik, funkcionálisan csak két DMA kell, ami ezer éve ott van a GPU-kban, de nem mindegy, hogy milyen gyors linkkel kapcsolódnak a multiprocesszorok gyűrűs buszához. A tipikus streaming műveletekre elég a lassú busz, ez eleve elég kis részét teszik ki a programoknak, és aszinkron módban simán fut, de az AFR nagyobb terhelés, és oda már erős busz kell.
-
Abu85
HÁZIGAZDA
A driver a dual GPU-hoz már nem tesz hozzá semmit. A DirectX 12 és a Vulkan API nem teszi láthatóvá a meghajtó számára a memória tartalmát. Mellesleg messze az AMD-nek működik a legjobban két GPU-val DirectX 12 és Vulkan alatt. Ennek az oka az, hogy ezeket a hardvereket DMA-n keresztüli kommunikációra tervezték.
(#45090) Cifu: A Radeon VII-hez készült Vega 20-nak vezető szerepe volt abban, hogy kitapasztalják a 7 nm-es node-ot. Mint írtam az egyes tranzisztorstruktúrák vége felé nehéz meghatározni, hogy mi az optimális felépítés, emiatt a cégek hoznak egy pipe cleanert. Ez volt a 28 nm-en is, és most 7 nm-en a FinFET is a végét járja, tehát nagyon félre lehet tervezni egy generációt, ha nem hozol egy pipe cleanert.
-
távcsőves
senior tag
Őszintén írom a továbbiakat:
Tudom, mi már kardoztunk egymással régebben, mindenféle témában. Nem mondom, hogy mindig nekem volt igazam, ahogy azt sem, neked volt igazad mindenben. (többit prívátban fejteném ki, ha érdekel, mirre is gondolok részletesen.) Ezuttal viszont, nagyon roszkor probáltad ki a vőrös oldalt, ez a decemberi driver, és itt mindegy melyik alváltozatról van szó Ű(valamelyik rx sorozat vagy vega esetleg), VALÓBAN ROSSZ: Jó ötletek, de csapnivaló megvalósítás. Ezt én, valójába pártatlan, de amúgy radeon fanként elkünyvelt user megerősítem. Bár örülök, hogy, kipróbálod az 5700 sorozatott, amire nekem nekem jelenleg nincs lehetőségem/illetve én meg a geforce azaz zöld oldalt akarom jelenleg "megízlelni", szóval ne telepítsd. Várj az új radeon driverel január végéig. Esetleg februári driverre. Ez van, ahogy geforce esetén is, ha valami jó, nem kell rögtön az elsők közt lenni. Tudom a kísértés nagy úr, most én is beleestem. GYorsan frissítettem, tényleg buggos. Szerintem, valamelyik novemberit ajánlott 2019-ben használni. Meg 2020 januárjában is. [link] Előfordulhatt, hogy pár oké gombot kell nyomni mirre a driverekhez jutsz.
Elnézést kérek, minden a hozzászólásomat olvasótól? év vége van, rég nem látott, hús- vér emberek, barátok vannak most itt, nem szándékossan, de szóval, ittam. Egy telefonon bepötyögni, elégé nehézkés nekem a turcsi ujjaimmal. Tudm-tudom, a chrme meg a helyesírás ellenörzője, meg t9 bevítel, szóval mégsem. A lényeg, én nem kívánok senkinek sem semilyen szívást hardwerel 2020-ban sem, ezért írom, tényleg kaki ez a decemberi driver a jó ötleltek ellenére is. Vannak benne, szóval 2020 februárjába érdemes ránézni, addigra javítják gondolom. rossebb tudja, hogy ellenőrzik ezeket vagy mi van, de ilyet még nem láttam n sem. És a fájdalmas ebben a win10 újratelepítés. Egy mezei DDU takarítás, amolyan hát istenem kategória zöld és vörös oldalon is, de ez a win10 újratelepítés ekézve volt zöld oldalon is a mikor megesett, mert megesett, de mos a vörösöknélk is. Szeressük egymást gyerekek! Pécsi srác Te is!!
-
Petykemano
veterán
Arra gondolsz, hogy a W5700 és W5700X mellé?
DP tudás? HBM, vagyis Pro Duo?
Mit hozna ez a Vega 20-hoz képest? Amikor mindjárt itt az arcturus is.
Mármint ok, pro duo, de csak erre megérné egy külön lapka, amit ledobnak a navi 10 alá? A hbmnek a mobil szegmensben lenne szerepe, azzal kétségtelenül nagyot Lehetne kaszálni.
De az ilyesfajta termékszaturáció - saját célra - tökre nem volt eddig jellemző. -
Abu85
HÁZIGAZDA
Alapvetően azonos, csak ha rájátszol erre a dologra, akkor bármilyen hardverek ki tudod ezt hozni. Nem véletlen az a játékválasztás. Csupa megatextúrázó cím, ahol be lehet hülyíteni a megatextúrázót. Az AMD el is árulta a nyáron, hogy miképp kell csinálni.
Az FC5 is megatextúráz. Nézzék meg egy olyan címben, ahol nem lehet ezt megcsinálni. Ja, hogy ott nincs különbség? Akkor nincs szenzáció sem, és nincs kattintás.(#44992) b. : A programokon belül természetesen orvosolható, de azért nem látsz erre túl nagy erőfeszítést a fejlesztők részéről, mert ha normálisan játszol, akkor jelenleg képtelenség előnyt kovácsolni a PCI Express 4.0-ból. Egyszerűen nem válik limitté. De ha a streaming algoritmus problémáira tudatosan rájátszol, akkor természetesen az lehet, csak én még nem láttam játékost úgy játszani, hogy megadott útvonalon fut körbe körbe, és rángatja az egeret. Ez hülyeség. Ezt nem kell javítani, mert ilyet egy játékos nem csinál, de még ha csinál is, akkor sem tudja, hogy pontosan hol kell az adott játékban. Az AMD-nek könnyű, ők azért látják, hogy mit csinál a játék a VRAM-ban, tehát ki tudnak találni olyan szimulációkat, ami belimitálja a buszt. Ezt sokszor a fejlesztők sem látják egyébként. Nem téma ezzel foglalkozni, mert jó eséllyel senkinek sem jön elő, aki játszik vele. A gyártók pedig azért csinálják ezt, hogy hatékonyabb drivereket tudjanak írni, nekik nyilván hasznos egészen extrém szituációkat szimulálni, ami otthoni szinten nem realitás. Jelen pillanatban a valóság a PCI Express 2.0, 3.0 és 4.0 tekintetében ez: [link]
Ami a Navi esetében specifikus, és driverrel orvosolható az a memóriamenedzsment. Mint írtam az AMD nem portolta az összes GCN optimalizálást a Navira, mert nem mindegyik működik jól, illetve a DirectX 11-es meghajtó már nem fókusz.
-
Abu85
HÁZIGAZDA
Egészen egyszerűen. Valójában a játékokban a PCI Express terhelése azért alacsony, mert tudatosan erre építik fel a működést. De előfordulnak olyan helyzetek, amikor nehéz úgy optimalizálni a rendszert, hogy a terhelés minimalizálva legyen. Klasszikus példa a streaming, amikor a textúrák jelentős része a rendszermemóriában van, és onnan kerül át a VRAM-ba, amikor erre szükség van. Főleg a virtuális textúrázást használó játékok esetében (AC: Origins és Odyssey, Battlefield 4-től kezdve az összes, új Wolfenstein 1-2) vannak olyan jelenetek, ahol pusztán a jelenet felépítése miatt ez a terhelés valamivel nagyobb, mint a játék jó részében, és ha bizonyos útvonalat követsz, majd többször bejárod, akkor nagyon meg lehet hülyíteni a megatextúrázó rutint. Ilyenkor mesterségesen ki tudod hozni a PCI Express 4.0 előnyét, mert gyakorlatilag kihasználod a fellépő tipikus problémákat, ideértve a VRAM beszemetelését. De ahogy írtam, senki sem fog úgy játszani, hogy direkt kihasználja az adott motor streaming hibáit, mert ilyenek vannak, nem tökéletesek ezek a programok, de nem baj, mert szökőévente, ha egy ember belefut a százezerből. Emiatt nincs is értelme ezt tovább optimalizálni, mert valós problémát nem okoz, rendbe hozni pedig drága lenne, így jó az a játék így is. Viszont nyilván az AMD rengeteget monitorozza a játékokat, így tudják, hogy mit és hol kell csinálni, hogy x-y címben valamennyire meghülyítsék a streaminget, amit megcsinálhatnánk mi is, csak ugye miért tennénk? Erősen mesterséges körülmény lenne, amit a valóság nem igazán igazol.
-
Abu85
HÁZIGAZDA
Úristen. Olvasd már el mit írok.
(#44983) X2N: A BRAW-ban akármit raksz mellé, bizonyos részletességen túl mindenképpen a PCI Express lesz a limit. Ezért választottuk ezt a programot demonstrációra, mert a Blackmagic írta, hogy náluk a 4.0 előnye tuti kijön.
Egyébként az AMD is ezt a programot javasolja, mint valós körülmény. A professzionális alkalmazások között kell keresgélni, hogy a PCI Express 4.0-nak megmutasd a hatását. Máshol nincs igazán jelentősége.
-
sutyi^
senior tag
de nem értem mit vártál? hogy 130 dollár lesz vagy mit?
4GB - 150-160USD
8GB - 170-180USDEgyik se lenne még így sem világmegváltás, max. versenyképes az NV palettájával... Ehhez képest neweggen a legolcsóbb 4GB Sapphire Pulse 180USD, 8GB Seggszikla meg 200USD, Pulse meg 210USD.
Polarist meg nem kell kihagyni a számításból, az olyan áron megy amennyit ér a jelenlegi fossá szaturált piacon. XFX RX 580 8GB 170USD, ugyanazzal a game bundlellel... aminél igazából nem igazán gyorsabb.
GTX1660S meg fogható 220USD-től...
-
Raymond
titán
"Pricing for the XFX 5500 XT Thicc II Pro is set at $229.99, and the Sapphire Nitro+ RX 5500 XT is listed for $259.00."
-
Tyrel
őstag
Nem tudom milyen tesztről beszélsz, én eddig csak hardware unboxed-ét láttam, ott nem volt ilyen "tizedmásodpercekre megakadt" téma... Ha van is az csak kezdeti bug, most jelent meg, press driverrel nyomták, stb.
A DLSS mit csinál AI-val? Resolution Scale csökkentéshez semmilyen AI nem kell, az utólagos korrigálásainál amikkel megpróbálja ellensúlyozni a minőségromlást meg a saját Freestyle Sharpening filterük is jobb, amihez szintén nem kellett AI... Szerintem ez az egész magic amit kb. beidéztél most az nVidia marketinganyagából a DLSS-ről meg az AI-járól egy nagy bullshit volt Mr. Bőrdzsekitől, hogy eladják a feature-t.
Simán csak csökkenti a resolution scale-t mindkét megoldás (erre némelyik játék maga is képes, mindenféle AI meg célhardver nélkül), nincs abban semmi nagy varázslat.nVidia megoldása több játékkal működik, valószínűleg jobban is működik mivel vagy egy évük (? franc emlékszik mióta van?) volt már csiszolgatni... AMD-é meg okosabb lehetne mert nem fix Scale-el dolgozik, de hibás logika szerint skálázódik, így meg sztem nem fogja használni senki sem. Ezt átírni valószínűleg nem nagy feladat, mindenük meg van hozzá, csak kérdés hogy meg lesz-e a felismerés is...
-
Tyrel
őstag
A DLSS fixen csökkenti a resolution scale-t. Maga az a képesség ugyan úgy meg van a Boost-ban is (és ugyan úgy játékfüggő), igazán nincs lényegi különbség ezen a téren.. Ill. technikailag lehet hogy van, de az eredmény ugyan az...
...csak AMD dinamikusan próbálja változtatni ennek a mértékét, amivel egyébként szintén nincs baj, sőt jó ötlet. Azzal van baj, hogy mi szerint dönti el mit csináljon, értelmetlen.Biztos vagyok benne hogy az fps-re is lehetne kötni, Radeon Software elég részletesen méri ill. diagnosztizálja saját magát és a játékok futását, nem hinném, hogy az ebből származó fps infókat ne használhatnák fel... egyszerűen csak hülyék.
Mondom, Gears 5-ben ott van a tökéletes mintapélda, etalon hogy mit kéne ennek csinálnia... kéne... de AMD szellemi teljesítményét úgy látszik meghaladja...
-
Tyrel
őstag
Igazán az lesz szerintem itt a döntő tényező, hogy ezt a Radeon Boost-ot milyen játékok alatt lehet bekapcsolni. DLSS-t ugye támogatnia kell az adott programnak, pl. BFV-ben meg Metro Exodus-ban van, azt tudom, feltételezem hogy Control-ban is, de így láthatóan nagyon nem általános eljárás.
Ha a Radeon Boost is ugyan ilyen lesz akkor ugyan annyit is ér majd...Meglátjuk, én nagyon kíváncsi vagyok mert 3440x1440 monitorral sokszor már egy 90%-ra levett resolution scale is érezhető sebességnövekedést hoz, a képminőséget viszont még nem rontja nagyon. Csak hát ugye ott a probléma hogy sok játékban nincs ilyen kapcsoló... Ha ők valahogy megoldják hogy ez működjön azokban is amikben natívan nincsen de kéne, ráadásul tegye mindezt dinamikusan, akkor le a kalappal, az tényleg nagy dobás lenne...
...csak igen erős kételyeim vannak a felől hogy ez megoldható, pláne akkora költségvetéssel mint AMD-é...
Na meg nem ártana ha a RIS kapcsolót végre átpakolnák a játékok profiljai alá, mert az kifejezetten nevetséges hogy a monitor beállításai alatt van. Vagy bekapcsolod és akkor aktív mindenre, vagy nem. De olyan opció hogy neked X meg Y játékban kell csak, egyébként meg nem, olyan opció nincs, ami bizony gáz.
-
Tyrel
őstag
Akkor olvasd el még egyszer mert nem hasonlítottam a RIS-t a DLSS-hez. Azt mondtam hogy az nVidia által (RIS-re válaszként kiadott) image sharpening eljárás (az a freestyle sharpening vagy mi ott a neve) tesztjekor nem egy reviewer arra jutott, hogy jobb vele a kép mint DLSS-el. Még ezt is mondtam hogy jöttek cikkek ilyen "DLSS is Dead" címmel.
Nem a RIS a lényeg, arról van szó hogy nVidia saját maga kiadott valamit amivel nevetségessé tette a DLSS körüli marketing bullshit-et, meg talán feleslegessé magát a technológiát is... -
Tyrel
őstag
Sejtettem hogy fel lesz hozva a DLSS, de az fixen működik, bekapcsolod (ahol egyáltalán be lehet) és onnantól végig egy alacsonyabb resolution scale-en fut a játék. Ráadásul mikor kijött nVidia is a Freestyle Image Sharpening-el (vagy mi a RIS másolatának neve) nem egy cikk jelent meg ilyen "DLSS is dead!" címekkel, mondván egy egyszerűbb és több játékban alkalmazható eljárással jobb képminőséget kaptak.
A DLSS egy túlmisztifikált varázs lufi, jönnek ezzel a rizsával hogy supercomputer tanítja rá az AI-t meg külön hardver kell hozzá (tensor magokon fut vagy nem is emlékszem már) meg hú meg ha... aztán saját maguk kiadnak valamit ami egyszerűbb és jobb.
Egyrészt egyszer várjuk meg hogy ezt a Radeon Boost-ot milyen játékokban lehet egyáltalán bekapcsolni, mert ha ugyan úgy fejlesztői támogatást igényel mint a DLSS akkor pont ugyan olyan sz*r is, igaz legalább nincs köré hazudva valami AI-s csoda. HA általánosan mindenhol be lehet majd kapcsolni az már nagy előny lenne, de épp pár hozzászólással ez előtt fejtegettem hogy szerintem nem fog úgy működni.
Ezen felül a Radeon Boost dinamikusan skálázódna, gondolom pontosan ugyan annak a logikának az ellentetjével ami alapján Chill is eldönti hogy mikor veheti vissza az fps-t. Az egyébként nem egy szuper-kifinomult cucc, simán csak azt nézi hogy van-e bármilyen user input, ha húzogatod az egeret meg nyomkodod a gombokat akkor elengedi az fps-t, ha meg csak állsz és nézel mint a birka akkor visszaveszi.
Ezt úgy kell érteni hogy nem a jelenet intenzitásától függ mennyire lassítja be, mivel ahhoz értenie kellene mi történik a képen, az meg már tényleg nagyon AI feladat, sokkal inkább mint pl. egy DLSS, nem is tud ilyet a Chill meg nem is fog sztem soha.
Visszatérve a Radeon Boost-ra, ha megállsz megcsodálni valamit, megkapod vele a 100% resolution scale-t, DLSS-el meg nem (jelen infók szerint).Várjuk meg egyszer hogy a gyakorlatban milyen lesz, mielőtt rögtön ráragasztjuk hogy ez a DLSS másolata...
-
Tyrel
őstag
Igen mert AMD-nél kirobbanó sikere volt mindennek amit Raja csinált...
Amíg GCN-t gyárottak addig az volt a mondás hogy jajj hát azt még nem Raja tervezte azért nem az igazi, de fú majd a Navi az ő gyereke lesz és az fú de milyen jó!...Megjött a Navi és kb. annyit értek el vele hogy a perf./watt arány versenyképes szintre javult, de trónbitorlás semmilyen téren nincs. Íme Raja nagy találmánya, ennyire futotta belőle.
Intelnél meg majd hirtelen megváltja a világot? Kutyából nem lesz szalonna...
-
.Ishi.
aktív tag
Én ebből csak ezt furcsállom: "Designed to compete with NVIDIA's GTX 1660 / Ti"
Hogyan? Az 5500XT ugyanúgy 22 CU-val jön, mint az OEM 5500, ami a 1650 Super ellenfele. Ebből hogyan foghatnák meg a 1660, vagy akár a 1660Ti szintjét?
Az előző leak ellentmond annak, hogy a 2020-as CES-en az AMD villantja a teljes RDNA2 felhozatalt. Ha valóban jön januárban valami 5600XT-szerű kártya, azt már inkább 6xxx-nek kéne akkor nevezni.
-
-
Petykemano
veterán
Úgy tűnik, igen
Az 1650S valszínűleg épphogy nem éri el vagy itt-ott épphogy eléri majd az 1660 teljesítményét. És ugyanígy épphogy megközelíti a táblázat alapján az rx 5500 OEM is.És továbbra is azt mondom, hogy akkor csalogatóbb lenne számomra, ha $149-ért kínálnák és a $149-os 1650-hez hasonlítanák, mintha a $179-os 1650S-hez hasonlítanák, és áraznák.
Attól függ, mit akarnak eladni. $179 áron a csalódott várakozók szerintem inkább behúznak egy $100-120-os (+áfa) polarist. De ismerve az AMD jelenlegi árazási politikáját inkább a $179-et tartom valószínűbbnek, pontosan erre utal a HP-nél tapasztalható 1650<rx5500 árazás is.
-
Szerintem hamarosan Nvidia az AMD mellett fogja keresni a boldogulás.
Márminthogy felvásárolják a zöldek az AMD-t?Egyfelől benne van a pakliban (mondjuk a Mellanox felvásárlása után nem biztos, hogy most hirtelen lenne erre a házipénztárban elég lé), másfelől ehhez azért az kellene, hogy az Intel tényleg belépjen a dVGA piacra.
Amíg az AMD és az nVidia volt egyedül itt, addig erősen esélytelen lett volna egy ilyen felvásárlás, hiszen a versenyhivatal élből elkaszálta volna a dolgot...
-
ebben azért van kockázat, mert ha Intel átveszi az Nvidia szerepét, abból mi jól nem jöhetünk ki.
Per pillanat nem átvenni kellene a zöldek helyét, hanem egyáltalán megjelenni mellette. Miután van egy rohadt erős zöld túlsúly egy marginális vörös jelenléttel. Nem igazán látjuk azt, hogy a vörösök a dVGA piacon feltámadnának, tehát egy harmadik szereplő legalább annak az esélyét elhozhatja, hogy végre újra árverseny lesz...
Intel meg majd elfogadhatóvá teszi azt amit nyújtani tud, még ha nem is elég nekünk, lásd 4 magos procik évekig tartó uralma.
Ehhez kellett az, hogy akkor az AMD konkrétan kivérezve haldoklott a padlón. Szerencsénkre nem múlt ki, így hirtelen a 4 magvas procik elkezdtek lecsúszni a belépő szintre. De a dVGA piac nem egészen ez a kategória.
Minden esetre az nVidia nem azért zsebel be közel évi 2,5-3 milliárd dollárt [u]nyereségként[/u] a gaming piacról, mert ilyen jól dolgoznak, hanem azért, mert ekkora felárral tudja eladni a termékeit a verseny hiánya miatt. Egyfelől nem sajnálom tőlük, hiszen pénzből élnek ők is. Másfelől viszont mint vásárlót, nem picit dühít a helyzet...
nekik a DGPU szegmens 6x nagyobb cégkén mint Nvidia akár bukó kategóriába is belefér, ha valaki éppen az Ő CPU ját veszi a a kártyája mellé. Arról meg majd gondoskodni fog, hogy azt vegye, meg arról is, hogy az elég legyen bármit is nyújt.Ez utóbbi persze inkább üldözési mánia, de úgy gondolom van realitása ismerve a cég múltját.
Az előbb hoztam példát arra, hogy ez nem biztos, hogy nyerő üzleti megoldás (ultramobil szegmensben tett látogatása az Intelnek). Meglátjuk mi lesz. Ne feledd, hogy CPU piacon az AMD van lassan nyeregben, vagyis az Intel lehetőségei kissé mások, mint amilyenek volt az általad mintaként nézett OEM és laptop erőfölény esetén...
Ha lehet választani, akkor ne Intel legyen semelyik cég hóhéra.
Hajrá, hagyjuk a fenébe az Intelt.
De akkor ki is fog versenyhelyzetet teremteni a dVGA piacon?
Az AMD?
A most látható Navi töketlenkedéssel és Polaris kihúzással? -
Petykemano
veterán
Nem állítom, hogy igaz. De egy érdekes elmélet annak feloldására, hogy miért van (miért állítja) a TSMC, hogy van kapacitás és miért tűnik mégis úgy, hogy az AMD kapacitáshiánnyal küzd. (Termékelcsúsztatások)
Egy pár hete kiderült, hogy mennyi az N7 hibasűrűsége: [link]
Az ott megadott hibasűrűséggel (0.09) egy 25x20-as lapka esetén 65%-os lenne a kihozatal. 110-ből közel 70db lenne hibátlan és nyilván a hibásak egy része is értékesíthető.
$10000-os megmunkálási árral számolva mondjuk $100-ra jönne ki egy lapkára.Ugyanezekkel az értékekkel számolva a Radeon 7 $60 körül lehetett volna.
Szerintem nem vállalhatatlan jövő évben, de nyilván ez elsősorban HPC piacra menne, mint az vega 20.
Amúgy szerintem a 2080Ti Super szerintem nem emiatt jön, hanem a Navi12 miatt. Az elvileg egy ~60CU körüli cuccnak kéne lennie kb vega20 mérettel úgy, hogy remélhetőleg eléri a a 2080Ti szintet. Ennek ma már nem kéne gondot jelenteni egy $660-750 árcédula. (és bárcsak inkább $550-600 lene)
-
Petykemano
veterán
Már egy éve gyártanak 350mm2-es lapkákat 7nm-en.
Igaz, ez biztos 7nm+-os, de biztos valami EUV, de hát akkor is legalább 2 éves tömegtermelési tapasztalat fog rendelkezésükre állni.Én nem tartom lehetetlennek.
Az más kérdés, hogy nem lenne-e praktikusabb chipletekkel megoldani?Szerintem egyébként az nvidia is ilyen böszme nagy chipekkel fog megjelenni jövőre. Mármint a csúcs.
-
Petykemano
veterán
A felvetés arról szól, hogy
- az USA-Kína kereskedelmi háborúzás árt Kínának, főleg a Huaweinek
- a Kínai kormányzat befolyással tud lenni mindenre, ami Taiwanban, azaz a TMSC-ben történik
- itt a lényege: ennek a politikai nyomásnak a hatására a TSMC a Huaweit előbbre sorolja mind az Apple,.mint az AMD igémyeihez képest.
(Igen, itt az az állítás, hogy nem az van, hogy pénz beszél, kutya ugat, hanem hogy a kínai kormány nyomására ad vagy nem.ad több kapacitást a TSMC az AMDnek, illetve cicózik vele, hogy mit milyen nodeon gyártson.
Ezt a politikát a háttérben sejtető állítást némileg alátámasztja az is, hogy a hetekben Trump felől problémaként felmerült, hogy az AMD termékei közül egy sem készül amerikai földön, a TSMC meg nem akar ott üzemet.nyitni)
- a TSMC cicózása az AMD-t nehéz helyzetbe hozza, folyamatosan termékmegjelenéseket kell elhalasztani.
(Valóban, számos alkalommal felröppent, hogy a TSMCnek nincs elég kapacitása? Amit mindig lecsaptak azzal, hogy de vaaan. Csak hát akkor hol vannak a termékek?)
- és a vége: vajon az AMDnek kárt okozó cicózás miatt az AMD át fog-e vinni legalább bizonyos termékeket a samsumghoz, ami ugyan gyengébb node, de olcsóbb, vagy legalább fenntartja-e ezt az opciót ezzel igyekezvén kikényszeríteni a tsmctől a nagyobb 7nm kapacitást.Szóval nyilván nem egyszerű átvinni egy designt, de ha az a kérdés, hogy piacra tudod-e dobni a terméket, vagy csak paperlaunchozol, akkor elgondolkodtató.
Persze itt a kérdés a történetben az, hogy a huawei miatt a kínai korkány valóban tud-e hatást/nyomást.gyakorolni a TSMC amerikai partnereinek juttatott kapacitásra.
Szerintem egy remek elmélet. -
Abu85
HÁZIGAZDA
A BF5 teljesen szabványos. Ott nem igazán az implementációval van probléma, hanem azzal, hogy hülyeséget csinálnak mellette. Az egész DXR lényege az lenne, hogy felejtsük el a fake hatásokat. Például szépen tükrözze vissza mondjuk a tank fémes anyaga a környezetet. Ezt alapvetően az algoritmus megteszi, de valamelyik korszakos zseni a DICE-nál kitalálta, hogy milyen faszántos lenne, ha időközönként egy robbanás visszatükröződne a tankon, és beraktak egy fake robbanáseffektet, amitől a tank folyamatosan villog, még két háztömb között is. Lövésed sincs, hogy mi robban, de látod a semminek a villanását a tankon. Ez egy dizájnbeli döntés, amivel szépen megölték a DXR-nek a lényegét. Enélkül amúgy tök jól működne.
Én alapvetően a BF5 implementációját tartom messze a legjobbnak persze a kamurobbanásokat leszámítva, az egy baromság, de el tudom képzelni, hogy volt egy túlbuzgó gyerek, aki átpréselte a "csúcsszuper", semmitől villanós dizájnötletét valamelyik megbeszélésen. Ha ez nem lenne, akkor tényleg szuper lenne. Viszont alapvetően sok dolgot lehet nagyon jó minőségűre csinálni raszterizálással, valamilyen volumetrikus megoldással, ráadásul sokkal gyorsabban, de reflectionre nincs igazán jó megoldás a sugárkövetésen kívül. A reflection probe talán, de az is zabálja a teljesítményt, tehát ugyanúgy fps killerré válik a raszterizálás is.
(#44218) Pinky Demon: Nincs jelentősége az elterjedésnek, mert az RDNA képességei nem igényelnek direkt támogatást. Egyszerűen csak működnek. Például a mesh shader egy újdonság lesz az új DirectX-ben, amit tud támogatni az AMD az RDNA-val, de nem szükséges számukra, mert úgy működik a hardver, hogy a legacy shadereket képes "surface és primitive" pipeline-ra fordítani. Nem kell hozzá direkt kódot írni, a fordítóban történik meg a trükk, és a hardver úgy van felépítve, hogy el tudja fogadni a legacy kódot, méghozzá az új pipeline-ra konvertálva. Az RDNA-ban egy rakás funkciója el van rejtve a fejlesztők elől, nem kell direkt támogatást írni rá. Ez szándékosan van így csinálva, hogy a beépített újdonságok csak úgy alapból működjenek, ne kelljen várni arra, hogy kihasználják őket.
Ettől függetlenül lesz értelme az RDNA-n is a mesh shadernek, mert azzal csak hatékonyabban használható a hardver, viszont az AMD már korábban is elmondta, hogy egészen nagy kétségeik vannak arra vonatkozóan, hogy a fejlesztők át fognak portolni ~százezer sornyi shader kódot, hogy az új hardvereknek ezt a képességét kihasználják. Sokkal inkább gondolják azt, hogy amíg nincs mindenhol primitive/mesh pipeline-ra támogatás, addig ilyen shadereket nem fognak írni, mert a régi hardvereknek meg szükségesek a legacy shaderek, vagyis dupla minkát kell csinálniuk. Emiatt választották azt az utat az RDNA-val, hogy a legacy shadereket az új pipeline-ra fordítják, és mindezt a fejlesztők elől elrejtve. Például ezért tudja egy Radeon RX 5700 XT az újabb játékokba ütni a Radeon VII-et, mert ugyanazokat a vertex shadereket egy sokkal hatékonyabb pipeline-ba fordítja be, vagyis hiába gyérebb papíron az 5700 XT a Radeon VII-hez viszonyítva, pusztán a háromszögek kivágását elősegító pipeline miatt sokkal kevesebbet számol. -
Abu85
HÁZIGAZDA
Mondták a fejlesztők, hogy azért marad ki, mert nagyon sok munkával járna, és egyszerűen nincs rá erőforrásuk.
A just works dolog elég nagy hazugság. Nem csak just works az egész. Ha annyi lenne, akkor a Shadow of the Tomb Raiderben sem kellett volna hónapokig várni rá. De mégis sokáig tartott implementálni, mert át kellett tervezni egy csomó modellt, hogy az RT mag megfelelő háromszögszámot kapjon a feldolgozáshoz. Nem tud ám az a fixfunkciós hardver akármennyi háromszöggel gyorsan megbirkózni, van egy felső határa, és ha a játék háromszögszáma ezt túllépi, akkor le kell építeni előbb, hogy sebességet is kapj a DXR-nél. Ha persze eleve tudod, hogy ezt be akarod építeni, akkor úgy tervezed a geometriai részletességet, hogy ne legyen túl nagy.
-
Mumee
őstag
Pont hogy a blower-t nem érdekli milyen házban van.
Azt aláírom, hogy a fan curve-t át kell állítani, de úgy gondolom hogy annak állítása még a félénkebb felhasználóknak se kellen gondot okozzon.
Én csak ár/érték arányt nézem, kutyát se érdekli hogy Nvidia vagy AMD.(#44108) Cifu : Ha az ajándékokat nem nézzük AMD oldalon, akkor egyetértek kb. annyival jobb az értéke az 5700-nak. Custom 5700 téren meg kár is róla beszélni, csak annak nem jön szóba aki a fan curve-höz se mer nyúlni.
-
Mumee
őstag
Én egyik 1660-hoz se látok ajándék játékot.
5700-ból ha jól emlékszem neked XT-d volt, kár idekeverni, illetve biztos hogy XT-d volt mert írod hogy 87-90fok.
Gyárilag 2100rpm-re tolja fel a ventit, amit lent linkeltem az 1300rpm és így ment az általad írt 87-90fokon, az szerinted hangos?
Megsúgom halkabb, mint gyárilag bármelyik custom.
Itt egy táblázat, hangban a normál custom hűtések hangja kb. a kék sorban találhatóak.
Általánosságban ugye a ~35dBA zaj az "elfogadott".
Sima 5700 max GPU ugye 1850mhz, ami valós 1800mhz itt a valós szerepel a táblázatban, tehát a legalsó kék sor az a max-ra OC-zott sima 5700.
Custom fan curve-el a hang jó, hőmérsékletek jó és ára 115e + extrák.(#44103) gbors : Mint írtam direkt nem néztem, hogy mennyire kezdőár, mivel nemrég még az 5700 is egy tizessel olcsóbb volt, amit kb. az ajándékok kompenzálnak.
(#44105) Cifu : Valóban relatív, de mindenképpen van hozzáadott értéke és nem is bonyolult eladni akár havernak nyomott áron, ha nem kell. Én pl. a BL3+Xbox Pass-t eladtam 15e-ért.
Kábelt azért problémásabb eladni, mint egy játékot.
Viszont még ígyis 115e, mert a customra csak XT-nél van szükség. -
Mumee
őstag
Nem csak én gondolom így, direkt írtam hogy GamersNexus is hasonlóan fogalmazott csak nem ennyire direkten én meg csak levezettem.
Épp ez az, hogy ha van 85-90e-ed egy 1660 Super-re vagy 80e-ed 1660-ra, akkor már bőven inkább 105e-ért 5700 alattuk meg csak a kisebb 570-580-590 éri meg.
5700 után pedig el kell menni a 2070 Super-ig ami 190-200e-ért indul, hogy értelme legyen elgondolkodni Nvidia-n. -
szmörlock007
aktív tag
"figyelembe véve , hogy Intel mögött ott áll teljes mellszélességben ( ha nem is hivatalosan ) Trump is."
Mondjuk ez szerintem teljesen logikus, én legalábbis ugyanezt csinálnám. Az intel jelenleg az egyetlen amerikai cég fejlett gyártástechnológiával, nem mellesleg hatalmas befolyással a piacra. Miután kína is elkezdte szórni a milliárdokat a tech iparba, az usának jól jön, ha van egy ilyen erős vállalata.
-
TESCO-Zsömle
titán
Mert az Intel -ahol piacon van- nem kis pénzeket mozgat meg a partnerei irányába, hogy ne is gondoljanak konkurens megoldásokra.
Ha jó emlékszem ezért meszelte el őket két kontinens GVH-ja 1-1 milliárdra, amit akkor persze megéreztek, de 8 év távlatából, évi n+1 milliárd bevétellel a hátuk mögött kb a "ki nem tojja le" kategória. Köszönik szépen műküdik ez most is, csak finomodott a struktúra.
Én csak emiatt féltem az Intel-től a piacot. -
Petykemano
veterán
Ott a Via Zhaoxin, belépőszintre elég lenne akár, amijük van. A hygon-nak átadott dhyan processzorokat biztos hamar visszafejtik és jön is a kínai 7nm-es x86 cpu
állítólag az SSE és hasonló utasításkészletekre is hamarosan (2020 vége?) lejár a szabadalom.Persze kár, hogy épp most indul be az intel is az IPC fejlesztésben
A szóbeszéd szerint valószínűbb, hogy ARm, vagy méginkább RISC-V alapon lesz konkurenciája a ma x86 alapon működő termékeknek.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Nintendo Switch 2
- Milyen autót vegyek?
- Windows 11
- Elektromos cigaretta 🔞
- Steam, GOG, Epic Store, Humble Store, Xbox PC Game Pass, Origin Access, uPlay+, Apple Arcade felhasználók barátságos izgulós topikja
- One otthoni szolgáltatások (TV, internet, telefon)
- NBA és kosárlabda topic
- Magga: PLEX: multimédia az egész lakásban
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Hosszabb bemutatót kapott a Borderlands 4
- További aktív témák...
- ÁRGARANCIA!Épített KomPhone i5 14600KF 32/64GB DDR5 RAM RX 9070 16GB GAMER PC termékbeszámítással
- LG 40WP95XP-W - 40" NANO IPS - 5120x2160 5K - 72Hz 5ms - TB 4.0 - HDR - AMD FreeSync
- AKCIÓ! Gigabyte B450M R7 2700X 16GB DDR4 512GB SSD RX VEGA64 8GB CM 690 III FSP 600W
- AKCIÓ! MSI Z690 i7 12700K 32GB DDR4 1TB SSD RX 6800 16GB Phanteks P600S Cooler Master 750W
- AKCIÓ! MSI B450M R7 5700X 16GB DDR4 512GB SSD RX 5700 XT 8GB Rampage SHIVA Zalman 600W
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest