-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
Petykemano #56327 üzenetére
lassan a rajongód leszek.
Ez nem tudom számodra fenyegetés vagy dicséret, de én utóbbinak szántam. -
Senki9876
tag
válasz
Petykemano #56327 üzenetére
Személyes véleményem hogy nincsen gyártókapacitás.
MSRP (referencia kialakitás) - az az ár amin már mindenki keres. Ide van bekalkulalva az AMD nyeresége is. Az aib gyártók fix áron kapják a gpu-t vagy a csomagot amiben megegyeztek. Ha ebből indulok ki akkor az AMD-nek nem érdeke hogy nagyon elszáljanak az árak mert neki attól nem lesz több bevétele. Ha lenne szabad kapacitás simán kontrolálhatná a gyártást úgy hogy ne legyen sok a piacon de legyen annyi hogy ne szálljanak el az árak így több graf találna gazdára és többet is keresnének, de mint hogy (szerintem) nincs kapacitásuk ezért vannak az árak is elszálva.
Ebből kiindulva Abu (MARKETING) válasza teljesen logikus. Minek adjanak az RNDA2 kartyáknak alacsonyabb MSRP, ha úgysem kapod meg annyiért? Piacot a kapacitása hiány miatt úgy sem tudnak szerezni így legalább keresnek. Lefelé még úgy is mehetnek az árakkal (MSRP ár alá, volt már rá példa) ha rákényszerülnek .Sajna globális chip hiány van. Ismerős robotika területen dolgozik és azt panaszkodja hogy mikor mikroprocesszorokat rendel 3-6 hónap a szállítási idő 2-3x áron miközben még 2020 elején 2-3 hét volt a várakozási idő.
Mielőtt valaki félreértené egyáltalán nem értek egyet a mostani
helyzettel, de sajna jelenleg ilyen a piaci helyzet. -
Abu85
HÁZIGAZDA
válasz
Petykemano #56327 üzenetére
Azért nem gyártanak többet, mert nincs végtelen gyártókapacitása a bérgyártóknak. Jelenleg mindenki annyit gyárt, amennyi fizikailag lehetséges a meglévő és működő üzemekben.
-
olymind1
senior tag
válasz
Petykemano #56327 üzenetére
"A kérdés ugyanis az volt:
Ha ilyen vastag a profit akkor tulajdonképpen miért nem gyártanak többet?"Szerintem:
-vagy nincs gyártó kapacitás rá (mondjuk Zen3 chipleteket gyártanak helyettük ezerrel, ha azokon még nagyobb a színtiszta hasznuk)
-vagy visszafogják hogy kevesebb legyen belőlük a boltokban és állandóan nagy legyen rá az igény/kereslet, hogy magasabban tudják tartani az árakat, még több legyen a tiszta haszon
-a kettő keveréke -
Abu85
HÁZIGAZDA
válasz
Petykemano #56325 üzenetére
Mi európaiak eleve nem vennénk meg azokat a hardvereket. Ázsia egyes részein viszont nincs pénz modern hardvereket venni. Emiatt gyártják még a nagyon régi hardvereket. Ezeket már nem támogatják, de annyira olcsón adják, hogy megéri ezekkel felszerelni a szegény iskolákat például.
Azért adják drágán, mert ennyiért is megveszik mindet. Ez látható azon is, hogy raktárideje a termékeknek gyakorlatilag nincs is. Ahogy bedobozolják őket, már mennek is egy megrendelőhöz.
Egyszerűen túl nagy az igény ahhoz, hogy mindent kiszolgáljanak. Ennyi. Vagy elfogadja ezt valaki, vagy elszokik konzolra. Ott is elég nagy amúgy az igény.
Az amúgy egy fontos felfedezés volt az NV-nek és az AMD-nek is, hogy ha megveszik ezeket a VGA-kat drágán, akkor miért is adják olcsón?Szóval ennek még lesz böjtje a következő generációkban. Ezen tényleg csak az változtathat, ha elegen szöknek át konzolra. Addig hülyék lennének az érintettek 200 dolláros szinten adni olyan termékeket, amelyeket 300-ért is kipucolnak a raktárakból.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #56322 üzenetére
Áh, az MSI Gaming X az túl drágán gyártható ehhez. Itt az OEM-eken van a hangsúly, a Tul ezernyi olyan VGA-t gyárt, amik sosem kerülnek kereskedelmi forgalomba. Például múltkor csak egy félmilliós indiai rendelésért újraindították két 28 nm-es GPU gyártását. Ezek nem járnak fejlesztési költséggel. Kapnak rendelést, van rá szabad gyártósor, és mehet is a gyártás. Occsóé direktben leszállítják. Kb. adhatják 30-50 dollárért, de félmilliós tételben ez már sok miközben a gyártása és összerakása pite tétel. Bőven megéri lehajolni érte.
A problémát mindig a gyártósorok kihasználása jelenti. Az a jó, ha ezek állandóan működnek, de nem minden gyártósor alkalmas modern hardverekhez. Itt valami régit gyártanak, mindig amire éppen szükség van. Ha kell, akkor terveznek hozzá másik BIOS-t, specifikálnak egy új paraméterezést, amíg ennek a költsége alacsony, addig megcsinálják, mert többet nyernek azon, hogy a gyártósor üzemel, mint amennyit buknak a befektetett erőforráson. Az AMD még 40 nm-es GPU-kat is gyárt, vietnámi iskolákba mennek. Kis tételek, de éves szinten hoznak pár tízezer dollár nyereséget, és igazából nem kell érte csinálni semmit.
A Radeon RX 6600 XT eleve úgy van tervezve, hogy el van eresztve a GPU. Ezért is tud bizonyos játékokban 2,8 GHz fölött működni. Valójában a Radeon PRO W6600 mutatja, hogy a Navi 23 sokkal hatékonyabb, mint amilyen paraméterezéssel rakják a Radeon RX 6600 XT-re. De az AMD ennél a modellnél számításba vette, hogy nagy teljesítményre paraméterezve is hatékonyabb, mintha energiahatékonyra terveznék a beállításait, így a teljesítményre mentek rá, hogy minél nagyobb árat kérhessenek érte. Ez elég jó döntés volt, mert írták is, hogy a raktárakat már a megjelenés napján kipucolták, ráadásul úgy, hogy némelyik AIB, bőven az MSRP felett adta a terméket. Amíg minden hardvert eladnak heti szinten, addig nem lesznek ezek olcsóbbak. És tudnák olcsóbban adni. A gyártási költség igen alacsony, még 299 dollárért is bőven nyereséges lenne a Radeon RX 6600 XT. Olyan 179 dollár körül mozoghat az a léc, ahol ugyan még maradna nyereség, de már megfontolandó lehet a termékek minőségén csökkenteni, hogy olcsóbb alkatrészekkel növeljék a nyereséget.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #56317 üzenetére
Nem. Ez a kártya nem tud alapból 55 wattal 32 MH/s-ot csinálni. Az alap teljesítménye inkább 28 MH/s, és ehhez 90 wattos fogyasztás tartozik. De lehet tuningolni, ahogy a többi hardvert is, csak a kirakott táblázatban ezt nem állították a többi hardvernél.
Az AMD Polarisokat gyárt a bányába.
-
Z10N
veterán
válasz
Petykemano #56313 üzenetére
Akkor orulhetnek a kapirgalok. Kaptak egy ujabb remek csakanyt.
"Vajon hogy ért el ilyen jó eredményt? 2/3 hashrate, 1/3 fogyasztás a 6700XT-hez képest."
Hogy-hogy mi?! A csomo vagdosas es sporolas. Mintha szandekosan banyara terveztek volna (meg ha egyesek mast mondanak is). Meg ha nem is szerepel a neveben, de ez egy olcso es koltseghatekonyan gyarthato, illetve nagy profittal eladhato csakany. Azaz egyertelmu, hogy kiknek szantak.Az Advanced Mining Devices pedig ujbol bebizonyitotta, hogy ki a preferalt kozonseg. Ezert is emletek meg az arakat. A banyaszok ugy is megveszik, a gamereket meg szajba sz@rjak. A Newegg-n mar minden Sold Out. Mennek egybol a banyakba. Eljen kapzsisag mindenek felett...
-
Z10N
veterán
válasz
Petykemano #56309 üzenetére
Megertelek. Le kell szokni a "fagyirol". Hosszu dietas evek kovetkeznek. Szerencsere a konzolos "ropibol" es a steames "sosmogyorobol" halmoban allnak a cimek a konyvtarakban.
Kihuzzuk addig valahogy...
-
Z10N
veterán
válasz
Petykemano #56306 üzenetére
A pisztacia elfogyott...
PowerColor announces Radeon RX 6600 XT Red Devil, Hellhound and Fighter
Ne valogass
Kell vagy nem?!
-
Devid_81
félisten
válasz
Petykemano #56302 üzenetére
Angliaban £369-tol mar kaphato, es van eleg sok helyen...szinte meglepo modon ebbol tenyleg volt kezdeti keszlet
-
válasz
Petykemano #56302 üzenetére
Alza kifogyott sajnos nemrég, mondjuk az árakat nézve nem csoda.
-
válasz
Petykemano #56297 üzenetére
Meg hát valójában ugye a MH/s/$ az, ami igazán számít.
Sokat számít a fogyasztás is, ha nem lopod az áramot. Ha igen, akkor mindenféle kártyát rá lehetne állítani a bányászatra, ami bármit képes kapálni, mert neked az jövedelmező lenne.
Én anno az RX 570-ből 29 MH/s-t hoztam ki kb. 120W fogyasztással. Ha ez 32 MH/s-t tud 90W-on, már sokkal jobb egy RX 570-nél, csak hát milyen áron.
-
hokuszpk
nagyúr
válasz
Petykemano #56297 üzenetére
a smileydetektorodat vizsgáltasd meg !
-
hokuszpk
nagyúr
válasz
Petykemano #56295 üzenetére
azt a mondast nemolvastam
-
atok666
őstag
válasz
Petykemano #56291 üzenetére
Nem fog ezen a kartyan senki sem jatszani… a cryptos topicban mar ott tapsikolnak a nepek, h milyen fasza a MH/W mutatoja..
Atok
-
paprobert
őstag
válasz
Petykemano #56291 üzenetére
Igen arra jó, úgy-ahogy. Amíg tart ez a cross-gen időszak.
-
paprobert
őstag
válasz
Petykemano #56278 üzenetére
Tudva azt, hogy az FSR nem működik jól 1080p target felbontásnál, ez mint halottnak a csók.
-
Jack@l
veterán
válasz
Petykemano #56280 üzenetére
Amt mondani akartam ezzel, hogy amd szándékos butitotta le a kártyát, hogy csak az ő új lapjaiban menjen full speeden.
-
Jack@l
veterán
válasz
Petykemano #56278 üzenetére
pcix4-8x = pcix3-16x senkinek nem kéne egy alsó kategóriás kártya miatt pci express4 -es lap...
-
Z10N
veterán
válasz
Petykemano #56270 üzenetére
Igen, "csak placeholder". Mint minden mas ar mostanaban a gpuknal
-
Televan74
nagyúr
válasz
Petykemano #56270 üzenetére
Ez az egyetlen 6600XT van fent, 5db vásárolhatnék max. Kínából jönne 7-32 nap alatt.
-
Alogonomus
őstag
válasz
Petykemano #56215 üzenetére
A PCIe5 valószínűleg nagyságrendnyi ugrást jelentene a késleltetésben, de a sávszélessége sem az onboard GDDR6 szintjén van, ami 128 bit esetén a PCIe5 x16 128 GB/s sebességének legalább a duplája lenne.
Az FSR viszont reális magyarázat, bár annál is csak az Ultra Quality ad még éppen szép képminőséget. -
válasz
Petykemano #56209 üzenetére
Kopite írt közben és Greymon55 is : Kopite szerinte a Navi 33 nem lesz hagyományos értelmben vett mainstream kártya,( ezzel nem tudom mire utal pontosan) és Greymon szerint inkább az N22 utódja lesz.
Felmerült hogy 570$ körüli MSRP ve jön és 6900XT fölött lesz valamivel a teljesítménye.
tehát úgy néz kih ogy kapunk előrelépést teljesítményben de ezt megfizetettik velünk.
Tehát a két cég úgy gondolkodik, hogy drágák lesznek de majd kárpótol minket a sebességük. Hát nem tudom mennyire fog ez bevállni. -
Devid_81
félisten
válasz
Petykemano #56209 üzenetére
Csodas, lassan tenyleg oda jutunk, hogy a beugros kategoria is mar csak a gazdagok jatekszere lesz
Eddig csak egy lepcsot akartam kihagyni a fejlesztesbol...de lehet inkabb az osszeset -
Alogonomus
őstag
válasz
Petykemano #56209 üzenetére
Az a 8 GB nagyon kevésnek tűnik annak fényében, hogy a csúcs RDNA 3 kártyák is csak valamikor jövőre érkeznek, így az RDNA 3 belépőszintű modelljei már valószínűleg átcsúsznak 2023 elejére, és 2023 elején a 8 GB már nagyon szűk lehet.
Akkor már jobb választás lesz egy addigra már pár éves N22 alapú RX 6700 XT már kedvezményes áron, mert hiába lesz az új kártyának akár RX 6800-as ereje, ha a memóriakapacitás miatt úgyis csak az FHD marad lehetőségnek, sőt 2023-ban valószínűleg az is már csak kompromisszumokkal. -
válasz
Petykemano #56209 üzenetére
És a következő generációban már nem lesz új kártya $400 alatt. Így kell ezt csinálni. Nice.
-
Z10N
veterán
válasz
Petykemano #56140 üzenetére
Selejt. De joval olcsobban. Azt ne mondd, hogy egy 560XT, ami valojaban vagott 570, kisebb orajellel, de 560 araban rossz deal volt. Az NV-nel a selejt selejtjet is eladjak, csak marketing...
-
Z10N
veterán
válasz
Petykemano #56138 üzenetére
"Eddig azt láttuk, hogy külön valami szutykot ledobnak oda."
Azt a "szutykot" siman felhabzsoltad volna, mint a cukrot. 470D, 560D, 560XT(1792sp), 580(2048sp), 590GME, Rx5600, etc. Mivel olyan aruk volt, hogy csak nezel ki a fejedbol."A "china only", azt jelentette, amit máshol úgyse vennének meg."
Pont, hogy nem. Csak egy pelda a sok SKU kozul. 590 GME China only price $175, mikozben nekunk $279-ert vesztegettek. Megjegyzem ez volt a realis ar erte. A kinaiak nem hulyek, ezert is gazdasagi vilaghatalom. Rossz uzlettel nem foglalkoznak. Lisa Su meg ezt nagyon jol tudja. De emlithetnem a China only Ryzen chipeket, amit neha ALI-n ki lehet fogni piszok jo aron. Persze hamar elkapkodjak, mert hulyek lennenek eladni, amilyen jo a price/perf-juk."Mi van, ha változott? Ha már Kína nagyobb és zsírosabb piac?"
Mar regota az. China only SKU mar a HD6000 szeria ota van. Tehat mar 10 eve legalabb."Ott is van fizetőképes kereslet, középosztály és könnyebb kiszolgálni, mint usát és eut?"
Hogyne lenne. De ott nem sz@roznak par darabbal. Latod raklap szamra viszik. A lehuzas csak nyugaton divat. Szerinted a sok banyaszkartyat teljes aron vettek?! Rohognek az msrp-nBulkban veszik szazassaval olyan arakon, hogy lehasalsz. Taobao-n neha lehet latni parat.
-
Z10N
veterán
válasz
Petykemano #56133 üzenetére
"mert az a legnépszerűbb kártya a steamen és valószínűleg a leggyakoribb kártya kínában."
Nyilvan erre volt kihegyezve a China Joy debutalassal egyutt. Sunyiban bejelentik es ennyi."Azt mondják, a szállítási költségek 4-8x-osra emelkedtek usába, euba."
Igen, mondani barmit lehet. A hyper nagy kontener hajokat meg parossaval epitik..."mert a távolkeleti gyártósorokról oda könnyű és gyors eljuttatni. És ott is elkel."
Ne aggodj, majd kapnak meg kulon "China only" sku-t is. El lesznek latva boven.Minden arra mutat, hogy sz@rnak bele az egeszbe. Kozben meg megy a "for gamers" demagogia. Megmondtam, hogy a Polaris nevet aranyba fogjak onteni, mert tobbet ilyen price/perf gpu nem lesz. Most 5 eves, de meg 5 ev mulva is hasznalni fogjak sokan.
-
Z10N
veterán
válasz
Petykemano #56116 üzenetére
Semmilyen nyugati sajto nem volt meghivva.
https://www.youtube.com/watch?v=atNvf7rbujU
Illetve csak felloktek egy videot, nesze semmi...
https://www.youtube.com/watch?v=DsI2eVm_GCM
Sunyiban ment az egesz direkt. Csak a szokasos.
Ui: Illetve erted. A 1060 ellen mutogatjak, nem is az rx480. Egy 5 evvel ezelotti Nv kartyahoz meregetni, az aztan a marketing fogas. Egyertelmuen sz@rnak a gamerekre. Erre a videoban is kiternek. Ahogy mondtam, par eve folyik a beetetes es mostmar ez lesz a standard...
-
Alogonomus
őstag
válasz
Petykemano #56109 üzenetére
"Egy RX 480-on pontosan mit segít az FSR?"
A tesztek alapján - ha nem is egy RX 480, de egy RX 580 - több játékban az 1440p esetén már éppen csak játszható sub 50 fps állapotból 60-80 fps-re ugrott.
-
Z10N
veterán
válasz
Petykemano #56109 üzenetére
Nem tudom. Abut kerdezed. Az o kijelentese.
"Tudtommal az FSR is akkor jó, ha 1080p-ről skálázol felfelé. 720p-ről 1080p-re skálázni gány eredményt kapsz. Lehet próbálkozni, csak nem érdemes. Nem?"
Meg nem melyedtem bele. Van mar atfogo teszt? Egyelore meg nincs olyan cim amiben aktiv es erdekelne. A CAS a CP2077-ben egesz jol mukodik. Mondjuk en P/B/Q/U-bol csak az utobbi kettot tartom elfogadhatonak a demo alapjan. -
Z10N
veterán
válasz
Petykemano #56098 üzenetére
Figyeld meg majd lesz olyan aki azt mondja, hogy hat ez "premium" aru kartya volt anno. Manapsag is sokan toljak ezt a dumat az apron. Ha meg megmondod a velemenyed, akkor kitiltanak.
Szolasszabadsag. -
válasz
Petykemano #56084 üzenetére
szerintem sincs esély most erre, a kapacitásgondok miatt ráadásul nem is vegytiszta a szitu.
-
válasz
Petykemano #56074 üzenetére
Nyilvánvalóan duopóliumról beszélünk, és ezen belül nagyon erősen a kartell modell sejlik fel az árazásokat tekintve.
Nulla verseny, az AMD hozzááraz az NV-hez. Valószínűleg ez lenne a jelenlegi skalpolós helyzet nélkül is. Nagyon nem tetszik.
Szerk: Az a baj, hogy nem érvényesül a "pénztárcánkkal szavazunk" elv, mert így is elfogy minden még ebben a helyzetben is, így szemernyi kényszer nincs egyik gyártón sem, hogy mérsékeljék az áraikat.
-
Alogonomus
őstag
válasz
Petykemano #56074 üzenetére
Fogyasztóként a helyzethez kell alkalmazkodni. Lehet morogni, hogy miért ennyire drága minden, de fogyasztóként akkor is a haszonmaximalizálásra kell törekedni, ha kénytelen vagy a drágák közül egyet választani.
-
Petykemano
veterán
válasz
Petykemano #56063 üzenetére
Linus elmondja [link]
Hogy a chiptervezés és gyártás bőven profitábilis, nem ott feszít a nadrág. Ami megdrágult, az az AIB költsége: a VRAM, a hűtő anyagköltsége, ami tényleg 2-3x drágább lehet.
Ez most vagy igaz, vagy nem. Mármint hogy emiatt a komplett kártya 2x drágább kell legyen. Valószínűleg benne van azért az is, hogy úgyis elfogy, lehet vastagon árazni.Linus is elmondja, hogy nem nagyon lehet mit kezdeni a helyzettel, de legalább nem henceg és egalább elmondja, hogy azzal tudsz segíteni ezen a helyzeten, ha elhalasztod a vásárlásodat. (Ez nem lemondás, hanem kereslet-kínálat)
-
Z10N
veterán
válasz
Petykemano #56050 üzenetére
Miert lett volna agressziv? A 290 teljesitmenyet hozta fel aron 3 evvel kesobb. Ez nem agressziv, hanem normalis arazas.
"Ugyanakkor persze az igaz, hogy eltelt 5 év és igazán lehetne 8GB ma már olyan minimum, mint 5 éve a 4GB"
Ez mar nem is kerdes. Foleg, hogy az AMD kijelentette 4GB mar lowend."Nem mellesleg a játékok meg is követelik. 4GB + 8x pcie3 esetén már érezni a hiányosságokat."
Nah, igen. Igy meg plane. Bar a x8 mar magaban rohejes egy $300-400 kartyan."Talán $299-ért egy 6600, ami ha aa 6600Xt 100-120%-kal, akkor ez mondjuk 70-80%-kal gyorsabb , mint az rx 480. Ez nagyjából az 5700 szintje, ami $349 volt, tehát $50-ra olcsóbban már "előrelépés""
Az a baj, hogy mar szepiteni probalod. Itt volt a 7850 vs 480 pelda. Most pedig a 480 vs 6600."Aztán valahová RX480 +20-30%-ra érkezhet majd a navi24 $199-229, 2-4GB"
Ami szanalmas 5 ev utan. Ezt a teljesitmenyt $100-ert kene kinalni. "Normal" esetben a hasznalt ara is ennyi a 580-nak. Tehat ennel olcsobbnak kene lennie, hogy csalogato legyen a vasarloknak. De hat ok tudjak. Majd amikor a piac nyakaba szakadnak a banyaszokevenyek... -
paprobert
őstag
válasz
Petykemano #56050 üzenetére
"$229 - 4GB"
Na na! Csak 229 dollárt(90 000Ft-ot), egy olyan kártyáért, ami már "not enough VRAM" üzenet nélkül el tud jutni a főmenüig?
Elég már a vásárlói jólétből, hát hogy gondolhattad ezt?!
-
Z10N
veterán
válasz
Petykemano #56043 üzenetére
Tehat egyikse jott be.
-6700XT tularazott, $399-tol messze van
-6700 kimarat ($380-430)
-nalam az olcso $150-200
-6600/xt sose lesz $300 alatt, tul lesz arazva
-$230igen ennyi kene, hogy legyen a 6600xt, a non-xt pedig $199
-a turo fogyasztas nalam 100W alatt van, NV oldalon 80W
-75-120Wa felso ertekenel is +33%-kal nagyobb lett
-"A teljesítményük lesz magas." Meg az aruk is, bar az elobbibe nem vagyok biztos
Ez egy ujabb fiasko. -
Z10N
veterán
válasz
Petykemano #56036 üzenetére
"It’s a mid-range card targeted at 1080p gaming."
2021-ben...
1080p lowend
1440p midrange
2160p highend"Ez a lapka méretre akkora, mint a polaris, vagy a Navi 10.
Mégis a nevezéktanban elfoglalt helye alapján talán inkább azt várnánk, hogy egyszerűbb kivitel legyen. Az AMD demo képein egyventis kiszerelés szerepelt."
Szenne lesznek tuningolva. 160W-ra nem kell ekkora hutes. Az rx580 185W-hoz kisebb hutott raktak nemelyikre, de meg az rx5600 160W-ra is."Ezeket a képeket elnézve nekem az az érzésem támad, hogy talán a kelleténél magasabb frekvenciára húzták és a kelleténél komolyabb hűtőt raknak rá, hogy erősenek és komolynak tűnjön és sokat lehessen elkérni érte."
Jol latod. Ez meg mar csak a validalas miatt van, hogy "konnyebben" kiadj majd erte $400+. Mertha meglatnad az egyventis ref kartyat $379-ert kirohogned, mivel instant DOARosszabb, mint az 5500
xtfiasko. -
Z10N
veterán
válasz
Petykemano #56035 üzenetére
Az rx480 juniusban volt 5 eves. A 4G $199 volt. Ez pedig tuti, hogy $379 lesz. Ami pedig nem 50%, hanem 90% (KIELNCVEN!!!). Az AIB-ok meg alapbol $400+ indul, illetve megse, mert instant megy a scalper arazas.
Az rx470 $179-ral nyitott, rx570 $169. 5 ev alatt ugyanannyiert (tehat $199) elvarom a teljesitmeny duplazast (evi 20% adott szegmensben). Ami ugye a 2 evente 40% ami pont realis. Persze manapsag mar 30%-ert is ujjonganak. $379-ert akkor szerinted mennyit varnak?!
A 160W es a 3 ventis hutes pedig arrol arulkodik, hogy agyon fogjak feszelni a magas orajel miatt.
-
.Ishi.
aktív tag
válasz
Petykemano #56038 üzenetére
Ne is mondd, kíváncsi voltam, hogy mi lesz végül az RX 6600XT TDP-je, és hát azért na, jobbat vártam, mint 160W.
Kíváncsi voltam, hogy mit hoznak a pirosak/zöldek ebben a generációban 120W környékén, és ezek szerint, még várnom kell.
Lehet, hogy rosszul emlékszem, de Abu nem 100-120W-ról beszélt először? Ha tippelnem kéne, szerintem lehet, hogy ez volt az eredeti terv (lásd még az eredeti bejelentés az egyventis megoldásról), de aztán jött a megszokott szénné húzás.
-
olymind1
senior tag
válasz
Petykemano #56035 üzenetére
A 250 dolláros 7850 2 GB-hoz képest a 240 dolláros RX480 8 GB között is eltelt 4 év, a VRAM mennyisége megnégyszereződött, a teljesítmény duplázódott miközben az ár nem változott.
Most meg érezhető drágulással kapjuk csak meg a sebesség duplázást ráadásul 5 évvel később, miközben a ram mennyiség is marad 8 GB.
Ha +~45% árért kapjuk csak meg a +100% teljesítmény kapunk, akkor a P/P előrelépés kb fele akkora mint Polaris esetén volt, meg aztán jobban zsebbenyúlós kártya lesz ez így. Nem tetszik hogy vastagabban fog a gyártóknál a ceruza.
#56037 Alogonomus
A Sapphire a 200-230W-os RX570 Nitro+ 2 ventis hűtésével is meg tudta oldani csendesen a hűtését, ez még 50W-tal kevesebbet fog fogyasztani, de mivel nagynak és erősnek fog tűnni a kártya/hűtés biztosan többet is fognak elkérni érte. -
Alogonomus
őstag
válasz
Petykemano #56036 üzenetére
Csak az történik, ami az eddigi összes AMD kártyánál. Ha már az Nvidia konkurens kártyája kettő és háromventis kivitelben van a piacon, akkor miért fogták volna vissza az RX 6600 XT kártyát egy határozottan gyengébb hűtéssel? Így még csendesebb is lehet.
-
Raggie
őstag
válasz
Petykemano #56032 üzenetére
Értem, akkor azért itt lehet jelentősen rosszabb és jobb arány is azért, mert kvázi semmilyen információnk nincs erről arészről csak a piac és a hírek alapján ez tűnik kvázi reálisnak.
Értem. Korrektül tippeltél szerintem. -
Raggie
őstag
válasz
Petykemano #56028 üzenetére
"Mondjuk tételezzük fel, hogy 4-szer annyi lapka megy szerverbe, mint desktop piacra. És azt is tételezzük fel, hogy azóta már háromszor annyit eladtak. "
Ez a feltételezés csak tipp vagy valami alapján saccoltad be("educated guess"). -
paprobert
őstag
válasz
Petykemano #56028 üzenetére
"Vagy az általam használt 0.05-ös hibaarány túlságosan jó, és valójában ennél több a selejt?"
A 7nm kitapasztalt node, a TSMC történetének addigi legalacsonyabb hibaarányával, a hibaarány leggyorsabb javulásával a tömeggyártás felfutásáig.
Kb. értelmetlenné tette az EUV gyárthatóságra vonatkozó ígéretét, annyira jó lett.Szóval a számolásod inkább biztonságos, talán pesszimista is.
-
GeryFlash
veterán
válasz
Petykemano #56028 üzenetére
Az komoly kalkulacio
Nem benitoan sok, de azert 35-40%-at elfoglalja, azert ha ezek a kapacitasok meglennenek VGA teren (CPU-nal szerintem tudnak eleget szallitani, maximum a notebook CPU-k-bol lehetne tobb) akkor azert boven nem lenne hiany. Remelhetoleg 2022-tol 5nm-en minium ennyi, de inkabb tobb wafferjuk lesz. Onnantol kapasbol az altalad szamitott 13600wpm felszabadul (konzolok), es erzesem szerint 2022-ben, de talan 2023-ban sem jon semmi notebookba az AMD-tol, ami 5nm (oke, dedikalt RDNA3 VGA, de az nem szamottevo).
-
Pakmara
őstag
válasz
Petykemano #56011 üzenetére
A kezdeményezést (ne fogyasszunk annyit) tökre értem és támogatom. A teljesítmény maximalizálás +elengedett fogyasztás kapcsán is egy állásponton vagyunk. A megközelítést/hatékonyságot/kivitelezést nem értem. Tényleg annyi embernek van az USA-ban 3080+ kártyás gépe h ez akkora globális energia igényt teremt, h érdemes legyen vele foglalkozni. A mérhetősége nekem továbbra is elég kérdéses: a V8-asok hazájában tényleg kimegy majd a Watt-Swat és rátöri az ajtót Jonnykára ha túl sokat fogyaszt. Ne már... Az egész korlátozás nem hoz annyi megtakarítást mint aminnyit a betartatása (infrastruktúra kiépítés+fenntartás) felemészt.
-
MZsoltee
veterán
válasz
Petykemano #56011 üzenetére
Sok mndennel egyetértek, főleg a +10% teljesítmény +30-40% fogyasztással mondással.
Amit még be kellene tiltani az a szándékos avultatás és a nem javítható termékek gyártása. Termékcsoportonként kellene előírni a minimális garancia időtartamát például. Itt nem feltétlenül a VGA-ra gondolok, például az izzók, autók, egyéb elektronikai cikkek.
Devid_81: Na és melyikkel spórolnánk több károsanyag kibocsátást?
Ez az egész egy álszent hólyeség. -
Jack@l
veterán
válasz
Petykemano #55981 üzenetére
256 bit gddr6 valami vicc akar lenni ekkora gpu-n.
-
válasz
Petykemano #55970 üzenetére
Új játékosként a DVGA piacon egy ekkora cégnél még akár a veszteség is belefér,piacszerzés a fontos.Azt gondolom a két nagy gyártó minimum 50%nyereseggel számol MSRP árnál .
-
GeryFlash
veterán
válasz
Petykemano #55970 üzenetére
Az Intel market sharet akar szerezni eloszor, nekik egy en bloc 5%-os profit rata is tokeletes lesz.
-
Z10N
veterán
válasz
Petykemano #55956 üzenetére
Ezen kar agyalni. Amint a birkakat beetettek es latjak, hogy fogy onnantol nincs visszaut. Mindenre is rafogjak, hogy draga, kozben meg evekre es millios volumenekre elore le vannak fixalva a BOM tetelek.
Dehat ok tudjak, meg par ev es beszakadnak a jelenlegi banyak, illetve a csakanyok is mar korosak lesznek es domping lesz homokozolapatbol...
-
válasz
Petykemano #55952 üzenetére
Ó, ezt a politika is alkalmazza.
-
válasz
Petykemano #55952 üzenetére
így van , jó taktika
.
-
Petykemano
veterán
válasz
Petykemano #55949 üzenetére
Egyébként észrevetted, hogy az amdnél egy rendszeresített marketing taktika lett a "jebaiting?"
Ez már legalább a harmadik alkalom, hogy elterjesztenek a pletykaoldalakon keresztül egy meglehetősen magas árat. (Most direkt nem mondom, hogy mi reális, mi nem, mert céges szempontból sokminden racionalizálhat bizonyos árazást)
Erre jön egy Nagy felháborodás. (Természetesen még mindig fogyasztói szemszögből)
Majd jön egy új pletyka, ami szerint valamivel olcsóbb lesz. Ez az ár persze kég mindig relatív magas (értsd: alig hoz perf/price előrelépést az előző generációval szemben), de a társaság fele fellélegzik, hogy legalább nem annyira drága, mint lehetne.
-
GeryFlash
veterán
válasz
Petykemano #55918 üzenetére
,,
Az nvidia gyengébb hardverrel.sem feltétlenül fogja elveszteni a generációt. Logisztikával igyekeznek nyerni. Vagyis arra apellálnak, hogy az RDNA3 kínálat jóval szűkösebb lesz, mint amit ők piacra tudnak vinni a Samsung jóvoltából.
Ebből fakadóan én továbbra is.azt mondom, hogy kereslet-kínálat függvénye az árazás. Az AMDnek pedig.nincs' elég waferkapacitása,.hogy olcsóbb termékkel nagyobb volument tudjon adni. Ezért a drágább termékekre koncentrál."
Ez szerintem rossz következtetés. 2022-re a TSMC 5nm(illetve kicsit később a 4nm half node) wafferjai fel fognak szabadulni, mivel a legnagyobb megrendelő, az Apple át fog állni TSMC 3nm-re, és jóval kisebb 5nm foglalása lesz, 2023ra meg főleg. Az Intel a szerver CPU-it szintén TSMC 3nm-ren tervezi gyártatni.
Jelen pillanatban az AMD azért szopik, mert mindent TSMC 7nm-en gyártat, ideértve azt az évi 25-30 millió XSX-PS5 APU-t is amik viszont maradnak a TSMC 6-7nm nodejain. Az AMD notebook cuccai szintén maradnak még TSMC 6/7nm-en. Szépen kiegyenlítődik most már a dolog.
Ott lesz tehát a TSMC 5nm kizárólag az RDNA3-nak és a Zen4-nek (desktop+server).A kérdés az, hogy így hol marad több szabad kapacitás az Nvidiának, TSMC 5nm-en vagy esetleg addig kikupálják a Samsung 5nm-t esetleg beindul 2022-re a Samu 4nm. De szerintem az Apple kapacitás felszabadulásával elbírja a TSMC 5nm egyszerre az AMD és az Nvidia megrendeléseit.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55918 üzenetére
A Samsungnak jelenleg a legkisebb, ténylegesen tömeggyártásra alkalmas node-ja a 8 nm. Ha arra jön az NV, akkor máris veszített. Egyelőre a 7 nm-es EUV is elég sok hibaaránnyal dolgozik, az 5 nm-es pedig katasztrófa. A 4 nm-től várják a megváltást, ami nem egy half-node, hanem egy teljesen új, és ez elvileg versenyképes lehet a TSMC 5 nm-rel, és annak half-node-jával. Elvileg, valamikor 2023-ban.
#55919 morgyi : A Samsung a saját lapkáját gyártja magánál a 4 nm LPE-n. Ezzel láthatóan kerülik ők is a 7 és 5 nm-t, ahol szar a kihozatal. Az AMD-nek nincs különösebb értelme ezekre váltani, mert az NV-vel ellentétben jól tudnak licitálni a TMSC modernebb waferkapacitására. Az NV azért nem teszi, mert nekik ezek drágák. A Samsung közel negyed adja a 8 nm-es node-ra a wafert, mint a TSMC a 7 nm-est. Ez azért nem mindegy. Ha átmennének a TSMC-hez a consumer termékekkel, akkor durván megnőne azok előállítási költsége.
-
válasz
Petykemano #55918 üzenetére
Mindkét gyártóra vonatkoztatva:
sehogy nem lehet megmagyarázni a fejlődéssel ekkora mértékű drágítást. Ezt itt egy két ember elhintette, de ez hülyeség. A fejlődés azonos árkategóriákon belül természetes folyamat volt évtizedekig, maximum inflációs költségek voltak.
Az hogy valami 2x gyorsabb és 2-3x drágább az nem fejlődés piaci szempontból.
Már az Nvidiánál a Turing is ezt hozta, bár ott brutálisan nagy volt tényleg a GPU mérete és nem volt ekkora mértékű a drágítás főleg a Super szériávalazért javítottak az ár/ értéken, de akkor is ezen már sokan kiakadtak. Már leírtam a zöld találgatósban is , hogy ez a folyamat 2-3 generáció alatt ennek a piacnak a kihaláshoz fog vezetni.Amúgy az elméleti számok alapján nehéz belőni mi lesz a valódi teljesítményük, főleg ha azonos gyártáson jönnek és a valódi elméleti számokról sem sokat tudni.
Tegnapi Twitter folyamatok szerint az Ada 20 % kal több feldolgozót tartalmaz, mint az RDNA 3 ,de ugye az most kérdés ,így mint az Ampereben, hogy van, de nehezen elérhető, vagy átalakított struktúrában ,hogy el is érjék azt a kapacitást és az órajel is kérdőjeles. AMD nél meg az egész egy nagy zsákbamacska és kérdőjel, bármi is lehet belőle.
Az biztos , hogy izgalmas lesz, de ha ezek az árak valódiak, akkor részemről mindegy is. -
Jack@l
veterán
válasz
Petykemano #55914 üzenetére
Volt egy nvidia 7300-am tizenpár éve, az is képes volt sugárkövetést számolni.
-
Alogonomus
őstag
válasz
Petykemano #55911 üzenetére
A fejlődés és teljesítményugrás abban mutatkozik meg, hogy a 6700XT már képes sugárkövetést számolni, valamint a nagyobb teljesítmény és lapkaméret, na meg a +50% memória ellenére sem nőtt igazán a fogyasztása az 5700XT-hez képest.
-
Jacek
veterán
válasz
Petykemano #55911 üzenetére
Nagy csodat ne varjatok jelen pillanatban emelkednek a GPU arak :(
-
Alogonomus
őstag
válasz
Petykemano #55907 üzenetére
Az APU érdemben sose fog egy önálló kártyához hasonló teljesítményt nyújtani, mert még a hamarosan érkező DDR5-ös memóriák is jelentősen lassabbak, mint a régebbi kártyákon levő GDDR5-ös memóriák, hogy ne is említsük a GDDR6 és GDDR6X memóriákat. Ráadásul a kártyán levő memóriamodulok, de még a kártya áramkörei is csak a GPU "füttyentésére várnak", míg egy APU grafikus része az alaplapi DDR-ös modulokon és az alaplapi kommunikációs csatornákon osztozni kényszerül az APU egyéb részeivel. Ja és persze külön CPU és külön dGPU esetén a CPU és a dGPU is külön "elfűtheti" a maga 100-300 wattját a másik egység zavarása nélkül.
-
válasz
Petykemano #55899 üzenetére
- az NVidia és az AMD lényegében meg akarja szüntetni a $400 alatti termékkategóriákat. (2024-ig)
Ez rohadtul nem tetszik.
-
Busterftw
nagyúr
válasz
Petykemano #55899 üzenetére
Jo lenne ha kinn lenne a negyedeves jelentes gaming bevetel vagy market share-rol.
"Nyilván minden kereslet-kínálat függvénye és hát gamerek lassan háromnegyed éve várnak"Szerintem is sokan vartak/varnak, viszont igy is rengetegen vettek kartyat a 9 honap alatt aprankent, mert minden elfogy. Tehat az igenynek valamennyire csokkennie kellett mar.
Tehat tegyuk fel atlag 100 helyett 300 volt az igeny (vegre jo ugras a szeria), 9 honap alatt aprankent 150 biztos vett kartyat, nem pedig 80 es 220-an meg varnak.Aztan kitudja.
-
Z10N
veterán
válasz
Petykemano #55882 üzenetére
AMD Radeon RX 6600 non-XT not to launch sooner than September
Ahogy mondtam bejelentik nyaron es eltokolnek vele oszig (tavasszal ezt prediktaltam). Az 5500
XTutodjat pedig bejelentik keso osszel es ev vegre talan kaphato lesz. A budget Rx6300 szeriat 64bit-tel es tovabbi rohejes csonkitasokkal majd jovo ev elejen sunyiban kiadjak az OEM-eknek. Amugy ugy nez ki, mint a $100-150-os Rx560/570. Az ar ahogy mondtam meg $379 lesz vagy az altalad emlitett wunder driver miatt arcoskodnak es $399 lesz. Szanalmas. -
Z10N
veterán
válasz
Petykemano #55890 üzenetére
"Tudtommal például az XSX például 56 CU-val kerül forgalomba, de valójában 60 van benne."
56 es 52 CU. -
Televan74
nagyúr
válasz
Petykemano #55886 üzenetére
4700S -be nincs iGPU.
Compatible Graphics Required
List of Compatible Graphics Cards:
AMD Radeon™ 550 Graphics
AMD Radeon™ RX 550 Graphics
AMD Radeon™ RX 560 Graphics
AMD Radeon™ RX 570 Graphics
AMD Radeon™ RX 580 Graphics
AMD Radeon™ RX 590 Graphics
NVIDIA GeForce GT 1030
NVIDIA GeForce GTX 1050
NVIDIA GeForce GTX 1050 Ti
NVIDIA GeForce GTX 1060Egyik oldal PS5 selejtnek hívja, a másik meg Xbox -nak. Kinek hova húz a szíve!
A 4700S egy selejt iGPU nélkül. Nem mondom hogy rossz, főleg az alaplapra forrasztott 16GB GDDR6 memóriával. Csak a kompatibilis GPU lista igen karcsú, de gondolom ezt egy bios frissítéssel lehet orvosolni. Jó áron árusítanák, akkor sok embernek elég lenne 1080p -re egy RX580/590 -el. -
Devid_81
félisten
válasz
Petykemano #55886 üzenetére
Nagyon jo dontes lenne kiadni barmilyen vagott formaban mukodo iGPU-val
Nagy sok fajta jatekra alkalmas HTPC szulethetne belole, plusz jelenleg ahogy irtak is az RDNA 2.0 ritka mint a feher hollo, nem artana piaci reszesedes.
Bar ha nagyon kellene nekik a piac akkor pl a 6700XT-t sem kellett volna olyan aron ami... -
Alogonomus
őstag
válasz
Petykemano #55886 üzenetére
Vagy az AMD rájött, hogy még a részben selejtesre sikerült, ezért csak csökkentett teljesítmény mellett stabil termékeket is érdemes piacra dobnia, mert a súlyos keresleti nyomás miatt mindent el lehet adni.
Ráadásul a Ryzen 5700G sem lett elég erős a legtöbb játékhoz. Csak az IGP-k között ért el új rekordot, de még egy "non Ti" GTX 1050 is erősebb nála. Ez a "selejt PS5" processzor viszont már tényleg elég erős lehet egy 1080p szituációhoz.
Az AMD legnagyobb gondja jelenleg az, hogy mivel a 7 nm-es TSMC kontingensének nagy részét nem a dVGA szektorba kellett csatornáznia, hanem a konzolokra és a processzorokba, így még most is gyenge a RDNA2 piaci penetrációja. Eközben az Nvidia szinte a teljes 8 nm-es Samsung kontingenséből Ampere kártyákkal áraszthatta el a piacot, amit el is kapkodtak a vásárlók, mert RDNA2 kártya alig került a polcokra. -
válasz
Petykemano #55886 üzenetére
Vagy mindkettő.
-
olymind1
senior tag
válasz
Petykemano #55882 üzenetére
Ránézésre egy olcsó kategóriás 100-150 dolláros kártyának tűnik. Jelenlegi RX 460-omon van ilyen szintű hűtés.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55861 üzenetére
A chiplet. De ez nem csak úgy lesz, hanem meg is kell oldani hardveresen, és az nem egyszerű.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55855 üzenetére
A GCN-ben nem volt klasszikus értelemben dísz-ALU, ez akkor van, ha nem tudsz rá feladatot rakni. Kétféle limitbe ütközhet egy GPU, kihasználtság és függőség. Az architektúra dönti el, hogy melyik limit él.
Kihasználtságlimit az, amikor nem tudsz elég wave-et futtatni egy multiprocesszoron ahhoz, hogy átlapold a memóriaelérést. Ez a SIMT dizájnok sajátossága, és mindegyik GPU lehet kihasználtságlimites, viszont ezt nagyrészt az határozza meg, hogy van-e elég regiszter az ALU-k mellett. A probléma a mai GPU-kkal az, hogy az erőforrás-allokációjuk rém egyszerű. Egyszerűen statikus az egész, vagyis ha betöltesz egy shader programot, akkor előre lefoglal minden erőforrást, amire elméletben szüksége lehet. Ha nem nyúl hozzájuk, akkor is elveszi a helyet a regiszterekben és compute shader esetén az LDS-ben. Ennél sokkal jobb módszer lenne az, amit a CPU-k alkalmaznak, azok ugyanis dinamikus erőforrás-allokációval dolgoznak, vagyis csak olyan dolog kerül a regiszterbe, amivel dolgozni is fognak. De ez komoly ütemezőt is igényel, így egyelőre a GPU-knál ezzel nem foglalkoznak.
A fentiek mellett függőséglimit egy speciális korlát, ami a SIMD architektúrák sajátja. Klasszikus értelemben az AMD Terascale volt ilyen dizájn, azóta az alapfeldolgozást tekintve már mindenki SIMT-re váltott, tehát a mai GPU-architektúrák egységesen kihasználtságlimitesek. Technikailag az Intel dizájnja is, de annak egy sajátossága, hogy a regiszterek oldaláról ez a limit nem állhat be, viszont az LDS tekintetében ugyanúgy korlátozva lehet a feldolgozás. Ezért van az, hogy az Intel dizájnok az egzotikus, például geometry shader kódokban rohadt gyorsak, de a gyakorlatban ez egyáltalán nem mutatkozik meg, mert a fejlesztők compute shaderrel váltják ki a geometry shadert, amiben viszont eléggé vérzik az Intel hardvere.
A SIMT architektúrák esetében van egy speciális irány, amikor maga a dizájn SIMT, de egy ütemezőre több SIMD van felfűzve. Ilyenkor az architektúra egyszerre kihasználtság- és függőséglimites. Ide tartoznak az Intel dizájnjai, illetve az Ampere. Ezeknél látható, hogy papíron kurva nagy TFLOPS-ot tudnak, de ennek a gyakorlati felhasználás 95%-ában úgy kb. a 60%-a kihasználható.
Ezt azért csinálják a gyártók, mert maga az ALU olcsó a dedikált ütemezés és a dedikált regiszter nélkül. Illetve minden architektúrának vannak belső limitjei a működés tekintetében. Tehát dupla ALU-t nem olyan egyszerű ám beépíteni, mert lehet, hogy annyi multiprocesszort már nem tud kiszolgálni a tervezett memóriamodell. Azért ne felejtsük el, hogy a mai GPU-k memóriamodellje eléggé koros. Az AMD-é 2012-es, az NV-é 2010-es, az Intelé pedig 2009-es. Azóta a cégek ehhez nem nyúltak, csak viszik tovább az új dizájnokba. És egy ideje már a limiten vannak, azért próbálják ilyen-olyan egzotikus trükkökkel blokkokba rendezni a multiprocesszort, stb. És ha ez is kifújt, akkor jön elő az extra ALU tömb, de saját ütemező nélkül, mert ez a memóriamodell limitjeinek nem jelent extra terhelést, egyedül az a probléma vele, hogy a fejlesztőnek muszáj úgy programoznia, hogy a futtatott wave-ek között ne legyen függőség, mert ha az van, akkor az ütemező nélküli ALU tömb csak dísz. Nem tudja rárakni a hardver a következő wave-et, mert az éppen futtatott wave még számolja hozzá az szükséges adatokat. De mire ezt kiszámolja, addigra az elsődleges feldolgozótömb is felszabadul, tehát mehet arra a wave, ami a következő wave-hez számolja az adatokat, így azt sem lehet a másodlagos ALU-kra rárakni, és így tovább. Ezen úgy lehet segíteni, ha egy multiprocesszor két shadert is futtat, viszont ahhoz le kell particionálni a regiszterterületet, és abból nincs sok már egy shadernek sem, vagyis végeredményben, ha abból elveszünk, akkor kihasználtságlimitbe toljuk a multiprocesszort a túl nagy regiszternyomással. Ennek az eredménye ugyanúgy az, hogy az ALU nem dolgozik, csak nem a függőség miatt, hanem azért, mert nincs elég konkurens wave, így várni kell a memóriaelérésre. -
Jack@l
veterán
válasz
Petykemano #55855 üzenetére
Féloff: ha esetleg neurális hálóval akarna nv sokkal jobb felskálázást csinálni (amit nem kell előre betanítani), lazán megtehetné. Van egy csomó tensor mag, ami játék közben nem csinál semmit.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55853 üzenetére
A GCN sosem épített co-issue-ra. Ráadásul regiszterrel is veszettül ki volt tömve. Ezt az utat az NV kezdte el járni a Turinggal, az Ampere-be pedig beletervezték a co-issue-t. Ha a kódot ennek megfelelően írod, akkor van haszna, de ha nem, akkor az ALU-k fele csak dísz.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55845 üzenetére
Mármint, hogy az Apple pár beépített szolgáltatása használja, és semmi más. Kb. ugyanez Androidon. Ennek nem sok haszna van.
Ki lehet tömni a hardvert ALU-kkal, de ha nem rendelsz hozzá kellő regisztert, esetleg dedikáltat, akkor a gyakorlatban az elméleti számítási teljesítmény csak a papírra jó. Nem hiszed? A GeForce RTX 3090 számítási teljesítménye 35,6 TFLOPS, a Radeon RX 6900 XT-é 23 TFLOPS. Eközben a két hardver gyakorlati teljesítménye nagyon hasonló, hol az egyik, hol a másik gyorsabb. Nyilván az AMD is megtehetné, hogy megduplázza az ALU-kat, és akkor co-issue megy majd két vektor, de amit nyersz, az a papíron a több TFLOPS, a gyakorlatban sok kihasználatlan feldolgozód lesz.
Ha a DLSS-re tervezték, akkor nagyon rossz hardverelemet terveztek hozzá, mert a tensor abszolút nem arra való, amit a DLSS csinál. De egyébként ezt a HPC-piacra tervezték, ott nincs meg az a probléma, hogy egyszerre mennek a tensorok és a fő ALU-k, így csak az egyik regiszternyomásával kell számolni. Szemben egy játékkal, ahol azért marha nagy probléma, hogy a tensor ugyanazokat a regisztereket használja, amelyekeből a statikus erőforrás-menedzsment miatt eleve kevés van a fő ALU-knak.
#55850 hokuszpk : Ehhez képest számos cégnél jelen van az overengineering. Ágyúval akarnak verébre lőni.
#55851 b. : Természetesen az NVIDIA bármikor csinálhat egy FSR másolatot, viszont nem valószínű, hogy megéri nekik, mert akkor ugyanarra a problémára lesz két megoldásuk, és a fejlesztő nyilván az egyszerűbbet fogja választani, ami nem a DLSS lesz, mert annak számos követelménye van a leképezőre, míg egy FSR-szerű eljárásnak lényegében semmi, azon kívül, hogy élsimított képet kér. Ennyi erővel kidobhatják a kukába a DLSS-t, mert nincs értelme egy fejlesztőnek azt választania egy NVIDIA-féle FSR elérhetősége mellett.
Arról nem is beszélve, hogy mi értelme volna az NV-nek egy saját FSR, amikor maga az eredeti FSR nyílt forráskódú. A CAS-ra sem reagáltak, pedig az is egyszerűen másolható, csak nem túl nagy ötlet olyanra költeni az erőforrást, amire már van megoldás. -
válasz
Petykemano #55845 üzenetére
A Tensor magok nem a DLSS miatt kerültek bele az NV hardverekbe:
NVIDIA Tensor Core technology has brought dramatic speedups to AI, reducing training time from weeks to hours and providing massive acceleration to inference. The NVIDIA Ampere architecture provides a huge performance boost and delivers new precisions to cover the full spectrum required by researchers— TF32, FP64, FP16, INT8, and INT4—accelerating and simplifying AI adoption and extending the power of NVIDIA Tensor Cores to HPC.
Forrás: NVIDIA
-
Jack@l
veterán
válasz
Petykemano #55843 üzenetére
A linken amit beírtam, már találgatják kommentekben, hogy lehet a laczosnál jobb minőségű felskálázásokat beépíteni reshade-be.
Majd fsr2-ben meglépik 1 év mulva, mint csodatétel. -
Abu85
HÁZIGAZDA
válasz
Petykemano #55840 üzenetére
Ez a kód eléggé ALU-intenzívre van szabva, szóban akkor fog gyorsabban futni, ha több ALU kerül a hardverbe. De dedikált maggal nem.
A dedikált magnak mindig az a gondja, hogy sok követelmény van a kód felé, és ez behatárolja a fejleszthetőséget. Ez látható a DLSS-nél. Az kezdetben a tensor magokon működött, majd az 1.9-cel lekerült róla, ekkor jött egy nagy minőségbeli ugrás. Majd a 2.0-2.1-gyel részben visszakerült, de a 2.2-vel megint lekerültek feladatok a tensorról. Egyszerűen maga a tensor mag egyáltalán nem hatékony abban a feladatban, amit a DLSS mostani verziója csinál, így jobb lesz az eljárás, ha a munka jó részét nem is a tensor csinálja meg.
És innen trükkös a helyzet, mert építesz a hardverbe egy rakás olyan feldolgozót, amire próbálsz valamilyen munkát rakni, de közben rossz lesz a hatékonyság. A DLSS-nél ez úgy működne jól, ha a tensor magoknak lenne dedikált regiszterterületük, de akkor meg a lapka fele a tensor lenne, amit használhatsz 100-akárhány játékkal, a többi cím alatt pedig minden drámaian lelassul, mert az ALU-nak szánt tranyókat elvitte a tensor regiszterterülete.
Értem, hogy sokan hisznek ebben a gyorsítás dologban, de ez a valóságban elég nagy kockázat. A DLSS-en borzasztóan látszik, hogy mennyire nem jól működik, a kezdeti kód óta folyamatosan kerül át a normál ALU-kra a feldolgozás, mert hiába jó papíron a tensor valamire, ha nem olyan dologra használod, amire le van tervezve a hardver. Ha pedig úgy használod, akkor meg szar lesz a minőség, lásd DLSS 1.0. Pont ugyanez lenne a baja egy FSR-nek is, ha elkezdenél dedikált hardvert építeni rá, és még a fejleszthetőséget is behatárolja.
Olyan lehet, hogy a feladat egy kis részét gyorsítod egy külön hardverrel, de eleve egy olyan eljárás az FSR, ami egy elég gyönge GPU-n is 1 ms alatt megvan. Most ha annak egy részfeladatát felgyorsítod, akkor meglesz egy hasonló képességű modern GPU-n az eljárás 0,8 ms-ból, és akkor megveregetheted a vállad, mert az kb. 1-2 fps plusz a végleges képkockára. Cserébe ellőttél egy csomó pénzt a hardverre, a hozzáigazított szoftverre, és a tranyók egy része az FSR-t nem támogató játékokban nem is aktív. Badarság ilyet csinálni jelenleg.
#55841 Busterftw : A tensor már a DLSS új verzióival is nagyon rossza hatékonyságú, felesleges az NV-nek az FSR átalakításába pénzt ölnie, mert a dedikált hardverek használatától csak lassulnának.
#55842 Alogonomus : Annyira nem memóriaintenzív ez az eljárás, hogy az IF nagymértékben számítson. Valamennyit mindenképpen számít, de ez még +1 fps-t sem ad ki.
-
Alogonomus
őstag
válasz
Petykemano #55840 üzenetére
Több helyen olvastam olyan fejtegetést, hogy az Infinity Cache az óriási adatátviteli sebességének és elhanyagolható késleltetésének, meg a kisebb felbontásból származó nagyobb találati aránynak köszönhetően bizonyos szempontból már tekinthető az FSR "hardveres gyorsítójának" is.
-
Busterftw
nagyúr
válasz
Petykemano #55840 üzenetére
Megforditva, elofordulhat az, hogy Nvidia tensor core-okon gyorsabban fusson, ha az Nvidia arra optimalizal?
-
olymind1
senior tag
válasz
Petykemano #55825 üzenetére
Mondjuk nem csoda, ha mindent egyre drágábban adnak, akkor kevesebbet is vesznek belőle, mert szűkül a réteg is aki megveszi, vagy aki hajlandó annyi pénzt kiadni érte. De az is biztos hogy magyar piacra terveznek ezek a cégek.
Játékfejlesztőknek egyébként előbb-utóbb nem fog feltűnni, hogy kevesebbet vesznek a játékaikból, mert nem tudják futtatni őket?
-
válasz
Petykemano #55825 üzenetére
Az mindenesetre szépen látszik, hogy az AMD-nek is megéri lehajolnia ezért a 2021-re 30+ mrd USD-osra becsült piacért.
-
Busterftw
nagyúr
válasz
Petykemano #55823 üzenetére
Ez mondjuk latszik, mert hiaba novekszik, nem novekszik olyan utemben mint pl 2020-2021-ben.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55804 üzenetére
Sajnos elég sokat fogsz még úgy is belőle észrevenni. A medium részletesség csak segít a kimutatásban, de ez már max részlegességen is érződik. Láthatod a TPU tesztben, hogy ott a 3080 még 4,8 GHz-re húzott Zen 3-mal is CPU-limites pár játékban 1080p-ben, néhol 1440p-ben is.
Max részletességre értettem. Egyszerűen a Valhallában a Zen 2-Zen 3-ra váltás ennyit ért egy top GeForce-on, 1080p-ben. Ez már nem csak a medium részletességet érinti, ha csak azt érintené, akkor lehetett volna használni a Valhallát Zen 2-vel is, de egymás mögött sorakoztak a GeForce-ok 1080p maxon, miközben a Radeonok szépen skálázódtak.
Ott van a TPU mérésekben 1080p-ben a CPU-limit a GeForce 3080-on, és bivaly tuningolt procival, elég ha megnézed.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #55740 üzenetére
Az a lényeg itt, hogy ha egy AMD VGA-t tesztelsz mondjuk Ryzen 3900-zal és mondjuk Ryzen 5600X-szel, akkor a két eredmény között alig 5-8 százalék lesz az utóbbi javára. Az erősen CPU-terhelés játékokban is, 1080p. Ugyanez a GeForce esetében 20-30% is lehet a Zen 3-as proci javára. Különösen az olyan CPU-igényes játékban, mint mondjuk az AC Valhalla. Utóbbit régóta tervezzük berakni a tesztekben, de a Zen 2-es tesztprocival gyakorlatilag az 5600XT-t nem tudta megverni 1080p-ben a 3090. Ott sorakoztak 1-3 fps különbséggel a GeForce-ok középkategóriától a csúcsig. Viszont a Zen 3-ra való váltással elkezdtek a GeForce-ok is skálázódni, még mindig nem úgy, mint a Radeonok, de már csak az 3080-3090 tűnik procilimitesnek. 1440p-ben már csak a 3090 nem tudja kifutni magát, de nem extrém mértékű a limit, mint Zen 2-vel. A Zen 2-Zen 3 váltással a 3090 60%-ot bőven gyorsul 1080p-ben ebben a játékban. Érezhető, hogy mekkora a limitben volt, és még most is abban van, csak nem annyira már.
A TPU is Zen 3-mal mér már, ráadásul ők 4,8 GHz-ig tuningolják a CPU-t. Mi alapon működtetjük. És még így is limites náluk a Valhalla 1080p-ben, de persze nem mérik azt az egymás mögötti sorakozást a GeForce-oknál, amit mi Zen 2-vel.
És ez a limit 4K-ban kezd megszűnni. Nem tűnik el teljesen, de láthatóan jobban érzik magukat a GeForce-ok.Az erőteljes limit egyébként megfigyelhetően azokban a játékokban fordul elő, amelyek erőteljesen építenek a DirectX 12 bindless bekötési modelljére, amelyek mondjuk Future_Level_11_0 GPU-n is elindulnak, azokkal sokkal kevesebb baja van a GeForce-oknak. Némi limit lesz így is, de közel sem akkora, mint egy olyan játéknál, ami Future_Level_12_0 szintet kér minimum.
A másik tényező, amit megfigyeltem, hogy ha egy játék nagyon sok barriert alkalmaz (akár azért, mert szarul van megírva, vagy mert ez szükséges), akkor a GeForce driver valamiért megbolondul, és elkezdi szórni a driver barriereket, mintha nem lenne holnap. Szinte mindenhova, olyan helyekre is, ahova az AMD drivere nem is tesz, ergo egy csomó olyan helyen, ahol ez eleve indokolatlan, teljesen megakasztja a GeForce driver a feldolgozást. Ilyen játék például a Cyberpunk 2077. És ennek az eredménye ugyanaz, mint fentebb: CPU-limit az erősebb GPU-kon.
Ami 4K-n, elkezd javulni: -
killbull
aktív tag
válasz
Petykemano #55740 üzenetére
Marketing = bevétel
-
válasz
Petykemano #55741 üzenetére
szerintem ez a 399 egy beetetés ahogy írtad. A 3060 hoz áraznak, én is azt gondolom.De mindkét gyártónak majd alávág a használt piac hamarosan.nagyon remélem legalább is és rajtuk rohad az összes 3060 / 6600 300 dollár fölött.
-
Alogonomus
őstag
válasz
Petykemano #55715 üzenetére
A 25% valószínű magyarázata:
- Dirt 5 és Assassin's Creed: Valhalla kb. annyira az RDNA2 képességeire készült, amennyire a CP2077 vagy Metro az Nvidia kártyához.
- WoW: Shadowlands nagyjából az első "független" játék, ahol kijön az RDNA2 rugalmas kialakításának az előnye a Turing és Ampere kártyák fix kialakításához képest.
- Hitman 3: Na ez pedig egy erősen CPU-gyilkos játék, ahol határozottan számít az Nvidia driver overhead az 1080p-re szánt RTX3060/RX6600 kártyák összemérésekor. -
Abu85
HÁZIGAZDA
válasz
Petykemano #55715 üzenetére
Gondolom a TPU adatbázisában nincs CPU-limit. Mint írtam, az NV drivere valamiért egyre jobban küzd ezzel a gonddal. Az AMD GPU-k, sokkal gyengébb CPU-k mellett sem lesznek limitesek. Az NV-nek már a Ryzen 9 3900 is probléma 1080p-ben és 1440p-ben. 4K-ban ez eltűnik. Nem tudni mi okozza, de driverről-driverre rosszabb a helyzet. Ma már simán Zen 3 kell, hogy ne legyél limites GeForce-on. Régen még nem kellett, persze lehet, hogy az újabb játékok terhelése nagyobb.
-
Televan74
nagyúr
válasz
Petykemano #55690 üzenetére
5700XT teljesítményért kapsz egy hasonló árú kártyát. Jó deal? Nem? Hát nem! Így lehet kategóriánkként árat emelni. De még a 349$ ár is sok lenne érte. Ez egy x6xx -os kártya. Továbbra is azt mondom hogy 100.000 Ft körül lenne a helye, még a gyenge forint ellenére is. -
Devid_81
félisten
válasz
Petykemano #55690 üzenetére
Adhatjak barmennyiert papiron, a valos ara ugyis tobb lesz sajnos.
Hiaba morog a nep, ez a kartya max az eletciklusa vegere jut el az msrp kozeli arhoz a tobbivel egyutt sajnos -
Z10N
veterán
válasz
Petykemano #55667 üzenetére
"Adtak RX 570-et $139-ért. 2019 végén 50eFt táján volt."
Tudom es ezert is mondtam $100-t erte."De ma leginkább azért nem tudna jelenleg olyan áron menni, mert a lapkán kívül minden más összetevő is drága a megnövekedett kereslet miatt."
Ez meg senkit nem erdekel. Oldjak meg. Egy 5 eves (!!) "polaris redux"-ert senki sem adna $150-nal tobbet."Szerintem ha egy 32CU-s kártyának elég 32MB, akkor egy 16-20CU-s chip nem fog többet kapni 64bit-nél."
De nem lenne benne infi cache. Ezenkivul nem eleg a 32MB, spurkodnak es megvagtak."Legfeljebb 96bit, de azt is csak azért, hogy lehesen 6GB-os kártyaként adni, viszont akkor Infinity cache nélkül."
Ez meg pont, hogy nem elheto 96bit infi cache nelkul. 6GB-tal meg felesleges mokazni. 128bit infi cache nelkul 4GB es 8GB."A 128bites NAvi14 158mm2-es volt. Annál a 12LP+ biztosan legalább 30%-kal gyengébb tranzisztorsűrűséggel rendelkezik. Tehát 64-96 bittel kihozható lenne talán 200mm2-re."
Ehhez kell infi cache, az meg noveli a meretet. A 64 bitet felejtsuk el..."14x14-es mérettel és $3000-os wafermegmunkálási árral számolva 250 jó lapka esetén az $12-os lapkaárra jön ki."
A BOM-ot szamolva mindegyik kartya olcso lenne"Utoljára valami $12-os modul árról hallottam, ami persze a várakozások szerint tovább fog emelkedni. Tehát 4GB legjobb esetben is $30."
Varj, most a gddr6-rol beszelsz? Mert az $6-7/GB (normal aron). Aztan persze a kartyara rakva felertekelik."Egyébként nevetséges, hogy mennyivel többe kerül a RAM a kártyán, mint maga a lapka."
Tobb felulet, tobb ellenorzes, tobb validalas, tobb tokozas, stb." Lehet, hogy lassan megérné inkább infinity CAche-ben gondolkodni és GDDR6 helyett rátenni egy kisebb NAND lapkát, vagy csak simán PCIE-.n keresztül a rendszermemóriát használni."
NAND-t ne. 10 ev mulva is hasznalni akarom a kartyat. Direct Storage-gal megoldhato. Csak akkor elegge reteg termek lesz. Win11, pcie4, zen3, stb."Egyébként én épp ezért várnám azt, hogy a Navi24 (ami egy remek jelölt lenne erre az 12LP+-os mókára) valójában csak APU formában fog megjelenni."
Erre mondtam, hogy RX6300/6400-nak jo lenne. Mar csak a hajlandosag a kerdes. Bar ha azt nezzuk Rx5300-t is sumakban adtak ki. 96 bit-tel es 3GB-tal (miutan kinyilatkoztak, hogy 4GB az alja). Es infi cache meg nem volt.
-
Z10N
veterán
válasz
Petykemano #55669 üzenetére
8192bites busz melle?
Inkabb tele tomik CU-val.
8GB es 16GB stack:
• Data rate: 2.8 Gb/s and 3.2 Gb/s
• Peak bandwidths: 358 GB/s and 410 GB/shttps://media-www.micron.com/-/media/client/global/documents/products/data-sheet/dram/hbm2e/8gb_and_16gb_hbm2e_dram.pdf
-
Z10N
veterán
válasz
Petykemano #55664 üzenetére
"Gárthatnának Polaris 30-t is, ami 40%-kal kevesebbet fogyaszt. Nagyjából ugyanott lenne, mint a 7nm-es Navi14. Nem?"
Vegulis lehetseges, de akkor piszok olcson kene adni $100, max $150. Ami persze sose lesz ennyi, a tudjuk kik miatt. Szoval pont arra nem lenne jo, amire kitalaltak."De nem lenne igazán életképes, mert biztos drága a GDDR5 is."
Az tuti, a gddr6 is "olcso"."Az RDNA2 előnye az tudna lenni, hogy lényegesen kevesebb GDDR vezérlőre és modulra, meg huzalozásra van szükség."
Talan. 128bit akkor is kell infi cache nelkul. Mondjuk egy 16-20CU-s lapka eletkepes lehetne megfelelo aron (lasd elobbi). Az orajel max 1600."Ha a Monet-pletyka igaz, akkor már backportolták az RDNA2-t a GF 12LP+-ra. Mennyiből tarthat skálázni?"
Jo kerdes. A hajlandosag meg van (arra a szegmensre). Kerdes, hogy az RTG mennyire akarja megeroltetni magat. Marpedig tisztaban vannak a helyzettel es ezzel lehetne tuzet oltani. Ha bekorlatozzak 4GB-ra akkor a banyaszoknak nem annyira vonzo, persze a nyereszkedok erre IS lecsapnak majd. -
Z10N
veterán
válasz
Petykemano #55661 üzenetére
https://videocardz.com/newz/amd-monet-12nm-zen3-apu-and-bergamo-epyc-128-core-cpu-make-an-appearance-in-latest-rumors
AMD is allegedly planning to manufacture low-power Zen3 APU codenamed “Monet” using Global Foundries 12LP+ node. Monet is supposedly going to replace Dali based Athlon series, although Paul from RGT does mention that those APUs may also end up in devices such as ATMs. This would suggest that this might also be an embedded APU.
These ultra-low-power APUs would feature up to 4 cores and RDNA2 integrated graphics.
RX590 November 15, 2018
GloFo12LP (14LP+)
"backporting - erre vártunk.
Vajon ezen az apun kívül lesz sima GPU is, amit 12LP+-ra backportolt RDNA2 alapokon gyártanak remélhetőleg kellően olcsón? Kérnék egyet."
Es mit gyartananak rajta? Polaris 30-t?Rx595-t?
Ha tenyleg 12nm RDNA2 lesz, akkor az RX6300/6400 vagy hasonlo lehet.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Ikea Eilif Paraván - Asztali elválasztó
- Csere-Beszámítás! Asus Rog Strix G731GU Gamer Noti! I7 9750H / GTX 1660TI / 16GB D4 / 512 SSD
- LG 27GP95RP - 27" Nano IPS - UHD 4K - 160Hz 1ms - NVIDIA G-Sync - FreeSync Premium PRO - HDR 600
- Quadro FX 570 eladó
- ÁRGARANCIA!Épített KomPhone i5 14600KF 32/64GB DDR5 RAM RX 9070 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest