- Milyen okostelefont vegyek?
- Netfone
- Honor 200 Pro - mobilportré
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Realme 9 Pro+ - szükséges plusz?
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Google Pixel 8 Pro - mestersége(s) az intelligencia
- Szívós, szép és kitartó az új OnePlus óra
- India felől közelít egy 7550 mAh-s Redmi
- Samsung Galaxy S23 Ultra - non plus ultra
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Obliterátor
tag
Nem haragszom , de egyszerűen kifejtem neked : mivel régóta folyamatosan követem a topikot van szerencsém hónapok óta követni azt a fika hadjáratot , amit az AMD ellen folytatsz. Nem mondom h nincs benne igazság csupán az zavar h a konkurencia hasonló topicjába még egy rossz szót se szóltál soha pedig ott is van egy ugyanilyen fos termék. Ha hiteles és korrekt akarsz lenni akkor miért csak itt megy a hadjárat ? Vagy ez csak arról szól h utálod Abu-t s ha ír valamit akkor azonnal ugrani kell rá ? . Az emberek munka után nem ezért járnak fel ide h ezt olvassák hanem h érdeklődjenek a hardvare piac aktuális állásáról. Majd ők levonják a megfelelő következtetést a várható paraméterekből.
-
Obliterátor
tag
Lehet h az Amd egy szemét mert 399-ért ad egy 1080ti teljesítményű 128 bites kártyát. De az NV mitől lesz jobb fej amikor egy 1080ti -10% teljesíményű 192 bites kártyát adnak 329 dolláros áron ? Egyikkel se fogsz max grafon 4k-n a legújabb AAA címekkel játszani. Arra még a 3080 is kevés.
-
kisfurko
senior tag
Ok, ebben megegyezhetünk.
Nekem mindegy, hogy az AMD lett a vártnál erősebb, vagy az Nvidia lassabb a Samsung miatt.Szerintem is-is. Nehéz utólag megállapítani, hogy túl kellett-e húzni, vagy nem érték el alapból a tervezett frekvenciákat. Ezt csak az Nvidia tudja, de ők hallgatnak, mint a sír, mint mindig. A következmény a lényeg, hogy a 102 ment 80-asnak. Ettől vannak a hülye teljesítménylukak.
-
kisfurko
senior tag
Már leírtuk egyszer, hogy nem a gyártástechnológián csúszott el az Nvidia, hanem gyengébbre várta az AMD-t. A Titan szintű chipet (102) kellett 3080-ként eladnia, hogy megfogja a 6800-at, eredetileg a 104-es chip lett volna a 3080, mint korábban.
Az árakkal meg kár is foglalkozni, azok teljesen irreálisak, csak a hülyék és a nagyon rászorultak (elromlott, kell az iskolához stb.) vesznek meg ennyiért valamit. -
Petykemano
veterán
Én nem vagyok 100%-ig biztos, de jó jelölt.
Csak azokhoz a termékekhez, ahol jelenleg semi-custom AMD VGA-t használnak, szerintem nem fognak gpu-t gyártani. Lehet, hogy az Imagination fel tudna skálázódni, vagy legalábbis meg tudná oldani az Imagination és az Apple. De ez szerintem lényegesen kisebb példányszámú piac, mint az, ahová az M1-et fejlesztik. Tehát nem is biztos, hogy meg tudná érni a gyártás beindítása.Tehát két esélyét látom:
a) belépnek a felhő piacba. Erre minden esély megvan. Apple országban Apple készüléket használsz, a adatait Apple felhőben tárolódnak, Apple gaming cloud-ban játszol, és Apple hardveren futó adatközpontban számolják ki a következő lépésed és hogy mit vehetnél meg még.
Erre alkalmas lehet egy dGPU, amit a gyártási volumen növelése érdekében elpasszolhatnak a MAC-ekben is. Ugyanakkor ezt meg lehet torpedózni azzal az érveléssel, hogy a tensor vagy más célhardver hatékonyabb. Ami igaz.
Ez a cloud vs kliensoldali compute vagy a célhardver vs general még valószínűleg velünk marad egy ideig.
b) Képesek csinálni egy olyan megoldást - hasonlóan az intelhez -, amely tile-szerűen skálázhatóvá teszi az egyes összeállításokban a M1-hez hasonló lapkákat. Iphone-ba 1xM1, notebookba 2xM1, MAc Proba 8xM1
Sok mag, vastag GPU, heterogén compute, memória koherencia. -
KillerKollar
őstag
RedGamingTech-re kíváncsi lennék, egy oldalról Ő volt az aki először beszélt az AMD Infinity Cache-ről ami valóban egy olyan újdonság volt amiről csak akkor tudhatott, hogy ha valóban vannak megbízható forrásai az AMD-nél. Ugyanakkor most Ő nyomja, hogy a csúcs RDNA 3 több mint 2.5x gyorsabb lesz mint a 6900XT és kiemelte, hogy nem a ray-tracingről beszél, ami nekem nagyon sus...
-
paprobert
őstag
Abból kiindulva, ahogyan az AMD prezentálta a technológiát, esélyes, hogy minőségben nem fog tudni versenyezni az FSR, valószínűleg ezért maradtak a számoknál inkább.
Én már látom magam előtt az elnevezésekkel való trükközést. DLSS quality mód FSR quality móddal összemérve. (1/4 a 2/4-gyel.)
Az ehhez tartozó érvet is:
"Igaz hogy csúnyább az FSR, de nézd mennyivel gyorsabb! És még van Ultra Quality is, amit a DLSS nem tud."Ettől függetlenül nem akarom elkönyvelni előre a meccset. Haszna akkor is lesz az FSR-nek ha csak DLSS1.0 szintet hoz. Nem túl sok, de lesz.
-
Petykemano
veterán
"azért kiütni max a fejlesztőknél lehet ezzel ,de mi nem azok vagyunk, kérdés, hogy ez nekünk is jó lesz e?"
Pontosan."Kérdés hogy mi, nvidia felhasználók is jól járunk e azzal, ha a fejlesztő nem a DLSS 2.1 vagy későbbi verziókat adja nekünk, hanem az FSR-t mondjuk egy RTX 2060 tól felfelé."
Lehet, hogy félreérthető volt a hangsúlyom. Nem annyira dícsérni akartam az AMD-t.
A megoldásnak szerintem mindenképp elfogadható minőséget kell produkálnia - mégha ez gyengébb is, mint a minden szempontból erőforrásigényesebb DLSS-nek. (ide értve a tensor magokat a hardverben és a képfeljavító algoritmus implementációs költségét)
Az AMD célja egy olcsóbban implementálható és szélesebb körben használható megoldás kínálata volt. Nem neked, hanem a fejlesztőknek. Ha ez sikerül, vagyis a programokba bekerül, akkor kikerül a képből az a nyomós érv az Nvidia kártya mellől, hogy ott van DLSS.
(Hogy egész pontos legyek leszűkülhet az érvelés vájtszeműek társaságára, akik a képminőséget bogarásszák)Ez volt az MLiD által bemutatott agenda.
Teszem hozzá azt is megemlítette, hogy az RDNA3-ban jöhet az FSR-hez gyorsítás. (Talán egy integrált Xilinx FPGA?) -
awexco
őstag
A bevágott képek alapján elég durván rontja a képet.
Valaki bevágott egy videót a bemutatóról . Azon látható .
Bár arra a felbontásra lennék kíváncsi amin számol . Ahozz képest milyen .
Erről az egészről az mp3 jutott eszembe . Arra is mondták hogy sokat ront a minőségen de végül mindenki azt használta mert a helytakarékos mivolta hasznosnak minősült . -
Petykemano
veterán
Nem akartam félreérthetően fogalmazni. Nem állt szándékomban azt sugallni, hogy inkább natív 4K.
És mondandómból talán még egy dolog kimaradt: legkevésbé sem állt.szándékomban kétségbe vonni azt, hogy az alacsonyabb felbontás gyakran magasabb terhelésnek teszi ki a processzort (vagy annak legalábbis 1-2 szálát) és így könnyebben válik a limitáció okozójává a CPU. Persze, ha alacsonyabb felbontás mellett gyakrabban jönnek a képkockák, akkor a cpu-Nak is egyre kevesebb ideje van eg-egy képkockát előkészíteni és kezelni. Ez alapján könnyen érthető, miért számít itt nagyon a késleltetés és hogy miért skálázódhat a játékban leadott teljesítmény ilyen esetben közel lineárisan a CPU egyszálas teljesítményével.
Eltekintve attól, hogy mindig létezik egy minimum magszám (régen 2, később 4, jelenleg inkább 6) és attól, hogy sokjátékos multiplayeres játékokban, meg streamelés mellett bizonyíthatóan jól jön a magas magszám... korábban egyáltalán nem volt jellemző, hogy egy teszt során azonos egyszálas teljesítményű, se eltérő magszámú processzorok jelentős eltérést mutassanak teljesítményben.
Persze ma már a target a 8/16 + dedikált háttértár feldolgozó a target. Tehát egy olyan helyzet előállhat, hogy egy tegnapelőtti 6 magos CPU 2 év múlva okés lesz natív 4K 60fps-hez egy adott gpu mellett, de a 1440p 90fps-hez (és így persze a felskálázott 4K-hoz is) kevés lesz.
Viszont az eddigi tapasztalat az, hogy ezt a problémát sokkalta jobban megoldja egy korszerű 6 magos, mint egy tegnapelőtti 8 vagy 12 magos.
-
KillerKollar
őstag
Ez a 2.5x-3x teljesítményugrás a legnagyobb bullshit amit valaha hallottam, megeszem a kalapom ha ez játékok alatt így lesz. Lehet, hogy papíron annyival gyorsabb lesz, az igaz az Ampere-re is ha valaki szereti nézegetni a TFLOPS számokat, de játékok alatt közel sem annyival gyorsabb mint a Turing. Ha ez az állítás ray-tracingre igaz akkor még elhiszem, mert ott valóban még a dolgok elején járunk, főleg az AMD, így ezen a téren nem volnék meglepve, ha hatalmasat ugranánk előre, de sima raszter teljesítményben? Kizárt.
A matek sem jön ki. Tegyük fel, hogy igaz a 160 CU, 2 chiplet 80-80 CU. Élből a skálázódás soha sem tökéletes, dupla CU nem egyenlő dupla teljesítménnyel. De oké, nőni fog valamennyivel az IPC és ezzel visszahoznak némi teljesítményt. Nade mi lesz az órajelekkel? Elvileg 50%-os perf/watt előreugrás lesz, ha azt mind arra fordítják, hogy arányosan csökkentsék a fogyasztást, akkor jelenlegi órajeleken 450W-ot fogyasztana a kártya (6900XT 300W 80CU-val, 160 CU-val 600 lenne de ha igaz az 50%-os javulás akkor "csak" 450, de ez esetben viszont nem nagyon lesz IPC növekedés sem). A 3090 350W-ot eszik, a 400-at még talán elhiszem de a 450 már nagyon brutális és nagyon komoly ref hűtőt kellene rá tervezniük, így vélhetően egy órajel csökkentés is várható a csúcsmodellnél. És akkor erre jön rá a latency, ugyanis chipletek esetében ez is probléma, és ez eléggé rontja a játékok alatti teljesítményt, lásd Zen 2, IPC-ben az Intel előtt voltak de részben emiatt meg részben az órajelek miatt lassabbak voltak játék alatt mint az öregedő Skylake, még a Zen 3 is csak minimálisan veri az Intelt, pedig az IPC előny már orbitális. Talán az infinity cache segíthet ezen a problémán, de ha mindent sikerül megoldani én akkor is max egy teljesítmény duplázást látok ami így is a legnagyobb ugrás lenne két GPU generáció között nem is tudom mióta, de 3x, arra talán a 90-es évek óta nem volt példa... nagyon fárasztó, hogy így felhypeolják az új GPU-kat mindig, gyakorlatilag lehetetlen elvárásokkal aztán meg bármit is csinálhatnak, úgyis csalódás lesz lehet ez a legjobb videókártya generáció valaha.
Nvidiánál meg az ADA monolitikus dizájnnal 2.2x ugrás az Ampere-hez képest, (szintén JÓVAL nagyobb mint a "legendás" Pascal volt a Maxwell után") de a Hopper "csak" 3x? Akkor az nem nagy ugrás az ADA-hoz képest, pedig pont, hogy ennek kéne a nagy ugrásnak lennie mert ez is MCM... de ha már az ADA 2.2x-t hoz az Ampere-hez képest akkor a Hopper 3x-e szintén az Ampere-hez hasonlítva már nem is olyan nagy szám...
-
Petykemano
veterán
A következő nagy dobás...
A 7000-es széria technikaikag egy rebrand lesz. Ugyanazokat a chipeket fogják eladni.
6900XT => 7900XT
6600XT => 7600XT
Stb
Az előrelépést az fogja hozni, hogy már működni fog ez a szuper rezolúció. 4K-t már 1440p-ben, 1440p-t 1080P-ben,.stb renderel - default.
És persze minden tier drágább lesz eggyel (+$50), mert súlyos infláció van. -
Alogonomus
őstag
"A 3 éves Turing elérhető az RDNA2 vel szemben? vagy mi?"
Látom a szövegértelmezés továbbra sem erősséged. Azt írtam, hogy "bőven jobb ajánlatok lennének, mint az előző generációs RDNA1, és messze jobb, mint a Turing kártyák". Vagyis az RDNA2 kártyákat az RDNA1 és a Turing kártyákhoz mérve határoztam meg abban a mondatomban. Tehát az "azonos időben elérhető" alatt egyértelműen az RDNA1 és Turing architektúrát értettem.A piacra valóban előbb kerültek ki az Ampere kártyák, bár az RDNA2 architektúra már legalább 2020 elejétől kezdve ott működött a konzolra fejlesztő stúdiók tesztgépeiben, csak önálló kártyaként még nem hozta ki az AMD, míg az Nvidia kapkodva kihozta szeptemberben, és az elkapkodott kiadással érkezett is a stabilitási probléma.
"és ezt megint honnan, hogy az IC. miatt erősödik1080P ben?"
Például abból, hogy 1080p-ben garantáltan kevesebb adattal kell dolgoznia a chipnek, így nagyobb eséllyel lesz még az IC tárhelyében a szükséges adat, vagyis kisebb késleltetéssel tudja a feldolgozást végezni az RDNA2 chip.
Pedig reméltem, hogy ez az összefüggés azért nyilvánvaló számodra. -
Alogonomus
őstag
A két gyártó azonos időben elérhető architektúráihoz mértem. Egyébként az RDNA2 kártyákat az Ampere kártyákhoz mérve is egyedül a 3060 Ti és 3070 közé eső 6700 XT esetén előnyösebb minimálisan (4,21 vs 4,2) az 3070, de az is csak 1440p és afölötti felbontásnál. Televan kolléga a 100 ezer forintos kívánt árával viszont valószínűleg az 1080p kategóriában gondolkozik, ahol az Infinity Cache miatt az RDNA2 sokat erősödik az 1440p esetén kirajzolódó helyzethez képest.
-
killbull
aktív tag
-
killbull
aktív tag
Igen, az hogy nem crashelget a géped csontra állva, vagy WIN 10 lemezzel javítgathatod a rendszered. Egy egyszerű usernek ez már advenced, és NVIDIA érdekes csak lassul nem crashel.
Itt vannak a példák amit ismerős mondott, ez NVIDIA nál nem megengedett, egyszerűen nem tehetik meg az userekkel, és mindig bevillan a múltkori AMD driver mizériám ahol már azon a szinten voltam hogy hardveresen hibásodott meg a gépem valamitől, azt közbe AMD driver hazavágta a gépet hogy 30 percig se játék se youtubozás mert állóra fagyott mindig.
-
Piszmaty76
aktív tag
Pedig nekem úgy tűnik, hogy Abu cikkjeiben ill. hozzászólásaiban messze több szakmaiság és értelem van a személyeskedő kommentvadász ideböfögésekkel szemben. Az más kérdés, hogy ki mennyire ért egyet Abu mondandójával. Ő legalább próbálja kultúráltan elmagyarázni, miért írta azt amit írt. És nem, most nem rád céloztam. És nem, az önjelölt ügyvédje sem vagyok.
-
Abu85
HÁZIGAZDA
Éppenséggel se Turingon, se Navi 1x-en nincs ReBAR. Szóval azok számára ez a tényező lényegtelen.
#54942 Petykemano : Mit tud tenni a média? A termékek árát a kereslet-kínálat határozza meg. A média ellenben nem kereskedelmi tényező. Ír termékekről, leteszteli azokat, ír róluk egy véleményt, aztán vagy megveszi az olvasó, vagy nem. -
Abu85
HÁZIGAZDA
Ezt különösebben leszarják szerintem. Ellenben azért a Resizable BAR ma azért hoz az AMD SAM-en 7-13%-ot, mert nem erre voltak tervezve a játékok. A jövőben maga a funkció 20-30%-os előnnyel is járhat, amikor már a konzolról úgy portolnak, hogy az új gépekben (nem csak az AMD-nél ugye, hanem az NV-nél is) van Resizable BAR lehetőség. Ez azért nem mindegy.
#54937 Petykemano : Mert a cégek arról híresek, hogy hallgatnak a médiára. Megírhatom minden nap az Intelnek, AMD-nek és az NV-nek is, hogy kényszerítsék a boltokat arra, hogy adják MSRP árban a termékeket, de ebből nem lesz semmi. Ti vásárlók tudtok ellene tenni azzal, hogy nem veszitek meg a túlárazott termékeket. Abból érteni fognak, óóó nagyon is.
De amíg használt termékért is irtózatos pénzeket fizetnek ki manapság, addig nem fog változni semmi.
-
Petykemano
veterán
Arra gondolsz, hogy a GPU mining kapacitást döntően az ETH1 rendszer használja el? És ha megtörténik az ETH2-re való átállás, akkor "nem lesz Mit bányászni"? Merthogy hiába van még másik többezer coin, azt nem éri meg (annyira)
Ha igen, akkor annyiban egyet tudok érteni, hogy ha a pénz az ethereumbe áramlott és a többi coin árfolyama alapján nem éri meg Azokat bányászni, akkor elméletileg tényleg csökkenhet a bányásat irányából a kereslet. Az árfolyamot nem az hajtja fel, hogy mennyien bányásszák, hanem a beáramló pénz.
Ugyanakkor az ETH1 -> ETH2 átállás nem kötelező, mégha nem is átjárható (oda-vissza) a két hálózat.
Miből gondolod, hogy a tőke (ami az ETH vonzerejét adja) váltani fog ETH2-re? Elméletileg lehetséges, hogy létezzen egy ETH2 hálózat, amit döntően azok használnak, akik tényleg fizetőészközként használják és egy ETH1, ami továbbra is tőkespekulációs cél marad és emiatt nem zuhan be az árfolyam és továbbra is megéri a régi hálózatban bányászni.Tehát a gpu bányászat hanyatlásához két dolog kell
1) hogy az ETH tényleg annyira domináns legyen a többi coin felett, hogy kiesésével - vagyis kás coinok bányászásával - már ne érje meg
2) hogy az ETH1 felszámolódjonDe ha Valamit rosszul látok javíts ki.
És mégegy: hogy érted, hogy a CPU lesz a célhardver?
-
Petykemano
veterán
"Nagyon helyre kell tennie a PC gaming renoméját mindkét gyártónak ez után az év után . olyat kell dobniuk, amit még nem láttunk szerintem."
Ők most vannak nyerőben. Szerintem szerintük most van a helyén a renomé. Most már őszinte mosollyal mondják: "We love PC gaming."
Mármint...
értem ZION aggodalmát arra vonatkozólag, hogy ha tartósan ilyen árak lesznek akkor a vevők elfordulnak a piactól és majd 2-3 év múlva megnézhetik magukat. De tudjuk milyen, amikor valaki úgy érzi, nyerőben van... -
Busterftw
nagyúr
Eleve ez volt a szoveg a PS4 idejeben.
Az AMD csapata nem fejleszthet bekesen, mert a csucstechnika akkorat utott, ami Q3-rol Q4-re 6% minuszt jelentett market shareben. (23%-17%).
Volumenben 30%-al kevesebb Radeont adtak el.Az AMD-nek legalabb 1 genig tartosan jobbnak kene lennie az Nvidianal, hogy barmi erdemleges valtozas legyen. Ha RDNA 1 nem, RDNA2 sem, talan majd a kovetkezo.
Csak aztan mindig varunk a kovetkezore. -
Petykemano
veterán
Veled is egyetértek. Én is ezt írtam volna, de aztán kitöröltem, mert jelenleg semmi jelentősége nincs' atekintetben, hogy 20% a részesedés. 30%-kal gyorsabb és enefgiahatékonyabb kártyákkal is ugyanennyi lenne a részesedés és ugyanennyi lenne az ár.
A DLSS azért más, mert az szoftver. És azért lenne fontos és izgalmas, mert alacsony felbontáson az amdnek.van előnye, márpedig a dlss alapvetően alacsony felbontáson számolt felskálázás.
-
Alogonomus
őstag
Hol mondtam azt, hogy a másik a jó megoldás? Egyértelműen jó megoldás nincs, csak kompromisszumok, amik egyik esetben egyiket hozzák jobb helyzetbe, másik esetben másikat. Egyik merevebb, de a jelenlegi felhozatalhoz jobban illeszkedik, mert a felhozatalt ahhoz tervezték; a másik rugalmasabb, de még nem nyilvánvaló a rugalmasságának az egyértelmű haszna.
-
-
Abu85
HÁZIGAZDA
A DXR 1.1 a DXR 1.0-hoz hasonlóan egy zsákutca lesz sajnos. Maga a ray query jó ötletnek tűnik, mert valóban sokat segít a fejlesztői oldalon, de kizárja a sugarak sorba rendezésének lehetőségét a koherencia alapján, és ezzel egy potenciális hardveres irányt vág el. Szóval ebből visszatáncolás lesz PC-n, de nem a DXR 1.0-hoz, mert az is zsákutca a dinamikus linkelés miatt. Az a rendszer lesz, amit a Microsoft az Xbox Series S/X-re fejlesztett, mert azzal a kódbázis tetszőlegesen szállítható PC és Xbox között. Ráadásul a rendszer programozható, és nem zár ki potenciális jövőbeli irányokat.
A számítási kapacitás annyira nem hiányzik, maximum ha szarul van megírva a motor. A valós probléma más. Ezeket egyébként elég jól összefoglalta az Intel a múlt év végén: [link] - érdemes megnézni, hogy mennyire elegáns a megoldásuk. Igaz traversal shader kell hozzá, de egy rakás terhet levesz a VRAM-ról, és nem számol feleslegesen.
-
Alogonomus
őstag
A fő igazság az, hogy aki esetleg első kézből tudja is pontosan a teljes igazságot, az is csak arról az egy programról, de talán csak annak a programnak az adott moduljáról tud mindent a működés szempontjából. Na talán az AMD/Nvidia felsőbb szintjein viszonylag tág rálátásuk lehet a helyzetre, de az is valószínűleg állandóan változik, ahogy kijönnek a programokhoz a különböző funkciókat ki-bekapcsoló foltozások.
Igen, a VRAM a gond az Nvidia kártyákon (még az RTX 3090-en is), mert az Nvidia kártyákon - az adatfeldolgozási lehetőségeik miatt - hamar elszalad a memóriaigény, és rákényszerülnek a számítógép rendszermemóriájának a használatára (swappelésre), amitől nagyon visszaesik a teljesítményük. Ez is például egy olyan funkció, amiben az Nvidia kártyák kimondottan gyengék, ezért a jelenlegi generációig tudatosan kerülték ezt a funkciót a programokban, de mostantól az AMD kártyáin már nyugodtan bekapcsolható, és amelyik játékban fontosak a külső terek, ott ez a funkció kritikus fontosságú, és már bekapcsolhatják a játékban, csak legfeljebb az Nvidia kártyája nagyon szenvedni fog tőle.
A skálázhatóság csak a minőség rovására oldhatja meg a dolgot, így csak lecserélnék vele a problémát egy másik problémára.
A HU "csipája valóban kinyílt" a szinte totális győzelmükkel végződött esemény után, de már maga az esemény is azért következett be, mert előtte is "szúrta" a csatorna az Nvidia "szemét", mert nem álltak be az Nvidia-mozdony mögé, és a saját véleményüket közölték a hivatalos prospektusadatok ismétlése helyett. Ebből persze volt már addig is több konfliktusuk különböző piaci szereplőkkel, de pont a bevállalós őszinteségük miatt tűntek ki a tömegből, ezért tudtak megkapaszkodni, és mára közepesen komoly súlyú szereplővé válni.
A jelenlegi helyzetben már minden véleményhez lehet találni igazolásként lobogtatható "bizonyítékot" az interneten, ahogy a UserBenchmark például fix hivatkozási alap az Intel-hívőknek.
Végül a tények számítanak, és 2021 végéig várhatóan kitisztul a helyzet, hogy mik a tényleges erőviszonyok a két architektúra között, mert most csak sok Nvidia-játék van, meg pár AMD-játék, és ezekben a megfelelő gyártó termékei a jobbak. Valamint pár Nvidia-játékban az AMD az "ellenszél" mellett is jobb pozícióban van. -
Abu85
HÁZIGAZDA
A Microsoft megoldása kétélű fegyver. Megoldja a VRAM-mal kapcsolatos gondot, de az NVIDIA elveszíti vele a traversal unitot. Nem fog működni ez a részegység többet, csak be van építve a semmire. Az AMD és az Intel ilyet eleve nem is épített/épít be, mert a Microsoft új rendszere kiüti a használhatóságát.
Dedikált hardver amúgy mindegyik modern GPU-ban van, csak némelyik programozhatóságra van tervezve.
Ugyanaz történik, amikor megjelent a hardveres T&L. Jött rá pár hardver, majd gyorsan jött a shader modell, tehát átment az egész programozhatóba. Az RT-vel is ugyanez van. Átmegy az egész programozhatóba. -
Alogonomus
őstag
Raytracing tekintetében látszólag hasonló (tűzoltás, ami gyenge teljesítményt eredményezett) a helyzet az AMD térfelén, de valójában mégis más a helyzet.
Szintén a HU egyik Q&A adásában jól elmagyarázták a jelenlegi helyzetet. A jelenlegi programok raytracing megoldásait még az Nvidia kártyák erősségeire építették, míg amikben az Nvidia kártyái gyengébbek voltak, azokat a funkciókat kihagyták. Például Abu is említette, hogy bizonyos "AMD-szponzorált" játékban (talán az új Spiderman?, vagy a Godfall?) a raytracing hatósugarát nagyon kiterjesztették, így már nem csak a pár méteres környezet "tükröződik", és míg ez az RDNA2 kártyáknak nem okoz gondot, addig Nvidia oldalon komoly teljesítménycsökkenést okoz. Körülbelül, mint az AMD kártyákra "kódolt" AC: Valhalla esete, amiben 1440p mellett az RX 6900 XT 1%-os minimuma is magasabb, mint az RTX 3090 átlagsebessége, de még az Ampere kártyák "mentsvárának" számító 4K esetén is megőrzi egy "sima" RX 6900 XT az első helyet az RTX 3090 legvadabbul feltuningolt változataival szemben.
Ráadásul a konzolokban AMD "vas" van, így a még készülő játékok várhatóan az RDNA2 képességeihez is lesznek alakítva, hogy a konzolokon (is) jól fussanak. Ezért is mondja Tim a videóban, hogy ki kell várni legalább 2021 végét, és az akkori friss játékokon lehet majd lemérni, hogy mik az erőviszonyok raytracing terén.
Szóval míg a BAR funkció egy iparági szabvány, amit vagy alkalmazol, vagy nem, addig a raytracing csak egy képességtár, amiből mindenki annyit alkalmaz, amennyit akar, amennyit tud.
A raytracing helyzet mindenképpen javulni fog az AMD kártyákon, mert a számítógépekben és konzolokban levő RDNA2 kártyák tulajdonosait is ki akarják majd szolgálni a szoftvercégek, így a jelenleg fejlesztés alatt álló programokat már legalább ugyanúgy cél lesz RDNA2 kártyához optimalizálni, amennyire Ampere kártyához.
A BAR funkcióra viszont ha optimalizálnak is a szoftvercégek, az egységesen segíti mind a két gyártót, szóval ha az Nvidia utol akarja érni az AMD-t, akkor csak a saját szoftvermérnökeire számíthat, hogy azok találjanak valamit az "idegen" platformon(-ban), amit az AMD nem vett észre, és nem implementált a SAM keretein belül. Az AMD viszont aligha fog segíteni hasznos ötletekkel az Nvidia megoldásának csiszolásában. -
Abu85
HÁZIGAZDA
Az új kódban is csak azt számol, csak a korábbinál némileg távolabb, meg több a mintavétel. De gyorsabban is dolgozik, tehát effektíve az Update 4.0 emelte a minőséget, miközben a sebesség alig változott. Ehhez jöttek a driverek.
A hang az nem olyan egyszerű. Egyedül a Steam Audio 2.0 az, ami van erre a problémára, és az még béta. De az Unreal Engine és a Unity már támogatja.
A Valve-ot az hátráltatja, hogy a Radeon Rays 4.0 csak részben nyílt. Tehát bizonyos forráskódok nincsenek meg nekik. Lényegében kellene írniuk egy saját GPU-s intersection engine-t erre a problémára, az sokat segítene a Steam Audio 2-nek. A Valve-nak azonban csak CPU-s motorja van, és az sem skálázódik egy szál fölé. -
Abu85
HÁZIGAZDA
-
paprobert
őstag
Herkelman szavaiból leszűrve csak valami ML nélküli, szegény ember DLSS-e készül a műhelyben sajnos.
Legalább az első néhány fecskét már látnunk kellene, akár csak néhány képernyőképet, de még az sincs.Ez azt jelzi, hogy messze van időben, vagy hogy nem elég jó, vagy mindkettőt.
-
Cathulhu
addikt
csak amig az nvidianak ott vannak a jatek kozben amugy semmire sem hasznalt tensor corejai igy azokat nyugodtan terhelheti DLSS-sel, addig az AMD-nel ilyen dedikalt egysegek nincsenek, azaz egy DLSS mindenkepp valamilyen szintu teljesitmeny vesztessel jarna naluk, foleg mert az RDNA computera annyira nem is jo. Szerintem ezert nem eroltettek eddig, pedig a szoftver mar evek ota kesz lehetne nekik. Lehet a chiplet designra varnak vele?
-
DudeHUN
senior tag
Ööö pont ezt írom az árazásos beszélgetésben? Van teljesítmény, jó a termék az adott szegmensben akkor lehet növekedés. Egy bizonyos szintig ofc. Ahogy a Bulldozerek esetében is egy réteget ki tudsz elégíteni az árazással.
Elhiszem, hogy a bányászokat jó okolni a jelenlegi helyzetért, mert sok kártyát felszívnak. De nem ők vásárolnak fel mindent ami elektronika. Csak VGA-k esetében még ők is húzzák fel a keresletet szépen. Elég megnézni, hogy milyen hiány van kozolokból vagy bármiből pedig nincs kevesebb gyártva mint anno. Sőt.
-
DudeHUN
senior tag
Meglepődnél, hány nem bányász veszik a VGA-kat. Nyilván nem RTX 3080 és 3090-et, de mennek. A bányászok nincsenek elegen ehhez. Főleg a pandémia miatt azt veszik, ami kapható.
Látom kik veszik a kártyákat. Sok átlagember. Csak ők maximum egy RTX 3070-et. Többségében amikor kapni a GTX 1660 200 körül jól megy konfigokba vagy upgrade-nek.
Akik nem veszik maximum azok, akik fórumoznak, esetleg jobban informálódnak. Az átlagember az veszi. Ő nem tudja, hogy lehetne olcsóbb is. -
Petykemano
veterán
Én is mindig ezt mondtam, hogy a kripto árfolyamokat nem a bányászat okozza, hanem fordítva.
Itt azt mondják, hogy az ETH esetében az elmúlt 1 év leforgása során 2.5x-ére, 200k-ról 500k-ra emelkedett a GH/s hálózati összkapacitás.
[link]Itt pedig egy profitabilitási mutató:
[link]Itt Pedig az árfolyam:
[link]Amíg az árfolyam megy fölfelé, addig a kapacitás ugyanolyan mértékű bővülése azonos megtérülést fog eredményezni.
Tehát vagy a kapacitásnak kéne meredekebben nőnie, ami valószínűleg a termelési korlátok miatt nem fog, vagy az árfolyamemelkedésnek kéne megállnia.Tehát a 10 annyi gpunak csak akkor lenne értelme, ha közben az árfolyam annyi marad, mint most. (Bár már önmagában elég viccesen/ijesztően hangzik, hogy majd akkor lehet gput kapni normál áron, ha 10 argentinányi villamos energia megy csak a légkör fűtésére)
Viszont mitől csökkenne az árfolyam? A pénznyomtatás ingyen van. A pénznek, amit a jegybankok teremtettek a gazdaság megmentése érdekében, és ami döntően nem rászorulókhoz került, az van most befektetve részvényekbe és kriptodevizákba. Ebből fújódik a buborék. Ezt a pénzmennyiséget meg kellene semmisiteni. Ennek pedig egyetlen módja az adóztatás. Persze értelemszerűen nem a munkáért remegő kisembert adóztatására kell itt gondolni, hanem azokra a helyekre, ahol ez a vagyon - bármilyen formában, részvény kötvény, arany, kriptodeviza, stb - lényegében csak pang.
-
hokuszpk
nagyúr
"Kérdés hogy az ETH2 mennyire lesz átütő/ piacváltoztató tényező később,"
ha igaz, hogy ez egy teljesen uj valami, akkor kb. semennyire. Majd hulyek lennenek olyasmit banyaszni, amit elsokorben 0$ vagy 0.00000000000000000000 bitcoinra lehet valtani.
nomeg ha vgaval nemerimeg, akkor miert alljon at ra egy vgaval telipakolt banya ? -
sutyi^
senior tag
Kétlem hogy a 6500XT 399USD-n landolna, ha jön sima 6700 (6600XT ?)-as.
A sima 6700-as kéne olyan magasságban legyen, az meg meg ~RTX 2080/2080S környékére kéne hogy érkezzen. Az alá még be kéne toljanak valamit RTX3060 szintre, de az nem igazán látom hogy 399-re érkezne.Ez alá kéne valahova érkezzen olyan 2.8-3.0GHz környéki boost órajellel a NAVI23.
-
Cathulhu
addikt
hat pedig azt mondtak a videoban, hogy akkor volt igazan elonyos bekapcsolni, amikor a CPU fojtva volt. Desktopon nem igazan lesz fojtva, nem hiszem, hogy ott nagyobb kulonbseg jonne ki.
De egyszo mint szaz, azert abban igaza volt az AMD-nek, hogy a SAM nem csak abbol all, hogy bekapcsoltak a rebart (ha ezt a roviditest meg senki se hasznalta, akkor (C)), hanem kell moge tolni software-es supportot is (MSI is erre hivatkozott)
#54317: csak lestem, hogy az apron dragabban mennek el hasznaltan a vega64-ek mint mikor 4 eve vettem ujonnan. Nem tudom ez a viszonylag jo ETH hashratenek koszonheto, vagy mar a gamerek is rafanyalodnak, de az allam leesett.
-
Petykemano
veterán
azt ugye látjuk, hogy olyan elképesztő a kereslet a gpu-k iránt, hogy még az 5 éves példányok is 2-3x-os áron kelnek el.
Egyáltalán nem arról van szó, hogy a bányászok - most - felcsipegetnék az olcsó szart. (ezek a gamerek lennének inkább)Tehát én nagyon kételkedek abban, hogy itt csupán arról lenne szó, hogy összekapartak a raktár mélyéről párezer hibás darabot (amiken pont a képmegjelenítés hibás) és azt is pénzzé teszik, mert most lehet.
Szerintem ezt gyártani fogják és azért ezeket, mert jobbak bányászaszatra.
A kérdésem arra vonatkozik, ami számomra nem egyértelmű, hogy ez csak új BIOS, vagy valami módosított design és utóbbi esetre kérdezem, hogy miért nem inkább CDNA vagy VEGA20?
-
-
TESCO-Zsömle
titán
"Pedig aztán a TUF a szegény ember ROG Strix kártyája ugye."
Ha csak azt nézed, hogy plecsni van rajta, akkor igen. Eredetileg a TUF széria pont arról szólt, hogy nem annyáig túlhajtott cuccok vannak rajta, hanem a lehető legellenállóbbak, amik tovább bírják, nehéz körülmények közt is.
-
Alogonomus
őstag
RX 6800 XT:
Sapphire Nitro+ 1500 rpm
PowerColor Red Devil 1400 rpm
XFX Speedster Merc 319 1200 rpmRTX 3080:
Gigabyte Aorus Xtreme 2300 rpm
EVGA FTW3 Ultra 1700 rpm
MSI Gaming X Trio 1300 rpm
ASUS TUF Gaming OC 1900 rpm
Gigabyte Gaming OC 1800 rpmVagyis egyedül az MSI RTX 3080 Gaming X Trio tudott olyan értékeket hozni, amit az RX 6800 XT kártyák, viszont ezért cserébe a 3080-as listák 1 2 végére is szorult.
Az előző hozzászólásomban említett 1200 rpm az RX 6800 XT esetén így átlagosan 1366 rpm-re változik, viszont az RX 3080 esetén is 1800 rpm-re nő az 1700 rpm, de még az Aorus nélkül is 1675 rpm lenne, plusz az EVGA gyári tuningját direkt nem vettem figyelembe, ami szintén 2200 rpm-re emelné a kártya ventilátorának a fordulatszámát.
-
Alogonomus
őstag
Akinek mindenképpen szüksége van egy felső kategóriás kártyára, az a jelenlegi áruhiány miatt valóban nem törődik nagyon a fogyasztással, de ezt az állapotot azért tavasz végéig remélhetőleg magunk mögött hagyjuk, és akkor nagyon nem lesz mindegy, hogy a gyári tuning mellett 1200-at forog egy kártya ventilátora, vagy 1700-at.
-
Ha megjönnek az Intel VGA kártyák, az NV rá lesz szorulva az AMD-re, de ez AMD számára is fontos lesz. Intelék nyilván a full Intel buildet fogják nyomni, majd marketingelik mindenféle badge-zsel meg hangzatos fantázianévvel, és a zemberek mennek majd rá, mint maci a mézre.
Ugyanakkor az AMD-nek is lehetnek már nagy teljesítményű full AMD gépeik az RDNA2-nek köszönhetően, de mivel a dVGA piac 80-85%-a az NV kezében van, így a CPU eladásokra jó hatással lehet az NV VGA-val épített AMD gépek forgalma.
Persze biztos lesz Intel+NV gép is, nyilván nem szűnik meg, szóval nem tudom, a fenti scenario mennyire állja meg a helyét, de el tudom képzelni.
-
-
#09256960
törölt tag
Úgy úgy meg akinek van esze nem veszi ki hanem bitcoinba tartja benn,
Zavargásoknál aranyba meg Bitcoinba mentik az emberek a pénzüket... ami öngerjesztően növeli eleve az értékét.
Még egy duplázódás és a márciusi kártya kiadásokat kiskocsival el is tolják a boltokból. Ráadásul a több memória (TI) jobban is használható bizonyos coinoknál.
Amúgy azt nem értem hogy AMD miért nem jön ki a CDNA-s 32GB bányászkártyájukkal persze tőlem hívhatják FE creátornak is de a sorsát nem tudja elkerülniehelyett kis haszonnal konzolt csináltat.
Úgy érzem ilyen kis keresztmetszeteknél nem előny hanem hátrány a konzolkiadás. -
-
Abu85
HÁZIGAZDA
A problémát pont a konzolok jelentik, hogy lényegesen többet tudnak a DXR 1.1-nél. És a Microsoft számára gondot jelent az, hogy a konzoljukon ezt a tudást kihasználhatóvá teszik, PC-re meg hasonlót nem. És nem lenne gond, ha az AMD nem csinálna saját implementációt, de csinálnak, ráadásul olyat, amire konzolról csak másolgatni kell a kódot. Ez nem jó a Microsoftnak, nem véletlen, hogy hirtelen 180 fokot fordult a véleményük a traversal shaderről. Felfogták, hogy ha akarják a fejlesztők, akkor simán át tudják hozni PC-re a DXR 1.1-ben nem működtethető eljárásokat. Szóval most az a cél, hogy ezt ne egy zárt API-ra tegyék, mert a Radeon Rays 4.0 hiába GPUOpen cucc, bizonyos elemei zártak, nem tudja az Intel vagy az NVIDIA támogatni.
Valójában a legnagyobb problémát az árnyékok jelentik. GI-t és reflectiont lehet máshogy is igen jó minőséggel csinálni. A Dirt 5-nek van egy voxel cone tracing megoldása erre, ami rendkívül gyorsan működik, és minőségben jelenleg nincs is igazán párja. Hülyeség lenne egy RT megoldásra cserélni, ami kérdéses, hogy hozza-e azt a minőséget, de az biztos, hogy sokkal lassabb lenne. A reflection szintjén is nagyon jól áll a Codemasters új játéka.
Láthatod, hogy a pocsolyán visszatükröződik a környezet.Ezeket az effekteket könnyű megoldani nagyon gyorsan, az árnyékok tekintetében is vannak trükkök arra a minőségere, amit az RT-s megoldásuk hoz, de sokkal nehezebb hagyományos technikákkal megoldani. Hónapokig tartó munkával is csak megközelíthető az RT shadow minősége, de igazából sosem érhető el. Ezért alkalmazzák ezt. Egy RT GI minőséget például, ha van már voxel-cone tracing technika a motorban, akkor azt baromira egyszerű hozni méghozzá sokkal kisebb teljesítményigény mellett, és a voxel-cone tracinget több dologhoz is fel tudod még használni, akár a reflectionhöz.
Itt majd az Ubisoftot érdemes figyelni, mert ők dolgoznak egy nagyon érdekes reflection eljáráson, ami egy eléggé fura hibrid megoldás. Ezt nagyon régóta kutatják, és a Far Cry 6-ra kész lesz, legalábbis azt ígérik, hogy abba a játékban belerakják. Ezzel a technikával vizuálisan elérik az RT reflection szintjét, miközben a teljesítményigénye a hagyományos RT megoldás töredéke. A mostani kód még nem igazán optimalizált, de így a sebességcsökkenés 8-9% körüli, viszont cél, hogy ezt levigyék 4-6% közé. Az árnyékokat viszont az Ubisoft is RT-vel fogja csinálni. Egyszerűen nincs olyan trükk, amivel el tudnád érni az RT minőséget, és ne kellene rajta hónapokat dolgozni.
#53562 morgyi : Nem pont a szögek a problémák az árnyékoknál, hanem az átmenet, ahogy az árnyék ellágyul. Te is észreveheted az utcán, hogy ha reggel éles szögben süt a nap, akkor a lábad árnyéka viszonylag éles, de a fejed árnyéka már elég lágy. Ezt borzasztóan nehéz hagyományos raszterizálással megoldani. Vannak bizonyos potenciális technikák, például a frustum tracing opció lehet erre, de egyrészt sok munkát igényel, másrészt ez a technika máshol torzít, harmadrészt a teljesítményigénye talán az RT-nél is nagyobb. Amíg tehát RT GI-ra és RT reflectionre van nagyon hasonló minőséget biztosító megoldás sokkal gyorsabban is, addig RT shadowra egyszerűen nincs. Ezért látod azt, hogy ez az első dolog, amit a DXR 1.1-gyel felkaptak a fejlesztők, mert a GI-t AO-t megoldhatják voxel-cone tracinggel, a reflectiont mondjuk hibrid RTSSSR-rel, nem fogod látni a különbséget, miközben ezek bekapcsolása sokkal kevésbé csökkenti a sebességet. Viszont a shadows egy olyan probléma, amire nincs a raszterizáláson belül normális válasz, a frustum tracing, ami realitás lehetne simán többet eszik az RT shadows eljárásoknál, így meg akkor inkább RT shadows.
-
Abu85
HÁZIGAZDA
Azt nyugodtan nevezhetjük tranzisztorpazarlásnak, amikor majdnem olyan tranyóigényű MIMD egység kell egy traversal multiprocesszornak, mint amilyen maga a fő multiprocesszor. Ha az NV lecserélnél most a saját traversal egységét erre, és programozhatóvá tennék, akkor az Ampere-ben most feleannyi CUDA mag lenne, miközben a lapkaméret nem csökkent volna. És eközben a sugárkövetés sem lenne gyorsabb, mert a feladat nagy részét teszi ki a tényleges shaderek futtatása, aminek nem tesz jót, ha a CUDA magok száma a felére csökken. A 3090 ezzel a mostani teljesítménye 60%-át tudná csak, miközben egyáltalán nem lenne olcsóbb gyártani. Lábon lőhetik persze magukat a cégek, de esélyes, hogy nem teszik meg.
-
-
Abu85
HÁZIGAZDA
Nem tud segíteni. Itt maga a specifikáció a gond, nem az amire a hardverek képesek. Maguk a hardverek elég sokat tudnak. Ez nem biztos, hogy látszik, de mondjuk a PS5-ön a Spiderman RT-je lenyűgöző, és olyan messzi objektumokat visszatükröz, ami megdöbbentő. Ez különösen jól látszik, amikor a felhőkarcolókról nézed a tükörképet. A hardver tehát adott, csak össze van kuszálva a specifikáció PC-n. Van egy sávszélterhelő DXR 1.0 és van egy regiszterterhelő DXR 1.1. Egymással nem is kompatibilisek, bár implementálhatók egymás mellett. Az ideális az lenne, ha az effektek egy részét DXR 1.0-ban, míg a másikat DXR 1.1-ben implementálnák a fejlesztők, de kettő specifikációval aztán nem akarnak küzdeni, mert így is szenvednek a limitekkel. És akkor a specifikációk bizonyos irányokat le is szárnak. Jó lenne, ha a másodlagos sugarakat a hardver sorba rendezné, és akkor koherensen is kezelhetők lennének, de a DXR 1.1 specifikációja ezt működés szintjén kizárja. Szóval most ott tartunk, hogy van két eltérő alap, saját működésbeli gondokkal, és egyikben sincs sok lehetőség a jövőre nézve. Ez tisztán egy szoftveres gond. Kb. abból ered, hogy az RT még mindig egy vízió, de nem alakult ki egy kép arról, hogy melyik irány a legjobb. Például pár éve a Microsoft még kizárta a traversal shadert, mert szükségtelennek tartották. Ma a vezető fejlesztés a DXR-ben a traversal shader. Ugyanaz a cég, pár hónapon belül gyökeresen megváltoztatja az álláspontját, mert ami anno rossz ötletnek tűnt, most a gyakorlat alapján talán az egyik legjobb ötlet. És akkor tervezzél úgy hardvert, hogy a szabványalkotó 180 fokot fordul egy éven belül.
Persze, hogy gúnyolódás volt. Ha kiszeded a lapkából azt a részegységet, akkor durván lelassítod a feldolgozást, hiszen az egész bejárás egy fallback folyamat, ami addig megy, amíg a meghatározott távolságon belül van találat. Ha ezt kirakod egy tokozáson kívüli hardverre, akkor minden fallback, akkora késleltetésbüntetést kap, hogy úgy az egész teljesítmény a századára esik, ha nem az ezred részére.
-
-
Maga a Q2 "RTX" "verziója" (azaz az RT version) lett nV által írva, gondolom ez megvan
A remastered version of the game, titled Quake II RTX was announced by Nvidia in March 2019 and was released on June 6 for Windows and Linux on Steam.
Attól, hogy mondjuk az API Vulkán, a játék kód ami fut, az az nV által írt Q2 RTX.
A hsz-ed azon része teljesen helytálló, hogy ez egy techdemo, egy nV techdemo.
-
-
Petykemano
veterán
Amúgy te elhiszed hogy sok év fejlesztés után pont százalékra szinte ugyan akkora teljesítmény van és minden így összhangban van? Még a termék hiány is? meg elfogy minden kártya a boltokból, se 5700 se Turing mert hirtelen nincs egyik gyártónál se semmi? Ah tudom üldözési mániám van de nekem ez már egy kicsit sok, valahol úgy eljött egy határ, hogy azt mondom hogy tehetnek mindketten ( AMD-Nvidia) egy nagy szívességet.
Abban biztosak lehetünk, hogy egyik cégnek sem érdeke tönkretenni a másikat. Tehát ha valaki technológiai előnyre tesz szert, akkor egy bizonyos piaci részesedésen túl (70-80%) inkább áremeléssel reagál a keresletre.
Ugye az Adam Smith-i gondolat a kapitalizmusról, hogy a piaci résztvevők versenyeznek. A mikro-makroökonómián megtanítják a klassszikus közgazdaságtan keretein belül, hogy a cégek olyan hevesen versenyeznek a fogyasztók kegyeiért, hogy leversenyzik a profitot. Az ár nyilván addig megy le, ameddig a leggyengébb szereplő profitja el nem tűnik, a többieknek nem érdeke az alá menni. Viszont profit hiányában, veszteséges működéssel a leggyengébb szereplő ki is esik a piacról. Elméletileg ekkor tovább kéne versenyezniük árcsökkentéssel.De tényleg mi van, ha kevés szereplős piacon a piaci szereplők koordinálnak? Ehhez még csak meg se kell beszélni semmit. Egyszerűen ránézek a piaci versenytársaim negyedéves jelentésére és látom, hogy mekkora margóval tud dolgozni és tudom, hogy mennyivel adhatom olcsóbban a portékámat, hogy piaci részesedést szerezzek, de ne egyem tönkre, vagy mennyivel adhatom drágábban.
A teljesítmény vonatkozásában a kérdés már érdekes. Ha egyforma technológián lennének, azt mondanám, technológiai limitbe ütköztek, ahonnan legfeljebb valami nagyon új megközelítéssel lehetne elmozdulni, vagy bárni a következő kisebb csíkszélességre. De nem egyforma.
Ami az ellátottságot illeti, nekem erős a gyanúm, hogy egyrészt a wafer kínálat tényleg szűkös. Másrészt vannak nagy szereplők a piacon, akik többet ajánlanak a kapacitástért. A MS és a Sony minden bizonnyal többet ad egy lapkáért vagy egy GDDR6 modulért, mint egy GPU AiB összeszerelő. A Google, Amazon, MS - ezek minden bizonnyal mind nagy tételben vásárolják fel az összes rendelkezésre álló cloud computingra alkalmas EPYC, cloud gamingre alkalmas GPU, vagy AI gyorsításra gpu vagy más gyorsító kapacitásokat.
Kivásárolnak minket, kisembereket, a technológiai szuverenitásunkból és rácsatlakoztatnak minket az általuk felvásárolt már szolgáltatásként kínált kapacitásra. Ez nyilván nem most kezdődött, csak most itt úgy csúcsosodik, hogy már igazán választási lehetőséged sincs. -
arn
félisten
ott azert rapakoltak 24g ramot - bizonyos appoknal jol jon. a masik, hogyha belefut a 3080 a memlimitbe - mint a cyberpunknal, kapasbol 2x gyorsabb lett. a 6900 ezzel szemben tenyleg semmivel nem tobb csak 80 vs 72 - ennyi a max, amit kapsz, de inkabb kevesebbet, ha nem az a szuk keresztmetszet.
a 3090 majd a 3080tivel lesz ertelmetlen, mar ha az nv tenyleg 20gs kartyaban gondolkodik. mert vedve a kisebbeket siman beleallhat, hogy ez a generacio 8-10g lesz tipikusan.
persze ettol mindketto pofatlanul tularazott, de a 6900 a feleslegesebb. a 3080ti arat nem is a 3090 fogja felverni, hanem maga a 6900 - mert par szazalekkal gyorsabb lesz, es a 6900at nem fogjak 1100-1200 usd alatt adni aib szinten. innentol meg eljutottunk oda, hogy a az eredetileg 650/700 usd arszinthez kepest, ha csak legyfingnyival is tobbet akarsz (gyakorlatban tenyleg par szazalek lesz tobbnyire), fizess 2x annyit.
-
-
#09256960
törölt tag
Ezt hogy érted? Ha a tekercshangra gondolsz akkor 200-300 FPSnél tényleg van hangja de ez elemi fizika, a másik oldalon is lesz.
Ha arra gondolsz hogy 8%ot ír ki alapbeállításon talán picit jobban húzható akkor 10%.
A CU számok alapján ez a lineáris skálázódásnak megfelel.
Sajnos árban nincs lineáris skálázódás Ha a 230 270 es MSRP árat nézed akkor ezt 300-ért illene árulni.
A PR azt mondaná erre alig jelent meg máris szinte utolérte a 6800XT darab eladását alig 5 kártyával marad le
Na ja mert abból volt 5.
Én már kezdem azt hinni hogy Kína megbosszulta a HUAWEI ügyet és valahogy belerondított a TSMC gyártásába annyira hallgatnak.
De azé' van egy jó hírem azt mondogatják hogy lesz karácsonyra nagyobb adag Ryzen a boltokban.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Microsoft Windows, Office & Vírusirtók: Akciók, Azonnali Szállítás, Garantált Minőség, Garancia!
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RTX 3060 12GB GAMER PC termékbeszámítással
- Samsung Galaxy S6 Lite (2022) , 4/64 GB ,Wi-fi
- Bomba ár! Lenovo ThinkPad T490 - i5-8GEN I 16GB I 256GB SSD I 14" FHD I Cam I W10 I Garancia!
- Dell Latitude 8-11. gen i5, i7, 2-in-1 szinte minden típus csalódásmentes, jó ár, garancia
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged