- Samsung Galaxy A72 - kicsit király
- Azonnali mobilos kérdések órája
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Milyen okostelefont vegyek?
- Sok mindenben fejlődött a friss Nord CE4 Lite
- Google Pixel topik
- Bivalyerős lett a Poco F6 és F6 Pro
- Xiaomi Mi 11 Lite - 4G-vel vagy 5G-vel kéred?
- Samsung Galaxy S22 Ultra - na, kinél van toll?
- Android szakmai topik
Hirdetés
-
Az USA tisztifőorvosa figyelmeztető címkét ragasztana a közösségi médiára
it Figyelmeztető címkéket szeretne látni az USA tisztifőorvosa a közösségi médiában, ami főleg a serdülők számára lenne emlékeztető a platformok súlyosan káros hatásairól.
-
Spyra: nagynyomású, akkus, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
-
Az okosórák meghódítására készül a Galaxy AI
ma Azért az amazonos listázásnak vannak furcsaságai.
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
korcsi
veterán
Interpolációról volt szó, a VRR-el nincs judder, ellenben mint a mellékelt példa mutatja, (144Hz-es Freesync-es kijelzőn is) szörnyű eredményt ad, önmagában kevés a bokdogsághoz, és minnél nagyobb a kijelző annál jobban rosszabb :).
Egy jól beállított interpolációval még nem lesz szappanopera, de simít a képen.referencia 5700(XT) plexi ARGB-s blokk eladó!
-
paprobert
senior tag
Ez alapján ~15% órajelelőny lesz azonos fogyasztásnál, ami korrektül hangzik.
A kérdés már csak az, hogy a félhivatalos leak által említett 50% perf/watt javulás a Big Navi-ra vonatkozik, vagy a fele akkora Navi10 utódra?
A nagy chip esetén érthető hogy honnan jön a hiányzó 30-35% hatékonyság növekedés. A nagy méret és az alacsonyabb órajelek közelebb juttatják az optimum ponthoz a kártyát. (ezt a verziót tartom reálisnak)
Ha viszont a kisebb kártya javul ennyit, akkor az architektúrához is hozzá kellett nyúlnia az AMD-nek, nem is keveset.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
na de azért érzed hogy 2 hónapja mit írtál az mit jelent ma és nem JEDEC meg szabvány izé bizé
" A GDDR6X ugye 18 Gbps fölé jönne, de oda még jobb árnyékolás kellene, ami gyakorlatilag a jelenlegi technológiákkal lehetetlen. Akármennyi X-et raknak a memória mögé, a gyakorlatban reálisan 16 Gbps hozható maximum."
tehát az hogy lehetetlen a mai technológiákkal igaz júniusra vonatkozott.
ez nem jelenti azt hogy nincs igazad mert nem jelentek meg a kártyák még.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
A gyakorlat eddig nem azt mutatta, hogy a memóriamodulok száma és a kártyák fogyasztása között ennyire direkt összefüggés lenne. Az RX 570-ből pl. a 8GB-osak nemigen esznek többet, mint a 4-esek. A fejtegetésed alapján a lentebb felbukkant pletykában a 14GB különbség a 3090 és a 3080 között csak a memória oldalán 70W differenciát jelentene TDP-ben, és még a chipnek is kell több kakaó. Szerintem itt el lehet felejteni a paraméteres becslést.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Ó, ha 3W-tal többet evett, az mindjárt más. Mennyi is a 4GB 1750MHz-es GDDR5-re becsült fogyasztás? 3W? Vagy nem?
Igen, értem, hogy 24 modulról van szó - tehát akkor a 10 modulos kártyához képest látni fogunk 50-70W különbséget csak a memóriának köszönhetően?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Jack@l
veterán
Úgy gondolod, hogy x db összesen 4gb-os modul kb ugyanannyit eszik, mint a 8gb-os?
Józan paraszti ésszel is 2x annyi tranzisztor, 2x annyi fogyasztás és hő.
Szóval valhol elcsúszik a mese. Valószínű ott, hogy 130w-ot eszik 24gb memória.
UI: miből gondolod, hogy 24 lesz a titanon?[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
...és akkor itt van a naplemente a 30-50W-os GDDR5 memóriafogyasztás legendájának is
Ha nem 5W-tal számolod a felturbózott lapkák fogyasztását, csak 4-gyel, akkor is 56W többletet jelent a 14 extra chip. Csak a memória terén, plusz még ott a nagyobb kiépítésű GPU. Szóval a 24GB-os meg a 10GB-os kártya között vagy 80-90W különbségnek kellene lenni, ha a memóriás fejtegetés megalapozott. Igen meg leszek lepve, ha így alakul...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
-
Jack@l
veterán
Remélem feljegyzi valaki ezt az okosságot. Nem értem hogy tud többet fogyasztani egy memóra ha szélesebb buszra kerül... Láttál e már 32 db memóriát egy vga-n?
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Z10N
veterán
"Szabvány szerint 16 a max, de a most gyártott memóriák is képesek 18 Gbps-ra (innen lehet tuningolni 21-re, csak extra feszültség kérdése, plusz le kell árnyékolni majd a NYÁK-on, sok réteggel ez is megoldható)."
Ebben eleg sok a ha. Eleve a 16 Gbps-t alig latni kartyakon, szoval meg a max orajel sem trivialis, de mar 18Gbps-rol beszelunk, meg annak az OC orajelerol, ami eleve komoly emeles. Egyszer 12,5%, masodszor 16,6%, ami eleve 31,25% orajel emeles, ami nem keves mostansag. Ehhez milyen fesz kell? Meg ahogy mondod milyen pcb?
"Ezeket azért látod ritkán, mert nagyjából 15 Gbps az a határ, ahol még elfogadható a fogyasztás. Az fontos a tervezésnél, hogy a VGA-nál a TDP az a memóriára és a GPU-ra is vonatkozik. Vagyis ha növeled a memória fogyasztását, akkor csökkented a GPU-ra szabható TDP-keretet. Tehát az oké, hogy tudsz venni 18 Gbps-os memóriát, de közel sem biztos, hogy ezért az extra teljesítményért megéri a GPU magórajelét 100-200 MHz-cel csökkenteni, hogy végül ugyanott legyen a VGA-ra vonatkozó TDP."
Most akkor meg is ezt csinaljak?!
A masik kerdes ez mennyibe kerul? Nem lenne olcsobb hbm-mel megoldani. A sok, magas frekis memoria es a draga nyak mar biztosan HBM arszinten van. Eleve sok memoriahoz nagyobb nyak kell, ami az arnyekolas miatt hatvanyozottan draga, emellett tobbet is eszik, ha jol tudom, tobb vrm is kell. HBM2 mar negy es fel eve van gyartasban. Radobnak 4x4 olcsobb, vagy 2x8 dragab stacket es kesz.
Plane ennek a fenyeben:
"August 12, 2019, SK Hynix announced their HBM2E, featuring eight dies per stack, a transfer rate of 3.6 GT/s, providing a total of 16 GB and 460 GB/s per stack. On 2 July 2020, SK Hynix announced that mass production has begun."[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Elméletben, és továbbra is fenntartom, hogy a paraméteres számítás nem a megfelelő modell.
A gyakorlatban milyen kártyán volt 512-bites busz mellett 8GHz-es GDDR5? A 32 chipről nem is beszélve. Anno a 390X volt talán a legdurvább, 6GHz-es effektív órajellel, 16 chippel.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Jack@l
veterán
Szoval belengettél egy hihetetlen orajelet a memóriákra, majd pedzegetted hogy állítólag mennyit fogyaszt és a végén csunya nv majd kénytelen lesz durván downclockolni az egyedül teáltalad vizionált órajeleket. Mit akarsz ebből kihozni? Szar az NV?
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Z10N
veterán
"Mindegyik kártya képes lenne rá, csak a fogyasztástöbblet aránytalanul nagy. Emiatt maradnak alacsonyabb órajelen."
Nade a memoria birja? Vagy csak a szabvanyon feluli tulfesz kerdese? Akkor a JEDEC miert nem hozott mar be szabvanyt ra?
"Az új generációs VGA-k más teljesítményszintre esnek. Azokkal a TFLOPS-okkal már lehet, hogy többet nyers a sávszéllel, mint a mostani számítási kapacitás mellett. Nem beszélve arról, hogy a réjtrészing sávszélgyilkos."
Ez is HBM-t indokolna akkor.
"384 biten 12 memórialapkával még jó áron van a GDDR6. Az két HBM-mel kiváltható, de arányaiban ugyanott leszel árban."
De savszelben es fogyasztasban nem. Tehat, ha mar egal arban, akkor inkabb HBM.
"És fontos, hogy a HBM esetében nincs igazán skálázási lehetőség."
Van kevesbe suru es retegu stack. Orajelben is van HBM2E."Muszáj rádobni a két stacket a normál és a gyorsabb verzióra is az adott modellből, míg a GDDR6-ból lehagyhatsz stackeket, és akkor 10 chipet használsz 320 biten például. Ez olcsóbb."
Akkor meg mar megint a savszelbol faragunk, holott az elobb ezt mondat:
"többet nyers a sávszéllel, mint a mostani számítási kapacitás mellett. Nem beszélve arról, hogy a réjtrészing sávszélgyilkos."
Ezenkivul a felsokategoriaban ("normál és a gyorsabb verzióra is az adott modellből"), mar illene tartani egy standard szintet. Vagy most kelleni fog 20 es 24GB ram? Ez mar Quadro regio. Akkor azokon mennyi lesz? Meg ezt milyen aron fogjak "honoralni".
Mikozben a HBM2: "providing a total of 16 GB and 460 GB/s per stack"
Ha utana szamolok:
GDDR6 @ 21Gbps, 320bit: 840 GB/s
10 lapka 16Gb (2GB), az 20 GB
tobb fogyasztas ilyen orajel mellett es ennyi lapkaval
dragabb es nyagobb nyak es vrm kell, nagyobb hutesHBM2, 2 stack (low-high density es reteg), 16GB-32GB, 960 GB/s
bar az alap verzio (2 stack low) kevesebb a ram, tobb a savszel, kevesebb a fogyasztas, tobb marad a gpu-nak, olcsobb es rovidebb nyak/vrm, kisebb hutesBar a HBM szabvanyoknak meg utana kell neznem mik valtoztak, hogy naprakesz legyek.
Eleve a lapkak merete nagy. Az RT es egyeb egysegek miatt a fogyasztas megnagyobb. Ahol csak lehet sporolni kene a fogysztassal, mert akkor tenyleg 300W-t lesz, azt meg nem egyszeru huteni csendesen. A kompakt viz meg megint jocskan dragitana.
Ahogy nezem a GDDR6-nal a Samsung jobban all, mint az SK Hynix.
"In January 2018, Samsung began mass production of 16 Gb (2 GB) GDDR6 chips, fabricated on a 10 nm class FinFET process and with a data rate of up to 18 Gbps per pin."
Latom itt mar emlitik a 18Gbps-t es akkor ez lenne meg tulhajtva 21Gbps-re? 1350mV-t mennyivel kell tulfeszelni 18 es 21Gbps-hez?
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Jack@l
veterán
Egyelőre maradjunk a földön, jó lesz az 18Gbps-nek is, mint kiinduló alap...
https://ieeexplore.ieee.org/document/8588344A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Pipó
őstag
A gddr6 akármilyen órajelen is menjen, nem válik gddr6x-é. Fizikailag mi változott? Az 5x sem azonos a húzott 5_el.
"Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!
-
Dyingsoul
veterán
Hát ha a konzolok ilyen bikák lesznek és 500-700$-ért jönnek, az NV kártyák pedig a fent említett árakon, akkor szerintem nem kérdés, hogy kártyát, vagy konzolt vegyen az ember. A topikban van itt olyan aki 550-600k-ért megvenné a 3090-et vagy mifenét? Ráadásul ha ez MSRP akkor egy Gaming X trio lehet akár 700-750k is...
[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Devid_81
nagyúr
Ha nem lesz Ti akkor kb:
3080/10GB
3090/12GB - egykori Ti utodja
Es majd jon a 24GB Titan, amit megint csak nem tudunk hogy neveznek majd.Viszont az a placeholder $2000 ami neten kiszivargott a 3090-re is lesz vagy $1499 alsohangon.
Szerintem lesz pislogas az araknal.Szerk: egyre jobban bennem van, hogy a 2080 Ti marad a gepben ameddig mukodik
[ Szerkesztve ]
...
-
core i7
addikt
Ti még hagyjám is de ez a szuper nagyon nem jól csengett ,hosszú is volt a 2070 super jobb volt mint a 2080 (ár/érték arányban) hatalmas zagyvaság volt az egész. Elég megtévesztő.
A marketing az marketing hiába mondják sokan a tesztek számítanak meg nem az elnevezés mezei ember aki nem ért hozzá annak azért sokat suggall/jelent ,hogy a 80 erősebb a 70nél
Sajnos nem csak tapasztalt róka aggyal kell gondolkodniuk hanem , hozzánemértő szemmel is a marketing osztályon
[ Szerkesztve ]
-
KillerKollar
őstag
"Egyébként akkora problémát ez szerintem számukra nem jelent, mert a PCI Express 4.0 kapcsán már nem beszélhetünk, arról, hogy csak az extrém drága alaplapok és procik támogatják."
Nem ez a probléma, hanem az, hogy sokaknak van még olyan PCIe 3.0-án "ragadt" konfiguk, ami egyáltalán nem olcsó és nyilván az illető, ha ismét költene a gépre, akkor fejleszteni szeretne, nem butítani, főleg ha egy RTX 3000-es kártyát vagy egy nagy Navi-t szeretne a gépében. Tehát ha van egy 10900K-d egy drága alaplappal, akkor te nem fogsz megvenni egy budget AMD lapot valami olcsó procival a PCIe 4.0 miatt, mert lehet, hogy nyersz egy kis sávszélt, de egy sokkal gyengébb procid lesz (főleg gaming téren) egy sz*rabb alaplapban, arról nem is beszélve, hogy kétlem, hogy egy ilyen alaplap jól viselne egy 350-400 Watt fogyasztású kártyát.Tehát most vettél 500$-ért egy procit, 250-300$-ért egy alaplapot mellé és ahhoz, hogy tartani tudd a szintet, megint legalább ennyit kell költened... Ja és jelenleg játékra csak lassabb procit tudsz venni mint a 10900K, ha PCIe 4.0-át szeretnél, mert minden Zen 2 procit odaver jelenleg a 10900K, szóval ki kell várnod a Zen 3-at, abban reménykedve, hogy talán az gyorsabb lesz mint a mostani procid és akkor újra elköltheted azt a 700-800$-t alaplapra és procira. Vagy megvárod a Rocket Lake-et és lecserélheted a 10 magos procidat egy 8 magosra aminek kicsit jobb az IPC-je. Cserébe alaplapot nem kell venned, csak a procin buksz. Ha 9900K-d van vagy 8700K-d akkor mindenképp kell lapot is venned. Ja és ha Zen 2 procid van, de az alaplapod B450-es vagy X470-es akkor is kell alaplapot cserélned, sőt, örültél mint majom a farkának amikor megtudtad, hogy a Zen 3 is bele fog menni a B450/X470-es lapodba, aztán most kiderül, hogy ha szeretnél mellé egy új VGA-t akkor mégiscsak venned kell újat?
Szóval hiába érhető el olcsón a PCIe 4.0, azoknak akiknek már van egy viszonylag high-end konfiguk ami 3.0, annak ez nem igazán jelent vigaszt, hiszen Ők nem fogják lecserélni az i9-es Z490-es konfigjukat egy budget AMD konfigra, egy high-end meg már nem olyan kis beruházás, főleg, hogy nem rég vetted a mostani konfigod.
Ezeket a fejlesztők is tudják, az NV is tudja. Arról nem is beszélve, hogy a Microsoft azt nyilatkozta, hogy az első 2 évben minden játék ami kijön Xbox Series X-re az visszafele kompatibilis lesz, ráadásul terveznek kiadni egy Series S-t is, ami alig erősebb mint a jelenlegi One X. De a sima One S-en is el kell futniuk ezeknek a címeknek, a prev gen konzolok csak PCIe 3.0-át támogatnak, tehát az első 2 évben maximum a PS5 exkluzív címek igényelnék a PCIe 4.0-át, azok meg úgysem jönnek ki PC-re.
Utána már lehet, hogy valóban szükségessé válik, de 2 év múlva már az Intelnek is legalább 2 generációnyi processzor családja lesz ami támogatni fogja a 4.0-át (Rocket Lake, Alder Lake). Sőt ha pletykák igazak, az Alder Lake már lehet, hogy az 5.0-át is.
-
Jack@l
veterán
Vegyél AMD(r) pciexpress 4 lapot 60e-é, futi futi. Aztán kiderul hogy semmi nem igaz abbol amit irtál, a játékok 0.1 fps-el lesznek lassabbak...
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
ja ertheto egyebkent.
btw tenyleg IB tamogatta eloszor a pciE3.0at, bar a gyakorlatban az SB-E szinten ment X79en pciE3.0 modban, igaz nem hivatalosan.
Jack@l: valtozo, ahogy emlekszem pciE3.0 x8 par esetben mar problema volt mar evek ota multiGPUnal is (mainstream jellemzoen csak azt tud, TR4 foleg az elejen nem volt az igazi, az intel HEDT meg az utobbi evekben azon az aron nem volt versenykepes), azota meg gyorsultak a VGAk.
ez itt most az Intel sara, hogy a 2020as platformjuk meg mindig nem tud pciE4.0at, amikor mar egy eve van GPU ami tamogatna.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
KillerKollar
őstag
A 2080 Ti esetében a PCIe 3.0 x8 csak 2-3% lassulással jár, a 3.0 x4 jelent kb 5-8% lassulást (Tehát a PCIe 1.1 x16), kétlem, hogy 3.0 x16 mellett ennyire brutális lenne, ha lesz is valamiféle mérhető bottleneck, az szerintem bőven 5% alatt marad és játék alatt észrevehetetlen lesz. Talán lesz 1-2 kivétel, mint a most Horizon, de szerintem az elkövetkezendő 2 évben még nem sok. Majd kiderül.
-
KillerKollar
őstag
"Ezek a funkciók a konzol miatt vannak, mivel ott a CPU és a GPU is pontosan ugyanolyan sebességgel éri el ezeket a puffereket, tehát az új generációs motorokat erre építik fel."
Az Unreal 5 engineről is kijött már egy demo, de elvileg leghamarabb 2022 vége fele jöhet majd az első Unreal 5-ös játék, a legtöbb multiplatform játékot addig szerintem ki fogják adni PS4-re és Xbox One-ra is, hiszen nem sokaknak lesz még next-gen konzoljuk, már csak a kínálat miatt sem, a PS4 meg már vagy 115 millió eladott példánynál jár. Addig pedig kétlem, hogy azok a címek amiknek el kell futnia egy prev-gen konzolon, ami csak PCIe 3.0-át tud (és még ez a legkisebb baja), azoknak a nagy részét PC-n úgy tervezzék meg, hogy akkora adattömegeket mozgassanak, amihez a PCIe 4.0 x8 kevés legyen.Tudom, hogy a Horizon is PS4-es játék, de ott igazán a PCIe 3.0 x8 és x16 között vannak komoly teljesítménybeli különbségek, nem a 3.0 x16 és 4.0 x16 között. Az a Hardware Unboxed video két különböző tesztplatformot hasonlított össze, de ha másik alaplappal, másik CPU,val (másik RAM-al?), más driverekkel tesztelsz, akkor nem a PCIe az egyetlen faktor, azt úgy lehetne tesztelni, hogy a Ryzen platformon megnézed, hogy fut 4.0 x16 és x8 módban.
Azt továbbra fontosnak tartom kihangsúlyozni, hogy a PCIe 3.0 x16 = PCIe 4.0 x8, tehát a jövőben PCIe 4.0-ával is előfordulhatna bottleneck, nem csak dual-GPU rendszerekkel.
Lehet, hogy egyenlőre csak a high-end kártyákkal fordul ez elő és azt mondod, hogy akinek van pénze 3090-re, annak van pénze váltani Threadripper-re (amit játékra a legnagyobb pénzkidobás megvenni, ezeket nem erre tervezték, 16 szálnál többet egy játék se használ jelenleg, még ez is ritka), nade a következő generációban már lehet, hogy a 4070 is egy szinten lesz a 3090-el, az azutániban már az 5050 Ti, lesz az a szint, és ha addig nem lesz desktop szinten PCIe 5.0, akkor simán lehet, hogy egy B*50-es alaplapban vagy egy intel H-s alaplapban, egy középkategóriás CPU-val, ahol nincs annyi PCIe lane, le fog esni a sebesség x8-ra és puff, máris ott a bottleneck.
-
mondjuk a GCN eszmeletlenul jol oregedett, nem nagyon emlekszem olyanra korabbrol, hogy az 5+ eve piacon levo kartya meg mindig megallta a helyet 1080pben, mint tavaly a 290X amikor lehalt nalam a parja.
parban meg edge casekben (megy a CF es tiszta GPU limit van) 10-15%ot vert a ket kartya a jelenlegi 5700XTre is.
Don't dream it, be it. // Lagom amount.
-
a Ti sokkal régebbi jelölés, minta Super és kb mindenki tisztában van vele, hogy az a gyorsabb azonos számozás esetén. Ami hülyeség volt az a Super jelölés,de az miatt meg nem durroghatnak olyan nagyon régóta a partnerek..
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gejala
őstag
Ezekről nekem mindig az jut eszembe, amikor Asus kiadott egy 6800 Ultrát V9999 Ultra Deluxe néven.
-
MPowerPH
félisten
Ezt mondjuk megertem, es sok dolgot megmagyaraz. Eleg nagy a kavarodas most a nevek korul. De irtak is, az allitolagos csucs es az az alatt elhelyezkedo kartya kozott majdnem 90% -os az ar-differencia, ami oriasi. Persze ez csak talalgatas, de akkor ezek szerint a 3080 es a 3090 koze varhato egy Super utotaggal ellatott modell is? Es akkor ezek fole johet a szokasosan tularazott Titan? Csak mert olvastam olyat is, hogy a Titan nevet is elhagyjak... Annak meg vekony lenne a $1400 MSRP.
[ Szerkesztve ]
Don't Tread On Me
-
Ettől a “Super” elnevezéstől nekem a hátamon feláll a szőr
Mintha valami gagyi ‘90-es évek beli termék lenne (Turbo Super rágó megvan még valakinek?
). Szerintem marketing öngyilkosság lenne a 20 éve létező és jól bejáratott Ti jelzést dobni a Super kedvéért... Eleve be sem kellett volna vezetni.
A csak számozás nem lenne hülyeség, de azt meg nem bírják tartani, mert nincs annyi szám, ahány féle modell van. Túl alacsony számot nem akarnak adni (50 alá rég nem mentek, maximum csak low-end modellel), a nem 0-ra Végződő számoktól meg irtóznak
[ Szerkesztve ]
-
Raymond
félisten
"egyelőre a Radeonról érkező számítási kapacitás lényegesen nagyobb, mint ami a GeForce-ról jön"
Es ez miota ujdonsag? Evek ota ez van es a valos jatekokban latott teljesitmenyt pedig lathatod. Miert szulne idiota pletykakat valami ami sok eves status quo?Egyebkent itt konkretan nem arrol volt szo hogy "plusz/minusz 300W" hanem a kollega alltal folyamatosan irkalt egyertelmu baromsagorkrol.
Privat velemeny - keretik nem megkovezni...
-
MPowerPH
félisten
"Abba azért nem nagyon gondolnak bele ezek a pletykagyárosok, hogy ide-oda vinni a dizájnokat nehéz, és közel sem biztos, hogy egy Samsunghoz tervezett dizájn a TSMC-nél jó lesz, stb."
Ratapintottal a lenyegre, ezt akartam pont irni. Ez nem ugy mukodik, hogy csak ugy dobaljuk az X csikszelre tervezett architekturat.
Engem konkretan nem zavar a fogyasztas, leven a Pascal -om is bekap 360W -ot. Es elnezve a Turing -ot ezen a teren, en azert nem latom annyira borusan a dolgokat az Ampere -vel kapcsolatban. Az NV meg csak nincs is elkesve semmivel sem, mert a most lekoszono kartyakbol meg van sok raktaron, az AMD pedig meg nem most hozza a Big Navit, tehat ez nem az Intel fele kenyszermegoldas. Regota tudjuk, avagy sejteni lehet, hogy nagyot fog szolni ez a gen., AMD fronton pedig kicsit alabb is hagyott a lelkesedes.(pedig mindenki erdeke az lenne, ha vegre a teljes termekskalan lenne konkurenciaja az NV -nek)mod: Annyit meg hozzafuznek az RX5700 -as hsz -edhez, hogy biztos nem lett rossz a kartya. De a lassan 3,5 eves Turing powered by 1080Ti meg mindig elorebb jar teljesitmenyben... Persze, joval tobbet eszik, de ahogy neztem, meghuteni ugyan akkora feladat, mint az AMD -t. Arra akarok utalni, hogy ez oriasi lemaradasnak szamit, mert most ertek be a mar lassan 2 eve lekoszont generaciot.
A nyers szamitasi teljesitmenyre mar en sem adok."feltűnhet a mostani speckók alapján, hogy az AMD a perf/wattban úgy 63%-ot javított, míg az NVIDIA 23%-ot rontott."
Gyartastechnologia?
[ Szerkesztve ]
Don't Tread On Me
-
Raymond
félisten
"A legtöbb játékban a Radeon RX 5700 XT és a GeForce 2070 Super órajele 1750-1770 MHz körül van."
Nincs, mindketto magasabb, de egyebkent kb egyforma."Ilyenkor a számítási kapacitásuk megegyezik, és a gyakorlati teljesítményük is hasonló."
Nem az, meg mindig kb 10% elonye van az 5700XT-nek es megis kb 9%-al el van maradva atlagban a 2070S-hez kepest."Ne ezer éves dogmákat vigyél tovább, amik jellemzők voltak mondjuk xy architektúrákra, amiket már rég leváltottak a cégek. "
n nem dogmakat viszek tovabb hanem az aktualis helyzetet vazoltam. Mondjuk ha szerinted az 5700XT es a 2070S is 1750-1170Mhz-en megy jatekok alatt akkor ajanlanam hogy frissitsd az informacioidat.Privat velemeny - keretik nem megkovezni...
-
Nyílván sok mindent nem tudunk konkrétan mi legalább is itt a fórumon..
De
Ha igazak a pletykák a Big Navi 300 Watt a 3090 350 Watt.
Ebből a 3090 elméletileg rendelkezik plusz 8 GB rammal ami - 25-30 Watt.
És ha igaz akkor van benne egy másik GPU/processzor is ami x fogyasztású egy speckó összekotetessel ami szintén áramot vesz fel.
Most ha a hasára ütök és erre 40 wattot számolok akkor nem látom azt a nagy különbséget ami miatt kellenének ezek a pletykák..[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
És az szerinted nem lehetséges, hogy miden pletykaval ellentétben fentebb említett redditest is ideértve az A102 mégis 7 nm TSMC a kisebbek Samsung 8?
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Fűnyíró topik
- Mibe tegyem a megtakarításaimat?
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Olasz autó topik (Fiat, Lancia, Alfa)
- Mit tehetsz jogilag, ha átvertek, megkárosítottak a Hardveraprón?
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- Autós topik
- Vezetékes FEJhallgatók
- Kupon kunyeráló
- Ukrajnai háború
- További aktív témák...