- Samsung Galaxy Watch7 - kötelező kör
- Mobil flották
- Amazfit Active 2 NFC - jó kör
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- MIUI / HyperOS topik
- Samsung Galaxy Watch4 és Watch4 Classic - próbawearzió
- Google Pixel topik
- Xiaomi 13 Pro - szerencsés szám
- Android alkalmazások - szoftver kibeszélő topik
- Magisk
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
Malibutomi #11951 üzenetére
Az én 290X-emen is 2x8-as csati van.
-
CsonkaImo
addikt
válasz
Malibutomi #11951 üzenetére
Egy ilyen kártyánál nem érdemes szerintem ezen rugózni. 600+ lóerős autót se a fogyasztás miatt vesznek.
-
TESCO-Zsömle
titán
válasz
Malibutomi #11948 üzenetére
Én még emlékszem az extrém tuningosoknak csinált nVidia kártyákra, amiken 3x8 csati volt, azokra ment a nyálcsorgatás rendesen...
-
stratova
veterán
válasz
Malibutomi #11938 üzenetére
Rendben, de akkor a 300-as sorozatba már csak ilyen minőségű Tongákat kérünk, a tesztidőszak lejárt.
Gyanús volt, hogy OEM szinten sem jelentetek még be R9 380X-et csak R9 380-at, az Apple még mindig dézsmálja a jó lapkákatHa jó pénzt fizetnek érte egye-fene.
rocket
Wait what?
Combined memory pools (29):
Multi GPU on DX11: 4 GB + 4 GB = 4 GB
Multi GPU on DX12: 4 GB + 4 GB = 8 GB -
#85552128
törölt tag
válasz
Malibutomi #11930 üzenetére
Főleg, hogy az AMD nem is tünteti fel a TDP-t/fogyasztást míg a másik gyártó igen és ott ugye a Boost működése miatt van eltérés, mert még ugyanazon típus is máshogyan boostolhat ami ugye plusz teljesítményt is jelent... A Perf/Watt arány továbbra is megmarad.
"A jóval alacsonyabb TDP ellenére az R9 285 18 wattal kért többet az R9 280-nál."
Ez mondjuk érdekes, ki is adja meg hogy ?
-
Turbolada II
őstag
válasz
Malibutomi #11930 üzenetére
"A kártya TDP-jét 190 wattban határozta meg az AMD, ami 60 wattal kevesebb az R9 280 értékénél, ugyanakkor ez sok esetben szinte semmit sem jelent a fogyasztási adatokat tekintve."
-
#35434496
törölt tag
válasz
Malibutomi #11914 üzenetére
Hát max 250-et még kiadnék érte de csak akkor ha tényleg aláz mindent.
schawo Ezt még is mire alapozod? Egy darab tesztet nem láttunk még. -
válasz
Malibutomi #11902 üzenetére
Azoknak rossz akik játszanának már az új játékokkal és ezekre a kártyákra várnak (mert a most piacon lévőket nem akarják már megvenni)... elég kellemetlen fél évet várni úgy.
Én átérzem a szitut volt már ilyen.Már csorog az ember nyála mert ot van a desszert a szeme előtt csak nem kóstolhatja meg.
Pedig már úgy tolná az új játékokat a maximális beállítással.(Persze remélhetőleg nem lesz savanyú...
)
#11906) Szaby59
Na de ott a pénz összekuporgatva már hónapok óta, viszket az ember tenyere "rajtra készen" azért nem mindegy mennyit vár így az ember addig amíg a start pisztoly elsül.
Aztán még jöhet a további várakozás mikor lehet majd kapni a bejelentés után.
-
válasz
Malibutomi #11902 üzenetére
Látod azt én sem értem
Sőt az is tudható hogy júni második felében fog jönni. Türelmetlenkedőknek addig jön a 980 Ti júni elején (2-3 körül)
-
5ent1nel
aktív tag
válasz
Malibutomi #11809 üzenetére
+1
-
Televan74
nagyúr
válasz
Malibutomi #11860 üzenetére
Egy hónap múlva jóval tisztábban látunk majd,addig marad a találgatás.
-
Titanone
tag
válasz
Malibutomi #11833 üzenetére
Alapon megy. Konkrétan van még egy anomália, ha alvó módba kapcsol a monitorom. Kép elmegy, eddig oké ,de utána bármit csinálok, a képet nem tudom visszahozni (csak restart vagy hibernálás után billentyűzettel.)
Hűha ha én öt kártyát tudnék 1.5 év alattEz már 3 éves. Tényleg marhára kíváncsi vagyok milyenek lesznek az új kártyák. Valaki tudja mikor lesznek tesztek(hányadikán? E3?).
-
#85552128
törölt tag
válasz
Malibutomi #11823 üzenetére
4-6 hónap eltérés így is valószínű, főleg ha a az AMD az új procikat is jövőre akarja kiadni...
A memória meg nem hinném, hogy akkora előny lenne az nV-nek meg több ideje jut az új GPU architektúrára. -
stratova
veterán
válasz
Malibutomi #11809 üzenetére
Menthirist szvsz Nv részéről Maxwell noti VGA-nak és Geforce sorozatnak egy ügyes húzás volt. Úgy rémlik náluk érdemi fogyasztáscsökkenés érhető el a DP FP teljesítmény visszavágásával. Aki meg komolyabb szimulációnál igényli a dupla pontosságot változatlanul vehet megfelelő tesla gyorsítót.
-
TESCO-Zsömle
titán
válasz
Malibutomi #11809 üzenetére
Viszont szántani tudnak vele erőből.
Az nV anno a G80-nal elég nagyot húzott. Mikor ki akarta végleg véreztetni az ATI-t. Csak hát jött a sánta és hátára vette a púpot, az ATI nem vérzett ki, AMD felcsapta a hátára a sok adósság mellé és bicegett tovább, aztán jöttek az R700-asok és sok év után az nVidia nyögött. Ők akkor ott szoptak nagyot a CUDA-val, aztán ugye Intel is beléjük rúgott egy elég kövéret a chipset-balhéval, ment is az átnevezősdi...
-
válasz
Malibutomi #11809 üzenetére
Ez a hasonlat...
I lol'd
-
#85552128
törölt tag
válasz
Malibutomi #11783 üzenetére
Nem azt mondtam, de ha megnézzük a Hairworks nélküli teszteket ott is gyorsabb a Maxwell, tehát valószínűleg lenne még mit javítani az AMD driveren is, csakúgy mint az nV-nek a Keplernél.
Összességében meg egy rendkívül szarul optimalizált és bugos játékról van szó és ez HW nélkül is érvényes.
-
#85552128
törölt tag
válasz
Malibutomi #11780 üzenetére
Mondjuk a CDPR az utóbbi időben nem épp a szavahihetőségéről híres...
-
válasz
Malibutomi #11772 üzenetére
Nemis az AMD-nek kéne optimalizálni, hanem a játék fejlesztőjének.
Ahogy Szaby írta, ha kérik és úgy állapodnak meg akkor megkapják... lehet ezért többet kell fizetni vagy a fene tudja, de a lehetőség adott és ezt nVidia emberei és fejlesztők is ugyanúgy lenyilatkozták.
Most akkor egyik ezt állítja másik meg azt, ami alapvetően ezt alá is támasztja ezek szerint. Valaki megkapja cserébe több reklámért vagy pénzért más meg ezt nem vállalja be inkább panaszkodik.Azis lehet az nVidia belső validációhoz is köti/kötné ezt... pl ha módosítod a kódot, akkor be kell küldened nekik ők letesztelik jó e (amolyan WHQL by nVidia) és ezért pl fizetni kéne ezt a szolgáltatást nekik + ugye több idő ami meg a kiadóknak sem tetszhet. A fejlesztők meg ezeket nem akarják/vállalják... stb.
Nem tudjuk mert nem láthatunk bele ezekbe a szerződéses feltételekbe... de a lehetőség adott.
AMD meg ingyen osztogatja a technológiáit... ők meg ezt az utat választoták. Ennyi.
Aztán vagy működik nekik vagy nem.Pl A Maximum PC-nél is panaszkodott Richard Huddy... jött is rá válasz: [link]
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #11755 üzenetére
Az AMD már nagyrészt szoftvercég. Persze hardvereket gyárt, de azért nyissuk ki a szemünket pár nagy problémára. Ott volt az API gondja. Az AMD oldotta meg. Azért maradt zárt az API-juk, mert a header fájlokat a Microsoft és a Khronos úgy nem engedte nyilvánosságra hozni, hogy a DirectX 12 és a Vulkan rengeteg részt copy-paste-ban átmásolt.
Számos szoftveres problémát is megoldott még az AMD. Például a Windows 10-ben a vezeték nélküli kijelző úgy fog működni, ahogy az AMD kidolgozta a Windows 8.1-re. Az MS elfogadta, hogy az sokkal jobb modell. Ugyanígy az MS GPGPU-s JPEG dekódert is rak a Windows 10-be. Lemásolták, amit az AMD csinált a HSA dekóderrel.
Amikor egy hardvercég szoftvertechnológiáit másolja a szoftveripar, ott azért erős a szoftveres fejlesztés. -
válasz
Malibutomi #11756 üzenetére
Azóta nyilatkozták már pár helyen hogy ez nemigaz. A fejlesztő hozzáfér a kódhoz és változtathat is rajta nVidia oldalon is.
-
#85552128
törölt tag
válasz
Malibutomi #11752 üzenetére
Igen relatív, de az nV-nél sem a Titanok növelik a részesedést és hiába van rajta nagy nyereség, ha relatíve keveset adnak el (a Fiji gyártása a HBM memóriákkal és a vízhűtéssel meg jóval költségesebb...)
A 70-150k-s régiót kellene lefedniük versenyképes alternatívákkal, mert ez az amiből sokat adnak el.A GW effektek többnyire működnek AMD kártyákon, TXAA az ami nem engedélyezhető de az nem is nagy veszteség... AMD-nek meg egyedül a TressFX ami ilyen extra effekt.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #11746 üzenetére
Az csak azoknál a fejlesztőknél ér valamit, akik szegények. Az AMD elsődleges partnere a kiadók között az EA, a Square Enix, a SEGA és a Capcom. Őket a nyers technológia érdekli, amivel alázhatnak az iparágon belül. A következő két év nagyon sokat fog számítani, mert nagy kiadók fognak úgy dönteni, hogy túl drága az AAA játékfejlesztés és átmennek mobilra. A Konami például már eldöntötte, hogy megy, és igazából ezt a lehetőséget többen is vizsgálják. Minél nagyobb előnyt épít ki egy kiadó technikailag, annál nagyobb az esélye, hogy a konkurens kiadó behozhatatlannak ítéli a hátrányát és mobilra menekül.
-
CsonkaImo
addikt
válasz
Malibutomi #11746 üzenetére
Van benne igazság.
-
#85552128
törölt tag
válasz
Malibutomi #11746 üzenetére
Vagy esetleg nem csak a fejlesztő seggét kéne nyalni hanem eladható hardvereket készíteni elvégre a vásárló az aki ezt az egészet "szponzorálja"...
Fiji drága lesz, a többi meg semmi olyat nem nyújt ami az elmúlt két évben nem lett volna elérhető azért legalább a 370+ lehetett volna új GPU, ha nem is rögtön a launchra...+ Az AMD sem szívjóságból csinálja ezt náluk is az a terv, hogy minél több fejlesztő az ő termékeiket preferálja (A GE is ad pénzt a fejlesztőnek egyébként), az nV is így kezdte...
-
CsonkaImo
addikt
válasz
Malibutomi #11744 üzenetére
Igen, de a hardvert ki is kell használni.
-
Geresics
addikt
válasz
Malibutomi #11724 üzenetére
az a baj, hogy ez is "csak" 2GB VRAM-mal rendelkezik, márpedig a GTAV (és gondolom rövidesen kb minden játék) esetében a 2GB 1920x1080 felbontáshoz már kevés. Egyebek mellett ezért nem vettem 960-at...
-
Geresics
addikt
válasz
Malibutomi #11722 üzenetére
én jelen pillanatban már ott tartok, hogy csak adjanak ki egy VGA-t, ami kevesebb, mint 60eFt, és jobban fusson rajta FullHD-ben a GTAV, mint a GTX960-on!
(Tudom, arra ott az R9 280, de nem akarok egy 3 éves technológiát megvenni...) -
válasz
Malibutomi #11677 üzenetére
no igen. különösen kiemelve a hűvös és keveset fogyasztó jelzőt, ami bámulatos milyen gyorsan "igény" lett a 900-as széria megjelenésével, előtte, amíg nem volt ekkora különbség a fogyasztásban (vagy amikor az nv fogyasztott szarabbul), messze nem volt ilyen fontos. Most hirtelen mindenki rájött hogy néma kártyát akar, meg hirtelen feature lett, hogy leáll a venti idle-ben (miközben a gép többi ventije persze ettől még duruzsol).
driverek terén is mennyiszer kaptam már érvként 6-8 évvel ezelőtti sérelmeket.
Az elitizálásnak meg nem lehet elég nagy jelentőséget tulajdonítani. Lásd 60-80 ezer fölötti intel procik voltak itt is a szavazatokban. Jobb az intel procikban? persze, nem is kicsit. Ugyanakkor az is tény hogy egy fele annyiba kerülő procival is vígan el lehet játszani, megy a sírás hogy drágák az alkatrészek, de azért mennyi embernél ott volt az i7, meg a haswell és feletti generáció.
Továbbra sem azt mondom hogy az amd a legjobb, az istenkirály és sosem lesz már jobb náluk. Azt mondom hogy nem annyira rosszak, mint azt a hardware survey mutatja. Nincs ekkora különbség. Pláne nem vga-k terén.
-
#85552128
törölt tag
válasz
Malibutomi #11671 üzenetére
Egyre kevesebb ez tény (bár még mindig jelentős...), csak ha valaki egyszer már átváltott és elégedett az aktuális termékkel/gyártóval akkor nem nagyon fog visszamenni ha nincs oka rá.
"Elitizálásnak" sem hiszem, hogy ekkora jelentősége lenne (bár az tény, hogy az AMD marketingje nagyon gyenge), azért ha a hw statot steamen megnézem óriási a különbség és ezek a gamerektől jönnek. Nem lehet már ráfogni holmi téves infókra/eszmékre.Nekem végig AMD kártyáim voltak még laptopban is, de az utolsónál váltottam és nem bántam meg, ha jó áron lesz a 390 akkor azt sem zárom ki, ha nem marad a jövő generáció valamelyik gyártótól.
-
Yllgrim
őstag
válasz
Malibutomi #11596 üzenetére
Ahh, nezem a kepeket errol a vasrol, jo lesz az biztos, a 2 GPU-sra szerintem benevezek...
(csak ha egbekialtoan eltulzott arazast kap, akkor mondok le rola)
-
Yllgrim
őstag
válasz
Malibutomi #11569 üzenetére
Ha 2016-ban jonnek a 14nm-esek, akkor most nem veszek semmit, kivarok
-
válasz
Malibutomi #11569 üzenetére
Szerintem sem ez a gond... inkább az árazás lehet.
Ez olyan hogy ha jövőre tényleg jönnek a javított igazi DX12 kártyák (és igazi játékok), gyorsabban, jobb fogyasztással, több memóriával, akkor miért is költsek most el feleslegesen 800-1000 dollárt addig, ha megvagyok egy 5-600 dolláros kártyával is, egy év múlva meg lehet olcsóbban jobbat kapok mint amit most akarnak drágán rámsózni.
Mármint hogyha valaki tudatosan fejlesz és költi a pénzt, nem pedig számolatlanul.
-
do3om
addikt
válasz
Malibutomi #11515 üzenetére
Ja persze mert jellemző húzás az elmúlt időkre visszatekintve mi?
Mindenki nagy dobást vár, én csak attól félek hogy nehogy már 2 GPU-ra legyen hozzá szükség.
Ennyi. -
stratova
veterán
válasz
Malibutomi #11435 üzenetére
Most Advanced Graphics még nekünk is nehéz volt legyártani - PowerColor
Reméljük nem csak a legfejlettebb, de a leggyorsabb is lesz majd vagy 390X vagy valamelyik iterációja.Egyébként átnevezés vagy sem, a 300-as szériából (< 390) még talán akkor is lehetne javítani pl. a mobil lapkák fogyasztásán, ha HP helyett pl. HPM-en gyártanák. Már ha ennek valóban kisebb a fogyasztása és elérhető vele a kívánt órajel. Xbox ONE APU-ja pl. HPM PS4-é viszont Chipworks szerint HP.
The 28nm high performance (HP) process is the first option to use high-k metal gate process technology. Featuring superior speed and performance, the 28HP process targets CPU, GPU, FPGA, PC, networking, and consumer electronics applications. The 28HP process supports a 45 percent speed improvement over the 40G process at the same leakage/gate.
The 28nm High Performance Mobile Computing (HPM) provides high performance for mobile applications to address the need for applications requiring high speed. Such technology can provide the highest speed among 28nm technologies. With such higher performance coverage, 28HPM is ideal for many applications from networking, and high-end smartphone/ mobile consumer products.
Valahol érthető a lapkák esetleges átnevezése, funkcionálisan nem akarják őet csonkítani a fogyasztásért cserébe, utóbbit látszólag HBM-mel csökkentenék. Viszont a noti variánsoknak nem ártana, ha a jelen helyzetben jó esetben GTX 880M GTX 970M-mel versengő R9 M295X nem 125 W-ot enne, annyit a GTX 980M eszik. Adott kereten belül feltornászhatnák az órajelet (ebben jelenleg a FirePro M6100 ami Bonaire XT lapkán alapszik [75 W] és GTX 860M-GTX 960M [1029-1097 MHz] szinten teljesít, ehhez azomban neki is 1100 MHz-es órajel kell).
(#11467) -Solt-: Megveszed az új Radeon-t, rögtön lekever kettőt a kis agresszor.
TTomax Nyilván HBM-et az asztali csúcsra értettem, míg 28 nm HPM gyártást a mobil GPU-kra (Tonga XT-vel bezárólag, 14 nm érkeztéig), de értem én a tréfát
-
Ren Hoek
veterán
válasz
Malibutomi #11449 üzenetére
Csak nemtudom van-e értelme 8 GB-nak 290X-re... néztem azt a Sapphire tesztet (290X 8 GB, sok játékban vagy semmit, néhol pár FPS-t hozott nagyobb felbontásokon. Persze ha olcsón ráadják a + 4 GB-ot
-
Yllgrim
őstag
válasz
Malibutomi #11452 üzenetére
8Gb-osat mar be fogok vallalni, mar csak azon elmelkedem, honnan rendeljem majd, OCUK valoszinuleg, csak ne legyen nagyon horror aron, kell tamogatni a ceget. meg van par hetuk, juniusban szulinapom, mar meg is tudom magyarazni miert is veszem meg
-
Bigemperor
senior tag
válasz
Malibutomi #11449 üzenetére
A végén meg majd nézünk nagyokat.
De nehezen bírom már kivárni, hogy jöjjenek az új karik. -
Televan74
nagyúr
válasz
Malibutomi #11449 üzenetére
Hmmm...egy 390 8GB -tal.
-
Drizzt
nagyúr
válasz
Malibutomi #11442 üzenetére
Valamiert meg mindig megvan az az erzesem, hogy a 980Tit hamarabb fogjuk latni. De addig mar kihuzom, s nem veszem meg ha kijon se.
-
válasz
Malibutomi #11434 üzenetére
Ez elég nagy öntökönlövés lenne ha így lenne... van egy bazinagy E3 show és utána "csendben" bemutatni a csúcsot... háhá... never.
-
HSM
félisten
válasz
Malibutomi #11425 üzenetére
Ezen mindig sírok... Be van fosva a média, hogy hű-hó, vízhűtő, de közben meg szinte minden oldal megjegyzi, hogy jó-jó a Titan-X, de elkélt volna már rá egy komolyabb hűtő. De ha az AMD most rátesz egy sokkal jobb hűtőt, akkor mindenki maga alá van tojva, biztos mekkora kazán lesz. LOL. De szépen elmagyarázta a csóka, mi a pálya.
-
válasz
Malibutomi #11428 üzenetére
A Hawaii 43%-kal több tranzisztort tartalmaz, mint a Tahiti - a 25%-kal nagyobb méret annak köszönhető, hogy javítottak a tranzisztorsűrűségen, ami egyébként a Tahitinél sem volt rossz. Én nehezen tartom elképzelhetőnek, hogy még egyszer ekkorát ugranak ugyanazon a node-on belül.
Arról még nem hallottam, hogy a Tonga ROP-ok jobbak lennének, mint a Hawaii. Csak a javított delta kompresszióról tudok, ami nem a ROP működését teszi hatékonyabbá, hanem a memóriahasználatot. Ez persze a Tongában nagyon jó, viszont a Fijiben pont sávszélességből lesz rettentő sok. A 64 ROP szerintem visszafogná.
A kontroller minden bizonnyal tényleg kisebb, és ezen lehet spórolni területet és tranziszort. Hogy pontosan mennyit, a jó ég tudja. -
Malibutomi
nagyúr
válasz
Malibutomi #11428 üzenetére
Ja es megvalami, ugye az AMD atvitte a gyartast a TSMC-tol a GloFo-hoz, akinek jobb a 28nm gyartasuk (magasabb frekvencia, alacsonyabb fesz)
-
-Solt-
veterán
válasz
Malibutomi #11425 üzenetére
Mi a lényeg?
-
válasz
Malibutomi #11425 üzenetére
Ez király, köszi
-
stratova
veterán
válasz
Malibutomi #11423 üzenetére
AMD Roadmap a FAD nyomán, hivatalosan is közzétéve.
-
stratova
veterán
válasz
Malibutomi #11420 üzenetére
Ezzel csak az a gond, hogy a OEM mobil/átnevezések eddig egyáltalán nem érintették az asztali sorozatot (nem volt asztali HD 8000 széria), viszont ha nem ugorják át akkor nem adhatnak ki egy lapkát két eltérő néven azonos időszakban.
Gainka: márpedig egy Tonga XT-t nem fognak tudni eladni 100-120-ért az már GTX 970 ársáv azt alapkát pedig jó esetben GTX 960 Ti és GTX 970 közé kell árazniuk, ahogyan most is (lényegesen) közelebb van árban és teljesítményben R9 285 a GTX 960-hoz mint GTX 970-hez.
R9 285 2 GB: 67-80e GTX 960 2-4 GB 60-90e
Tonga XT GTX 960 Ti? 80-100e?
R9 290 4 GB: 90-110e
GTX 970 100-130e
R9 290X 4 GB: 120-140e
R9 290X 8 GB: 150-170e
GTX 980 170-245eFeladom nem lesznek ezek egy "oszlopban" soha
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #11409 üzenetére
Igen. Alapvetően csak az FXAA működik benne. Az MSAA sok esetben csak számol és ennek számításnak a képkocka nagy területén nincs látható eredménye. Ennek az az oka, hogy szar az MSAA pipeline, mert nem mindegyik render targetre fut le, vagyis összemosás után a kép egy része jó, míg a másik része recés. Igazából az lenne a legjobb, ha a konzolokba épített analitikai AA-t hoznák át, mert az 4 célirányos szűrő post-process AA-val kiegészítve.
-
rocket
nagyúr
válasz
Malibutomi #11401 üzenetére
Nalam csak MSAA-val csinalja, ha kikapcsolom akkor eltunik.
Layer hiba lenne akkor minden VGA erintett lenne. -
-Solt-
veterán
válasz
Malibutomi #11386 üzenetére
Ebben is van valami...
-
-Solt-
veterán
válasz
Malibutomi #11382 üzenetére
Ehhez az is kell, hogy a végeredményben, tehát felhasználási élményben ne legyen lényegi különbség....
-
TTomax
félisten
válasz
Malibutomi #11375 üzenetére
A PR duma megint meg a csúsztatás... 120Hz lesz az out of the box...
Aztán mivel is hajtanád ha több kártyás rendszereknek nincs driverek... ígéretek...ígéretek...ígéretek... "dolgozunk rajta"... a 144Hz-en is meg a több kártyás támogatáson is.
Közben a testvérét már lassan kilenc hónapja használom,nagy megelégedéssel...még jó hogy nem vártam erre,mondjuk egy 295X2öt véve... -
daveoff
veterán
válasz
Malibutomi #11375 üzenetére
Értem, én csak arra reagáltam, hogy azért veti el a G-Sync-et, mert drága, még a FreeSync is az. A G-Sync meg már bizonyított. Amit linkeltél egyértelmű, hogy a FreeSync-es a jobb vétel, persze kérdéses, hogy működik....
-
Ren Hoek
veterán
válasz
Malibutomi #11366 üzenetére
Ref hűtés szerintem most is gagyi lesz... hát ki venné meg akkor a drágább spec hűtésűeket?
-
Hegyirabló
veterán
válasz
Malibutomi #11344 üzenetére
Kösz.
-
Hegyirabló
veterán
válasz
Malibutomi #11342 üzenetére
De nagyon írtál most! Jól ki lettem oktatva. Győztél, elismerem vereségemet. Te vagy az internet győztese, hasonló sikereket kívánok az életben is!
-
szacsee
nagyúr
válasz
Malibutomi #11309 üzenetére
Ideális víz hőfok ajánlásra leszek kíváncsi. Procival egy körben a gpu-m 42 fokos, külön körön 60-80 fokig el szokták engedni. HBM mintha érzékenyebb lenne erre valahol azt írták.
-
Ren Hoek
veterán
válasz
Malibutomi #11332 üzenetére
Akkor megnyugodtam
Illetve szegény egybegép és noti vásárlókat sajnálom kicsit, akit be lehet hülyíteni ezzel...
380, 380X továbbra is várós... ha egy 290X-et/970-et hoz valamelyik, kicsit fejlesztgetve, akkor jó választás lehet.
-
TTomax
félisten
válasz
Malibutomi #11312 üzenetére
Van de venti is... tehát AIO hűtés,ez amit linkeltél ez nem az.Ez full cover blok,ez már rendes vizhütés szerintem,nem csak a gpura egy "kupak"...
-
TTomax
félisten
válasz
Malibutomi #11309 üzenetére
Jól hangzik,csak az a kérdés a WCE-ben mi van benne?Csak a blokk vagy+ pumpa radi?Mert az akkor nem is AIO hűtés hanem komplett víz.
-
válasz
Malibutomi #11300 üzenetére
úgy legyen.
-
válasz
Malibutomi #11291 üzenetére
GCN 1.2?
-
válasz
Malibutomi #11282 üzenetére
aha, de akkor mi lesz a neve a radeonoknak? csak mert ugye csak az oem-eknél volt 8970...
-
válasz
Malibutomi #11219 üzenetére
Engem nem érdekelnek a titulusok, én szeretem reálisan nézni a dolgokat. Nem tudom, hogy az AMD architektúra oldalon mit csinált 1.5 év alatt, és amúgy teljesen fair dolog lenne ezt felvetni - ha a lokális AMD-überexpert nem mondta volna korábban, hogy nem lesznek jelentős update-ek az architektúrában. De még ha ezt ki is vesszük a képből, 50%-ot kellene ugrani teljesítmény / fogyasztásban - komolyan el tudod képzelni, hogy ennek bármi esélye van úgy, hogy nem kötnek komoly kompromisszumokat pl. azokon a területeken, ahol a Maxwell is? Én nem, és nem azért nem, mert valamilyen irányból szeretném olvasni a meglévő infokat.
Azt tudom reálisan elképzelni, hogy a non-WCE 390X nem lesz számottevően a 290X felett fogyasztásban, viszont jelentősen meg lesz vágva a feszültség és az órajel. A WCE meg zabálni fog - ami szerintem nem baj, ha a teljesítmény is jön hozzá, de ettől a fact sheeten még nem lesz <300W a fogyasztás.(#11220) morgyi: ez már megint FUD. A 970 problémája abból adódik, hogy az egyik ROP-blokkot félbevágták, közben a memóriavezérlőt meg nem - ez egy egyedi design döntés miatt van, nem az architektúra miatt. Az SM-ek számának csökkentése valóban okoz egyensúly-borulást - de csak akkor, ha egy GPC-ben hajigálsz el sokat, miközben a backend marad ugyanaz. Ez egy vállalható komromisszumnak tűnik - majd kiderül, amikor jön több harvestelt Maxwell-kártya.
-
válasz
Malibutomi #11214 üzenetére
Legyünk már egy kicsit realisták. Az nVidia jelentős architektúrális változással javított a teljesítmény / fogyasztáson, a 390X-szel kapcsolatban pedig az az Abu-sanctioned rumor, hogy a HBM rákakasztásán kívül nemigen fog különbözni a Tongától. Akkor mitől javulna hirtelen 50%-ot a teljesítmény / fogyasztás mutató?
(#11215) morgyi:
Az a memóriabusz amivel a Maxwell rendelkezik az meg valami rémálom. Nulla skálázási lehetőséggel.
Hogy mi van?
-
Drizzt
nagyúr
válasz
Malibutomi #11199 üzenetére
Persze, azert kell neki vizhutes, mert annyit fog fogyasztani... Szerintem nem en tolom itt a nagy mellet.
-
TTomax
félisten
válasz
Malibutomi #11199 üzenetére
Gondolom a jósgömb mellett az eszedbe sem jutott még,hogy azok a hülyék akkor az TXre miért nem raktak AIO hűtést... de az (szerinted) ugyanannyit fogyasztó 390X-re meg majd az lesz... érdekes egy okfejtés...
(#11192) xNAGOYAx
Azon gondolkozz el,hogy a Titan X annyit fogyaszt mint egy 290X a többit a fantáziádra bizony hogy miért is fontos a fogyasztás. -
válasz
Malibutomi #11067 üzenetére
ezt a gif-et még nem láttam
Viszont akárhogy is, drága lesz
Reméljük azért odacsap annyira hogy mérlegelésre legyen érdemes az ára ellenére
A 290X-emet 380X-re nem cserélném le, a 7950 vs 7970 felállásból okulva a sima 390-es sem vonz annyira, kivéve ha nagy lenne az árbeli különbség a 390X-hez képest, amit meg kétlek.
Viszont így van esély arra, hogy ne csak év végén jöhessen a 8 gigás 390X, mivel ehhez a technológia már rendelkezésre áll.
7time: hát vr-hoz és nagy felbontáshoz (ugye ezeket már nem fullHD-ra tervezik) elkellhet. Kimaxolva 11520x2160-ben a gta5 is megeszik 14 giga vram-ot elvileg
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #10957 üzenetére
Amit mutattak az egy pár dolláros makett volt.
Nagyjából az ami a Tongában van. Az NVLINK egy szerveres dolog, mert csak az IBM támogatja.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #10952 üzenetére
Azért az durva lenne. Elég nagy hátrány már az is, hogy kihagytak mindenkit a fejlesztésből. Gyakorlatilag van egy AMD-re kialakított rendszer, rájuk kigyúrt interposerekkel, szoftveres háttérrel, mindennel. Ez nem elég nagy hátrány? Mire eljön a HBM2, addigra az AMD már tudja, hogy mire kell figyelni, mik a limitációk, és mi kell a jó teljesítményhez. A többieknek ez csak a HBM2-nél derül ki, és a HBM3-nál reflektálhatnak rá.
-
#35434496
törölt tag
válasz
Malibutomi #10952 üzenetére
Lehet. De nézd a másik oldalt. Hynix azt látja, hogy ennek a piacnak a 2/3-a NV kezében van. Ezzel a döntéssel óriási teret engedne az amúgy is horror pénzel rendelkező Samsungnak.
-
#35434496
törölt tag
válasz
Malibutomi #10915 üzenetére
182k-tól felfelé helyezkednek el az árak. Rossz a forint sajnos.
De ha a 390 itt indul akkor a 390X? 250-280k?
-
Dtomka
veterán
válasz
Malibutomi #10915 üzenetére
Már délelőtt belinkeltem...
Nagyon kiváncsi vagyok, mit fognak tudni ezek a kártyák, 390/390x.(#10918) Menthirist
Megértem, h te ráérsz, hiszen 290x -ed van. Én sem kapkodnám el, ha nekem is az lenne. Neked 390 vagy 390x re lesz érdemes váltanod. Bár lehet, h a 380x is jó kártya lesz annak ellenére, h csak egy átnevezett 290x lesz. -
Anubris
őstag
válasz
Malibutomi #10915 üzenetére
Én ezt a 649 dollárt kicsit sokallom, remélem a 390x-re vonatkozik, nem a 390-re. Pláne, hogy engem már 4 gb verzió nem hoz annyira lázba, a 8gb wce meg biztos jóval drágább lesz.
-
válasz
Malibutomi #10843 üzenetére
Jogos a felvetés, csak azt nem értem, hogy miért van az, hogy egyik pillanatban a 390X-ről elmélkedünk, a másik pillanatban meg arról van szó (sokadszor), hogy az nVidia tulajdonosok hogy meg fogják szívni, most éppen a DX12-vel. No mindegy.
(#10841) 7time: Az itt fórumozók többsége magát pártolja, nem elvakult ideológiák alapján vesz kártyát. Folytatás az AMD VS nVidia topikban.
-
#85552128
törölt tag
válasz
Malibutomi #10816 üzenetére
Olyan szinten előny, hogy az a 85 temp target még kitolható akár 90-re is ami stabilabb FPS-t netalán még nagyobb teljesítményt is hozhat. A 290X meg már így is maxon van.
-
#85552128
törölt tag
válasz
Malibutomi #10813 üzenetére
Ahogy a 290x-nek is 95 fok...
(#10811) Xmister: Az overhead teszt nem grafikuskártyák összehasonlítására készült, vagy szerinted egy 285 290x-el van egy szinten ? [link]
-
#85552128
törölt tag
válasz
Malibutomi #10730 üzenetére
Egyetlen egy hszben sem hasonlítottam az "nV géphez" még csak fel sem hoztam, végig az adott A8+260X konfigon mért dx11 és mantle eredményekről volt szó.
Egyébként pont azért lett ez nV gép mert akkor ez milliószor jobb alternatíva volt és most is az. Tudod van akit a "MAJD" nem hoz lázba...
-
#85552128
törölt tag
válasz
Malibutomi #10704 üzenetére
"Csak olyan effekt, és annyi van, amit a dx11 elbír. Akkor hogy látszana hogy a mantle jobb? "
De miért LASSABB ? Nem jobb, nincs egy szinten vele LASSAB 10%-kal.
-
HSM
félisten
válasz
Malibutomi #10304 üzenetére
Igen, én nem erre a HDL-re gondoltam. Így már tiszta, köszönöm.
(#10305) NetTom: A 7970-eknél az igénytelen energiamenedzsment volt csak a gond. Pofátlanul bírták amúgy az alulfeszelést, főleg a Ghz csipek, amik egy friss revíziók voltak, és hamar átvették a sima 7970 csipek helyét is. 1,2-1,25V-ról simán le lehetett menni 1Ghz-es magórajel mellett 1,1-1,15V-ra, és igencsak megdobta a teljesítmény/fogyasztás mutatót.
Valamiért amúgy a 290-eknél is sikerült ezt az AMD-nek benézni, ott is jóval kisebb fesz elég lenne a GPU-nak, mint amit adnak neki. Ezt tartom én jelenleg az AMD legnagyobb bajának, túlzottan a biztosra mennek a csipek feszültségét illetőleg, és rengeteg tartalékot hagynak benne, akár 40-50W-okat a 7970, és mégtöbbet a 290-ek esetén.
Ami amúgy a Fermit illeti, tényleg nagyon jó compute GPU volt, viszont akkoriban játékra még teljesen felesleges volt annyira komoly cuccot kiadni, így kisebb bukó lett belőle, és ez vitte sikerre az amúgy nem mellékesen sokkal olcsóbb "sweet spot" GPU-kat.
Most viszont egy teljesen abszurd lépés volt a DX12/Vulcan API küszöbén, és az egyre bonyolultabb játékmotorok debütálása előtt bedobni egy ilyen kissé lecsupaszított GPU-családot. Persze, látni benne a rációt, DX11 alatt piszok gyors, és olcsón gyártható, valamint a fogyasztása is nagyon jó, de kérdéses, mennyire fog boldogulni a későbbi, várhatóan a jelenleginél jóval komplexebb játékmotorokkal. Főleg a vékonyka memóriabusz és belső memóriaszervezés okán.
Bár aki ezt megszívhatja, az nem az Nv, hanem a vásárlóik.... -
válasz
Malibutomi #10297 üzenetére
Jelentőset most, de az irányt már sokkal hamarabb (480/580 fiaskó megint és a tegra miatt a mobilitás)... a 680 már nagyobb teljesítményt adott jobb fogyasztással, mint a 7970/GE mikor megjelent ahogy írtam (úgy hogy nagy GPU volt!).
Az AMD pedig azóta sem tudta a GCNt gatyába rázni ezen a téren... jöttek a nagyobb újabb chipek meg generációk, de ez a mutató nem javult.Persze igen nV oldalon is a Maxwell hozta meg a megváltást, de ennek az volt az ára mégegyszer, hogy rengeteg funkciót és flexibilitást kidobtak és csak azt tartották meg ami tényleg kell és úgy vonták össze hogy a grafikára/játékra legyen optimális. A compute meg kuka bizonyos értelemben, meg a flexibilitás.
Az AMD oldalon meg épp fordítva van, a compute és a nagyobb flexibilitás a cél, sokkal több emiatt a belekerülő logika és huzalolás, stb stb. Mind csak növeli a komplexitás és a tápigényt.
Persze itt is lehet pl olyan kompromisszum valahol hogy belepakolsz mégtöbb végrehajtót pl, de cserébe kisebb órajelen hajtod, ezért a teljesítmény/fogyasztás mutató javulhat... cserébe nő a méret és a költség (valamit valamiért ugye).
Pont lehet a következő megaGPU AMD oldalon erre az irányba mozdult (aka CPU oldalon az órajel helyett a multicore... ugye).Amugy nagyon érdekes hogy mikor elindult ez a GPU dolog akkor az nVidia volt azon hogy CUDA meg jobb és jobb programozhatóság, nagy fogyasztás nagy gazdaságtalan GPU. Az AMD meg a grafikára koncentrált és tolta a sweet spot VLIW5-4 generációkat, ami hatékonyan azt csinálták amit kell.
Aztán most meg megfodult a világ.. az nVidia kezdett grafikára hatékony "sweet spot" megoldásokat adni és a compute nem annyira érdekes... az AMD meg compute centrikus lett és minden azért áldoz be.Ki tudja lehet utána meg megint fordul majd a DX12 miatt... vagy megtalálja mindkét gyártó a közös optimális utat.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #10301 üzenetére
A HDL már lassan 5 éve használatban van. Egyébként pont hogy a HPL-lel kísérletezik az AMD, ami jobbnak tűnik a GPU-kra, mint a megszokott HDL.
Például a Carrizo egy érdekes hibrid tervezés. A CPU-ja HDL, míg az IGP-je HPL. A Kaverinél pont fordítva volt. -
CsonkaImo
addikt
válasz
Malibutomi #10297 üzenetére
Low level a fő irány most AMD-nél nem? Azért se sietik el a megjelenést, mert a mostani kártyákat se használjuk ki, legalábbis ez volt a magyarázat. Lehet azóta változott a cél?
-
TTomax
félisten
válasz
Malibutomi #10297 üzenetére
Nem akarok kötekedni,de nem ez a fö irány.
-
válasz
Malibutomi #10281 üzenetére
De ha igaz az hogy az AMD nem áldoz fel tudást és flexibilitást emiatt (sőt növeli), akkor pont nem ugyanúgy.
Mert ehhez az kellene, az nVidia is csak úgy tudta elérni hogy összevont és leegyszerűsített illetve kidobott számos dolgot az architektúrájából, cserébe keveset fogyaszt, de rengeteg dologban nem olyan rugalmas (pl épp a compute területen). -
HSM
félisten
válasz
Malibutomi #10261 üzenetére
Csak Mantle-nél amik kijöttek játékok, mind DX11 "portok" voltak, amik emiatt nyilván nem használták ki teljes mértékben a Mantle képességeit.
Ha lesz Vulcan/DX12, már nyugodtan lehet PC-re az a fő fejlesztési irány, nem lesz annyira fontos a DX11 miatt "butábbra" tervezni a programot. -
TTomax
félisten
válasz
Malibutomi #10248 üzenetére
Hát legyen igazad,mert nekünk csak az a jó...
(#10249) 7time
Karácsony még nagyon messze van...addigra az nV megint kihozhat valamit,én erre nem nagyon adnék. -
kovsol
titán
válasz
Malibutomi #10242 üzenetére
Viszont ha mondjuk 1440p ben 20% akkor tényleg kevésnek érzem, mert a 980 egyre gyengül ahogy nő a felbontás.
Az AMD feje azért is főhet, mert a Maxwell azért egy egyszerűbb architektúra, és valószínűleg a gyártása is olcsóbb, így az NV-nek van mozgástere az árakkal. Na meg ha tényleg csak 20%-lesz az eltérés azt egy olcsósított Titan X-re épülő GPU-val még egálra tudják hozni azonos árazás mellett. -
7time
senior tag
válasz
Malibutomi #10217 üzenetére
Nem igazán látom mi fogná vissza azt a szörnyet, a 290X van 2816 GPU mag ebben meg lesz 4086 és a sávszelesség biztosan nem lesz gond, durván számolva az R9-390X olyan 60-70% kell verjen az R9-290X -re, aztán lehet hogy tévedek.
-
#85552128
törölt tag
válasz
Malibutomi #10205 üzenetére
Amíg nincs hivatalos infó továbbra is úgy gondolom, hogy a 290X-en lévő GPU-ból nem tudnak kiadni olyan 380X verziót ami a 980-at beérje és le is tudják hűteni + még jó áron is legyen és nyereségük is legyen belőle...
Azt meg sejteni lehetett, hogy a 390X nem a Titan X ellen lesz.(#10209) Malibutomi : Mivel ez egy találgatós topic felesleges kihangsúlyozni azt, hogy "szerintem"...
A 370 az alapján teljesen új GPU lesz, a 380X specifikáció megegyeznek a 290X-el. -
miresz
veterán
válasz
Malibutomi #10187 üzenetére
Mostanában el voltam(vagyok) havazva. Próbálom begyűjteni,a kimaradt infókat.
-
-Solt-
veterán
válasz
Malibutomi #10158 üzenetére
Szerintem meg az ár / teljesítmény az izgalmas... bár lehet, hogy ez csak a felső kategóriára igaz...
-
Malibutomi
nagyúr
válasz
Malibutomi #10157 üzenetére
Szerintem a teljesítménynél izgalmasabb kérdés hogy fogyasztás/teljesítményben elöre tudnak-e lépni.
-
#85552128
törölt tag
válasz
Malibutomi #10137 üzenetére
Jól hangzik ez az "átdolgozott" GPU (marketing szempontból legalábbis szebb mint az átnevezés), de mit lehet rajta átdolgozni, ha ugyanolyan specifikációkkal jön és ugyanazzal a gyártástechnológiával készül ?
Ugyanaz a GPU lesz átnevezve, talán valamivel magasabb órajelekkel.
Az R5 300 meg remélem valami vicc, már a GCN 1.0-t is hanyagolhatnák, nemhogy a TeraScale-t...
Ha ezek a specifikációk valósak, akkor van olyan GPU ami 3x lesz eladva "új" generációsként... -
nubreed
veterán
válasz
Malibutomi #10137 üzenetére
Hát naggyából ezt értettem.
A pletykákból elég ennyi, már csak pár hét van áprilisig, akkor már többe tudunk remélhetőleg.
-
#35434496
törölt tag
válasz
Malibutomi #10137 üzenetére
Erre kiváncsi leszek.
A 24/7 1500MHz-n ketyegő 980-ak nagyon dúrvàn mennek.
-
nubreed
veterán
válasz
Malibutomi #10133 üzenetére
Rendben, elsiklott a szemem a fogyasztás felett. Valóban, elég szembetünő a Pitcairne 175W -os értékéhez képest.
-
7time
senior tag
válasz
Malibutomi #10123 üzenetére
Szerintem hülyeség és értelmetlen.
-
válasz
Malibutomi #10045 üzenetére
Ha befixált órajelekkel leméred a két kártyát teljesen GPU-limites esetben, akkor a különbségnek 33% és 50% között kell lennie - 33%, ha a memória-sávszél egyáltalán nem korlátoz, és 50%, ha csak az a korlát. Ha ennél kevesebb a különbség, akkor az valamilyen platform-limit, jellemzően CPU - a fullHD-s tesztekben általában ezt látod, ahogy HSM is mondja. A felbontás növelésével egyébként valamivel nőnie kell a Titan X előnyének, de ez csak pár százalék lehet.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Tőzsde és gazdaság
- Asztalos klub
- Samsung Galaxy Watch7 - kötelező kör
- Futás, futópályák
- Abarth, Alfa Romeo, Fiat, Lancia topik
- EAFC 25
- HiFi műszaki szemmel - sztereó hangrendszerek
- A látszat ellenére helyesen működik az NVIDIA-féle Resizable BAR implementáció
- Adguard Premium (Android, PC és egyéb rendszerekre, valamint böngészőkhöz)
- Autós topik
- További aktív témák...
- Bomba ár! HP ZBook Studio G5 - XEON I 32GB I 512SSD I Nvidia I 15,6" 4K DreamColor I Cam I W11 I Gar
- Wacom Cintiq DTK-2260 - Digitális rajztábla
- Bomba ár! Dell Precision M4800 i7-4800MQ I 16GB I 256SSD I 15,6" FHD I K1100M I Cam I W10 I Gari!
- BANKMENTES részletfizetés Acer Nitro 5 AN515-54-77VS
- BESZÁMÍTÁS! Samsung Odyssey G5 32 144Hz WQHD 1ms monitor garanciával hibátlan működéssel
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged