-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Nem is kell a VGA-gyártóknak tapasztalat. Elég az hogy az Asetek és a Cooler Master tapasztalata több évre nyúlik vissza a kompakt vízhűtés terén. Magát a hűtőt nem fogja érdekelni, hogy CPU-t, vagy GPU-t hűt. Ezzel is, azzal is ugyanúgy működik.
Ezekre a vízhűtőkre egyébként a gyártók adnak üzemidőre vonatkozó adatokat. Jellemzően egyébként 5 évig garantálják a működést. Erre konkrét garanciát is vállalnak a partnerek felé. -
Abu85
HÁZIGAZDA
Minden bizonnyal a léghűtés is megoldható, csak a vízhűtés egy bizonyos szint után olcsóbb, főleg nagy mennyiségben rendelve. A járulékos előnyeivel együtt teljesen logikus vízhűtés felé menni. Főleg, hogy a memóriákat és az interposert nem érdemes nagyon magas hőmérsékleten tartani. Ezek azért ott lesznek a tokozáson, tehát mindent jól kell hűteni. Erre a víz a legalkalmasabb és a jövőben is az lesz. Ez a fél TB/s-os sávszélesség ára.
-
-Solt-
veterán
5 évig egyetlen vga sem volt a tulajdonomban, ezután sem lesz. A H80 több mint 3 éve hibátlanul ketyeg nálam, a karbantartás kimerül a portalanításban.
Egy csúcs VGA esetén hidegen hagy a fogyasztás, és az is, hogy mivel hűtik. Gyors legyen, ne túl hangos, és minél hűvösebb. Részemről ezek az igények...
Ez a fogyasztás mizéria ebben a kategóriában olyan, mintha egy sport autón kérnénk számon a fogyasztást.
-
A vízhűtésnek elsősorban a nagyobb tehetetlenség miatt lehet most jelentőssége. Nem feltétlenül a magas TDP miatt van rá szükség, hanem a lassab hőmérséklet változást is elősegíti.
Lehet, hogy attól félnek az AMD-nél, hogy a gyors hőmérséklet változástól megnyekken a GPU/Ram/stb. -
-
Szerintem HD7970-re gondolhatott azért tette idézőjelbe.
A 280X nem volt 3 éve... 2013 október volt a rajt, szóval 1 év és 5-6 hónapja.
Ezt onnan tudom hogy elsők között vettem BF4 editiont belőle amikor kijött.
És 80-85k volt induláskor.Utána mondjuk nem lehetett kapni, meg lehet felment az ára, nem követtem, mert akkor volt a Bitcoin bányász őrület és felvásároltak minden új AMD kártyát.
-
Abu85
HÁZIGAZDA
Egyelőre nagyon hallgat ebből a szempontból mindenki. A Gamebase mondta régebben, hogy ők a multi-GPU-t Mantle-ön és CUDA-n oldják majd meg. És az, hogy az MS a multi-GPU-ról nem beszél, elég erős utalás arra, hogy ez a DX12-ben nem kap fókuszt.
Egyébként vizsgáljátok a dolgot az MS nézőpontjából. A multi-GPU egy szűkölő piac, amit igazából egy markényi hardcore felhasználó tart életben. Az asztali PC szintén egy szűkölő piac, mert már az asztali szinten is 60%-ban mobil procira épített apró PC-ket adnak el a gyártók. Az MS-nek fel kell tennie a kérdést magának, hogy mennyire érdekeltek abban, hogy egy maréknyi felhasználóért egy komoly befektetést igénylő funkciót tervezzenek az API-ba. Ha meg is teszik, akkor mennyire lesznek érdekeltek a fejlesztők abban, hogy egy maréknyi és csökkenő számú felhasználóért írjanak saját multi-GPU algoritmusokat a programba.
Ha a felhasználók kis számát, és a szűkölő piacot logikusa végiggondolod (nem úgy, hogy te személy szerint igényt tartasz rá, hanem úgy, hogy a GAB felteszi a kérdést: "na és mit kezdjünk ezzel a 0,01%-nyi hardcore felhasználóval"), akkor sokkal valószínűbb, hogy az MS egyszerűen átadja az egész problémát a gyártóknak. Ők teremtették ezt a jelentéktelen piaci réteget, oldják meg ahogy akarják. -
HSM
félisten
Miért biztos? Valamivel alá tudod ezt támasztani?
(#8902) Abu85: Ez a régi driveres móka, meg a nem teljesen ideális kód szerintem maximum 20-30% sebességért tehető felelőssé, gondolok itt pl. a Tonga bevezetésére a más memóriamodelljével. De itt 50%-ról beszéltél, ami azért elég durván sok.
Úgy mondjuk oké, ha 20-30% az optimalizáció, a másik 20-30% meg a lassabb busz. -
Abu85
HÁZIGAZDA
A hardver fejlesztése valójában egyszerűbb lenne számukra. Megvan az architektúrájuk, még mindig közelében sem járnak az API-k, hogy kihasználják a képességeit, szóval továbbra is élhetnének azzal, hogy átkonfigurálják évente, és arra a konfigra kiadnak három-négy új GPU-t. A probléma ezzel az, hogy semmit sem változtat a piacon. Kapnak a fejlesztők kb. 20%-kal több TFLOPS-ot minden szegmensben, miközben továbbra sem fogják tudni futtatni azokat az effekteket PC-n, amelyeket például a PS4-en igen. Lásd a HRAA a Far Cry 4 esetében.
Az a szoftveres fejlesztés, amit elindítottak valójában sokkal több pénzt emészt fel, mintha új hardvereket hoznának, de jelen pillanatban úgy látják, hogy ennek van értelme, mert csak így tudnak a fejlesztők hozzányúlni azokhoz a tartalékokhoz, amelyeket ma nem lehet elérni.
A mobil szegmensben a fogyasztást semmi sem csökkenti jobban, mint egy low-level API. Ezt te nem tudod megnézni, de a Mantle érdekessége, hogy úgy növeli a sebességet, hogy közben csökkenti a fogyasztást. A Sniper Elite 3-on ezt kipróbáltam már, kb. 50 wattal kevesebbet fogyasztott a gépem, miközben a sebesség 30-40%-kal nőtt.
Neked nem kell arról meggyőzve lenni, hogy kell a low-level API. Nem neked fejlesztik, hanem a fejlesztőpartnereiknek, akik viszont meg vannak arról győződve, hogy számukra egy ilyen irány nélkül a PC nem vállalható platform.
A fragmentáció elkerülhetetlen, nem a low-level API hozza ezt el, hanem az eltérő fejlesztési stratégia, amivel az AMD és az NV dolgozik. Az AMD akarja a low-level API-t, míg az NV nem, ők szándékosan kértek DX11.3-at, mert nem fogják elmondani, hogy miképp lehet az alkalmazásokat GeForce-ra optimalizálni. -
Crytek
nagyúr
Amúgy nem hülyeség amit az amd szeretne, hogy a mostani cuccok jobban ki legyenek használva.
A konzol ugye joval gyengébb csak a felépítése miatt ki tudnak facsarni belőle sokkal többet mint egy 3x olyan drága pc-ből. Szóval csinálják csak (bár mint fentebb is írtam nem sok látszata lesz a dolognak)Szerintem az Amd pont az akinek nem olyan hüde fontos a mobil szegmens. Next genekkel + pc-vel nagyon jól elvannak sőt lehet a nintendóba is ők gyártanak majd vagy mibe. És ahogy kinéz ez az apu cuccos a később érkező konzolokba is amd lesz.Mobil fronton meg nagyon nehéz lesz az intel ellen bármit is kezdeni (Bár én nem értek hozzá csak találgatok)
-
HSM
félisten
Nem ezek alapján. Csak láttam, mit hoztak össze a Tongával, amiből sejthető, mit fognak tudni kihozni a 390X-ből, az esetleges HBM memóriáról nem is beszélve.
Azt nem egészen értem, miért ne lehetne 200W-ra vízhűtést tenni.... Eddig is mindig ment a panasz, pl. a 7970-nél is, ami 200W körül sincs nagyon, hogy hangos. Most csinálnak egy nem-hangos kártyát, ha marad a víz. Nem látok ebben problémát.
(#8531) gainwardgs: Majd kiderül. De ha HPC szektorban is életképes csipet akarnak, akkor vagy be kell áldozni a mostani GM204 jó fogyasztásából nem keveset, vagy más architektúrát használni, pl. ahogy kipofozták a Keplert GK210-nek.
Márpedig a csúcs-gamer VGA-k mindig is helyt kellett állniuk a profi/félprofi szegmensben is, lásd Titan/Quadro vonal.
Ezek a csipek sajnos nem úgy működnek, hogy büntetés nélkül csak úgy felnagyítod és majd ugyanolyan jó lesz....
Halkan megjegyzem, hogy akár a Tahiti, akár a Hawaii csip elég komoly duplaprecíziós képességekkel rendelkezik az asztali GPU-kban is, ha jól emlékszem kb. az 1/4-ét tudja az egyszeres pontosságnak mindkettő. A GM204 mennyit tud? Szinte semmit, 1/32-ét....A GK110 a Titánokon is az 1/3-adát tudja az egyszeres tempójának.
(#8536) TESCO-Zsömle: Ez nagyon betalált!
-
janos666
nagyúr
Egyetértek, már akkor írniuk kellett volna annyit, hogy "téves a neten keringő dátum" (se többet, se kevesebbet, annyit se feltétlen, hogy korai), mikor tele lett vele a sajtó, nem csak most, mikor már egyértelmű, hogy az volt. Így most sokan csalódnak (nem magamról beszélek, én amúgy se venném meg első hetekben, de amúgy is van egy hosszú vásárlási listám, amihez épp le vagyok égve
, de még azt is tudom mi a különbség "pletyka" és "hivatalos" közt), és könnyen fogják fel úgy, hogy ez most az AMD hibája, nem a pletykaoldalaké (mert ők meg ugye nem azt fogják most megírni, hogy ők hibáztak).
-
Abu85
HÁZIGAZDA
Bárki leírhatja, hogy mikor jár le, csak az NDA dátuma éppúgy titkos, mint a minden abban a doksiban, ami ezt tartalmazza. Ez sosincs másképp. Minden cég így csinálja. Jelenleg csak annyi történt, hogy a pletykaoldalak még nem szereztek dátumot a megjelenésre vonatkozóan. Egyébként azért, mert az nem szerepel az NDA-s dokumentumban. Meg is mondom neked, hogy ennek a helyére egy Under Embargo felirat van írva.
-
-
Abu85
HÁZIGAZDA
Egy kicsit igen. Gyakorlatilag most 15 cím van, és márciusban jönnek az újak. Nem szerencsés az ami történik az AMD-nek, mert nekik az a jó, ha a szponzorált programok nem egymás hegyén-hátán jelennek meg, de ha nincs kész, akkor nem tudnak mit csinálni. Mindenesetre egyelőre a 2011 első felére ígért 5 címük valószínűleg meglesz, csak nagyon az év közepe felé esik a többség.
Mondjuk innen elképzelhető, hogy az egyiket a Llano startjára időzítik, és akkor azzal valamennyire jól járnak. Még steam kupont is adhatnak a proci mellé.
-
caizzz
senior tag
tenyleg egy sincs -és tuti, hogy a scannél is van
-
Petya2900XT
aktív tag
Oké oké....de akkor mi volt az a nagy hűhó,hogy azonos körülmények közt az új sp sokkal gyorsabbak lesznek?....Egy év alatt sikerült kiagyalniuk az AMD-s fejeknek,hogy kicsivel nagyobb chipből,kicsit kevesebb sp-vel nagyobb sávszéllel(ami eddig a legnagyobb probléma volt) komoly 10-15%-ot gyorsuljanak?..hát minden elismerésem
-
Robi BALBOA
őstag
Ja, túl jó volt a Cayman a GF110-hez képest és ezért visszafogják egy kicsit.
(#3230)DeckardCain: 2GB DDR5, ennek nagyon örülök, hogy tényleg a kistesón is 2gb ram lesz.
(#3232)TTomax: Erről még nem is hallottam, hogy szenvednek a 6850-es karik, a 6870-el minden rendben van? (na majd egy kicsit utánna járok)
Kevés lehet a fesz nekik? -
csatahajós
senior tag
A hivatalos dátum egyébként úgy szólt, hogy az 50.-ik héten, azaz december 13 és 17 között valamikor.
A legfrissebb pletykák azonban dec. 8.-át mondanak, legalábbis a kisebbik Cayman kártyára (6950), pont azért, hogy ellentételezzék a GTX570 indulását, ami holnap esedékes.
-
Abu85
HÁZIGAZDA
Általában elkerülhetetlen, hogy az azonos kategóriát hozzámérjék az elődhöz. Lényegtelen a dolog, de a marketingben ez meg szokott mutatkozni.
Persze a HD 5800 sorozatnak vége, október vége óta nem gyártják a Cypresst. Az MSRP ára még mindig 359 dollár, csak már nem lehet rendelni. Ami még rendelhető az a HD 5970, amire az összes Cypress elment. Ennek az ára csökkent 650-ről 470-re. Ez még rendelhető.A boltok ahol beragadt a készlet, nem tehetnek mást, mint árat csökkentenek. Ezek a készletek nyilván veszteséggel kerülnek eladásra.
-
Oliverda
titán
Persze, nyilván az lenne jó ha 10.000 forint lenne majd az ára csak ennek zéró a valószínűsége. Az is több mint a semmi ha hasonló áron lesz gyorsabb mint a GTX 580 mert akkor az nV kénytelen lesz árat csökkenteni, és így ugyanazt a teljesítmény majd olcsóbban meg lehet kapni.
-
Abu85
HÁZIGAZDA
A PLX chip egy 1 dolláros cucc. Ezek mind kevesebbe kerülnek, mint a NYÁK rétegei miatti bonyolultság. A VRM-et fogyasztáshoz kell mérni. Lehet tíz GPU is, akkor sem lesz több VRM, ha a fogyasztás azonos.
(#3065) TTomax: Erre a gyártópartnerek rögtön rávágnák, hogy nem. 600 dollárral már talán elégedettek lennének.
-
Abu85
HÁZIGAZDA
A PCB mérete közel azonos, de a rétegek száma a 384 bitnél több, és nem a 256 bitnél. Ez számottevő különbség. Nem kell rá GPU-t válogatni, ezért lesz bevezetve a Caymannál egy új technológia. De még ha válogatni kellene, akkor is ugyanannyi gyártani a GPU-t, mert a wafert fizeted. Az mindegy, hogy a GPU hogyan sikerül. Mivel a két kártya 300 wattot fogyaszt, így a két GPU-s megoldásnál nem kell olyan izmos VRM rész GPU-nként. Összességében egy szinten leszel. Hiheted azt, hogy a HD 6990-et drágább gyártani, de ettől nem lesz igaz.
Az ilyen problémák miatt került a vadászmezőkre a BFG, vagy vált ki az XFX, bár ők még időben átnyergeltek.
Olyan Radeont nem kapsz. A probléma gyökere a piaccal kapcsolatos. Egyszerűen szart sem keresel az asztali VGA-kon, így a partnerek válságban vannak. Olyan drágán kell árazni, amennyire csak lehet. Ez nem kartell, egyszerűen csak haldoklik a piac, így az árverseny helyet a cégek egymáshoz igazodnak. Régen is volt ehhez hasonló állapot. A matematikai koprocesszorok a prociba kerültek, így a piac lényegesen szűkült. -
Abu85
HÁZIGAZDA
A nyák biztos kevesebb rétegből épül fel, mert nem 384 bites lesz. A két GPU tokozása is olcsóbb, szintén a busz szélessége miatt. Sokall kevesebb lábkivezetés kell. Emellett a két kártya 300 wattot fogyaszt vagyis a VRM is azonos költségű, bár ez a legolcsóbb az összes alkatrész körül.
Attól függ, hogy az AMD hogyan áraz. Az NV csúcsterméke ellen nyilván a saját csúcstermékük volt tervezve. Persze, ha a felsőkategóriába tervezett VGA hozza azt, amit az NV csúcs, akkor fel kell árazni a GTX 580 szintjére a terméket. A haszont is jobban el lehet engedni, így biztosabb a VGA-gyártók jövője az integráció mellett. Nyilván az AMD sem tudja, hogy mennyire jelent majd problémát az eladott VGA-k esetében, ha egy IGP eléri a belépőszint illetve az alsókategória teljesítményét. Egyelőre nehéz megjósolni, hogy mekkora visszaesés lesz az eladásokban. Ezért kapták meg a gyártópartnerek a lehetőséget a Fusion alaplapok gyártásához, hogy ha bekövetkezne a legrosszabb, akkor legyen menekülőút, ami nyilván jobb a csődnél.
-
Abu85
HÁZIGAZDA
Ha a Cayman pletykált méretével számolunk, akkor hasonló lesz a HD 6990 előállítási költsége a GTX 580-hoz. 390-400 mm^2-es lapka kell, hogy drágább legyen.
Mivel itt e tervezés fázisáról van szó, így a termék ára ilyenkor még nem ismert. Nyilván, ha gyorsabb lesz, akkor drágább lesz. Semmi értelme egy gyorsabb terméket olcsóbban adni, amikor ebben a kategóriában nem számít a pénz. Ha valakinek a leggyorsabb kell, akkor a leggyorsabbat veszi meg. -
Abu85
HÁZIGAZDA
Igen az 1 GB AA mellett elfogyhat Full HD-ben is. Szerencsére ez nem olyan problémás, mert nem sokkal léped át a keretet. Igazából akkor van baj, ha már a texture streaming algoritmus sem tud hatékonyan működni. A legtöbb játék eleve több VRAM-ot használ 1 GB-nál, de ezt okos streameléssel jól lehet kezelni. Mindig csak az a textúra van a memóriában amire szükség van. Persze vannak elég durván streamelő játékok, mint az UE3-as cuccok. Ott ennek negatív hatása is van, mert sokszor későn tölt be a textúra. Nyilván ez állítható dolog.
A memória mennyisége annyira nem ad jelentős változást fogyasztásra. A mai GDDR5 lapkák eléggé energiatakarékosak. Amúgy olyan 10 wattot jelenthet pluszban az 1 GB-tal több memória. A GTX 580 eleve alacsony fogyasztású memóriákat kap, mert úgy sem lehet 6 GHz-en járatni őket. ott tényleg elhanyagolható a fogyasztás.
Mivel új architektúra lesz, így a finomítani biztos lehet az első eredményeken. Mindenesetre a mostani driver nem fog sokat változni már. A shader fordító az, ami kiegészl a Caymanhez illő rutinokkal. Jövőre pedig úgyis zsír új driver lesz mindennek. Az új Catalystból egyelőre csak az OpenCL rész érhető el, de az is fejlődni fog, mert jön a Stream SDK 2.3, ami egy csomó újítást hoz. Meg ugye elérhetővé teszi az UVD-t is. Egyébként nem kell eget rengető változásra számítani a 3D esetében. Ott csak finomítások lesznek. A fő fejlesztés multimédiás részt éri. Az kompletten újra lett írva, teljesen felkészülve az új internetes böngészőkben bevezetendő felületek teljes GPU-s gyorsításához (tartalomgyorsítás, HTML5, WebM, WebGL, új flash modul). Ezenkívül a vezérlő is más lesz. Nagyobb lesz az integráció a különböző szoftverekkel, mint az AMD Overdrive, plusz ha platformod van, akkor teljes energiagazdálkodás is lehetséges, automatizáltan és/vagy egyénileg definiált paraméterekkel. -
-
fatallerror
addikt
lehetne úgy h ahogy halad a cikk a képek mellett lennének kis 1 perces videók is, pl h mi van a dobozban, tesztgépnél is a gépről 1 kis videó meg a többi vga-ról, magukról a tesztekről nem kell video, azt tényleg látod a grafikonon, a cikk végén meg pár perces videóban is lehetne 1 összegzés
de ez csak 1 spontán ötlet, úgyis a szerkesztők döntik el :]tényleg, a gtx 580 cikk kint lesz a héten?
-
Tirexi
addikt
Hát pedig azt leszögezte hogy nem fog csak azért platform-ot (i7) cserélni mert egy nyamvadt 60Ft-os VGA-hoz nem elég egy Q6600 4 magos CPU 3Ghz-en.
Meg is értem őt hisz enyhén nagy lehúzás lenne.Ez elég elszomorító hogy 2010-ben komplett gépet kell cserélni azért hogy egy NFS ne 15 hanem 35FPS-el menjen.
Kajak a számítógép hamarosan tényleg csak a gazdagok szórakozása lesz.
Amúgy én Q9450 után i7 920-ra váltottam és a legtöbb játékban kb 5-6 FPS különbség lett, néhol még annyi sem.
-
-
-
Tényleg nem lehet 100%-ig azonos 2db GPU egy 1 GPU-s, de dupla olyan erős GPU-val.
A lényeges(ebb) kérdés az, hogy mennyire éri meg dupla oylan erős GPU-t csinálni két kisebb, és gyengéb helyett.
Az nV-nek azért éri meg, mert ugyanazt el tudja adni prémiumhaszonnal GPGPU címen.
Ha az AMD-nek lenne erre lehetősége, akkor ők is ezen a sokkal jobban profitáló úton járnának, de mivel eddig magasról letojták a profi vonalat, már nagyon nehéz és költséges ide betörni, így amíg vannak nagyobb promlémáik is (intel, ARM, tabletek, okostelefonok, pénzügyi helyzet), addig olyan piacra koncentrálnak, ahol van esélyük, de itt is minimál befektetéssel igyekeznek max hasznot elérni (sweet spot). Ennek része a két kis GPU az egy nagy helyett.
Szerintem. -
cszn
őstag
Nem értem, hogy hol a gond igazából. A két gyártó lefedte a piacot egymás réseit tömködve, így mindenki megtalálhatja a magának megfelelőt mindkét oldalon. Mindegyik oldalnak megvannak az előnyei és hátrányai, de a leggyorsabb kártya az 5970, ezt elvitatni nem lehet. Most őszintén és objektíven gondolj bele. A csúcskártyánál nem mindegy hány GPU van benne? A csúcskártya egy erődemonstráció és ebben az 5970 a legjobb.
-
Oliverda
titán
Ugyan miért nem lehet a kettő között párhuzamot vonni? Hmm?
Szerintem amúgy egyszerűen csak szúrja a szemüveg mögött rejlő szemeidet, hogy még az nV több ok miatt képtelen egy ideje dual GPU-s kártyát készíteni, addig a Radeon-ok már három (illetve lassan már négy) generáció óta sikerrel használják ki ezt a lehetőséget. Ergo ha az nV-nek most lenne dual GPU-s kártyája és az lenne az elérhető leggyorsabb VGA, akkor baromi de iszonyat qrvajó lenne a dual GPU-s VGA mint olyan.
-
Oliverda
titán
Nem gondoltam volna, hogy ilyen hatalmas problémákról van szó.
"az én véleményem az,hogy amíg nem azonos képkockán dolgozik a két gpu addig nem lehet egyenértékű egy egy magos kártyával!"
Kár hogy nincs olyan játék ami fixen egy képkockát rajzol ki másodpercenként.
Ilyen elgondolással a gyorsabb végrehajtás ellenére a CPU-k több magja sem egyenértékű egyetlen egy lassabb maggal szemben. Kissé sántít ez az egész valahol én úgy érzem...
-
-
MPowerPH
félisten
"A leggyorsabb egymagosnak igenis van létjogosultsága ..."
Jah, főleg ha minden téren lassabb, mint a két GPU-s megoldás, többet fogyaszt, kevesebb profitot termel a selejt arány miatt, és ugyan annyiba kerül. Én nem látom csak a létjogosultságot?
Ha tök hülye vagy, pártatlan, és bemész a boltba, hogy a leggyorsabb VGA-t akarod megvenni. Akkor tök mind1, hány GPU van benne, a gyorsabbat adják oda. Mert a mindennapok során észre sem lehet venni, hogy 2 GPU-d van, vagy 1. Én a 4890X2, 5970, és 4890 CF esetén is csak annyit vettem észre a 2db GPU-ból, hogy piszok gyors, és sokkal olcsóbban kijöttem, mintha a drágább, és lassabb NV -s 1 GPU-s megoldást választottam volna. -
Oliverda
titán
-
Abu85
HÁZIGAZDA
A GPU sosem lesz így megvalósítva. A dupla GPU azért lett így kialakítva, mert így a csúcsmodell fejlesztése olcsó, és nem mellesleg kegyetlenül gyors lesz a termék. Jelen pillalatban csak ilyennel lehet a leggyorsabb VGA címét hozni. Aztán persze lehet jönni a leggyorsabb GPU, a legkisebb fogyasztás, a legjobb teljesítmény egységnyi fogyasztás mellett, a legnagyobb órajel, a legkisebb idle fogyasztás mondókákkal. Nyilván van ezeknek is értéke, de az abszolút leggyorsabbhoz egyik sem ér fel.
-
Abu85
HÁZIGAZDA
A HD 5970 2x1 GB volt.
Igazából senki sem csal, de eléggé gáz, ha egy cég annyira szelektíven gondolkodik, mint az NV. Mindketten csinálják az FP16 demotiont, de ez csak akkor baj, ha az AMD alkalmazza. Valójában az Nv-nek az a baja, hogy az AMD jobban oldotta meg, és többet gyorsulnak a Radeonok. Ezt a problémát úgy lehetne rendezni, ha a GeForce driverben is kikapcsolható lenne az optimalizáció, és megkérné az NV a weboldalakat, hogy kikapcsolt optimalizációval teszteljenek. (mi szó nélkül megtennénk) Erre az AMD is azt mondta, hogy neki megfelel. Az nem felel meg az AMD-nek, hogy a Catalystben kikapcsolod az optimalizáció, míg az NV-ben ottmarad. -
Abu85
HÁZIGAZDA
A GF104-et limitálná, ezért nincs teljes értékű lapkára tervezett kártya. A GTX 460 elmegy, enyhén limitálja az biztos, mert sokat esik a teljesítmény Full HD felett. Valószínű, hogy 150-160 GB/s alatt a Cayman is limites, de ez nagyon függ a GPU teljesítményétől. Így nem lehet ezt megmondani, de tekintve, hogy 6 Gbps-os lapka van a kártyán a cél az 5 GHz fölötti órajel mindenképpen. Ha az 5 GHz lenne, akkor jó lenne az 5 Gbps-os chip is.
Mivel még nincs cetli a HD 6900-on, így nehéz ez alapján következtetni. Eppen ezért írtam a tervezett pozíciót, aztán, hogy az mennyire tér majd el a valóságban, az a termék teljesítményétől függ.
Az AMD érzi a memóriavezérlője előnyét. Nekik ez a fontos. Nem is terveznek 384 bites buszt, mert képesek alkalmazni 4 GHz-nél magasabb memória-órajelet. A gyártás során ez jelentős előny, mert a lapka tokozása kisebb, és a NYÁK bonyolultsága is visszafogottabb. Ezek azok az apró dolgok, amik azt eredményezték, hogy az AMD első számú partnerei életben maradtak. Az NV kettőt is elveszített. Itt jön az, hogy hosszútávon neked is számít, hogy mekkora a lapkaméret, vagy mennyire hatékony egy architektúra. Ezt mint felhasználó nyilván lényegtelen tényezőként jegyzed, de a gyártók nem neked akarnak jót, hanem elsősorban maguknak. Ha nekik nem jó, akkor úgy intézik, hogy maguknak jó legyen pl. XFX, vagy esetleg belerokkannak a veszteségekbe pl. BFG.Miért húztam volna le a GF104-et? Több hírben is megemlítettem, hogy a legjobb a GeForce GTX 460 ár/érték aránya. [link] - Itt még túlzásokba is estem, a képaláírásnál.
A GF104 pedig teljes értékű lapkaként nyilván limites, így az NV nem is készített belőle 384 SP-s verziót, hiszen nem lett volna elég. A GF114 a pletykák szerint más lesz. Valószínű, hogy 320 vagy 384 bites lesz a memóriabusz.
A memórialapka sebessége még nem jelenti azt, hogy a chi ki is használja. A GeForce GTX 580-on is 5 Gbps-os lapkák vannak, de csak 4 Gbps-os módban működnek a 4 GHz-es órajel miatt.(#2680) gbors: Pontosan. A ROP hatékonysága nőtt egyes eljárásoknál ... azoknál, amiket az AMD fontosnak tartott.
-
Oliverda
titán
-
Abu85
HÁZIGAZDA
Írtam fentebb, hogy ha a memóriavezérlő nem tud többet x GHz-nél, akkor az összességében hátrányos a kártyára. A mintákon 6 Gbps-os lapkák vannak.
Kezdjük ott, hogy a tervezés szakaszában a Cayman nem a GF110 ellenfele. Az ellen az Antillest tervezték. A GF114 lesz hasonló lapkaméretű, mint a Cayman. Persze, ha a Cayman elégé megközelíti a GF110-et, akkor ugyanazt kell játszani, mint a HD 5000 sorozatnál. Ott sem a Hemlock ment a GF100 ellen, ami az eredeti terv volt, mert sokkal gyorsabb volt, így drágábban is eladható.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- SkyShowtime
- Norvégia átmenetileg betiltja az áramigényes kriptobányászatot
- Hitelkártyák használata, hitelkártya visszatérítés
- Miskolc és környéke adok-veszek-beszélgetek
- Nintendo Switch
- Black Myth: Wukong
- Autós topik
- Kevesebb dolgozó kell az Amazonnak, AI veszi át a rutinfeladatokat
- Milyen autót vegyek?
- Stellar Blade
- További aktív témák...
- BESZÁMÍTÁS! ASUS VivoBook X1504ZA notebook - i3 1215U 16GB DDR4 RAM 512GB SSD Intel UHD IGP WIN11
- KATONAI ÜTÉSÁLLÓ!!! Getac S410 i5-6300u, G3: i5-8365u, G4: i5-1145G7
- Apple iPhone 16 128GB Kártyafüggetlen 1Év Garanciával
- LG 55B4 - 55" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
- BESZÁMÍTÁS! Gigabyte B760M i5 14600KF 32GB DDR4 1TB SSD RX 6700XT 12GB Zalman Z1 Plus Seasonic 650W
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest