- Xiaomi 14T Pro - teljes a család?
- iPhone topik
- Ennyibe kerülhet a Xiaomi Watch S4 európai változata
- Hetekig bírják töltő nélkül a Huawei sportórái
- OFFTOPIK: Earfun-lányok Magyarországon
- Milyen okostelefont vegyek?
- Google Pixel topik
- Huawei Watch GT 4 - kerek karék
- Yettel topik
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
fatallerror
addikt
válasz
ViiiiktorOC #6199 üzenetére
nem is kell
mőr ők 8asban gondolkodnak szerintem
-
ViiiiktorOC
senior tag
Szvsz idén már nem lesz ebből 7990-es kártya!
Nagyon késő van hozzá már!
4-5 hónap azt itt az új generáció. -
radi8tor
MODERÁTOR
válasz
fatallerror #6195 üzenetére
Aztán utána meg is áll a fejlődés, mert mindenki APU-ban látja a jövőt.
-
fatallerror
addikt
válasz
ricshard444 #6194 üzenetére
aha tehát a hd9000esektől várható, kösz az infot nem hallottam róla, reméljük így lesz v xdr2
-
válasz
fatallerror #6193 üzenetére
Az első GDDR6 modulok ill. az ezekkel szerelt grafikus kártyák a várakozások szerint legkorábban 2014-ben kerülhetnek majd piacra. Ugyanakkor a specifikáció vélhetően legalább 2020-ig velünk marad majd, és utódja - a logikusan vélhetően GDDR7 nevet viselő specifikáció - bevezetése csak ezt követően válhat majd indokolttá.
Ezt olvastam még múltkor,az hogy mennyire valós ez kiderül
-
fatallerror
addikt
válasz
ricshard444 #6192 üzenetére
gddr 6?
mesélj
-
válasz
ViiiiktorOC #6190 üzenetére
Kétlem,hogy az lenne benne,talán majd jövőre,de 2014ben jön a GDDR6 szóval nemtudom mikor akarják egyáltalán rádobni a karikra...
-
fatallerror
addikt
válasz
ViiiiktorOC #6190 üzenetére
á az nagyon drága, szerintem ddr5ös marad. jó lenne persze de tuti h nagyon költséges még, nagyon talán a csúcs kártyában lehet
-
ViiiiktorOC
senior tag
válasz
fatallerror #6189 üzenetére
Hát remélem azért többet fog hozni.
És lehet hogy XDR2?Egy 8870-esre beneveznék szívesen a GTA V-re.
-
fatallerror
addikt
válasz
dangerzone #6187 üzenetére
nagy változás nem lesz, a gcn volt a nagy lépés és ez lesz finomítva 1 picit, szerintem 10-15% gyorsulás várható kb azonos fogyasztással
szóval ricsike jól mondta -
válasz
dangerzone #6187 üzenetére
Semmi hivatalos,feltuningolt 7000-s lesz és valószínű,hogy december környékén jönnek az első tesztek.Év elején pedig megjelennek az első 8000-sek,de ez is mind tipp
-
dangerzone
addikt
8000-res szériáról valami infó?
-
Z10N
veterán
válasz
janos666 #6169 üzenetére
Nalam, mint emlitetetm mukodik. Eyefinity-nel 300/1000@1000mV ugye az alap.
gpu: 250 alatt mar kifagy, mem: 500-ig muxik (ertsd 2000MHz), csak videozasnal a framerate leesik (MPHC/VLC) drasztikusan 15-20 fps, ezert inkabb hagytam 1000-n (4000MHz), a gpu feszt. idle-ben probaltam 950mV/975mV 950-nel azonnal kifagy a kep, 975-nel neha elszall a szinkronizacio (DVI signal not found) 980mV stabilnak tunik, de neha reccen egyet, szoval ez is maradt 1000mV-n. Ugy latszik ebbol a szempontbol is jobb a HD6800 szeria (Eyefinity orajel es energia menedzsmentje). Mindezt en is AB-ben profiloztam be, illetve meg a Trixx-et erdemes kiprobalni, bar lehet a CHiL VRM miatt lehet igy finomhangolni (6870 PCB). -
Z10N
veterán
válasz
janos666 #6167 üzenetére
"vagy feszemelt overclock vagy multimonitor"
Erdekes nalam mukodik
2D 250/1000@1000mV
3D 975/1225@1200mV
Ezert is kerdeztem korabban toled mekkora feszultsegen megy nalad az 5850 Eyefinity-ben, mert kisse hihetetlennek tunt. Nalam egy kijelzo eseten viszi az 1GHz-t a fentebbi feszultseggel, de 3 megjelenitonel mar nem, ezert tovabbra is furcsallom.ui: Sajnos a vibralas nalam is megvan ha tobb HD video megy egyidoben, pedig a rendszer birja, alig van terheles (sot ugye ilyenkor a gpu felugrik 600MHz-re), szoval ez driveres problema (HD6850). Ezt az Eyefinity-s topikban mar targyaltuk.
-
hoolla
aktív tag
Mind a ketten uazt írtátok.
Ha sérülésmentesen cserélsz hütöt, nem veszi észre senki, tehát gariztathatod. Még akkor is, ha a boltba ahova visszavitted, megmondod, hogy volt rajta csere de visszaraktad. Ha ök nem látnak semmi nyomát cserének, vissza tudják küldeni. Ha viszont csere közben akár csak elnyalsz egy csavart, azzal már bukod a garit. Nem kell, hogy nagyobb sérülés legyen rajta. Nem fogják kicserélni, ha visszaviszed azzal a szöveggel, hogy hát csak hütö csere volt rajta, viszont hàrom csavar feje úgy szét van nyalva, hogy már nem lehet meghúzni, illetve lazítani.
-
radi8tor
MODERÁTOR
MSI R7970 Lightning-nál kérdeztem rá a magyar képviseletnél, hogy ugyan már mondja meg: Mi értelme az LN2 módnak a kártyán, ha bukom a garanciát a hűtő leszerelésével?
Erre a kérdésemre válaszolta azt, hogy semelyik kártyán nem vész el a garancia, ha sérülés mentesen cserélsz rajta hűtőt. Lightning esetében LN2 módnak akkor van értelme, ha egy LN2 potot szerelsz rá és folyékony nitrogénnel hűtöd.
Szóval a Lightning-en még a gyártó is engedi a hűtő cserét. -
radi8tor
MODERÁTOR
válasz
KillerKollar #6180 üzenetére
Semmilyen VGA kártyánál nem veszted a garanciát a hűtő leszedése miatt.
Csak akkor ugrik a garancia, ha eközben megsérül a GPU vagy az áramköri lap. -
hoolla
aktív tag
válasz
KillerKollar #6178 üzenetére
Ha valaha megjelenik a ref egyáltalán. Ezért az árért szerintem sem elég meggyözö. Viszont adnak csavarhúzókészletet, amivel kijavíthatod a szarrápénzelt mérnökök bakiját, így sokkal jobban a magadénak tudhatod a kártyát.
-
hoolla
aktív tag
http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/1.html
-
janos666
nagyúr
válasz
TESCO-Zsömle #6170 üzenetére
Nem tudom, egyszerűen nem vergődtem zöld ágra az RBE-vel Vcore ügyben.
Ha mutatsz egy jó leírást HD5-höz, akkor megcsinálom, de nem tűnik egyértelműnek a túlfeszelés. Szerintem hexeditor móka, amitől még nem félek, csak magamtól nem találom ki melyik regisztert kell átütni. -
-
hoolla
aktív tag
http://www.hardwareheaven.com/reviews/1561/pg1/powercolor-devil-13-hd-7990-graphics-card-review-introduction.html
-
janos666
nagyúr
Hol van az overdrive-ban a VCore csúszka?
A HD5850 nem 1V-on megy 1Ghz-et, hanem 1.2-n.Egyébként azt hiszem a memóriaórajelet is elég lenne magasabban tartani a multimondiot setuphoz, de felfoghatatlan számomra, hogy az AfterBurner-ben miért nem oldható ez meg. Pedig egyáltalán nem tűnik lehetetlennek vagy egy olyan opciót adni, hogy ne is váltson soha órajelet a kártya ("force constant clocks" vagy valami), vagy legalább a külön elmenthető 2D/3D profilokat rendesen kezelné, és ha azt mondom 2D-ben is 1Ghz a RAM, akkor nem viszi le 300-ra idleben sem. De nem... mindig leveszi és bele sem szólhatok, hogy meddig...
A BIOS-ba is beírtam volna már én, ha nem lenne túlbonyolítva és ott is egyszerűen megadhatnám hogy 1.2V-on menjen 3D-ben a GPU.
-
Abu85
HÁZIGAZDA
A HD 6850 nem PowerTune-os rendszer.
Több megjelenítőnél persze, hogy nem stabil 250 MHz alatt. Egy kijelzőre van tesztelve az idle. És azért nincs engedélyezve a kártyákon ez több kijelzőnél, mert nem lesz stabil. Ez nem csak a Radeonokon, hanem az összes terméken így működik. Ha több kijelzőt használsz, akkor nincs idle. -
Abu85
HÁZIGAZDA
A PowerTune pedig 0 MHz-et változtat 0%-os beállítással. A Boostok sokkal hektikusabbak. A GPU Boost a legrosszabb. Ott a TPU-s kép ... vagy az NV mérése, ami másodpercenkénti órajel módosítást mutatott. Egy mérés alatt az összes órajelszintet érintette többször is. Ugyanígy a PowerTune Boost, de annak csak egy szintje van, de az is nyilván váltogat az alap és a boost szint között.
Egyébként, ha elolvastad, akkor a GPU Boost ugyanúgy működik negatív irányba is. Tehát az órajeskálázás mindkét architektúrán közel 300-400-500 MHz-es tartományban működik. De ez csak elmélet. A gyakorlatban egy játék nem képes úgy leterhelni a hardvert, hogy az alapórajel alá kelljen menni. -
Z10N
veterán
Reszben erinti a kerdesem a temat. HD6850-nel a "PowerState"-ek elvileg dinamikusan valtozank. Esetemben Eyefinityben es Extended modban hasznalom. Ugye alapbol egy kijelzo eseten visszaveszi az orajelet 100/300@950mV, ez 3db megjelenitonel 250/1000@1000mV, ami alapbol 300/1000@1000mV, viszont 250 alatt mar nem stabil. Illetve foleg videozasnal (flash) felugrik 600-ra. Szoval a kerdesem az lenne az Eyefinity/Extended mod ennyire igenyelne a plusz orajelet es feszultseget 2D-ben (bar a scaling be van kapcsolva). Ez kb 10°C jelent 45/55°C, illetve ilyen melegben is 47/57°C (1 vs 3 display) 2D-ben (ez HD6950-nel is kb azonos volt). A vicces az, hogy terhelve 3D-ben viszont nem megy 65°C (67) fole, huzamosabb terhelesnel max 70 (BF3MP), mikozben 975@1200mV megy. A masik az elobbihez kapcsolodik az EYE/EXT mod mennyire befolyasolna az overclockot, mivel 1 kijelzonel az 1GHz-cel sincs gondja, 3-nal viszont neha eldobja (ertsd a venti felporog es eldobja a vedelem az alkalmazast), illetve EYE/EXT modban az energiagazdalkodas, hogyan mukodik nem csak HD6000-nal, hanem HD7000-nel is. Udv.
-
a tesztekben én azt láttam, hogy a boost messze nem ennyire hektikus - jellemzően egy órajelen megy. meg ugye max. 100MHz-es range-en csinálja, míg a powertune akár 300-400MHz-eket változtat, ciklikusan. igen, ha nem kapcsol be, akkor jó - de pont Te írtad, hogy pl. az OEM 6990-et így tolják be 300W alá. na egy olyan géppel nem szeretnék találkozni
-
Abu85
HÁZIGAZDA
válasz
fatallerror #6160 üzenetére
Nagyon jól működnek már. A Furmark fejlesztője le is állt a program polírozásával. A szoftvert meg lehet kerülni, de hardvert nem. Persze a GeForce GTX 580 és 590 védelme a GPU-Z-vel kikapcsolható, de nem ajánlott megtenni. Asszem a Kepler Boostja is kikapcsolható pozitív-negatív irányban, de azzal sem érdemes élni, mert a hardver erre támaszkodik a védelmeknél.
A PowerTune kikapcsolhatatlan, mert az a display driver betöltéséhez van kötve. Tehát az egyetlen mód ezt kikapcsolni, ha megtiltod a display driver betöltődését, ami pedig lényegtelenné teszi a dolgot, mert display driver nélkül semmilyen 3D-s program nem fut. -
Abu85
HÁZIGAZDA
A PowerTune azért van, hogy védje a hardvert a Furmarktól. Ha téged az órjelváltás zavar, akkor a GPU Boosttal és a PowerTune Boosttal lesz inkább bajod. Ezek sokkal agresszívebben működnek, mert állandóan dobálják az órajelet, ahogy látod a grafikonon is. A PowerTune Boost csak egy órajelbeállításra és 50 MHz-et, míg a GPU Boost az 100 MHz-es szinteket is dobálhat ide-oda. [link] - Ez az NV saját mérése hogyan működik. 1 másodpercenként változott az órajel. Ez a minimum határ, ugyanis a driver dönt erről, vagyis a kérés is a válasz között 800 ms van.
Maga a PowerTune 0%-on egy játékban semmit sem csinál, mert a Furmarkra szabták. Ha nem így védi az AMD a Furmarktól a terméket, akkor máshogy kell elfojtani a teljesítményt. Furmark szerű terhelés pillanatokra előjöhet játék alatt is. Ilyen volt például a StarCraft 2. [link] - erről írtunk is. Sokan elhullott GeForce-ról beszéltek a fórumban. Akkor az NVIDIA semmivel sem védte a hardvereket a túlterheléstől. Az AMD a HD 5000-be már rakott egy alapvető védelmet, ami a túlterhelés érzékelésére az órajelet ugyan nem módosítja, de képes kiadni egy halt parancsot. Elméletben a GPU addig nem dolgozik az adott ciklusban, amíg a halt parancsot kapja. Egyszerűen futja az üres ciklusokat. Jellemző volt a Radeonokon, hogy a vezérlés úgy volt megoldva, hogy egy halt és egy munka parancs volt, és így folytatódott. Ugyanakkora ez teljesítményvesztéssel járt, mivel két ciklusra nézve a teljesítmény a felére esett, mivel az egyik ciklus üres volt. Persze ez 10 ciklusnál közel sem volt ilyen drámai. Furmark alatt 10 ciklust nézve 2-3 halt van, míg nagyon jól optimalizált játékban (StarCraft 2) 100 ciklusra 1 halt (de egy játék nem állandó jelenettel dolgozik, mint a Furmark, szóval itt ez az érték nagyon függött a jelenet típusától). Az NVIDIA hasonló védelmet vezetett be a GeForce GTX 580-on. Ez abban különbözött az AMD megoldásától, hogy nem volt kötelező egy halt után csinálni egy munkaciklust, vagyis előfordulhatott, hogy a GPU öt ciklusig nem csinált semmit. Utána persze jellemzően volt munka, mert a túlterhelés sosem lehetett olyan nagy, hogy öt ciklus után ne legyen meló, de ha ez a ciklus állandósuló, például Furmark, akkor a hardver megállapít egy extrém terhelési szintet. Tehát ha öt ciklusos lenne a halt, és egy a munka, akkor a rendszer inkább megfelezte a feldolgozás sebességét. Ezt úgy érte el az ütemező, hogy a külső parancsnál halt helyett slow jelet kapott, ami azt jelentette, hogy az erőforrások felét sose használja ki. Gyakorlatilag az ütemezőnek meg lett tiltva, hogy az összes GPC blokkra osszon szálat. Így működött a GTX 590 is, azzal a különbséggel, hogy a keret szűkösebb volt, így ha tuningoltál, akkor lassult a sebesség egy játékban. Természetesen a korábbi halt túlterhelés nélküli védelem a driveres tiltásra helyezte a terhet. Ez is hasonlóan működött, mint a GeForce-on a slow, csak a driver a program futtatásának elején kiadta, hogy lassítani kell, mert ez a program túlterhel. Ezt a rendszerprogramozók tesztelték ki, és a friss meghajtókba került a dolog. A Furmark ez ellen az exe átnevezéssel védekezett, így később ez a program kapott egy módosítást, vagyis a driver nem az exét detektálta, hanem a shader fordító rakott üres ciklusokat a Furmark shaderjébe. A játékoknál nyilván túl nagy veszélye nincs annak, hogy a user átnevezi a fájlokat, így ott a fájl szerinti fojtás megfelelt. A HD 4000 például azért volt gyenge a HD 5000-hez képest Starcraft 2 alatt, mert az AMD már a program kiadása előtt érzékelte, hogy gyilkolni fog, és belerakták a driverekbe a fojtást, amint bekerült a meghajtóba a profil a játékra. Az NVIDIA ezt nem tette meg, és ezért hullottak a GeForce-ok a játék kiadásakor. Később persze megtörtént, aminek meg kellett történnie. Az NVIDIA is lelassította a hardveres túlterhelésvédelemmel nem rendelkező termékeket, a helyzet ugyanaz volt, mint az AMD-nél fojtás a driverbe. Ezért van az, hogy a GeForce GTX 480 lelassult az új driverekkel, míg a GTX 580 sebessége nem változott StarCraft 2 alatt. Persze a StarCraft 2 az nem Furmark, szóval annyira drasztikus fojtás nem kellett bele, nem kell tehát felezett sebességtől tartani, amolyan 10-15%-os mínusz volt a jellemző.
A HD 6900-nál mutatkozott be a PowerTune, ami azt a célt szolgálta, hogy kevésbé legyen drasztikus a túlterhelés elleni védelem. Könnyen kitalálható, hogy nincs rosszabb annál, ha egy GPU kap egy halt ciklust, mert jelentősen növelhet a frame elkészülésének idején, ha egy egész ciklusig nincs munka. A több ciklusos halt, ami a GTX 580/590-en volt, pedig nagyon gáz lehet. Nyilván tök egyértelmű, hogy a játékok ebből nem sokat éreztek, azok terhelése nem Furmark szintű, de a halt, ha bekapcsolt, akkor nagyon is érezhetően ártott a folyamatos képszámításnak. Ugyanakkora a halt túlzott, amikor a teljes ciklust üresbe rakta, hiszen jellemzően a túlterhelést nem kell feltétlenül a terhelés megszüntetésével orvosolni. Nyilván a pillanatnyi túlterhelés nem gond, csak a folytonos. Például, ha 2-3 másodpercig tart, az már para lehet (a hardver persze gyorsan dolgozik, így lereagálja a dolgot a másodperc töredéke alatt). A PowerTune abban újított, hogy kivette a haltra való igényt, ugyanis a rendszer precízen monitorozta a terhelést, és ha érezte, hogy a peak meghatározott idejénél tovább tart a terhelés, akkor be kell avatkozni. A haltra viszont nincs szükség, mivel a túlterhelés mértéke változó, és a PowerTune kiszámolja, hogy mekkora az az órajel, amivel a terhelés a specifikált limit alá szorítható, és annyival csökkenti az órajelet. Ez lehet akár 1 MHz is, ha ennyi elég. Ha a terhelés a limit alá ment, akkor lehet növelni az órajelet. Ez egy valós monitorozás lényegében, és az órajel folyamatosan reagál a terhelés szintjére. A Powertune megkötése persze, hogy van egy órajelminimum is. Jellemzően ~300 MHz-es az a sáv, amiben működik. Ez azt jelenti, hogy ~300 MHz-nél nagyobb órajelcsökkentést nem enged meg. Ez persze fejlesztésenként változó, mindig az adott fejlesztéshez szabják. Van olyan, ahol ~200 MHz a PowerTune sáv. Természetesen a specifikált limitet lehet változtatni. A 0%-ot az AMD mindig úgy állítja be, hogy az a játékoknál ne jelentsen órajelváltást. Ez ügye elemi érdek, mert ha csökken az órajel, akkor csökken a sebesség. Ennek a limitnek a negatívba és pozitívba eltolása a user feladata, ha akarja. Nyilván hagyható 0%-on, de ha tuningolsz, akkor nem árt pozitívba tolni, mert nyilván a tuningórajel, már csökkenhet, hiszen a limitet az alapórajelre szabták. A -20%, akkor lehet hasznos, ha futtatsz valami BOINC projektet. Még mindig sokkal gyorsabban számol a GPU, mint a CPU, de legalább nem fogyaszt annyit, mint 0%-on. Illetve nyilván a mobil felhasználás során is értékes a dolog. Ha nincs konnektor a közelben, de valami 3D-s alkalmazást nyomsz, akkor -20%-os paraméter sokat segít az aksinak ergo később fog a noti lemerülni. A PoweTune Boost, mint "újdonság" tök egyértelmű. Sokszor a 0%-os PowerTune limit, is sok és bőven van hely órajelemelésre. Ezt használja ki a PowerTune Boost. Fontos viszont, hogy a PowerTune Boost egy megkülönböztetett jel, vagyis az vagy aktív, vagy nem, nincsenek köztes állapotok. Ha aktív a PowerTune Boost, akkor az órajel a Boost órajel ez fixen annyi marad, amíg az állapot aktív. Ha a Boostot kilövi a hardver, akkor az eredeti PowerTune paraméterezés lét érvénybe az alapórajellel, és az 1 MHz-es lehetséges minimális csökkentésekkel. Az órajel változása egyébként fejlesztésenként eltérő, de 10-100 ns-os reakcióidő van, vagyis 10-100 ns-onként lehet órajelet váltani a Radeonnak. Ugyanez érvényes a Boostra. 10 ns-onként ki-be lehet kapcsolni (itt a 100 ns azért nem él, mert a Tahiti az egyedüli boostos termék, és az 10 ns-mal dolgozik, de nyilván ez a paraméter is eltérő lehet fejlesztésenként)
A Keplernél az NVIDIA is áttért egy hasonló megoldásra, de a PowerTune-nal ellentétben nem a hardver értékel, hanem a driver. A hardver csak mér, és adagolja az infót a drivernek, ami egy adatbázis alapján válaszol, hogy a beküldött (azaz legutóbb kimért) terhelési szint után milyen órajelet és feszültséget kell beállítani. A GPU Boost bines lépcsőkben zajlik. És egy binnek megvan az órajelértéke (GTX 680-nál például 13 MHz). Az órajel tehát ennál a terméknél 13 MHz-cel változhat, de a maximum változás pedig 8 bin mellett 104 MHz lehet. 4 bin mellett pedig a specifikációkban megadott 52 MHz. A köztes bineket ki lehet számolni. Nyilván ez csak a GTX 680-ra vonatkozik, de elég egyszerű az NV speckója. Minden termékre 4 bin van biztosan garantálva. A bin órajele pedig a hivatalos GPU Boost órajel mínusz az alapórajel osztva néggyel. A PowerTune-hoz tehát az alapvető különbség, hogy nem a hardver dönt az órajelről, hanem a driver mondja meg. Ez egy 800 ms-os késleltetés az oda vissza jel miatt, illetve a proci munkája. Éppen ezért az NVIDIA termékein az órajelváltás minimum 1 másodpercig tart, és a Boost módban váltott órajelet 1 másodpercig minimum meg kell őrizni. A Boost viszont lefelé is működik. Az NVIDIA szintén eldobta a halt rendszert, hasonló okokból, mint az AMD. Ha a hardver nem bírja alapórajelen a terhelést, akkor egy negatív GPU Boost lép érvénybe, ami a bin órajelértékével, illetve annak többszörösével csökkenti majd az órajelet. Erre szintén van adatbázis a driverben. Lefelé egyébként terméktől függően 20-30 bin engedélyezett. A GeForce esetében magát a specifikált limitet nem lehet módosítani. Az állandó. Ez attól van, hogy a GPU nem monitorozza magát, mivel ezt egy külső IC végzi. Az AMD azért képes a limitet paraméterezhetővé tenni, mert a PowerTune a GPU-ba van építve (tehát nincs külön IC erre), és a PowerTune áramkör programozható.
Ezenkívül a PowerTune nem csak a terhelés monitorozásáért, hanem az energiagazdálkodásért is felelt. Nyilván egyértelmű, hogy ha az adott munkafolyamat terhelése megszűnik, akkor az a legjobb, ha a hardver a lehető leggyorsabban vált idle, vagy köztes órajelre. A szoftveres megoldásoknál ez lassú, mert a driverből kell erre enegedéjt kérni, de az nem foglalkozik a driverrel, mert maga dönt. A ZeroCore is egy PowerTune technika alapvetően. Azért akarják ezt másolni a konkurensek, mert ennél hatékonyabb vezérlési forma nincs. És ebből érthető, hogy az AMD miért védi a specifikációkat még a saját partnerei elől is. -
igen. a PT boosttal, gondolom, nincs semmi gond, ugyanazért, amiért az nV boostjával sem - csak időnként kapcsol órajelet. persze akkor sincs gond, ha a PT nem kapcsol be - de akkor minek van? ha viszont bekapcsol, akkor az órajel folyamatos billegtetése látható a játékon, és engem személy szerint borzasztóan zavar.
-
Abu85
HÁZIGAZDA
Mi a baj a játékoknál vele? Az órajel dobálása? A PowerTune 0%-os alapbeállításokkal mindig tartja az alapórajelet, kivéve a Furmarknál. Ha tuningolsz, akkor +20%-ra kell húzni, és a tuningórajel is stabil lesz. Ha pedig kevesebb fogyasztást akarsz, akkor -20%. Ekkor tényleg valós időben változik az órajel a legtöbb játéknál. Tehát ha nem mész negatívba, akkor sosem lesz egy játékban kisebb az órajel az alapnál.
Ami alapbeállításon is dobálja az órajelet az a GeForce-on a GPU Boost, akár 100 MHz-eket is pakol oda vissza. A PowerTune Boost is ilyen csak finomabb határokkal.
Van két kép, hogy mi az amit a GPU Boost és a PowerTune Boost beállíthat, mint érték. Az AMD esetében a váltás az alapon kívül csak egy órajelállapot. Az NV-nél az alapon kívül 8 külön órajelállapot van, de termékenként változó ugye, mivel ebből csak az alsó 4 garantált. Ezek között a rendszer valós időben válthat a terhelés függvényében.
A képeken egyébként a pontok erőssége azt jelenti, hogy az adott teszt során a rendszer milyen gyakorisággal lőtte be az órajel-feszültség párosát. Ha erősebb a szín, akkor sokszor, ha gyengébb, akkor kevésszer. A GPU Boost esetében ugye vannak üres helyek. Azok is léteznek, mint állapot, csak nem voltak a teszt közben aktívak. -
Abu85
HÁZIGAZDA
válasz
Ric4m0nd #6153 üzenetére
Nem csak a BOINC számára lenne hasznos. A játékfejlesztők is kérik. Eddig csak a GK110-re jelentették be, hogy kínál ilyen funkciót, de az kérdéses, hogy megjelenik-e GeForce-ként.
A HD 8000 2013 elején jön. Hasonló lesz a start, mint idén. Talán karácsony előtt enged teszteket az AMD. -
fatallerror
addikt
nem azt írtam h nem kell hanem h még legalább ugyanannyi figyelmet kellene szentelni a vga-kra is
meglátjuk azt a q2-őt, ha lesz pénzem várni nem fogok rá mert a mostani ib platform is elég erős és modern ahhoz h időtálló legyen még 2-3 évig is akárjó de 250ről indult, a mostani áruk már oké de innen kellett volna indulniuk :] viszont a 100 dollár alattiakat már teljesen megkéne szüntetniük, óriási pocséklás
-
Abu85
HÁZIGAZDA
válasz
fatallerror #6151 üzenetére
Inkább háromnegyed év, mert ugye 2013Q2.
Az IGP-re nem csak grafikát lehet rakni. Szépen át lehet nyomni egy játéknál rá a fizikát, az útkeresést, a különböző culling eljárásokat, a sortingot és a tartalom kikódolást. Nem viccből gyúr az Intel a Haswellnél az IGP-re.
Ennyiért lehet őket adni. Ennél lentebb alig-alig mennek majd az árak. És ha nem kell ennyiért, akkor nem az lesz az üzenet a cégeknek, hogy drága, hanem az, hogy a piac nem igényli őket. Vannak 200 dodóért is VGA-k. Új generációs megoldások is. A HD 7850 memóriától függően 190-210 dollár. -
fatallerror
addikt
na a haswell még odébb van, durván 1 év múlva jön addig még sok minden történik. jó h megcélozták az igp-t csak mire annak normális teljesítménye lesz az még sok év és nem járnának jól ha addig prémium termékként tekintenének a vga-kra mert egyre drágábbak és mindjárt kitalálják h 1000 dollárnál olcsóbb nem lesz (jó ez erős túlzás de bármit kinézek belőlük). az igény elég nagy a vga-kra csak hazudják h nem és ahogy látoma abefektetőknél működik is a hazugság h azért fogy egyre kevesebb vga mert nincs rá igény pedig van csak nem 500 meg 1000 dollárért (szerintem az emebreknél a lélektani határ vhol 300-450 dollár között van ami már nagyon max) ezért jobban kellene figyelniük a 200 dolláros kártyákra ha már a pénz számít nekik akkor jelenleg még a vga-val tudnak többet keresni nem az apukkal
-
Abu85
HÁZIGAZDA
A HD Graphics 4000 szintjén biztos eléri, mert azt már most veri a 2011-es Llano APU IGP-je. A Trinity IGP-je még jobban veri, míg a Kaveri még rátesz egy lapáttal. A kérdés inkább a Haswell IGP-je, mert az Ivy megoldását igazán nem nehéz elintézni. 2xAA bekapcs és már ki is feküdt az egy ROP blokk miatt.
Egyébként nyilván olyan 20%-kal lehet gyorsabb a Trinity megoldásánál. Compute terhelés mellett pedig a GCN büntet szóval alázni fog minden eddigi IGP-t. -
Abu85
HÁZIGAZDA
Nem próbálkozni kell, hanem olvasni. Nem lehet mindenkinek fogni a kezét. Ami tényszerű, hogy elég sok teszt született ezekről a kártyákról. Driverhibáról soha semmi beszámoló nem volt. A ZeroCore pedig egyszerűen szintén utánaolvasás hiánya. Az AMD világosan beleírta a 12.4-es Catal note-jába, hogy akinek ezután sem megy, annak alaplapi BIOS-t kell frissíteni. A legtöbb alaplapgyártó hozott ki frissítést. Nem véletlen, hogy nekünk sosem volt problémánk a ZeroCore funkcióval. Minden tesztben ott a mért eredmény, a kikapcsolt monitor melletti idle fogyasztásról. El kell olvasni a release note-okat.
Ismerem, de megértheted az Intelt és az NV-t is, hogy 1-2 órával több üzemidőt kínál a Radeonos rendszer webböngészés mellett. Ez nagy előny. A Trinity APU 6 óráig bírta a webes terhelést, míg az Ivy 4-ig egy webes TechReport tesztben. Ez a különbség sok, így nem kérdés, hogy a teljesen hardveres energiagazdálkodás kedvezőbb a szoftveresnél. A jövőben tehát az Intel és az NV is ebbe az irányba fog menni. Nem PowerTune-nak fogják hívni, de úgy fog működni, mivel teljesen hardveres lesz.
-
a cseresznyeszedés valóban annyit számít - ami egy 1-2%-os győzelemnél pont elég.
driver: heti rendszerességgel bukkannak fel olyan postok a radeonos topicokban, hogy a szerencsétlen user 5 catalystet kipróbál, mire az egyik megy (jellemzően 12.3 magasságában) - én nem hiszem, hogy ez mind a tuning miatt van. a zero core-ral kapcsolatos szerencsétlenkedésről nem is beszélve.
nem akarok flame-elni, a 4000-5000-6000 szériáknál mindig védtem az AMD-t, hogy legenda a szar driver, de itt most tényleg úgy tűnik, gond van. lehet, hogy kipróbálom magam is, mi a helyzet - végül is, ott a 8 napa powertune-ról szerintem ismered a véleményem. aki másolni akarja, annak meleg szívvel gratulálok, és igen óvatos leszek a jövőben a termékeivel kapcsolatban.
-
Ennek alapján szerintetek mennyire lesz erős a Kabini IGP-je, mivel lesz egy szinten, illetve eléri -e az Intel HD Graphics 4000 szintjét? Úgy néz ki, egy GCN 2.0-ás HD7xxx lesz benne, csak a neve lesz majd HD8xxx. Én most keresgélek ide vágó infókat még, de addig is érdekelnének mások tippjei!
-
Abu85
HÁZIGAZDA
válasz
ViiiiktorOC #6142 üzenetére
Szerintem az órajel nem fog jelentősen változni. A Dennard Scaling vége már a GPU-kat is ostromolja. A Boostok lehetnek jobban kitolva.
A GCN 2.0 inkább funkciókban javulhat. Én azt várom, hogy képes lesz a GPU a CPU-tól függetlenül feladatott indítani saját magán. Ezt mindenképpen érdemes lenne beépíteni. Bizonyos szituációkban hasznos lehet. Talán nem azonnal, de a fejlesztők hosszútávon teljes rendszereken akarnak a GPU-n futtatni a CPU-tól teljesen függetlenül.
-
Abu85
HÁZIGAZDA
válasz
peterm711 #6141 üzenetére
Nem igaz. Ha olvasod az írásaimat sosem ajánlok tuningot. Maximum mint lehetőséget jegyzem meg, de minden cikkbe beleírom, amikor a lehetőségről beszélek, hogy a hibátlan működésre nincs garancia. Amit pedig a fórumon ajánlottam az az volt, hogy ha tuningolni akartok, akkor azt a Catalyst Overdrive menüjéből tegyétek meg, mert az biztos hibátlan PowerTune profillal működik. A 3rd party programokról lebeszéltem mindenkit. Illetve ha használják is, akkor se használják a tuning részét, hogy az Overdrive modul PowerTune profilját ne cserélje le a program. Ha csak a ventiszabályzáshoz nyúlsz, akkor az úgy megoldható, hogy ventit a 3rd party progi vezérli, míg a tuningot a Cata Overdrive. Az Afterburner legalábbis képes erre.
-
peterm711
aktív tag
Én ezzel tisztában vagyok, nem is tuningolok, kinőttem már belőle, max egy teszt erejéig.
Én csak azt mondtam,hogy mikor kijöttek a kártyák akkor még más véleményen voltál, egy szóval nem mondtad, hogy nehogy hozzázányljajatok az órajelekhez, hanem bólogattal te is, hogy igen milyen fasza tuningolható kártya ez, és ez nagyban hozzájárult ph-s userek felháborodásához. -
Abu85
HÁZIGAZDA
válasz
peterm711 #6134 üzenetére
1400 MHz-re készültek, de más a terv és más a gyakorlat. Mindenesetre, ha csak 1 MHz-et is emelsz az órajelen, akkor minden esetben véget ér a gyártó felelőssége. Saját felelősségre megteheted, de ha baj van, akkor nem foglalkoznak veled, mert a tuningra soha senki nem vállal garanciát. Ez mindenhol így van, és sosem változik meg. Amikor telepíted az Afterburnert, vagy kilakatolod az Overdrive órajelállító felületét, akkor azt csak úgy teheted meg, hogy előtte elfogadod a feltételeket. Mindig benne van a feltételekben, hogy ha tuningolsz, akkor a gyártó leveszi rólad a kezed és a magad ura vagy. Ha hibád lesz csak magadnak köszönheted, hiszen olyan terepre léptél, amire senki sem mondta, hogy 100%-ig működni fog. Ezt persze nem kötelező elfogadnod, hiszen az OK gomb mellett van egy mégse is, de ebben az esetben az Afterburner telepítése nem folytatódik, illetve marad a lakat az Overdrive felületen. Úgy, hogy tudod a pró-kontra érveket a tuning kapcsán te döntöd el, hogy melyik utat választod. Amit egyedül nem tehet meg a user, az az, hogy felháborodik azon, hogy a terméke nem működik olyan beállítások mellett, amit soha senki nem garantált.
-
peterm711
aktív tag
válasz
radi8tor #6135 üzenetére
És hogy csináltál az 1125 MHz catamax-ból 1200 MHz-et?
(#6137) radi8tor1: de-de
Talán most már a GHz-edition biossal kitolható tovább, de nem vagyok benne biztos.
Egyszer még BMW kollégának sikerült kitolni a catamax limitet valamilyen úton módon, de ő sem tudta, hogy mi okoztapersze non GHz-E biossal.
-
peterm711
aktív tag
Nem lett volna ezekkel a kártyákkal semmi baj, csak Te és még jópáran úgy harangoztátok őket, hogy 1200MHz-re készült a GPU és a PCB, és csak a magas TDP miatt lettek lebutitva. Ezek után nem csoda, hogy mindenki nekifogott észnélkül tuningolni és jöttek a bugok, és a felháborodások, ami érthető is, mert aki ilyen kártyát vesz az nem veti meg a tuningot, mint ahogy a ph userek nagyrésze sem.
-
Abu85
HÁZIGAZDA
Én nézegettem, és jellemzően számokban gyorsabb volt. Amúgy a cherry picked az jellemzően 3-5%-ot számít. A GCN nem itt szedi össze az előnyt, hanem a compute-on. Még az AMD-t is meglepte, hogy mit csinált az NV a Keplerrel. Abszolút nem erre számítottak a Fermi után.
Semmi gond nincs a driverrel, hibátlanul működnek a tesztekben is, és én is a 12.8-at használom. A használat módjával van gond. Sokan nem tudják megérteni, hogy az AMD nem adja oda senkinek a PowerTune specifikációját, enélkül pedig lehetetlen rá normális támogatást írni hozzá. Maga a Rivatuner fejlesztője mondta a Guru3D-n, hogy az AMD elzárta magát a 3rd party programoktól. Bárki telepíthet Afterburnert, az ATT-t, vagy más 3rd party cuccot, de elvágja magát a driver PowerTune rutinjától. Ez azt jelenti, hogy egy külön rutint kell az adott programnak betölteni, ami alapján a hardver működni fog, de mivel az AMD-n kívül senki sem tudja hogyan működik a PowerTune, így könnyen kitalálható, hogy ez egy elég nehéz feladat. A drivert megpróbálják visszafejteni, de ez nem könnyű, mivel a PowerTune-ra csak beállítások vannak, ami kódoltak, vagyis ha ez nincs meg, akkor a működés hibás lesz. A GeForce sokkal egyszerűbb, mert ott az energiamenedzsment és az órajel vezérlése még mindig a driveren keresztül megy, vagyis specifikáció nélkül is nagyon könnyen monitorozható, hogy mi történik, vagyis aránylag jó rutinok írhatók hozzá. Az AMD-nél a driver a Win indításakor elindít egy PowerTune profilt. A hardver ezt megérti, majd az alapján egészen az OS leállításáig dolgozni fog. A gondot az jelenti, hogy ez a profil a zárt Overdrive modulhoz kötött, vagyis ha 3rd party program órajelet akar állítani, akkor az első dolog, hogy ki kell ütni az Overdrive modult a driverből. De enélkül nincs PowerTune, vagyis nincs energiagazdálkodás, órajelváltozás, semmi. Tehát a 3rd party programokhoz vakon kell írni egy PowerTune profilt, a rendszer működésének ismerete nélkül. A GeForce-nál használt monitorozás sem segít, mert a PowerTune nem kér a drivertől engedélyt semmihez. A hardver dönt mindenről, és a változásokról ad a drivernek egy visszaigazolást, hogy x-y PowerTune szint bekapcsolt/kikapcsolt. Ez jó dolog, de a 3rd party fejlesztések a hogyanra kíváncsiak, és nem a visszaigazolásokra. Ezt azonban a szoftverből nem kapják meg, mert nem a driver dönt az aktiválásról. Az AMD arra egyébként már lehetőséget ad, hogy a 3rd party programok betöltsék a Overdrive modulját, vagyis ez a része már megoldott, csak ez magával vonja az Overdrive órajellimitjeit is a tuningnál. Ezért egyetlen 3rd party program sem használja a driver Overdrive modulját, ha a felhasználó tuningolni akar (szerencsére tuning nélkül már ezt töltik be). Ezt egyébként én is kipróbáltam, az ASUS progijával. Amíg nem nyúlok az órajelekhez hibátlan, de amint egy MHz-et is emelek jöhetnek a problémák. Ha ugyanezt az Overdrive modulban teszem meg nem történik semmi gond. A hibák egyébként képi villanásokban, és érdekes lagokban jönnek. Nem mindig persze, mert valamennyire már kiismerték a 3rd party fejlesztők, de nyilván a PowerTune egy eléggé komplex technika, szóval speckók nélkül nem sokra mennek.
A speckókat egyébként valszeg nem adják ki az elkövetkező hónapokban, vagy talán években, mert jelenleg mindenki PowerTunet próbálja másolni. Nyilván az AMD nagyon védi, hiszen öt évük ment rá. Szerintem alapvetően nem bonyolult a működés, csak trükkös, és gondolom, hogy ha publikusan specifikálva lenne, akkor könnyen le lehetne másolni. Az NV és az Intel addig, amíg nem alkotnak valami hasonló hardveres megoldást, addig az órajeljátékot és az energiamenedzsmentet többé kevésbé driverből oldják meg. Ennek egyébként igazi értéke a webböngészésnél van. A PowerTune előnye, hogy baromi gyorsan értékeli ki a hardver a szituációkat, vagyis bizonyos helyzeteket 10 ns-on belül lereagál órajelváltozással. Az energiamenedzsment pedig fél másodpercenkénti órajelváltásra ad lehetőséget, és 1 másodpercenként 1 MHz-es lépcsőkben is változhat az órajel. Ezért bírják az AMD IGP-s/GPU-s notebookok 1-2 órával tovább a gyorsított tartalmakon a webes terhelést, mint a konkurensek. Az NV-nél az energiamenedzsment 5-10-20 másodperces limitekhez kötött vagyis, ha beállt egy 3D órajel egy canvas kódra, akkor az minimum 5-10 másodpercig nem lehet újra köztes, vagy 10-20 másodpercig nem lehet újra idle (függően a hardvertől). És ha a leváltás megtörtént, akkor az idlet minimum 10 másodpercig tartani kell (Keplernél csak 5 sec). Mindebbe pedig be kell számolni a szoftver kiértékelését, ami 500 ms-os késleltetés. Az Intelnél az energiatakarékosság 2-4 másodperces limittel megy, vagyis aránylag elég jó, plusz a driver 500 ms-os késleltetése. A turbó az nehezebb ügy, mert az félig hardveres. De az engedélyt a rendszer a drivertől kéri, ami vagy engedélyt ad, vagy nem (általában igen, de vannak a driverben programokra profilok, ha az egy turbó tiltott exe fut, akkor a driver megtagadhatja a turbót). Mindenesetre a váltás az alap és a turbó között 2 másodpercen belül megtörténik, de a turbót addig kell tartani, amíg a driver nem mondja, hogy elég. Ezután még 10 másodperc az ütemezett leváltás, ami öt lépcsőben zajlik. Ezek a profilok egyébként azért vannak, mert a hardver túlbuzgó, és a flashekre, illetve a canvas tartalmakra nyomja a turbót rendesen. A canvassal nem lehet mit kezdeni, hacsak a böngészőre nem adod be a tiltást, de a flash az könnyebb ügy. A stage 3D-s flashprogramok, is jól profilozhatók. A canvas úgy van megoldva, hogy ha nincs aksin a noti, akkor a canvasra soha sincs turbó. A webgl az picit szopósabb. Oda sajnos néha nem ártana, de nehéz monitorozni, vagy mindenen megy, vagy semmin. Jelenleg a canvashoz hasonló a megoldás.
Ezek alapján érthető, hogy az AMD miért védi ennyire a PowerTune-t. Simán lemásolná mindenki, és akkor oda a webes üzemidő előnye. -
a legtöbb tesztoldalon számokban mérve is gyorsabb volt a 680. lehet, hogy az xbit sem cherry picked kártyákat kapott
az, hogy nem havonta jön catalyst, az tényleg jó. viszont itt van már a 12.8, és még mindig tele vannak panasszal a 7700/7800/7900 fórumok. sztem ez katasztrófa.
-
Abu85
HÁZIGAZDA
Csak szóban hozták ki kedvezőbbnek a 680-at, mert az eredmények világosak voltak. A GHz Edition gyorsabb. Az Xbitlabs azért merült fel, mert az ő eredményeit néztem. Ott 26%-os átlagos sebességelőnyre mondták, hogy nem lehet rámondani, hogy a leggyorsabb. Meg lehet nézni a tesztet. [link] - itt az összegzés. Ha számolsz, akkor átlag 26%-ot kapsz. Ez pedig a levont konklúzió: "It wouldn’t be correct to claim that the AMD Radeon HD 7970 GHz Edition is the fastest single-GPU graphics card available today because our tests do not show it to be overwhelmingly better than the reference GeForce GTX 680." Átlag 26% az ma már nem elég az AMD-nek, hogy gyorsabbnak mondják.
Az NVIDIA-nak már elfogadják. Az AMD-nek még nem. De ha ők is ezt csinálják, akkor az a piac szegmentációjához vezet, ami sokak szemében nem kedvező. Ez egyébként valóban gond. Gyakorlatilag ma már jobb aszerint dönteni, hogy mivel szeretnél játszani a PC-n is. Tiszta konzol beütés.
Ami nagyobb gond, hogy pár tesztelő kicsit a mellére szívja, hogy a Keplert agyondicsérte, amikor most kiderül, hogy jönnek a compute heavy játékok, és láthatóan nem acélos az architektúra ezekben a környezetekben. Sokan cikinek érzik, hogy nem látták előre, vagy legalábbis nem említették meg, minimum azt, hogy a Keplernek esetleg gondja lehet a compute hatékonysággal. Ezt médiában dolgozó ismerősöknél is látom. Pár tesztelő pipa azért, mert az AMD csak szintetikus benchmarkokon mutatta meg a GCN compute erejét, de nem hívta fel rá a figyelmet, hogy ezt idén még ki is használja nem is egy játék. Azért általában nem szokás a saját magad ajánlásának ellent mondani később. Persze szerintem közel sem ilyen drámai a helyzet. Az olvasók nem várják el, hogy előre lásd a jövőt, szóval kicsit tragikusan fogják fel ezt páran, mint ha a hitelük romlana tőle, pedig valójában nem tett senki sem rosszat, amikor a Keplert ajánlották. Mi is ezt tettük, még sem parázunk, hogy az új játékokban legyorsulja a GCN. Basszus ez van, eltelt 4 hónap megváltozott a helyzet. Nem először történik ez. Fless is változtatott az álláspontján a GTX 200 és HD 4800 időkben egy új teszt után. Még sem akasztotta fel senki, mert nem látta előre, hogy 4 hónap múlva más eredmények jönnek majd ki.A drivertámogatás módosítása jó döntés volt. Nem bírták volna a Win 8-ra való felkészülést havi frissítések mellett. Amint megvágták ezt és összevonták a fejlesztést rögtön beindultak, és elsőként kínáltak WHQL drivert a végleges Win 8 OS-hez. Ennek az OEM-ek nagyon örülnek, mert az AMD-s gépeket már elkezdhették végleges tesztfázist a Win 8 startjára.
Hát az alvó kutyák az valami fantasztikus. Szerintem mindenkit megleptek. És ha belegondolok, hogy ezt a játékot le akarták lőni.
Ez PowerColor magánakció. Más gyártó is csinál majd. De amúgy igazából ilyenek mellett szerintem az AMD átgondolhatja ezt a startot (én legalábbis ezt tenném). Igazából 800-1000 dollár környékén ennek nincs értelme. Ezen a szinten már a nagyobb OEM-ek sem gondolkodnak.
-
ez nagyon érdekes volt, max respect a részletes kifejtésért
abban viszont azért kételkedem, hogy a tesztoldalak emiatt hozzák ki a 7970 GHz Ed elé a 680-at - ez még mindig kispályás sátánkodás az nVidia korábbi húzásaihoz képest. szerintem csak elb***ták az üzeneteket, nem tolták a tesztoldalak felé az új játékokat, + a mega szerencsétlenkedés a driverekkel, ami az első DX10-es kártyák legsötétebb időszakait idézi. ennyiből már kifőzhető az eredmény.
az alvó kutyákat pedig mindenképp megnézem, ha már fehér hollóként van hozzá demo
#6128: de ez most official AMD 7990 vagy Powercolor dzsungelharcos edisön?
-
gyiku
nagyúr
-
fatallerror
addikt
-
Abu85
HÁZIGAZDA
válasz
fatallerror #6124 üzenetére
Ha az én véleményemre vagy kíváncsi, akkor szerintem most túl sokat költenek a szoftverfejlesztésre és túl keveset a marketingre. Szerintem nem az az ideális egyensúly, amit most látunk. De ez tényleg csak az én véleményem, és nem vagyok gazdasági szakember. Lehet, hogy a Rory úgy gondolja, hogy ezt az évet leviszik így, jövőre pedig az új generációnál előtérbe helyezik a reklámot, hiszen akkor már itt lesznek a támogatott programok.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #6092 üzenetére
A teszteket már korábban megbeszéltük. Ahol nem írják oda, hogy milyen beállítások teszteltek, vagy nem írják ki pontosan, hogy melyik kártyához milyen driver volt az nem mérvadó teszt. Ezek alapinformációk. Persze lehet feltételezni, hogy max volt a beállítás, és a legújabb volt a driver, de semmi alapja nincs a feltételezésnek, mert nincs róla információ.
Ahol például a játék, a beállítások, valamint a driver megegyezett, ott az erősorrend is megegyezett a miénkkel.
Nálunk azért lett ennyire erős a GCN, mert most váltottunk az új játékokra, míg a régieket hagytuk. Számos teszt még régi játékokkal tesztel. Az pedig, egy érdekes gondolat, hogy "direktben olyan címek vannak kiválasztva, amik mondjuk a compute teljesítményre mennek rá". Ezzel azért lehet vitába szállni, mert Kepler megjelenése óta 7 DX11-es játék jelent meg. Ebből 5! (vagyis a jelentős többség) erősen használja a compute shadert, és ez meg is látszik a GCN teljesítményén ezekben a játékokban. Tehát ha az új címekből csemegézünk nem is tudsz úgy választani, hogy ne legyen a többségük compute igényes. -
válasz
fatallerror #6122 üzenetére
Megszokhattátok,Abu nem csak a levegőbe beszél,minden mondatának megvan a háttere.
-
Abu85
HÁZIGAZDA
Ez az egyik hozománya a marketingpénz elvonásának az AMD-nél. Ugyanakkor az NV számára veszélyesebb a Gaming Evolved ilyen mértékű erősödése. Nem tart sokáig, amíg feltűnik, hogy az AMD került vezető szerepbe a játékfejlesztések támogatásában. [link] - a HardwareCanucksnak már feltűnt. A Sniper Elite V2, a DiRT Showdown és a Sleeping Dogs mint erősen támogatott AAA címek csak a kezdetet jelentik. Jön a Medal of Honor: Warfighter, a Hitman: Absolution, a BioShock Infinite és az új Tomb Raider. Két meg nem említett AAA játékról is tudok (Total War: Rome II és Company of Heroes 2). Azért ilyen AAA felhozatalt a zsebben még a sokat megélt TWIMTBP programtól sem láttunk. És egyszer mindenki lecseréli a régi játékokat a tesztekben, akkor pedig az kellemetlen lesz a Keplernek.
-
Abu85
HÁZIGAZDA
Azok jó poénok.
Az Xbitlabs is csak ~26%-kal hozta ki átlag gyorsabbnak, de a konklúzió az lett, hogy nem mondható, hogy igazán erősebbnek a GTX 680-nál.
Igazából a fő problémát az okozza, hogy a tesztelők többet tudnak arról, hogy mi megy a háttérben, és nem tetszik nekik az AMD új vezetőségének az iránya. Elvették a gyártóktól és a marketingtől a pénzt csak azért, hogy belefordítsák a Gaming Evolved és a Fusion Fund partnerprogramokba. Ezeknek olyan eredménye lesz, mint a WinZip 16.5, vagy a VLC vagyis bizonyos programfunkciók csak AMD hardverrel mennek. Ezt azonban hangsúlyozza az AMD, hogy félreértik. Nem azért nem mennek a funkciók NVIDIA és Intel termékeken, mert az AMD fizetett, hogy ne menjen, hanem azért, mert az AMD két évvel a többiek előtt jár az OpenCL eszközök fejlesztésében. Nyilván az Intel zárkózik fel, de sok idő kell még nekik, míg az NVIDIA számára az OpenCL nem fókusz. Na most ezt nem hiszik el sem az AMD-nek, sem pedig a fejlesztőknek. A Corel is mondta, hogy a WinZip 17-ben lesz OpenCL támogatás az Intel és az NV hardverekre is, de ott vannak a kétségek. Pedig a Corel által felvázolt indok elég egyszerű. Az AMD OpenCL támogatására tudják rámondani, hogy működik, és mivel a fájltömörítés egy kényes folyamat, értsd nem árt ha az adatok tömörítve is épek maradnak, így nyilván egy cég nem vállalja fel annak a lehetőségét, hogy CRC erroros lesz az állomány. Szerintem ez tök érthető. Hiába a sebesség, ha rossz lesz a tömörített adat. Ha nem tudják garantálni a hibátlan működést Intel és NV hardvereken, akkor inkább ne legyen gyorsítás.
Szóval most az AMD az új sátán a média szemében, mert az új vezetőség a szoftverfejlesztésekbe öli a pénzt, ami szegmentálhatja a PC-t.
Egyébként ez a stratégia tényleg érdekes. Gondolom Rory rájött, hogy évek óta próbálják verni az Intelt a kereskedelmi láncokban, de soha semmit nem nyertek vele. Egyszerűen az Intelt előnyben részesítik a partnerek, még ha az AMD sok kedvezményt és támogatást is ad nekik. Az új stratégia tehát az anyagiak átszervezése. Elvonni a marketing- és partnerpénzeket, és belerakni a szoftverfejlesztésekbe. A Gaming Evolveden ez nagyon látszik. Nyilván ez egy kiépített partnerprogram, tehát már ott van a fejlesztőknél. Az egyetlen amit módosítani kell, hogy agresszívabbá kell válni az effektek beépítésénél. Amíg Richard Huddy vezette, addig az volt a szempont, hogy a piac érdekeit nézzék, és jól optimalizált játékok jöjjenek. Ez látható is volt. A DiRT 3, a Deus Ex: Human Revolution, a Civilization V, és az Aliens vs. Predator mind baromira jól optimalizált program, ami általában alap, de fontosabb, hogy semmilyen olyan effekt nem volt bennük, amit az NV-t negatívan érintette. Amióta elment Richard Huddy az Intelhez, megváltozott a szellemisége is az egésznek. Rory kiadta a parancsot, hogy nem a piac érdeke az elsődleges, hanem az ügyfeleké (vásárlók) és az AMD-é. Ezzel a szemlélettel született a Sniper Elite V2, a Nexuiz, a DiRT Showdown és a Sleeping Dogs. Mindegyiken látszik a változás. Erős compute shader használat, és komoly anyagi büdzsé rengeteg kulcs megvásárlására, így a nagyobb webáruházak ingyen adhatnak a Radeonokhoz játékokat. Egyes termékekhez akár hármat. Persze nyilván az AMD nem tudta előre, hogy a Kepler ilyen gyík lesz compute-ban, de ha már így alakult, akkor Rory szerint jöjjön a vérszem is ki kell használni. Emellett igen erős váltásokon ment át a R&D részleg. Mivel a DX11.1 még nincs itt, így a compute shader használatot korlátozza a mostani DX SDK-ban található fejlesztőeszközök gyengesége. Egy fejlesztőcégnek nincs ideje és erőforrása komoly compute shader effekteket csinálni, mert a debug és profilozó eszközöket egyszerű shaderekre szabták. A bonyolult effekteket nehéz optimalizálni, így rengeteg hand tune-ra van szükség. Az AMD-nek erre ideje és pénze is van, és a kész eljárásokat odaadják a fejlesztőknek. Nyilván a DX11.1 sokat segít az új tracer API-val, de amíg az nincs itt, addig a fejlesztők többsége nem tud bonyolult shader kódot írni. Nem azért, mert hülyék, hanem túl sok lenne a beleölt pénz és idő, és ott van az a tényező, hogy ha nem sikerül jól a kód, akkor az egész kidobott pénz. Nyilván ezzel az AMD is találkozik, csak, ha az effekt mondjuk nem gyors, akkor idő mint a tenger kutatni kell tovább, vagy elmenni más irányba. Nekik nem lebeg a fejük felett egy játék kiadási dátuma. Ezt ugyan el lehet tolni, de egy grafikai effektért ritkán hoznak ilyen áldozatot.
Ugyanez a helyzet a Fusion Fundnál. Ez csak az anyagi támogatásról szólt régebben, de Rory érkezése óta egy Gaming Evolvedhez hasonló infrastruktúra kiépítése zajlik. "OpenCL-t akarsz a programba, de túl nehéz? Semmi gond. Az AMD programozói angyalszárnyon érkeznek és megcsinálják helyetted." Nagyjából ez a fejlesztőknek az üzenet. Ez a része persze bonyolultabb, mint a játék, mert itt azért általános programokról van szó, ahol jóval specifikusabbak az igények, de nyilván a multimédiás programok esetében lehet találni közös pontokat, szóval ez a rész egyszerűen fejleszthető általánosan. Sok videós program van például, de egyik sem transzkódolja a videókat annyira eltérően. És hasonló példákat lehet felhozni a felskálázásnál, a képmanipulációknál vagy képszerkesztésnél, illetve a mondjuk az arcfelismerésnél. A fejlesztőeszközök is egész érdekes irányba fejlődnek. Amíg az Intel az OpenCL toolt teszi nagyjából használhatóvá, addig az AMD a CodeXL-t befejezésén dolgozik, mely az első olyan fejlesztőkörnyezet, ami kifejezetten a heterogén érához készült. Azt ugye az AFDS-en kihangsúlyozta az AMD, hogy az általuk kínált fejlesztőkörnyezetek nem tartalmaznak kizárást a gyártókra, vagyis működnek Intel termékeken is, ellentétben az Intel OpenCL tooljaival, de azt nyilván senki sem gondolja, hogy az AMD nem a saját termékeihez fejleszti őket. Persze még így is gyorsabb kódot csinálsz Intelre az AMD SDK-ival, de ez betudható annak, hogy az AMD az OpenCL projektet három évvel az Intel előtt kezdte meg.
Ezek miatt az AMD most az iparág új sátánja, mert Rory más stratégiát dolgozott ki, mint a korábbi vezérek, és az AMD jelenleg a saját igényeire formálja a szoftverfejlesztéseket. Itt tehát két álláspont ütközik. Az egyik az, hogy a szoftverfejlesztés a független fejlesztők dolga, és egy hardvereket kínáló cégnek ebbe nem szabad beleszólni, mert az semmi jóhoz nem vezet. A fejlesztőeszközöket fel kell kínálni, és a fejlesztők majd megoldják. Alapvetően ez az Intel álláspontja is. Az NVIDIA álláspontját korábbról ismerjük. Ők támogatják a fejlesztéseket, az eszközökön kívül is, mindenféle más erőforrással (legyen az anyagi, humán, meg még mit tudom én mi). Az AMD új vezetősége is ebbe az irányba fordult. Erős fejlesztői támogatás és pénzelés a Gaming Evolveden keresztül, illetve GE-szerű partnerprogram kreálása az általános szoftverek fejlesztőinek. Ez sok médiának nem tetszik. -
TESCO-Zsömle
titán
válasz
fatallerror #6116 üzenetére
Az attól függ, hogy a VGA-n van-e vízhűtés.
Mint mondtam, kialakítás kérdése. Aki gyakran akarja cserélgetni a cuccokat, annak olyan vízhűtése is van. És -értelem -szerűen- nem sima ház, hanem valami állvány-féle.
sz: És ha már ilyen jól áll anyagilag, akkor bedob a rendszerbe egy chiller-t, és mehet a teszt szobahőmérséklet alatt...
Vagy elfelejti a fullos blokkokat, és csak a GPU-t hűti vízzel. Akkor csak a RAM-ot és a VRM-et kell teleszórni sünikkel és megkínálni egy rendes ventivel, és el van intézve.
-
fatallerror
addikt
válasz
TESCO-Zsömle #6114 üzenetére
pl beraksz 1 új vga-t akkor nem körülményes?
-
radi8tor
MODERÁTOR
válasz
fatallerror #6113 üzenetére
Ne engem kérdezz.
Soha nem volt és nem is lesz ilyen anyag a gépemben.
-
TESCO-Zsömle
titán
válasz
fatallerror #6113 üzenetére
Felépítés-függő. Meg lehet úgy csinálni, hogy ne legyen gond. Ellenben iszonyú költséges, ha az vesszük, hogy egy rendes VGA-blokk újonnan 25-35k+posta.
-
radi8tor
MODERÁTOR
válasz
TESCO-Zsömle #6111 üzenetére
Hogy is felejthettem el, hogy te vizi-lény vagy.
-
fatallerror
addikt
válasz
TESCO-Zsömle #6108 üzenetére
biztos h lesz benne d-sub adapter
mekkora baromság még d-sub kábelt meg átalakítót adni a kártyákhoz, csomó pénzt megspórolnának a gyártók... többe kerül logisztikailag beszerezni mint maga a kábel, adapter -
radi8tor
MODERÁTOR
válasz
TESCO-Zsömle #6108 üzenetére
Mi a bajod vele? Úgyis max 6db csatlakozó lehet rajta.
-
TESCO-Zsömle
titán
válasz
fatallerror #6107 üzenetére
Azt nem értem, mi a bánatnak a dupla DVI... Ennyi pénzért végigrakhatnák az alsó sor 6db miniDP-al, és még adaptert is mellékelhetnének hozzá...
-
korcsi
veterán
-
radi8tor
MODERÁTOR
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Asztalos klub
- Vége a gamer PC-knek? Cloud Gaming 2025-ben
- Anglia - élmények, tapasztalatok
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- gban: Ingyen kellene, de tegnapra
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- Hagyományos és extrém roller, kickbike, Boardy topik
- Xiaomi 14T Pro - teljes a család?
- Szombathely és környéke adok-veszek-beszélgetek
- Óra topik
- További aktív témák...
- Eredeti Lenovo USB-C 65W töltő (használtak) (ELKELTEK)
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RTX 5090 32GB GAMER PC termékbeszámítással
- GYÖNYÖRŰ iPhone 13 Pro 256GB Sierra Blue - 1 ÉV GARANCIA, Kártyafüggetlen, 100% Akkumulátor,MS3379
- GYÖNYÖRŰ iPhone 11 128GB Yellow -1 ÉV GARANCIA - Kártyafüggetlen, MS3125, 100% Akkumulátor
- HIBÁTLAN iPhone 12 mini 128GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3303
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest