- Mobil flották
- Hat év támogatást csomagolt fém házba a OnePlus Nord 4
- Samsung Galaxy A52s 5G - jó S-tehetség
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Vodafone mobilszolgáltatások
- Android szakmai topik
- Apple Watch
- TCL 50 NxtPaper 5G - átgombolom magam monokrómiába
- Garmin Instinct – küldetés teljesítve
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Beszálltam egy ASUS HD 7850 DirectCU 2-vel. Sok választásom nem volt, mivel ez és a Giga van az országban. Eddig jó. A hűtő korrekt bár szerintem nagy egy ilyen kártyára, de a dolgát kifogástalanul végzi. Tuningnak nem mentem neki, mert nem volt időm. Az viszont zavar, hogy csak három nap múlva lesz a Windows XP-re driver. Piros pont viszont, hogy a ventik szabályzása megy a Cata overdrive-ból is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KaiotEch #973 üzenetére
Annyira az én hangtesztem nem lenne meggyőző, mert van hangosabb venti a kártyáénál. De meglepően halk. Mondjuk 130 wattot fogyaszt, ami azért annyira nem sok.
Igazából nem tudom. Az ASUS volt és a Giga. Nyilván ebből az ASUS-t veszem. Főleg, hogy olcsóbb volt. Ha van MSI, vagy Sapphire, akkor lehet, hogy nem ASUS lett volna, de ez az ártól is függött volna.
(#975) sysrq: Nem csak XP-t. Van Win 7 is. Mivel dobozos OS-t szoktam venni, így ha már fizettem érte egy valag pénzt ... használni is szeretném. Ezért van még telepítve az XP. Gond amúgy nincs ... használom a Win 7-et. Csupán furcsa volt, hogy nincs még XP driver.
(#974) csucsbicep: Mák, hogy befért a házba. A méretén kívül tényleg szuper a hűtő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz csucsbicep #977 üzenetére
Hirtelen döntés volt. Megrendelés után méregettem.
(#978) szasanyi: Nem rajongok jelenleg a Giga holmikért. Régen nagyon szerettem őket, de manapság túl sok velük a probléma. Lehet, hogy kifogsz egy jót, de lehet, hogy szívsz. Az ASUS jobb opció.
Szerintem az AMD akarja a HD 7870 felé tolni az embereket. Nekik ez most jó üzlet. Amíg nincs tényleges konkurense a HD 7850-nek, addig lehet játszani az ellátással, ezzel stratégiailag úgy alakítani a piacot, ahogy az kedvez a cégnek.
7870-ből van elég. 7850-ből van kevés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #1339 üzenetére
A PCI Express semmit sem ér, ha nem használják. 8x PCI Express 2.0 elég minden mai GPU-nak. Ennek az az oka, hogy a port használatát minimalizálják a fejlesztők, mert az adatátvitel lehet, hogy nő, de a késleltetés egy helyben toporog. Nagyjából 300-400 ns között, függően attól, hogy mennyire távol van a PCI Express port a vezérlőtől. Nyilván a legfölső port rendelkezik a legkisebb késleltetéssel.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz akela91 #1324 üzenetére
Persze, hogy marad, mert így van beállítva. A kártya dobálja a feszültséget is. Ha alulfeszeled, akkor a megfelelő működést korlátozod. A HD 7850 nem olyan egyszerű szerkezet, mint a korábbi megoldások. A régebbi generéció tartalmazott túlterhelésvédelmet (már ami ugye ... Radeon HD 5000-6000 és a GeForce GTX 590 ... a többi még ennyit sem tudott), illetve beállított profilból váltogatta a feszültséget és az órajelet. A HD 7850 sokkal bonyolultabb, mert van PowerTune, power gating, illetve a kártya minden védelme teljesen hardveres. Ezért nem tudják a programok alulfeszelni, mert a hardver ezt felismeri és beállítja a BIOS-ban található értéket. Erre azért van szükség, mert a PowerTune normál működéséhez ez kell. Ha alulfeszeled, akkor csökken a TDP limit, és ezzel a kártya elkezdi az órajelét működés közben csökkenteni, hogy beférjen a TDP limitbe. A termék másodpercenként képes órajelet váltani, hogy sose fogyasszon többet. Ezért lehet az új Radeonokat extrém mód tuningolni. Én felhúztam a sajátomat 870-ről 1100-ra és le sem fagyott, pedig ment rajt a mark 3 órát, de aztán ha nézed az órajelet, akkor nincs az állandóan 1100-on. Ha a védelem úgy érzékeli, hogy fennáll az instabil működés veszélye, akkor önhatalmúlag visszaveszi az órajelet, amivel jó eséllyel megelőzi a fagyást. Általában 1050-1070-re ugrott vissza, de volt amikor 1000-re. A rendszer hardverből úgy van kalibrálva, hogy minden eszközzel előzze meg a lefagyást. A régi termékeken ilyen nem volt, így azok egyszerűen megfagytak.
Szóval a feszültségeket csökkenteni ezeknél felesleges. A Radeon HD 7000 sorozatnak annyira modern a működése, hogy a régi VGA-tuningos dogmákat el kell felejteni. Ez a termék, felülbírálja a beállításaidat, ha azok nem stabilak. Ha a fogyasztás csökkentése a cél, akkor azt PowerTune csúszka mínuszba tolásával érheted el. -20%-on garantáltan 20 wattot spórolsz. -10%-on 10 wattot ... és így tovább.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #1343 üzenetére
A PCI Express 3.0 teljesen felesleges lesz még évekig. Ahol az adatátviteli teljesítmény számíthat az a HSA kompatibilitás, de ahhoz 2013-as AMD Kaveri APU kell és HD 8000-es VGA. Ahol még számíthat az a PRT szolgáltatás a GCN-es Radeon HD 7000-en, de ez két kiterjesztésből tevődik össze, és a pinned memory kiterjesztés csak akkor működik teljes funkcionalitással, ha az adott AMD-s platform támogat IOMMU-t. Ha ez nincs, akkor a megatextúrázás hardveres támogatását kénytelen máshogy működtetni a driver. Ebből kifolyólag Intel rendszeren, vagy IOMMU-t mellőző AMD-s konfigon máshogy működik a PRT. Nagyjából ez az a két tényező, ahol lehet valami előnye a PCI Express 3.0-nak. De sokra itt sem érdemes számítani. A fejlesztők szándékosan kímélik a felületet, mert nagyon sokat lehet veszteni rajta. Nyilván nem véletlen az, hogy a gyártók a nagy PCI Express 3.0 marketing során csak grafikonokat rajzolgattak, de sosem mutatták meg, hogy mi a valós előnye. Ez azért történt így, mert nem lehet kimutatni.
Attól függ, hogy a portok hogy voltak bekötve az alaplapnál. Nem mindegyik van a fő vezérlőre kötve. Ha az egyik a vezérlőhíd vezérlőjén van, akkor az egy lassító tényező. De nem a csatornák száma lassít, hanem a vezérlőhíd és a processzor közötti összeköttetés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DroiDMester #3230 üzenetére
A Flash és a böngésző GPU-s gyorsítása két külön dolog. Ha az egyiket kikapcsolod, attól a másik még működik. Akkor nem megy a Youtube, ha a felület HTML5-ös. Oda a böngészős gyorsítás kell.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Attix82 #5762 üzenetére
Azt mondod, hogy ne teszteljünk a legújabb DX11-es játékokkal, mert erősen a GCN-nek kedveznek? Ez valami mániád lett. De nem tudom, hogy hol a gond. Márciusban a Kepler tesztben leírtuk, hogy a Keplernek gondja lesz a compute hatékonysággal. Akkor persze nem volt rá példa, de ettől még látszott. Azóta érkezett 5 darab DX11-es játék, ami erősen igényli a compute hatékonyságot. Most mit csináljunk? Ne teszteljük egyiket sem, mert a Keplernek ez nem fekszik?
(#5763) Alpachino: Hihetetlenül nehéz belegondolni, hogy megkérdeztük a DICE-t, hogy melyik a játékuk legmegterhelőbb része. Ők azt mondták, hogy a Going Hunting küldetés eleje. Azzal mérünk.
A számításigényes játékokra pedig: A DiRT Showdown mellett mér érkezett a Sleeping Dogs, a Sniper Elite V2, a GR: Future Soldier és a Nexuiz. 5 játék három hónap alatt, ami erősen számol. A fejlesztők sem hitték, hogy a Kepler visszalépés lesz a Fermihez képest.
Mindenki csak a DiRT Showdownnal jön, mint egyetlen példa. Nyissátok ki a szemetek. Ez csak egy példa. Azért kap akkora figyelmet, mert sokkal rosszabb benne a Kepler, mint a GCN, de ezt is megmagyaráztuk. Ellenben a többi számításigényes játékban sem erős annyira a Kepler. A GR Future Soldierben a GTX 680 a Radeon HD 7870 szintjére képes ... Nem muszáj trendről beszélni, de jelenleg több DX11 játék erre megy, és azzal, hogy az AMD a következő fél évben hat AAA játékra kötött szerződést, eléggé megnyomható a compute vonal.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Alpachino #5767 üzenetére
Nem akarlak meggyőzni, csak annyira felületesen vizsgálják az emberek a teszteket. Közben minden információt leközlünk, például azt, hogy mit hol mérünk. Persze azt a részt mi választjuk ki, de a BF3 esetében leírtuk, hogy hogyan választottunk. Mivel az egyes pályák között 30 fps különbség is van, így megkérdeztük a DICE-t, hogy hol terhel a legjobban a játékuk. Valahogy nem érzem, hogy ezzel hibát követtünk el.
(#5768) kovsol: Nincs értelme a CPU-tesztekkel annyit törődni. Amint felrakod a beállítást Full HD-re, rögtön egymás mögött sorakoznak a procik.
(#5767) Alpachino: Mivel az élsimítást csinálják bonyolult DirectCompute formában, így az AA off mellett a Kepler nem kapja meg a büntit. A játékon belül kell bekapcsolni az élsimítást, és akkor az már erős különbséget ad.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Alpachino #5770 üzenetére
Amit a játékban be sem tudsz állítani, ugyanis a program compute shadert használ, vagyis nincs olyan, hogy 4xAA.
(#5771) kovsol: Hogyne számolna mást. Driverből MSAA-d van. Azt ugyan a bedrótozás leszámolja, de nem lesz eredménye, mert deferred render a motor. Ezért van a játékba egy háromfázisú komplex AA építve, mert az MSAA az szart sem ér. Az egyes beállítások a fázisokat kapcsolják be. Első az FXAA, aztán az SSAA+FXAA, aztán az SSAA+FXAA+MLAA(irányított). A post-process AA-k compute shaderből mennek. Ráadásul SSAA mellett mindegyik mintavételre. Ez egy egyszerű módja annak, hogy ha valami erős computeban, akkor kihozd belőle az előnyt. Az FXAA-t sem viccből tolja az AMD. Többet számol az MLAA-nál, vagyis nagyobb lesz a különbség a GeForce és a Radeon között. Valószínű, hogy a Sleeping Dogs AA-ja szándékosan van, így alakítva. Megmagyarázható persze minden fázis, mert kiegészítik egymást, de a felbontás négyszeresén két post-processt letolni luxus.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Alpachino #5773 üzenetére
Nekem aztán mindegy, hogy ki mit vesz. Elégszer ki lett tárgyalva, hogy mi a GCN és mi a Kepler. Ez alapján lehet dönteni.
Az a nem mindegy, hogy jönnek a vádak, hogy mit képzelünk, amikor berakjuk az új játékokat a tesztekbe, mert az a Keplernek nem jó ?! ...
Természetesen mi is tesztelhetünk DX9-es és két éves játékokkal, ahogy még sokan teszik, de szerinted melyiknek van több értelme? A legújabbaknak, vagy a régieknek?[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Sokban függ attól a helyzet, hogy milyen kódról van szó. A compute shadert azért alkalmazzák, mert lehet egy architektúra akármilyen gyenge bizonyos szempontból a helyi adatmegosztás összességében még mindig sokkal előnyösebb, mintha egyáltalán nem lenne.
Abból a szempontból senki sem vizsgálja meg az egész témát, hogy a compute shader a Kepleren is gyorsít. Az egész futószalagnak az a dolga, hogy gyorsítson. És ez igaz a komplex kódokra is. Az lehet, hogy a GCN a komplex kódokat alig érzi meg, míg a Kepler nagyon, de azt veszi figyelembe a fejlesztő, hogy még így is sebességet nyert minden egyes hardver a compute shader bevetésével.
A DiRT Showdownt sokszor fel lehet hozni példának, amikor ezeket a helyzeteket elemzed. Meg lehet azt csinálni, hogy a tradicionális forward renderbe is beraksz annyi pontfényforrást, amennyi forward+ lighting mellett van. Az eredménye 2-4 fps lesz a leggyorsabb kártyákon is. Forward+ lighting mellett hiába gyengébb a Kepler, mint a GCN, akkor is jóval gyorsabb a forward+ lightinggal kapott sebesség a teoretikus 2-4 fps-hez képest. Ezért építünk a compute shaderre. A legtöbb effekt esetében a hátraarc a Kepler teljesítményének az esését is magával hozza, ahogy az összes többi terméknél. A fejlesztő jellemzően nem fogja mérlegelni, hogy miképp hat a compute shader a Keplerre. Ha gyorsít, akkor nincs miről beszélni, mert a Kepler tulajok is gyorsabb játékot akarnak. Ez maximum az NVIDIA-t érdekli, mert nekik kedvezőbb a lassabb render/effekt, ha a GCN és a Kepler között kisebb lesz az eltérés. De egy fejlesztőnek viszont mindig a gyorsabb effekt/render a kedvezőbb az adott elgondolásra, és az számukra érdektelen, hogy a GCN esetleg sokkal többet gyorsul tőle.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Chapel #12371 üzenetére
Nem. A HDAO az AMD-nél is lassabb, mint a HBAO. A számításigényben van az eltérés, így a HDAO mindig lassabb lesz, de a valósághoz közelebb álló képet ad. Már amennyire ez lehetséges egy kamera szemszögéből dolgozó AO-val.
Az AO az létezik olyan formában is, hogy a valóságot tényleg szépen reprezentálja, de annyira nagy az erőforrásigénye, hogy jelenleg csak screen space formában érdemes implementálni egy játékba. Ez csak szimulálja a valósághoz közeli hatást, viszont azt nézik itt a fejlesztők, hogy az eredmény így is elég jó (főleg HDAO-val).
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #15497 üzenetére
Mindegy, hogy mit tud a Kepler, vagy a GCN. A forward+ lighting nem azért került a DiRT Showdownba, mert a Codemasters ki akart bacni az NV-vel, hanem azért, mert szükségük volt rá, hogy hatékonyan kezeljenek egy rakás pontfényforrást. Bármennyire hihetetlen ebből a Kepler és minden más architektúra profitál, és nem csak a GCN. Persze a GCN-en a leggyorsabb, de a fejlesztő azt fogja nézni, hogy a forward+ lighting a hagyományos forward renderhez képest többszörösen gyorsabb. Ezzel már neked jót csinált, mert nem 4-5 fps-sel fut a játék, hanem 30-40-nel.
A deferred rendereknek is megvannak a nyűgjei. Például az MSAA. Mit kínál rá az AMD? Egy compute shaderes MSAA-t, ami először elemzi a képet, majd kijelöli, hogy hol van értelme futtatni a deferred MSAA kódot. Ez is a GCN-en a leggyorsabb, de a fejlesztő megint azt fogja nézni, hogy nagyjából ugyanolyan jó eredmény mellett az elemzős megoldás 10-70%-kal gyorsabb mindenen, függően a képkockától. Ezzel megint neked csináltak jót.
Ugyanígy a legnagyobb probléma ma az átlátszóság kezelése. Régen nem volt ez gond, mert forward render mellett nincs kivágva a felület, így azok le lesznek renderelve. Deferred renderrel egy ablak mögül még azelőtt eltűnik a poligon, mielőtt kiderülne, hogy az az ablakból látszik. Ilyenkor kell egy speciális rutin, hogy az jól legyen megjelenítve. A fejlesztőnek sorrendbe kell rakni az objektumokat, így jól visszakövethető, hogy mi az ami látszani fog, de kivágta a render. Aztán lehet renderelni és ennyi. Persze ez még mindig nem problémamentes. Ilyen hibák előfordulhatnak, ha nem tökéletes a sorting. [link] - látható, hogy az elől lévő ablaknál, ahol a csaj ül a gép ajtaja nincs kirajzolva, de a másik ablakban meg ki van. Alternatíva az OIT, itt nem számít a sorrend, mert az elv, hogy ne legyen felállított sorrend. A GPU compute shaderrel meghatározza, hogy mi látszik és mi nem. [link] - ezzel a gond megszűnt. A deferred render motorokhoz az AMD már kínál egy forward+ tack-on algoritmust OIT-vel, ami sokkal jobb ezekben a szituációkban, mint rendezgetni, majd esetleg hibát keresni a rendezésben, ha nem jó. OIT-vel még a dizájn szabadság is sokkal jobb lenne. [link] - az ilyen komplex helyzetek bármiféle komoly odafigyelés nélkül leképezhetők, mert az algoritmus figyel a problémákra. Itt sem azt fogja nézni a fejlesztő, hogy jaj ezt compute shaderben megoldva fájni fog a Keplernek, hanem azt, hogy jobb lesz a grafika, megmenti magát sok limitációtól, illetve általánosan gyorsabb megoldás minden hardveren.
Ezek a problémamegoldásról szólnak. Van probléma? Nagyon is. Van megoldás? Jelentős részükre igen. Gyorsabb minden hardveren a megoldás? A tradicionálisnak tekintet megvalósításoknál az. Innentől kezdve a Kepler és a GCN viszonya fel sem merül. Mindkét architektúra profitál ezekből, csak a GCN jóval többet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #15519 üzenetére
A sztereó 3D a Windows 8-cal eleve megoldódik. Ott a DirectX 11.1-ben a fejlesztőkörnyezet, amivel minden játékhoz natív támogatás készíthető. Csak quad buffert támogató drivert igényel, de keretprogram nem kell. Mindennel kompatibilis, mindenen ugyanolyan és ezzel mindenki örül.
Szerk.: A DirectX 11.1-es API kell hozzá, de bármilyen minimum DX10-es VGA-n működni fog. Gyakorlatilag a Windows 8-hoz van kötve, de komolyabb hardveres követelménye nincs. Persze a VGA-n a kimenetnek tudnia kell a sztereó 3D-hez szükséges sávszélességet. Ez valamennyire limitáló, de számos DX11-es VGA megfelelő. A ma kaphatók közül szinten mindegyik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #15523 üzenetére
Quad buffer támogatást igényel. Gyakorlatilag ez minden frissebb grafikus driverben van. Azokban a játékokban működik, amelyek a DX 11.1 sztereó 3D SDK-jával csinálják a támogatást. Ott gyakorlatilag az egész keretprogram bele lesz építve a játékba. A beállításoknál ezt majd külön lehet állítgatni. Úgy képzeld el, mint az Avatar játékot, vagy a Dirt 3-at, illetve a Deus Ex: HR-t. Ezek már ma natívan támogatják a sztereó 3D-t. Van még pár, de nem jutnak eszembe, ezek alapján be tudod lőni, hogy milyen lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Kroni1 #15528 üzenetére
A legtöbb natív sztereó 3D-t támogató játékot az AMD Quad Buffer SDK-jával csinálták. Ezért működik Windows 7 mellett is. Viszont ennek a hátránya, hogy a 3D Vision licenceket a játékfejlesztők nem fizetik ki, így az NVIDIA támogatása nem lehetséges az AMD Quad Buffer SDK-jával. A DirectX 11.1 SDK-ja általános, kötelező a támogatása, illetve nem lehet a fejlesztőket fizetésre kényszeríteni ahhoz, hogy a hardveren fusson a sztereó 3D. Ebből a szempontból ez lesz az igazán általános megoldás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #15540 üzenetére
Minden Gaming Evolved játékban jobb a GCN a vele azonos árú Keplernél. Pár játékban sokkal. Azzal nem tud mit kezdeni az AMD, hogy ezt nem látod. Igazából nem tudom mi az elvárás? Az új Hitmanben a HD 7950 elveri a GTX 680-at. A Far Cry 3-ban ott van a nyakán. Ehhez képest a GTX 680 annyiba kerül, mint egy HD 7970 GHz Edition, ami az előbbi programban 27, míg az utóbbiban 15 százalékkal gyorsabb. Ezért lenne érdemes tisztázni, hogy azonos áron milyen előnyt várnál el? A HD 7950-től is az elvárás a kérdés. Ennek az ára a GTX 660 Ti szintjén van. Az említett Gaming Evolved játékokban ezt a kártyát állva hagyja, a GTX 680-nal versenyez teljesítményben. A Hitman esetében tudok neked konkrét eredményt is mondani: HD 7950 42 fps, míg a GTX 680 37 fps. A Far Cry 3-ból is van guide-om, de ott még jönni fog patch. Az 1.04-es is folyamatosan cserélt le shadereket gyorsabbakra. Erre megint új driver kell majd mindkét oldalon. Ezzel a játékkal a fejlesztés közben gond volt. Szeptemberben még TWIMTBP cím volt, majd októberben mentek az AMD-hez, hogy rakja már össze. Ezért lett Gaming Evolved cím, csak ugye az AMD kapott két hónapot a shaderek optimalizálására. Jellemzően fél év is kevés, szóval marad a patch-elés, mint lehetőség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Algotis #29513 üzenetére
Pontosan mely szponzorált játékokra gondolsz? Nekünk pont az a bajunk, hogy az AMD szponzorált játékokban a GeForce-ok problémáznak. Nem sebességben, hanem a képminőségben van gond, de valamikor a sebességre is kihatással van ez. Ekkor kimarad a játék a tesztből.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem az enyém, hanem a PC Partneré a mérés, de pont egyeznek a beállítások. Maxon a 7870 alapon 58 fps-re képes. A GI-t és az AL-t kikapcsolva 65-re.
Van százalékos levezetés is, hogy az architektúráknak mekkora mínusz a GI és az AL:
GCN - 10-12%
GK110 (Titan) - 18%
Kepler többi - 32-45%
Fermi - 18-20%
TeraScale 2 - 17-22%
Gen7 (HD Graphics 4000) - 17%Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz katt777 #34269 üzenetére
Van ZeroCore egy VGA-val is. Akkor nincs, ha Virtut használsz, vagy az IGP-re kötöd a monitort, de a dedikált GPU nincs bekötve CF módban.
(#34268) Tommee: A leírás alapján az a ZeroCore, amit tapasztalsz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz marcusa #35168 üzenetére
Csak az a probléma ezekkel, hogy mindig elfelejtik átírni az UQ felíratott LQ-ra. Maxon gyakorlatilag nincs semmi skálázódás a Battlefield 3-ban. Single-ben még lowon sincs.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #49973 üzenetére
Bullshit az avultatás mindkét oldalon. Nem létezik csak a legendákban. Az AMD-nél nehéz is lenne megcsinálni, mert a 14-es generáció driverei már nem a terméknevek, hanem a GPUID alapján azonosítja a hardvert, vagyis képtelenség úgy lecsökkenteni a 7000 sorozat sebességét, hogy ne csökkenjen vele az Rx 200 sorozat sebessége. A driver detektálási rendszerében nem különbözik mondjuk a HD 7850 az R9 270-től.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #00137984 #49975 üzenetére
De mit akarsz korlátozni? Bizonyos dolgokat limitálni nem nehéz, de tudod milyen mértékű QA a különböző módokat kitesztelni? Hol éri meg egy driver elkészítésére kétszer annyit költeni, amikor feleannyiból is kihozható. Az avultatás a felhasználók baromsága, amolyan legenda, mert fogalmuk sincs arról, hogy mekkora extra pénzmennyiség bevonását jelenti az, ha ugyanazokat a VGA-kat megkülönböztetik driverben. Ez nagyon nem éri meg senkinek. Főleg az AMD-nek, mert nekik éves szinten nem 170, hanem 300 millió dolláros kiadást jelentene. Miért is lenne érdek bevállalni ezt?
(#49979) Zsébernardo: Ez a baj, hogy driver sweepert használsz. Az AMD egy szóval sem említi, hogy azt használni kell. Sőt, legtöbbször könyörögnek, hogy ne használjátok, mert olyan dolgokat töröl le, amit nem lenne szabad.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #49998 üzenetére
Nem hiszem ezt. Nem logikus egy driverre 130 millió dollárral többet költeni évente, csak azért, hogy személyesen veled kibabráljanak.
Fogalmatok sincs, hogy mekkora QA költsége van ezeknek a fejlesztéseknek, és ha jobban szegmentálják a driver funkcióit, akkor a QA költségek drasztikusan nőnek. Ezért is láthatod azt az AMD-nél, hogy a 14-es driverektől a szegmentálás csökkentése a cél, hogy csökkenhessenek a QA költségek.
Az a baj, hogy az átlagember elgondol valamit, és azt mondja, hogy mennyire reális az előző generációból pár terméket lelassítani, de utána már nem gondolnak, hogy egy ilyen dolog, mekkora extra kiadás a driver fejlesztésénél. Ráadásul nem is szükségszerű, hiszen a júzer úgyis vált az új programok miatt, illetve a shader fordítót sem a régi hardverekre szabják.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #50000 üzenetére
Jaj. Nem igazán érted, hogy a driver miből áll össze.
A shader complier fejlesztése mindenre előnyös hatással van. Maximum, akkor hátrányos, ha architektúraváltás történik, mert ilyenkor az új architektúra kerül előtérbe, de ez mindenhol így van. Ilyenkor a régi architektúrára már nem történnek fejlesztések.
A régi programokra a profilok megmaradnak.És a QA? Vagy úgy gondolod, hogy csak átírják a kódot és mehet is ki? Nem, azt igen sokáig kell tesztelni. Ezek éves szinten dollármilliós összegek. Nem titok itt, az AMD nagyjából 150-170 milliót költ évente driverre, vagy ehhez kapcsolódó fejlesztésekre. Ennek nagy része QA, ami érhető. A kódot beírni kevesebb idő, mint tesztelni azt. A specifikált kódok nagymértékben növelnék a kiadásokat. Előnye semmi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #00137984 #50009 üzenetére
Nincs ilyen csere. A shader fordító az egyetlen dolog, amit univerzálisan fejlesztenek. A többi az rutin, amiket nem cserélnek, maximum újakkal egészítenek ki. Tulajdonképpen ezek évek óta nem változtak, már ami bekerült. Nincs is értelme azokhoz nyúlni, hiszen teszi a dolgát.
Nem kell letörölni mindent. Hatalmas tévhit, hogy az összes bejegyzést el kell távolítani. Azt kell letörölni, aminek a helyére biztosan kerül új bejegyzés. Ezért nem szabad használni driver pucolót, vagy ha használsz, akkor az AMD sajátját, mert az tudja, hogy mit nem szabad babrálni.
Tipikus probléma ma a PC-vel, hogy a felhasználó okosabb próbál lenni az adott termék szállítójánál, és fel sem merül, hogy xy szoftver esetleg szándékosan nem távolít el valamit a PC-ről, vagy hasonló.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #00137984 #50011 üzenetére
A driver észleli, hogy első, vagy sokadik telepítés lesz. Ha elsőt észlel, akkor felrak mindent, ha sokadik, akkor felesleges a korábbi bejegyzéseket felül írni.
Az NVIDIA teljesen más bejegyzéseket használ. Az ég világos semmi sem történik. Sőt, a két driver egymás mellett teljesen jól elvan. Én egyszerre használok GeForce és Radeon VGA-t is, és egyszerre képesek programot futtatni.
Az egyetlen dolog, amire ügyelnem kell, hogy ne akarjak okosabb lenni az NV-nél és az AMD-nél. Ha ezt betartom, akkor nincs semmi gond.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #50014 üzenetére
Kérlek mesélj. Vetítsük le a D3D driverre.
Semekkora galibát nem okoz. Nekem három éve ottmaradnak, ráadásul az én gépemben van NV és AMD is. Tényleg csak arra kell ügyelni, hogy elfogadjuk, hogy azok a rendszerprogramozók, akik ezeket írják okosabbak, és ha már ezt beláttuk, akkor el kell olvasni, hogy őt hogyan javasolják a frissítést.
A lassulásokat kimutatta már egy független tesztoldal? Csak úgy kérdem, én pont gyorsulásokat tapasztalok időről-időre, de hátha valakinek volt már szerencséje lassuláshoz is és ezt megosztotta egy komplett cikkben.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #50016 üzenetére
Ne ajánl ilyet. A profilozás a CCC-ben van benne, ha azt nem telepíted, akkor a driver nem tudja majd, hogy melyik játékhoz milyen shadert töltsön be, így a shader fordító által fordított rendszer fog működni, ami vagy jó, vagy nem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #00137984 #50043 üzenetére
Próbáld meg újratelepíteni a gépet. Két hete volt itt az ismerősöm, aki hasonló problémával küzdött, mert meg volt áldva a driver sweeperrel. Próbáltam rendbehozni, de nem sikerült. Újratelepítés után jó lett. Azóta nem engedem, hogy használjon pucolót (mondtam, hogy a következő kör nem lesz ingyenes ).
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #00137984 #50047 üzenetére
A DDU az nem az AMD programja. Ugyanolyan hibákat csinál, mint a driver sweeper. Én ezeket sosem használtam, és úgy nincs hibám, hogy a gépen van GeForce és Catalyst driver is. A Win 7 az két éve van fent. Nagyjából kéthetente frissítek drivert, ezen belül is nem betesztelt dev verziókat is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #00137984 #50052 üzenetére
Nem erre gondoltam. Más hardver is okozhat hibabejegyzést a driveren keresztül. Akár szoftver is. Például a CPU-t a Catalyst vezérli (xy beállításokkal), ha AMD.
A 13.9 igazából szinte semmiben nem különbözik a 14.1-től. Utóbbihoz pedig van Mantle. A 14.4 lett átalakítva.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz csabi0805 #51343 üzenetére
Ezeket a tuning okozza. Akkor is ha gyári tuningról van szó. Technikailag hibás a kártya. Az órajel visszavételével el fognak tűnni.
(#51344) Zsébernardo: Azokkal nem ér el semmit. A régi Catalyst azért lehet jó, mert a shader fordító nem csinál olyan hatékony kódot. Ettől még a tuning miatt ezek a hibák elő fognak jönni később. A gari, vagy az órajel visszavétele a megoldás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #52257 üzenetére
A grafikus drivernek az ég világon semmi köze a lapozófájlhoz. A lapozófájl főleg azért van, hogy biztosítsa akkor is a stabil működést, ha elfogyott a fizikailag létező memória. Ez a PC-n szükséges, mert hiába van több GB-nyi memóriád abban egy idő után összetöredezik az allokáció, vagyis az egyes nem használt blokkok helyére lehet, hogy nem fér be új blokk. Ilyenkor előfordulhat, hogy elfogy memóriád, még ha széttöredezve van is egy csomó felszabadítható hely, de neked az a hely egyben kell és nem töredezetten. Ilyenkor a lapozófájl segít, hogy a futtatott program nem álljon le.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz katt777 #52260 üzenetére
"Önmagában a lapozófájl hiánya 6GB+ RAM-nál nem akadályozhatná meg egyetlen játék futását sem, ilyen esetben legtöbbször a játék kódjában van a hiba, ritkábban a VGA driverben." - ezt írtad. A VGA driver ebbe nem szól bele.
Halál mindegy, hogy a vinyón hogyan van tárolva a lapozófájl. Attól még az logikailag egy egész virtuális memóriát alkot, aminek van egy teljes címtartománya. Itt a probléma az, hogy a PC-n az operációs rendszer felel az allokációért és mivel az egyes gépek eltérők, így túl sok specifikus optimalizációra sincs lehetőség. A teljes biztonsághoz szükséges a lapozófájl, mert nélküle egyszerűen leállhat akármelyik futtatott program vagy OS szolgáltatás, ami furcsa rendellenességeket okozhat a gép működésében.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
Állásajánlatok
Cég: HC Pointer Kft.
Város: Pécs
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest