- Mobil flották
- Huawei Watch 4 Pro - kívül-belül domborít
- A Galaxy Z Fold7, minden színben és oldalról
- Yettel topik
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- iPhone topik
- Samsung Galaxy S23 Ultra - non plus ultra
- Android alkalmazások - szoftver kibeszélő topik
- One mobilszolgáltatások
- Redmi Watch 5 - formás, de egyszerű
-
Mobilarena
AMD Radeon™ HD 7950 / 7970 topic
Új hozzászólás Aktív témák
-
szacsee
nagyúr
Bocs, de nem egyértelmű, ha a gyártó adja meg a powertune +/- értékét, akkor ezek szerint AMD határozta meg a boost órajelhez tartozó alapfeszt (1,25V). Ami mondjuk a laborban is kiderült volna, hogy elég kevés játékban fog boost órajelen menni ugrálás mentesen, de szerintem közelít a 0-hoz az eredmény, illetve ha 80% alatti a GPU kihasználtság... gondolom én.
Azon viszont nem gondolkodott el a vörös óriás, ha már a saját GPU-it védi a power tuneval, hogy kiköti, hogy egy boost mentes bios is legyen a kártyán, mert pl hátha valakit még érdekelne?
Gondolom hosszútávon tovább bírja egy állandó frekin üzemelő HW, mint egy állandó szabályzás alatt levő...
nonboost vs boost. -
szacsee
nagyúr
Rosszul fogalmaztam...
Sok boost-os kártya van ma forgalomban (7950-es karik többsége boostos), a gyártó általában 1,25V-ot állít be a kártyáknak, gondolom azért, hogy az összes GPU menjen a boost frekin. Emiatt pl a kisebb alapfesszel rendelkező darabok ha másért nem a + fesz miatt elérik a TDP limitet és visszavesznek az órajelből (hőtermelés végett). A hűtés elég jó, ezért ez max 1-2 másodperc, majd megint boost órajel és megint vissza.
Ez a gyártók költséghatékonysága miatt van, mert nyilván nem tesztelhet ki minden kártyát boost órajelre, de kis kontrollt kaphatott volna a hozzáértő réteg, hogy pl a boost feszültségét manuálisan állítsa be valamilyen formában megengedett fesz keretek között. Ha nem stabil mert kicsi a fesz, akkor észreveszi, felső értéknek pedig az említett 1,25V-ot adták volna meg pl. Így nem lenne az AMD marketing húzásából a felhasználóknál szopás...
Szinte minden alaplapon (normálisabbakon) be lehet állítani a gyári VID-hez képest mennyit kapjon a proci úgy hogy energiagazdálkodás is maradjon. Itt meg max laikus csodálkozik, hogy miért ingadozik az FPS, aztán tol egy power limitet, amire gyakorlatilag szüksége sem lenne, mert magas feszültséggel boostol a kártya és könnyebben degradálódik a HW is... ami megint a gyártóknak jó, mert 2 év után lehal és veszel másikat.
A power limit kitolás után, a gyanútlan user pedig jön és nézi mit lehet tenni, majd levon 2 következtetést:
-Trixx, vagy AB-vel fix fesz.
-Bios átírás, amivel ugye ugrik a gar... stb.
Az, hogy az AMD már nem fog boostos kártyát gyártani (ha jól vettem ki a szavaidból) szerintem addig tart, míg NV nem csinál másképpen valamit és rá nem kényszerül megint hogy boostos kártyákkal álljon elő.
Ahibafelhasználói visszajelzések után viszont korrekt az lett volna, ha a kapcsolós kártyáknál az egyik bios boost mentes lenne és nem lenne ez a probléma sem..... de ugye Droidmester szerencsére ki tudja kerülni ezt egy kis ügyeskedéssel. -
szasanyi
félisten
Na, ezt már én sem értem: A PowerTune Boost nélküli kártyák nyilván nem ugrálnak. Azokba ez a funkció nincs beépítve. A PowerColor PCS+ HD7950 BOOST State kártyám BOOST BIOS-szal csinálta csak a jelenséget, miután azt lecseréltem nonBOOST BIOS ez megszűnt. Az kivette belőle a
zoxigéntPower Tune-t, vagy mi? -
HSM
félisten
Érdekes, a Powercolor akkor hogy oldotta meg a 7970 limitet a 7950-eséhez?
Illetve DroiDMester is megoldotta már páraknak BIOS-ból, hogy +0%-on többet enged a rendszer, mint gyárilag +20%-on.... SZóval mégis úgy tűnik, hogy a BIOS-on múlik a powertune limit.
"Minden mai VGA ugrál az órajelek és a feszültségek között. Olyan nincs már, hogy nem."
De van, de van.A 7950-em se ugrál +20%-on semmilyen játékban, és a 7970 OC-m is beton stabilan tartja azt az órajelet, amit beállítottam neki. És nem igaz, hogy nem érdemes OC termékeket venni, csak nem az OC jelölést kell keresni a dobozban, hanem az OC tartalmat. A Powercolor se OC, mégis alázza az OC karik többségét, mert tudtommal csak ezen lőtték be 7970 szintre a limiteket. Mindenki szívott a BOOST karikkal, hogy ugráltak, kivéve ezt a típust, míg ki nem derült, hogy ezért.
A Sapphire 7970 OC BOOST-mon is csak jó valamire, hogy OC, ha másra nem arra, hogy +50%-ig engedi GYÁRILAG a power limitet, így nincs az a terhelés, hogy ne tartsa halál stabilan a belőtt órajelet.
Nem akarok tolakodó lenni, de az a kártya, aminél a linkelt grafikonjaidon egynél több pont van, az a szememben egy ipari hulladék.Szerencsére mindkét 7900 kártyám tökéletesen mentes ettől az ugrálós jelenségtől buherálás nélkül is, dobnám is ki őket, ha nem így lenne.
(#27370) katt777: A gyengébb minőség nem vezet szükségszerűen meghibásodáshoz, a kisebb tűrésű alkatrészekkel kisebb terheléssel hasonló élettartam is elérhető.
(#27373) polgi803: Melyik SKU?
-
HSM
félisten
Erre elfelejtettem reagálni, pedig akartam....
2003 körül nekem egy 9700-as atim volt, beton stabil, szuper kari volt, spórolás semmi nem volt rajta. Ismerősi körökben is remekül bírták az x800-ak, 9800-ak is.
2005-6 körül nekem volt egy refi 3870-em, kellett neki rendesen szellőző ház, de teljesen jól bírta, frankón összerakott kari volt, a 2900-akra se lehetett semmi panasz, és a G80-as kártyák is nagyon össze voltak rakva. Utána jött egy spórolósabb eresztés, G92, meg a 4800-as generáció refijei, illetve néhány OEM megoldása, de ott is szépen meg lehetett találni a jobb darabokat. Utána megint jóminőségű karik jöttek, a 4890 refi is szuperül össze volt rakva, rendesen volt benne tartalék, a korabeli 65nm-es GTX260-280-ak is bőven bírták, jól össze voltak rakva. Utána Az AMD 5800-ak szintén kitűnő, legkevésbé sem spórolós refik voltak. A 6800-ak borzalmasak voltak szvsz, de a 6900-ak megintcsak ott voltak. Az NV is jól összerakta a GTX580/570-et. És egyik felsorolt kártya se került 1000 dollárokba, mégis szuper, minőségi cuccok voltak, a 6900 kivételével powertune nélkül, mégis kellő tartalékokkal és versenyképes árral.A történeti áttekintés után visszatérve 2013-ba azt azért megjegyezném, hogy nem hinném, hogy egy jóval erősebb VRM és egy mondjuk 20-30%-al erősebb hűtés beépítése több, mint a duplájára növelné a kártya előállítási költségét....
Nézd meg mondjuk ezt a Sapphire 7970-et, ilyenem van amúgy: [link]. Kb. 5cm-el kellett volna hosszabbra csinálni a NYÁK-ot, és tenni rá egy 5cm-el szélesebb VRM hűtőt, és mindenféle powertune nélkül is kész az elpusztíthatatlan 7970.
Jelen pillanatban a kártya 102 000 forintos áron másnapi szállítással megbízható kiskerből bárki által beszerezhető, ami állati messze van 1000 dollártól. Az általam leírt elpusztíthatatlan kiadása nem hinném, hogy néhány ezresenél többel drágította volna az előállítási költséget. Szóval nem az ár itt a baj, hanem a nem akarás.Régen is meg tudták oldani, ma is meg tudnák, ha akarnák, de így egyszerűbb a powertune-ra bízni.
Érdekes, hogy némi akarattal ez a VRM beépíthető volt a Vapor 7950-be is: [link] hasonló hűtéssel, csak a GPU kapott némileg kisebb szellőztetőt, 86 000-ért. A HIS is tudott 7970 NYÁK-ra 7950-et építeni, oda se kell semmiféle powertune limit: [link]
Illetve a powercolornak is sikerült a 7950 piros NYÁK-os 7950-ére 7970 hűtőt, VRM-et és power limitet tenni, 81 000-ért, az se 1000 dollár, és nem kell rá a power limit, kiütött limittel kombustor burn-in tesztben vígan elvan 80 fok körül 1050/1400-ra húzva, a refi 7970 ennél melegebb alapórajelen: [link]Őszintén szólva bízom azért benne titkon, hogy később is lesznek gyártók, akik gondolni fognak a hozzám hasonló "maradi", elektronikát és bütykölést kedvelő userekre, akik azt szeretik, ha a VGA-juk úgy működik, ahogy ők beállították, és nem pedig úgy, ahogy éppen kedve tartja. Nyilván ezeknek a termékeknek az árában lesz "némi" prémium, de ha megcsinálják, én boldogan megfizetem.
(#27344) katt777: Szvsz 100X jobban jársz a VTX 7950-el, mint akár a legjobb 7870-el.
(#27356) Whit3Rav3n: Van egy elsőgenerációs refi 7970-em (tehát nem boost-os), 1,17V a gyári alapfesze.
1,05V-on beton stabil alapon az is.
Amúgy nem stimmel, amit írsz, mert a BOOST karik nem boost alapfesze is igen magas. A Tahiti-LE-re emlékszem fejből, ott 1,256V volt a boost, és mikor lekapcsolt, 1,18V-ra lépett csak vissza, ami még mindig bődületesen sok 925Mhz-re. -
fsb1000
nagyúr
Teljesen igazad van.... ma már nem szabad emberi tényezőre bízni a hardverek működését.
Ez már nem az első eset, hogy az NV olyat erőltet, amibe hosszabb távon belebukik.Az AMD jól csinálja hogy a PowerTunet alkalmazza, mert nem csak saját magát, hanem a sok milliói VGA tulajt is megvédi attól, hogy a kártya hibái fagyásokat okozzanak.
-
szacsee
nagyúr
Szerintem a Power Tune jó megoldás, de főképp a gyártók profitálnak belőle, mivel ha a biost úgy írják meg, hogy egy 150W TDP-jű kártyára gagyi VRM-et raknak és a Power Limitet 140W +/- 10%-ra állítják be, akkor a gyári órajelen normálisan megírt játék alatt jól szellőző házban és VGA hűtéssel is ugrálni fog a kártya GPU frekije. A felhasználó is védve van az igaz, de igazából a partnereket védi az AMD, no meg a költséghatékony előállítást.
#27340: A linken egy húzott GPU-s Geforce látható, ami amúgy sem egy acélos hűtővel rendelkezik. Itt tényleg jól jönne a Power Tune, viszont olyan esetben, ahol a kártya gyári feszen is ugráltatja a GPU-t szerintem pont azt bizonyítja, hogy:
1. Partnerek spórolósra veszik a tápellátást, vagy hűtést, emiatt a PL-t lejjebb tolják, mert biosban határozzák meg.
2. AMD a rosszabb kihozatali arányú GPU-nál, vagy új gyártástechnológia bevezetésénél, ahol rossz a kihozatali arány, vagy nem olyan a GPU mint várták... jobban melegszik, megcélzott freki nem tartható tömegtermelésben egy jó Power Tune beállítással is kiadhatja simán.Nézz be pár topikba, ahol Giga kártyákra panaszkodnak. Sokszor a gyári OC órajeleket sem tartják. Szerencsésebb esetben a PL megvédi őket, ha viszont beleférnek a power limitbe sokszor textúra hibák vannak, mert annyira fos néhány kártya... de legalább adnák akkor ref órajelen ne OC-ként az olyan GPU-kat, amik nem bírják a tempót..... itt nem az AMD a ludas, mert ref órajelen ugye nincs gond, viszont a PL miatt a gyártó takarózhat pár dologgal, mert ugye tuningra nincs garancia.
Nem tudom átmegy teljesen a hsz-omon keresztül hova szeretnék kilyukadni, mert sok időm nem volt fogalmazgatni... melóhelyről írtam... -
belinho
senior tag
De ez így milyen megoldás!
Ha bőven megvan a 60fps, akkor nem zavar, viszont 30fps környékén már nagyon!
Afterburner-rel kilőttem a powerplay suppor-tot, így fix órajelen megy, és nem ugrál, viszont a hardveres védelem aktív így is, mert ha túlhúzom akkor fagy, vagy ha kevés a fesz, akkor is. -
belinho
senior tag
Tudom, hogy nem hiba csak a működésével van bajom!
925mhz-ről boost-ol a kártya 975mhz-re és ez állandóan ugrál!
0%-os power limit mellett leugrik 501mhz-re is terhelés alatt, majd 975mhz., ekkor akad egyet a játék.
Ha kitolom a limitet +20%-ra, akkor csak 925 és 975 között ugrál alapórajelen.
Ha tuningolom akkor meg 925 és 1100 között ugrál, viszont itt meg már látványosan akadozik a játék órajel váltásoknál. -
-
szasanyi
félisten
APU+dGPU-val jól hozható a PS4 képessége - mint már többen kérdeztük - korábbi, hasonló "jóslatok" alapján -, MIKOR?
Mikor érnekk be, és lesznek valóban hasznosíthatóak (1080p felbontásban + magas grafikai részletességgel) ezek az elméleti képességek, amik jelenleg csak ott léteznek - elméletben.
-
haddent
addikt
Értem, köszi a választ, világos.
Még egy kicsit kérdezgetnék: véleményed szerint ezek az új APU -k , akár már a Kaveri, képes lesz hozni a konzolt a megfelelő API -val, driverrel stb..? Lesz egyáltalán a PS4 -hez hasonló robosztus, nem "csak" 4 magos Kaveri? Vagy leghamarabb mikor lesz konzol szintű normálisan működő AMD APU? -
HSM
félisten
Meglássuk majd, mi sül ki ebből. Egy dolog, mi mit okoskodunk előre, és más dolog, hogyan és mi fog ebből megvalósulni. Ha valami nagyon frankó dolog lesz belőle és kell hozzá, akkor megyek, és boldogan veszek Kaveri APU-t a GPU mellé. Ha meg elmarad a forradalom, akkor maradok Inteles, meg maradnak a játékok is a jelenlegi szinten.
Mindkét esetben valamilyen szempontból jól jár, aki PC-s...
(#24580) asdxv: Tök fura... Sose találkoztam ilyennel... Én benyomom játék előtt a profilt, és működik.
Igaz, nálam főleg csak 1050 volt sokat használva, de meg se rezdült soha.
És ahol próbáltam, ott az 1200-sem.
(#24583) Pug: Jó ötlet, bár nekem érdekes módon az AB is jó.
(#24584) haddent: Igen, engem is ez a problémakör az, ami azért jobban aggaszt a PC_gaming jövőjével kapcsolatban....
(#24585) radi8tor1: Folyamatosan el van állítva nálam a feszültség, mert ha alapon használom is +20% power és alulfeszelés rajta van, és gondom semmi.
1200-hoz meg kicsit több kell neki, mint amit gyárilag kap, ott azért van tekerve.
De tényleg fura, hogy sose volt olyan kártyád, de mégis tudod, mikor van baj vele.Ez így nem valami építő.
(#24586) asdxv: Igen, az OSD a legfontosabb 3 sornyi adattal nálam is mindig ott figyel fenn.
De ahogy írják alattam, AB+TRIXX is megy. AB csak fusson monitorozzon, Trixx-el meg be tudod lőni a többit, a Sapphire 7870 XT-met így használtam, működött jól.
-
haddent
addikt
Volt valami olyasmi is, hogy a DirectX egyszerűen nem képes annyi [nem tudom mit] kezelni mint amennyit a konzolok majd, tehát nem csak a megosztott memória hiánya stb.. hardveres dolgok a bajok, hanem az API is. Ezt hogy küszöbölik majd ki, hogy az AMD APU -val ne kellen butítani, mint írtad is?
-
HSM
félisten
"Ez a lényeg. Azért vitte, mert PowerTune-os a hardver. A feszültséghez állítja az órajelet, ha fennáll az instabilitás veszélye."
Akkor azt mivel magyarázod, hogy ha még lejjebb vittem a feszültséget, akkor úgy megfagyott, mint a huzat? A leírásod alapján ez nem következhetett volna be, mert akkor a hardver egyszerűen tovább csökkentette volna az órajelet."A kisebb feszültség csak annyit fog csinálni, hogy ha túlterhelés van, akkor az órajelet jobban lecsökkenti, mint nagyobb feszültség mellett."
Ezekszerint, ha csinálok egy tesztet 0% powertune alapfeszen egy erősen terhelő játékban, ahol a powertune beavatkozik, akkor több FPS-t fogok kapni a BOOST-os Powertune-os 7950-el, mintha alulfeszelném ugyanehhez?Jól értem?
Ha igen, akkor ezt ki fogom próbálni, csak feleslegesen nem akarok időt pazarolni erre, ha nem pont így értetted."Végigolvasom, csak kiragadsz belőle részeket. Egyben érdemes olvasni.
"
Egyben olvasom, csak gondoltam így könnyebben követhető, pontosan melyik részére is reagálok a mondandódnak, ez csak egyfajta referrálás.Az utolsó bekezdéshez csak annyit reagálnék, hogy van egy másik megoldás a powertune-n kívül, mégpedig a kellő tartalék beépítése a termékbe, mind hűtés, mint VRM tekintetében, hogy ne dögöljön meg +0,01V feszültségtől mondjuk egy erősebb terhelés alatt.
A 4890-emben se volt semmi ilyen móka, meg a 4850-jeimben sem, mégse döglöttek meg se furmark, se semmi alatt annak idején és húzni is lehetett őket alapfeszen...
Persze, akkoriban is előfordult alultervezett kari, mint pl a refi 4870, ami bár gyárilag full stabil volt, mindent kibírt, de kb. 10Mhz tartalékot se hagytak benne.
-
HSM
félisten
Az se jó hasonlítás. Nem szabad figyelmen kívül hagyni, hogy egyfelől a 7770 memóriasávszéleségében szűkös, ebben is jóval erősebb a 7790, ezenkívül nem véletlen tettek bele dupla setupot, illetve 40%-al több GCN magot...
Ehhez képest a tranzisztorok száma elhanyagolható mértékben nőtt, illetve tranzosztor szinten sem kizárt némi fejlődés, mert a 7770 óta eltelt majdnem egy év. Megint oda lyukadtunk ki, hogy ez az állításod is csak arra jó, hogy a Bonaire hatékonyabb lett, mint a Cape Verde. De nem azt mértük meg, hogy a Bonaire Powertune tuninggal hatékonyabb-e, mintha kézzel tuningolnánk, magyarul hogy az új powerutne működik-e.
Azzal egyetértek, hogy próbálják ezzel a cuccal kiszúrni szemünket, de én majd hiszem, ha látom.
Ez a DVFS sose lesz a tuningosok barátja, én erősen attól tartok, ugyanis ez a gyártók érdekeit védi, nem a felhasználókét.
Persze, papíron a technika szuper, de gyakorlati szempontból egy 4milliárd tranzisztoros csipben szerintem a gyakorlatban megfelelően kvázi kivitelezhetetelen. Nem tudod 4 milliárd tranzisztor energiaigényét (illetrve feszültségigényét) hatékonyan becsülni, mivel függ attól is, hogy sikerült az adott csip, illetve függ attól is, melyik tranzisztor hányszor kapcsol, illetve nyilván az órajeltől, feszültségtől. Onnantól kezdve pedig, hogy csak tippre megy az egész, pontatlan. Persze, aláírom, nem elképzelhetetelen, hogy egyszer egy szép, távoli jövőben már jobban meg fogják tudni becsülni ezeket a dolgokat, de a Bonaire előtti powertune produkciója bennem erősen azt a benyomást keltette, hogy még nagyon béna a rendszer, és fényévekre van a hatékony működéstől és több sebből vérzik. Namost, ha abból indulok ki, hogy ez már a harmadik generáció (Cayman volt tudtommal az első, utána a sima 7000-esek PowerTune-ja, utána a BOOST) és jópár év eltelt már a Cayman óta, és ennyire vacak az eredmény, akkor nem várok sokat a Bonaire negyedik generációjától sem.De mondom, tök egyszerű, ha majd jár nálatok tesztre egy 7790, essetek neki kézi tuninggal is, meg PowerTune-al, aztán mérjétek meg az eredményt.
Valahogy úgy gondoltam, ahogy én is megmértem a BOOST powertune hatékonytalanságát a Tahiti-s logout tesztemben.
Abból pedig kár kiindulni, hogy mindenki ezt akarja másolni... Persze, mert csökkennek a döglött csipek, ha nem tudsz tuningolni, nő a profitjuk.
Tiszta sor teljesen. Ettől még az épeszű tuningosak ettől nem lesz jobba termék.
Nekem ilyen téren amúgy az Intel megoldása szimpatikus. Méri rendesen a CPU fogyasztását, és be tudod állítani, meddig mehet el a csip. Ha túllépi, lekapcsolja a turbo-t, megvédi a CPU-d, de nem megy a gyári órajel alá, csak ha már 95 fokon izzik a proci, és mindenképp be kell avatkozni. Itt fontos, hogy te állítod be, meddig engedheti a turbot, nem az, hogy +20%, ezenkívül te állíthatod be neki a turbos feszültséget is.
Ja, és mért fogyasztási/áramerősségi adatokból dolgozik, tehát ténylegesen úgy működik, ahogy kell neki, nem úgy, mint az AMD BOOST PT-ja, hogy fel se tűnik neki, 1V-on megy a csip, vagy 1,3V-on, mert ő csak a gyári feszből hajlandó tippelni a fogyasztásra....
Ezenkívül, ha nem tetszik, teljesen ki is kapcsolható. -
p87
senior tag
Abu!
Külföldi fórumokon olvastam több helyen is, hogy várják az új memória menedzsment beépítését a következő driverekbe.
Most akkor még nincs is beépítve a jelenlegi beta driverbe, esetleg korlátozottan, vagy hülyeséget beszélnek?
Esetleg valami más finomságra gondolnak?Te tudsz valamit a következő driverekről, hoznak valami újdonságot?
-
HSM
félisten
Itt egyszerűen arról van szó, hogy nem hiszem, hogy a hardver be fogja tudni lőni a megfelelő paramétereket helyettem. Ugyanúgy, ahogy a jelenlegi Tahiti-k se tudják pontosan, mennyi feszre van szükségük egyedi tesztelés hiányában.
"A tuningos maximális teljesítményt szeretne maximális stabilitás mellett. Ezt adja meg az új PowerTune."
Nem minden tuningos ilyen. Nekem pl. sokkal fontosabb, hogy adott órajelen a lehető legkedvezőbb fogyasztással, ezen keresztül a lehető legkevesebb hőt termelve és a lehető leghalkabban üzemeljen. Erre pedig nem jó ez a technika. Más tuningosokat meg az fog zavarni, hogy beállítják 1200-ra, és a hardver úgy dönt, akkor 800-on megy. Persze, tök jó, stabil, de a tuningos 1200-at akar, és inkább feszt emel(ne). Nézz körbe itt a topikban, mi a vélemény a "BOOST órajelugrálásssal" kapcsolatban, kerüli mindenki ahogy tudja, pedig az semmi ahhoz képest, amit a 7790 viselkedéséről írsz."Én azt látom az új PowerTune-nal, hogy a HD 7790 80 wattban hozza a HD 7850 teljesítményének 90%-át. Ha ez nem az optimálisra való törekvés, akkor semmi sem az.
"
Ez itt nem egy fair összehasonlítás.
A 7850-ben van egy rakat rész, ami áramot kér, de nem növeli meg annyival a sebességet. Pl. az említett 90% nem igaz olyan helyeken, ahol mondjuk a karit visszafogja a 128bites memória. Ellenben a +128bit a 7850-en áramot akkor is kér, ha nincs rá szükség. Ezenkívül több a huzalozás is a 7850-ben, mert alapvetően egy nagyobb méretű csip letiltott elemekkel, míg a 7790 egy fullos kiépítésű kisebb. Itt arról van szó, hogy maga a Bonaire csip hatékonyabb, mint a pitcairn Pro gyárilag.
A lényeg, egy powertune-tuningos 7790-et lenne fair összehasonlítani egy hagyományosan, letiltott powertune-al tuningolt, és feszültség optimalizált ugyanazon 7790 példánnyal, mind fogyasztásban, mind sebességben. Na, ha ott nyer a powertune, azaz azonos fogyasztással gyorsabb, vagy azonos sebesség mellett kevesebbet fogyaszt, mondjuk 3 különböző kari mindegyikén, akkor azt mondom, tényleg ez egy frankó jó dolog, de ezt kizártnak tartom a jelenlegi ismereteim alapján.A gyári feszültségértékek meg arra jók, hogy nálam a Tahiti-LE konkrétan kevesebbet fogyasztott kicsit tekergetve, mint a sima 7870 gyárilag, azonos vagyis kicsit jobb sebesség mellett.
-
HSM
félisten
"Az újjal is lehet tuningolni, csak nem kell megtalálnod azt az értéket, ami stabil. "
Ez minden, csak nem tuning.Nekem az a tuning, ha én belövöm a működési paramétereket, de legalább az órajelet illetve feszültséget, a csip pedig azon működik, amíg vagy meg nem fagy vagy esetleg valami védelem (hő vagy áramerősség) le nem kapcsolja. Dinamikus órajelhez alapból nem tudsz feszültséget állítani, nálam már itt elvérzett a dolog.
Persze, a leghatékonyabb az lenne, ha gyárilag minden egyes csip minden egyes munkafolyamat esetén magától tudná, pontosan milyen feszültség kell neki, de szvsz ez jelenleg teljesen utópia kategória, most se tudják a feszt pontosan belőni, később se lesz jobb a helyzet, nem fognak minden egyes csipet egyenként végigtesztelni ezután sem.Innentől kezdve meg én hatékonyabb leszek a kézi tuningommal, ahogy most is ez a helyzet.
"Ennél jobbat tuningos magának nem kívánhat. "
Nagyjából 10 éve tuningolok procikat, VGA-kat, és azt kell mondjam, nem a forradalmi lehetőséget, hanem az erőteljes korlátozást látom ebben a technológiában, semmi mást.
Szvsz egy igazi tuningos semmi mást nem kíván, mint jól monitorozható és paraméterezhető hardvert, ami pontosan úgy működik, ahogy a user beállította. Ez az új powertune a leírásod alapján ennek éppen az ellenkezőjét csinálja. Én is nemhogy erre a technológiára vágynék, de még a gondolatától is elfog az undor. A sima PowerTune esetén is első dolgom volt utánanézni, mikor rájöttem, hogy működik, hogy nincs-e valami módja a teljes kikapcsolásának, de sajnos nem volt olyan, aminek ne lettek volna kellemetlen mellékhatásai."Amit te nem tudsz a határra rakni, azt a PowerTune új verziója megteszi helyetted."
Hiszem ha látom. De a Tahiti-s tapasztalatok alapján a PowerTune olyan buta, mint két zacskó csipsz, és a gyári feszek beállítása is fényévekre van az optimumtól.
Érted, a határra rakás, illetve optimalizálás ott kezdődik (pláne egy 4milliárd tranyós csipnél) hogy adott órajelhez és munkafolyamathoz megtalálod az optimális, azaz minimális feszt a stabil működéshez. Egy ilyen dinamikus technikánál ezt nem tudod megtenni, mivel nem is te állítod már az órajelet sem.Itt nem kiélezett, hatékonyan működő hardvert, hanem valami kontrollálhatatlan, kiszámíthatatlanul, öntörvényűen működő hardvert fog alkotni ez a technika, nagyon messze az optimumtól.
-
HSM
félisten
Ha ez tényleg így fog működni, akkor lehet, a 7950 lesz az utolsó ATI VGA-kártyám.
Na, nem mintha nem lennék vele elégedett, de már a mostani powertune is számomra gusztustalan módon működik, de szerencsére még meg lehet kerülni, illetve elég lazára engedi a nadrágszíjat, hogy nem okoz nagy gondot. De hogy ne lehessen tuningolni, meg felülbírálja, amit beállítok, meg ez az egyre több voltage lockos kártya...
Lehet, hogy hülyebiztos irányba megy a dolog, de aki valamennyire értett a tuninghoz, annak ez kész katasztrófa."A hardver el fogja dönteni, hogy mi az a maximális órajel, amivel még stabil."
Ez az, ami szerintem sosem fog működni. A hardver nem tudja minden egyes tranzisztorának valós kapcsolási sebességét a különböző paraméterek függvényében, illetve a különböző jelterjedési időket. Ha a hardver tudná pontosan, mekkora a maximális órajel, ehhez nagyobb számítási kapacitás kéne, mint a komplett GPU ereje.Az egyetlen j módszer erre, ahogy most is tuningoljuk a hardvereket, kiteszteljük szépen, ráhagyunk kicsit, és ha nem jó, utánaállítjuk. A hardverben ezt csak brutálisan elnagyolva fogják tudni megvalósítani.
Ékes példa erre a logout blogomban a Tahiti-LE, a szuper gyári fesz alig 0,2V-al volt fölélőve a szükségeshez képest...
Na, ennyit tud a gyári tuning, és ez szvsz nem lesz jobb későb sem, mert agyon kell biztosítani a rendszert, mert hivatalosan nem fér bele a legkisebb instabilitás sem...
-
ÁdiBá
veterán
-
szasanyi
félisten
Ez érdekes, mert úgy néz ki Mo-n egyk kisker sem rendelt tőlük, ugyanis a PH! apróhirdetések kivételével NS R2 játékokat sehol sem látsz. Én két VGA-t vettem két különböző webshopból, és legalább még 2-3-at megkérdeztem, és sehol nem járt hozzá, de vettem az aprón a nagykeres arcok közül az egyiktől.
Azért ez übergáz szvsz. -
deadwing
addikt
Akármilyen teszteket nézek is, azokból nem ez derül ki, 5-10% van a 6990 javára /jellemzően BF3 és BC2 amik érdekelnek, ezek valóban nem a legújabb játékok/. Ami a 7970 mellett van, az a fogyasztás és az fps aránya. De természetesen ki fogom próbálni primaryként mindkettőt, és azt használom amelyik jobban teljesít
A kérdésem inkább az elvre vonatkozott, mert egyelőre mindkét kártyát meg kell tartsam, a részletekkel nem untatnám a topicot. A választ köszönöm! -
HSM
félisten
"Nyilván teljesen járható út, ha a hardver túl gyenge a 32 bites feldolgozáshoz, csak így a program által kínált képminőség nem lesz olyan, amilyet a fejlesztő akart."
Ez felvet azért egy másik, igen súlyos kérdést, hogy ha ez igaz, akkor az érintett programokban máris nem hiteles az összehasonlítás sem, mert úgy nem lehet, hogy nem ugyanazt a jelenetet számolják az NV és az AMD VGA-k...
(#21400) haddent: Azért írtam neki számokat, mert elég hasonló sűrűségű az én bordám is, és hasonló a GPU-hűtőnk is.
(ugyanaz az alap és elvileg igen hasonló a venti is, kinézetre, kialakításra ahogy láttam, ugyanaz) Bár neki más a NYÁK, ahogy láttam.
-
SzlobiG
félisten
Kétlem, hogy ezt meg mernék lépni na meg nem jött még semmiféle panasz, hogy romlott volna a képminőség az előző driverhez képest, szal ha meg is lépték, akkor valami olyan módon, hogy nem látható képminőségbeli romlás akkor meg kit érdekel ez, ha gyorsabb. Ennek a KZ-nek meg már az NV-nél kéne dolgoznia.
-
haddent
addikt
Az igen
Aztán majd jönnek a nagy 2 méteres grafikonokkal, ahhol 20x annyi az FPS mint a radeonon. 12 -es betűmérettel a hátuljára behajtogatva leragasztva meg hogy 16 biten, vagy mi
#21415 SzlobiG a szoftverrel most sincs baj szvsz., hogy őszinte legyek a driverek még mindig szimpatikusabbak odaát
-
SzlobiG
félisten
De ha ez kell a gyorsuláshoz, akkor nem tök mind1, hogy 16 vagy 32bit-en dolgozik? Gondolom ez olyan, hogy nagyítóval se igen venni észre ha ezt meg merik lépni.
FX időszak miért jönne el? Ott nem csak szoftveres téren volt nagy bukta, a kártya se volt jó eleve a felépítését nézve.
Még valami ha a KZ driver készítője így szokta megoldani a gyorsítást, akkor ő ezt simán megtudja nézni az új driverben, nem?
-
HSM
félisten
Ja, értem. Ez esetben szomorú vagyok, mert nyilván ez a helyzet nem fog változni, egyik cég se fogja megosztani a technikáját a másikkal.
A Virtu-t tényleg erre találták ki, csak az a bibi, hogy a virtualizáció alapból egy csomó probléma forrása, illetve nem is nagyon tudja kihasználni a lehetőségeket, pl tudtommal virtu alatt se megy a zerocore....
-
HSM
félisten
Ja, így már értem, miért erőlteted ezt a gyártókeverő-okosságot...
Az ULPS miatt.... Én viszont nem ezt a hybrid CF-es mókát erőltetném, hanem a másik, single GPU-s zerocore módot, parancsra ébredéssel.
99%-ig biztos vagyok benne, hogy technikailag biztonságosan megvalósítható lenne, ha meg akarnák csinálni.
Ezt az Intel dolgot nem értem, nálam simán megy másodlagos VGA-ként, simán látják a progik is, és ha átteszem rá az asztalt, egyből 100%-os funkcionalitású. Persze, ha nem ő az elsődleges, persze, hogy nem fog menni a quicksync, meg hasonló okosságok, ebben én semmi furcsaságot nem látok.
Egyébként akkor nem lenne logikus diszkrét VGA mellett IGP-t használni, ha a rendes VGA képes lenne az IGP hatékonyságát kis terhelés mellett produkálni. Mert azért azt akárhonnan nézem is, elég siralmas, hogy egy videólejátszás a Tahiti csipen +50W a komplett gép ~80-85W üresjáratához képest, míg IGP-ről lejátszva +2W. Arról nem is beszélve, hogy még 12W-al kevesebb lehetne, ha a nagyvas hajlandó lenne lemenni zérócórba...
Az a csúnya, hogy még a 100%-os szoftveres h264 lejátszás is beéri +10W-al...
Ugyanaz a móka, ami miatt már az 5850-em helyett is sokszor IGP-t használtam...
Sajnos, akárhogy nézem, ez a 4milliárd tranyós szörny a 3GB GDDR5-el nem hatékony igen alacsony terhelésű feladatokra, ellenben a HD4000-el, amiben végülis semmi meglepő nincs.
-
HSM
félisten
Nekem épp az a bajom, amit előbb írtál, hogy ha két WDDM eszköz van, akkor csak az elsődleges kapja meg a Stand-by jelet.
Persze, lehet én vagyok túl maximalista, de én úgy voltam vele, hogy a zerocore arra készült, hogy lekapcsolja a VGA-t, amikor arra nincs szükség, tehát amikor semmilyen feladatot nem végez (nem hajt meg monitort, nem is gyorsít).
Ezért bosszant, hogy Intel VGA mellett nem tud lekapcsolni.Különösen bosszantó, hogy a hivatalos slide-okon is azt említi, hogy akkor megy zerocore-ba, amikor nem hajt meg screent: [link]
A jövő még szerencsére messze van, a PS4 is még fél év, mire a technika elterjed még legalább mégegy év, vagy sokkal több... Tisztában vagyok vele, hogy a mixelt platform hordoz magában korlátokat is, ezt elfogadom, amennyiben INDOKOLT korlátozásról van szó, de ez a zerocore dolog nálam nem az a kategória.
Azért is furcsállom a dolgot, mert az Intel CPU nem használt magjai is frankón ki tudnak kapcsolni L2-vel együtt, az IGP is totál le tudja magát kapcsolni, ha nincs rákötve semmi.... A CPU-nál pedig még csak driver sincs, hogy felébressze, mégis sikerül neki felkelni...
-
HSM
félisten
Mint mondtam, vásároltam volna én szívesen AMD APU-t, ha csak megközelítették volna az i5 3570k-t...
Én sokat használtam egymás mellett az Intel HD4000-et és az Ati HD5850-et, és prímán működtek egymás mellett.
A 7950 mellett nem erőltettem még, bár ha működne a zerocore, máris használnám, tanulni, programozni a HD4000 is túl erős.
Mint írtam, ez a te meglátásod volt, hogy az Intel meg az AMD közös drivert kell írjon ehhez. Ez nyilván esélytelen, nekem eszembe se jutott.
Ahogy írtad, a ZeroCore-t a standby ON-OFF vezérli, nekem meg pont ez a bajom, hogy csak ez tudja vezérelni.
Természetesen ez a leges-legegyszerűbb megoldás, ráakaszkodni erre a jelre, de ugyanakkor épp emiatt iszonyat korlátolt is. Az AMD-nek a saját hardveréhez kellene egy rendes zerocore-vezérlő implementációt írni, ami nem csak ilyen komoly megszorításokkal működőképes.Nem lenne túl megerőltető feladat a rendszerprogramozóknak, hogy felébresszék az alvó VGA-t, ha váratlan kérés érkezik hozzá....
-
HSM
félisten
Nem egészen értem ezt a szétfagyás dolgot...
Az oké, hogy az Intel hardverre nem fog az AMD drivert írni meg visszafelé sem, de erre nincs is szükség, a windóz gyönyörűen kezeli mindkettőt egyszerre.
"És mi garantálja azt, hogy az egyik alkalmazás sem fog lekérni a számítógépről egy hardware check-et. Ha az AMD driverét megkeresi ezzel, ami mögött nem létezik hardver brutálisan szét fog fagyni az operációs rendszer."
Épp erről írtam. Ha valami alkalmazás megkeresi az IGP használata mellett zerocore-ban pihiző AMD VGA-t, akkor annyi lenne a feladata a drivernek, hogy generál egy megszakítást, felébreszti az AMD hardvert (tény, kb. 1-2 másodpercre szarrá "fagyna" az OS a jó hosszú interrupttól, de szvsz ez nem tragédia, utána minden menne tovább, és nem gyakran fordulna ez elő.) és tökéletesen működne a rendszer, ugyanis így a driver már az ébren lévő VGA-n tudná lefuttatni a hardware check-et.
A Virtu megoldás a virtualizáció miatt teljesen felejtős, de ugyanakkor szükségtelen is, mivel a windóz is (7-es 64bit sp1 legalábbis) tökéletesen tud váltogatni a grafikus hardverek között. Amin kicsit meg is lepődtem, hogy még a másik kártya framebufferjébe is tudnak írni, ugyanúgy, ahogy a Virtu, vicces volt látni, ahogy a VGA DXVA gyorsítása játssza a videót a firefox ablakban, az IGP-re kötött monitoron.
Itt szerintem egyszerűen arról van szó, hogy csakazértse csinálták meg Intel GPU-ra.
Nekem pedig jobban tetszett volna, ha inkább úgy biztatnak AMD APU vásárlására, hogy hozzák az Intel sebességét, fogyasztását, árát, minthogy ilyen mesterséges szivatásokkal/trehányságokkal.
Sajnos az AMD felhozatalában jelenleg semmi sincs, ami versenyképes lenne pl. egy i5 3570k-val a fogyasztást is figyelembe véve, pedig alapvetően a dózerjük nem lenne rossz koncepció... -
ÁdiBá
veterán
Amikor én kikapcsolom az ULPS Crossfire esetén hogy tuningolhassam a rendszer-t, akkor végül is egyáltalán nem fog kikapcsolni az alsó VGA.
Hiába használom alapórajelen, ugyan úgy fog dolgozni a másik kártya mellett még Windowsban is.
Ez így van?Számomra az lenne a tökéletes hogy ha az integrált iGPU dolgozna Windows(8) tálca alatta, és ha elindítok egy játékot egyből bekapcsolná a két kártyát a rendszer és a CrossFire hatásfoka is legalább 70% lenne. (Mindenhol)
Vajon mikor fognak így működni a driverek?!
Nem beszélve a tuningról.
Win8 iGPU, ahogy indítanám a StarCraft2 Host-ot bekapcsolna a CF, a kívánt 1150/1625 Mhz órajelre 1,170VLehet kicsit sokat kérek a programozóktól!
-
HSM
félisten
Azt írtam, hogyha nem hajt meg monitort... Igaz, ez úgy is érthető, ahogy te értetted, hogy nincs rákötve monitor, és úgy is érthető, hogy van rákötve monitor, de nincs megjelenítve rajta asztal, amikor is standby állapotba küldi a megjelenítőt, ugyanúgy, mintha "aludni" menne a gép. Ugyan nem hangsúlyoztam ki, de egyik esetben se működik a zerocore.
Én úgy gondolom, amíg az Intel IGP-t használom, azon van az asztal, addig a Radeont egyik alkalmazás se fogja bántani. Pontosabban én ezt tapasztaltam, hogy addig minden az IGP-n fut, amit azzal indítottam el. Nyilván körültekintéssel kéne a manual kapcsolót használni, de alapvetően nem lenne baj vele szvsz értő kezekben.
Arról nem is beszélve, simán lehetne félautomata a "manuális" kapcsoló, te lelövöd, ő meg felébreszti, ha valamelyik program mégis igénybe szeretné venni a kézi ébresztés előtt, és mondjuk erről kirak egy értesítést a usernek. Normál működés esetén is a driver ébreszti zerocore módból.
A drivernek simán módjában állna ezt megtenni, úgyis csak rajta keresztül érhető el a hardver....
Érted, ha Radeon IGP-vel le tudja hibernálni dual graphics-nál, akkor ugyan miért nem tudja az Intel IGP-vel, amikor ugyanúgy nem használódik a diszkrét VGA.... Szvsz simán megoldható lenne, ha normálisan lenne implementálva a technika.
-
Gery0505
aktív tag
De ha a Trixx és az MSI After meg tudja csinálni jól a Power tune-t az AMD miért nem képes erre? Hiszen ő ismeri jól a hardvert nem? Ha ennyivel jobbak a 3rd party programok, akkor az AMD miért nem tudja jól megcsinálni, hogy menjen rendesen a tuning? Vagy az AMD nagyon félti a hardvert? Mondok egy példát: Én az AMD saját szoftverével a GPU tweak-kel, csak 970MHz-ig tudtam felhúzni a GPU órajelét, míg az MSI Afterrel pedig vígan fütyörészve ment 1100MHz-en is. Igaz rendesen melegedett minden, de vitte. Csak megfelelő hűtés kéne rá. Sokkal jobb lenne, ha az AMD saját szoftvereit tudnánk használni, és nem kellene más gyártó programja. Kérlek segíts ezt megmagyarázni, mert nem értem.
-
haddent
addikt
Nekem miért fut simán a Furmark?
Win 8 x64, 13.2 beta CCC, HD7970Sem hiba, sem kilépés, sem órajel dobálás, semmi... Bár WHQL -el nem ment, és a 13.3 -al sem.
#20816 Asbee Na mondjuk nVidia- ról jöttem át (vissza megint
), és előszőr WHQL -el és 13.3 -al egyszerűen még az OpenCL -t sem látta a GPU-Z pl., tehát van itt baj azért rendesen..
-
HSM
félisten
Persze, világos, látom hogy 5-6%-ot nőtt a sebesség, és hogy kihasználja a fogyasztási keretet, remek. Ellenben az én fixált feszültséges megoldásom is kihasználja a TDP keretet, ellenben nem 4-6%-al gyorsul, hanem sokkal-sokkal többel, mert nem 850-925Mhz-es órajeleket kap a TDP-keretből, hanem fix 1050Mhz is kijön belőle. Pl. sniper elit v2 benchben nem mindegy, hogy 153W fogyiból csinál a VGA 42FPS-t (gyári), vagy a fixált feszes beállításommal csinál 43,7-et, 124W fogyiból, utóbbiban azért akad némi tartalék. Nekem, mint végfelhasználónak nem az az érdekem, hogy a ~200W TDP-s kártya ha kell, ha nem, 200W-ot zabáljon, hanem az a célom, hogy lehető legnagyobb teljesítményt nyújtsa a lehető legkedvezőbb fogyasztással és melegedéssel. Ezzel szerintem nem vagyok egyedül. Pontosan emiatt, nekem sokkal optimálisabb az eredeti, nem BOOST 7950.
Mivel sajnos nekem BOOST-os jutott, így kénytelen vagyok játszani a powertune-al, meg fix feszekkel, hogy jó legyen. Egyébként ha már optimalitás, szerintem elég vicces, hogy a kártya végig boostolja az alig 40% terheléses Diablo3 terhelést, ami a fogyasztáson is szépen meglátszik, míg mondjuk ahol tényleg kéne a kraft, mondjuk Crysis3, ott bizony csúnyán visszaveszi az órajeleket...
Sajnos már nincs meg az 5850-em, így csak azokból az anyagokból tudok dolgozni, ami megmaradt.
Azért emlékeim szerint a metro is elég szépen meghajtotta a kártyát, nem furmark, de szépen terhelt...
Egyébként a framerate értékekből a furmark se nagyon kaphatott 10ms-es pihenéseket, mert a minimum FPS húzva is rendben volt... [link] [link]#20020) zack: Az a baj ezekkel a fojtásokkal, hogy kisebb fordulaton is csökken a nyomaték, amiben a sor4-es motorok amúgysem bővelkednek... Persze, hogy nem megy úgy, nemcsak leforgatva az óráról... Jó tudni, hogy ilyenek is vannak...
A hasonlatod nagyon átjött amúgy, ugyanígy gondolom én is. -
TTomax
félisten
Egy nagy marhaság ez a boost úgy ahogy van minkét oldalon.. ha 3D megterhelem naná azt várom el tőle,hogy a legtöbb fpst préselje ki magából,és nem fogom a villanyórát sasolni közben hogy jajj istenem 20Wat többet evett.Szimplán védik a kártyákat vele,hogy ne lehessen tdp limit felett használni...
(#20015) HSM
Azért volt ismerős nekem...Lehet már le sem lehet tölteni...
(#20017) Abu85
Tehát ez is egy beépített védelem... -
HSM
félisten
Persze, de számomra akkor is érdekes, előszörre ki tudták adni 800Mhz-en, kis fogyasztással, aztán mindenáron ezt el kellett rontsák. Hangsúlyozom, már volt egy jó, hatékony, gyors termék, aminél 5-6% sebességelőnyért kellett feláldozni a kedvező fogyasztást kifejezetten kedvezőtlenre. Abszolút nem értem, erre miért volt szükség.
És a netes tesztekben se igazán értették ezt, pl: [link].
Éppenséggel épp akadt egy Metro2033 frametime mérésem az 5850-el, 725/1000 vs 850/1150Mhz: [link][link]
Én itt nem nagyon látok ilyen 10ms tüskéket komoly számban, amennyi van, akármitől lehetett.Elég háklis vagyok az ilyesmire, észrevettem volna 3 év alatt, elhiheted.
-
HSM
félisten
Ebben az esetben viszont kicsit csalódott vagyok, hogy eredetileg is ilyenre tervezték ezt a boost rendszert.
Régebben a pro lapkáikat mindig is igyekeztek energiatakarékosra csinálni, erre itt feláldoznak 5-6% sebességért 20-30% fogyasztást, nem igazán tudom ezt mire vélni.
A stabilitás természetesen alapkövetelmény, de 1 hónap hibamentes üzem már elég jó előjel, hogy olyan nagyon nem járok messze tőle.A cypress-nél mindenesetre jobban működött a védelem, akár tudtam mérni szoftveresen, akár nem, ugyanis ott sosem volt ilyen anomália, hogy tuningolok, és nem gyorsul, vagy épp lassul, mint powertune esetén.
Ott ha belőttem 930/1200-ra az 5850-em, akkor akár bencsekben, akár játékokban de tökletesen hozta a nagytesó 5870 sebességét, nem fogta vissza mesterségesen a védelem.A powertune-t se tudtam az elején mérni, mert alapból se a gpu-z nem méri, se az afterburner, csak ha az afterburnerben engedélyezem a low level accesst, akkor méri. Csak onnan tudtam, hogy valami disznolkodik a háttérben, hogy a teszteredmények nem skálázódtak jól, és a tahiti-le kártyám nem tudtam energiahatékonyabbá tenni a powerune csúszkával, pedig azzal próbáltam először, ahogy a logout cikkemben is leírtam.
-
HSM
félisten
"Nem tudom, hogy miért kellene nekünk megkérdőjelezni több tucat mérnök döntését, akik ráadásul nem csak egy szimpla fogyasztásmérőt használva döntene a rendszerről."
Ezt pedig már leírtam. Azért, mert a mérnököknek 1000 olyan szempontot is figyelembe kell venniük, ami az egyszeri usernek nem szempont.
Mondok példát! Eredetileg kihozták a 7950-et BOOST nélkül, alacsony feszültséggel, 800Mhz-es órajellel, ahogy teljesen energiahatékony kártyák lettek, kedvező volt a sebesség/fogyasztás mutatójuk.
Aztán mi történt? Megjelent a konkurencia, és vélhetőleg üvöltve, habzó szájjal mentek be a marketingesek a mérnökökhöz, hogy a konkurencia olcsóbb és gyorsabb, és vagy kitalálnak valamit, amivel még 10%-al gyorsítható a termék, és ráírható, hogy BOOST, vagy ki vannak rúgva.
Ekkor mérnököcskéink nekiláttak osztani-szorozni, és kénytelenek voltak azért a kis plussz sebességért a fogyasztásból rengeteget feláldozni. Egészen egyszerűen azért, mert nem volt más lehetőség, a kártya adott volt, azt kellett valahogy megturbósítani. Felelős mérnöki döntés? Igen, az. Jó a felhasználónak? Szerintem aligha. Nem akartak a 7950-nél árat csökkenteni, és "lemaradni" a BOOST hiánya miatt, ez a szörnyűség lett belőle.A Cypress-nél lehet akkor nekem volt szerencsém, hogy sose láttam a védelmét működni, ellentétben a PowerTune működésével, amivel az első napokban megismerkedhettem sajnos.
A programtól 100%, hogy függött, ha átneveztem a furmark.exe-t valami másra, azonnal dupla sebességgel futott. Ne mondd, hogy ez nem szándékos, driveres védelem.(#19974) DroiDMester: Tényleg nem volt CF-em, és ha egy mód van rá, a jövőben se lesz. De azért azt továbbra is tartom, hogy szerencsésebb hang szempontjából, ha hasonló a két kártya hűtése, hiába az egyik magasabb fordulaton teker, még mindig jobb, mintha más venti, más motorhanggal, más szélzajjal lenne.
Külöben is, az írta, elégedett a Giga kártyával. Igazából akkor nem is értem, miért gondolkozik másmilyenen. Lehet, akkor azért annyira mégsem elégedett?
(#19980) Erdei88: Hát itt a lényeg kéremszépen! Én VeryHigh-on toltam, tuning nélkül, 2XSMAA-val, fullHD, és tök jó volt. Igen, az elején volt két esős jelenet, ahol ilyen alig 20FPS volt, ott szar volt, de a játék maradék 95%-a bőven 30 vagy afölött volt, élvezhetően.
A vége felé már inkább 40-50 volt a jellemző. És én még csak nem is a Crysis optimalizált driverrel játszottam, hanem a 13.1-el.
-
HSM
félisten
"A PowerTune sok helyen ér el még fogyasztáscsökkenést. Ellenben ezekről nincs visszaigazolásod, mert hardveren belül működik."
Ha valahol a PowerTune energiatakarékosságot ér el, annak látszódnia kell a szumma fogyasztáson a konnektornál.Sajnos úgy tűnik, a sok apró trükk ellenére ez a technológia kevés egyáltalán megközelíteni azt, amire képesek ezek a lapkák.
Persze, aláírom, primitív módszer a konnektoros mérés, ellenben nagyon hatékony.Szerintem teljesen lényegtelen, hol ér el 5W csökkenést mondjuk a powertune, ha mellé generál 50W plusszt....
"Abból indulsz ki, hogy az áramfelvétel, a hőmérséklet meg ezek jelentik a stabilitás kulcsát."
Nem ebből indulok ki. Abból indulok ki, hogy ezeket a paramétereket kell kordában tartani, azaz a gyári, tervezett határok közt tartani, ha a kártya hosszútávú egészségét kívánjuk megóvni.
A stabilitás valóban sokkal összetettebb kérdés, nem is akarok belemenni, de ha hosszú heteken át intenzív, változatos felhasználás mellet is mindenféle vizuális és egyéb hibától mentesen tudom használni a gépet a korábban írt csökkentett feszekkel és nemhivatalos progikkal, az elég jó előjele a stabilitásnak szerintem."Nem változik a felvett fogyasztás, de változik a belső terhelhetőség."
Ezt nem egészen értem, mire gondolsz. A kártya belül egy hatalmas tranzisztorhálózat, annak teljesen mindegy, hogyan terheled. Annak feszültség kell, meg megfelelő órajel.Tudom, a Cypress-nél volt szó erről a terheléskímélő módról, azonban ezt sehol nem alkalmazták.
Egyedül az át nem nevezett furmark-nál. Szóval problémát sem okozott, mivel praktikusan nem működött.
Nem akarok én okosabbnak tűnni az Intel/Nv mérnökeinél, de azt látni kell, hogy a powertune szerves része kell legyen a csipnek, ergó, ha látják, hogy AMD-nél hogy működik, akkor nekik se lesz nagy kunszt beletervezni a következő csipjükbe hasonlót, csak az elejétől számolni kell az opcióval, és ezért nincsenek még az ő csipjeik ilyen téren sehol. Gondold végig, csak moniitorozni kell a csip fő részeinek terheltségét, és egy algoritmus alapján ennek függvényében állítgatni az órajelet. Szerintem ez sehol sem bonyolult, pontosabban implementálni tényleg nem egyszerű, de működési elve nem egy nagy csoda.
Az NV azért választotta a jelenlegi módszert, mert ahhoz csak programot kell írni, és figyelni a VRM vezérlőt és kész, nem kell a csipbe tervezni semmit, és mégis ad 0 költségvetésből egy alapvető védelmet."...a kártyát olyan működésre kényszeríted, amire nem készítették fel."
Valóban, erre nincs felkészítve direkten a kártya. Ellenben, ha minden paraméterében kedvezőbb feltételeket biztosítok, mint a gyári, tehát a profil által módosított, eredeti paramétereket meg se közelítem, akkor ebből gond szerintem nem lehet.Hiába tolták fel 100 fokról a profilban 150-re a határt, ha éppen csak a 70-et karistolom....
Megmondom neked a frankót, én annak örülnék a legjobban, ha az AMD adna eszközt arra, hogy beállítsam a kártyát a nekem tetsző működésre. Mi kéne? A gyári overdrive menü kiegészítve annyival, hogy legalább a gyári feszültség alá vihessem a feszültséget, illetve hogy rendesen lehessen ventillátorprofilt beállítani, mint az MSI afterburnerben. Szerintem nem kéne hozzá túl nagy erőforrást mozgósítani, és akkor a gyári, garantál profiljukkal használhatnám garantáltan biztonságban a karimat. De sajnos jelenleg marad a TriXX meg azz Afterburner, mert az Overdrive csak a kártyát gyári alapfeszen kinyírni jó.
-
kovsol
titán
Tahiti-LE alapú 7870 az 7950-7970 el megy együtt CF ben. Nem fog együtt menni a sima Pictarim alapú 7850/70 kártyával.
Kipróbáltam amit mondtál, hogyha AB ban állítok valamit akkor felugrik 3D -re egy pillanatra, mert akkor kerül cserére a profil, de nálam ilyen nem történt amúgy.
(#19891) BeLucZ igen, mindig a lassabb kártya szintjére butul le valójában a gyorsabb kártya. Ezért max azonos gpu val szerelt kártyákat érdemes egymás mellé rakni, pl 7950-7950 el, ha esetleg gyárilag nem egyforma az órajele azt még egy szintre tudod hozni.
-
HSM
félisten
"A logikába lehet kapaszkodni, csak a logikánkat a régi hardverek működésére alapozzuk, és nem az ilyen PowerTune hardverek működésére."
Nekem elég sok tapasztalatom van egy 5850-es radeonnal, fél évet ment húzva, egy évet ment alulfeszelve, és az égvilágon semmi baja nem lett tőle. Nem PowerTune-os, ez tény, de azt nem mondhatod, hogy a maga bő 2M tranzisztorával nem összemérhető a komplexitása a 4M tranzisztoros Tahiti-val.
A powertune a méréseim szerint kizárólag az órajel állítgatásával éri el a fogyasztáscsökkenést. Végülis logikus, a hardver csak egy futószalag, lassítod a szalagot, szépen lineárisan csökken a terhelés/fogyasztás, ráadásul itt azonnal, nincs késés, szóval azért jól kitalálták.
De ettől még nem ez a hatékony módszer szvsz.
"Természetesen, ha az üzemfeszültségnél kevesebbet kap, akkor a kártya fogyasztása csökken, de ettől még a kártyára nehezedő terhelés nőhet, mert nem úgy működik a PowerTune, mint kellene."
Ilyen nincs. Ha a kártyát nézzük, az annyira terhelt, amennyi áramot kér. Esetleg szét lehetne bontani két, vagy három részre (GPU, MEM, AUX táprész, de szerintem ez nem lényeges most.) Ha a GPU terhelését nézed, ott ténylegesen előfordulhat, hogy egy kisebb rész nagyobb terhelést kap, alulfeszelve, mókolt pwertune-al, mint amire tervezték, miközben a teljes kártya áramfelvétele kisebb. De itt nem hiszem, hogy olyan mértékű szélsőségeket el lehessen érni, ami a kártya élettartamát szignifikánsan rövidítené. Ha megfelelő a hűtés, a környező részek szépen lehűtik, és akkor nincs gond az extra terheléssel.
Esetleg a kártyán a megemelt powertune melletti kisebb feszültség esetén a magasabb áramerősségek jelenthetnek minimális problémát, de itt se tud annyira megnőni, hogy baj legyen belőle, illetve az egyből látszana a VRM adatainál, hőfokánAzért se hiszem, mert már a Cypress-t is lehetett nagyon asszimetrikusan terhelni, pl. furmark-al, és attól se lett az égvilágon semmi baja, se az Alan Wake-től, ami még jobban meghajtotta a szőrös fánknál...
A kisebb feszültség nem lehet nagyobb terhelés, 2D-ben, vagy UVD módban ugyanis a kártya kellemesen alacsony feszeken üzemel, ha probléma lenne a csipnek az alacsony feszültség (ami ugye az interfészek fix feszültsége miatt léphetne fel) akkor nem lehetne ilyen módja, tehát az én logikám szerint a csipnek tökéletesen semmi baja nem lehet, ha nem csökkentjük nagyon le a feszültséget, jelen esetben 0,8V-os üresjárat alá.
" Nekik van meg a berendezésük, ahhoz, hogy konkrétan kiértékeljék melyik paraméter a lehető legjobb opció."
Hát nem tudom, nekem nem tűnik jó opciónak, ami 20%-al lassabb, azonos energiafogyasztás és hőmérséklet mellett.
Erre pedig alkalmas egy nem 3000Ft-s gagyi, hanem egy rendes, minőségi, pontos 15 000Ft-os fogyasztásmérő, amivel mértem. Nem kell nekünk powertune specifikáció, a nyilvános Whitepaper-ből (gondolom olvastad, ha nem, sürgősen pótold) és már az én méréseimből is világosan látható a működése. A matematika nem hazudik. Itt a fizika törvényei vannak, ha valami dolgozik a háttérben, annak mérhető fizikai jelei vannak.
És ha valami csak az órajelcsökkentésnek megfelelően skálázódik, akkor ott órajelcsökkentés történik, semmi egyéb. Azt aláírom, tényleg én se ismerem, pontosan milyen paraméterek alapján számol a powertune, de azt igenis sikeresen kiderítettem, hogy hogyan tartja kordában a fogyasztást.
Én azt mondom, tény, az AMD kezében sokkal komolyabb műszerek és tapasztalat van, de náluk mások a szempontok. Nekik nem éri meg minden csipet egyenként, lassan kitesztelni a sokmilliós eszközzel, ezért STATISZTIKÁK alapján lövik be a megfelelő feszültségeket. Nagyon komoly matematika háttér van ezek mögött, én pontosan tudom, de sajnos nem alkalmas minden egyes terméken a lehető legoptimálisabb beállítás megtalálására. Ellenben ha a user veszi a fáradtságot és időt finomhangolni, igenis, hogy lényegesen hatékonyabb beállítást tud eszközölni, mint amit a gyárban produkálni tudtak.
Ezt sikerült alátámasztanom a kis házi fogyasztásmérőmmel. -
-
HSM
félisten
Itt az érvelésed értem és köszönöm, ellenben két dolog nem teljesen érthető számomra. Egyfelől, ha feljebb van húzva a hőmérsékleti profil, akkor tényleg magasabb hőfokon üzemelne a kártya, mivel később skálázódna vissza az órajel, amennyiben nem lenne visszafogva a feszültség. De ha vissza van véve a feszültség, akkor méréseim szerint pl. kombustorban 1A-el kisebb is a "VDDC Current In" (gondolom tudod, ez mit jelent) és hűvösebb az egész kártya, míg az FPS 20%-al magasabb. A cikkemben a 7950 eredményeknél megtalálod az ezt igazoló képeket, gyári 0% powertune+boost ileltve a fix 1,02V-os alapórajel mérés. A konnektoros mérés szerint is kevesebb energiát kért a kártya, tehát az eldisszipált hő is csak kevesebb lehetett.
Tehát itt mégis sikerült a kártyát és a VRM-et is a gyárinál kedvezőbb értéken üzemeltetni, és gyorsultunk is.
A másik... A boost feszültség... Azt írod, azért magas, hogy többet boostolhasson a kártya. De ez ellentmond a korábban általad leírtakkal, mert ha magasabb feszen boostol, akkor nő a fogyasztás, nő az eldisszipált hő, tehát melegebb lesz a kártya, tehát hamarabb kell lekapcsolja magát boost-ról, mintha kisebb feszen hűvösebb maradna, kisebb felvett elektromos teljesítménnyel. Nem túl hatékony módja a magas feszültség órajellel való kompenzálása, ugyanis az órajeltől lineárisan, míg a feszültségtől négyzetesen függ a felvett elektromos teljesítmény a fizika törvényszerűségei okán.
(#19852) Abu85: Itt is felvetettél valamit, amivel nem értek egyet. "A feszültség pedig onnan lesz kalkulálva, hogy abban a sok tízezer dollárba kerülő hónapokig tartó tesztelés során milyen eredmények születtek."
Itt azért nem teljesen igaz, amit írsz, mert a 3D fesz megállapításánál úgy kell eljárjanak, hogy az összes valaha kiadott GPU stabil legyen azon a feszültségen és órajelen, kvázi akármilyen VRM-el és akár a leggyengébb hűtéssel. Némi ráhagyás kell, hogy feszültségváltás is jól menjen 2D-3D között. Ezenkívül felhasználói elvárás némi tuningolhatóság is, tehát itt is kell némi ráhagyás.
Ha van egy rendes, jóminőségű kártyád, jó hűtéssel, amin már egy jobban sikerült GPU kap helyet, az sokkal kisebb feszültségen is üzemképes lehet, mint amit gyárilag beállítottak. Nem lehet véletlen, hogy mindkét nálam járt Tahiti VGA lényegesen kisebb feszültségen is üzemképes, mint gyárilag.
Összehasonlításképp: Tahiti-LE: boost 975Mhz 1,256V gyárilag 1,031V-on tökéletesen stabil.
A 7950-em pedig gyárilag olyan 1,18V, 925Mhz-en, és 1,019V-on ez is beton stabil.
Persze, így 0-ra csökkentettük a tuningpotenciált, vagy maximum 50Mhz-re, de lényegesen hűvösebbek, és gyorsabbak a 20% powertune miatt. Némileg vesztettünk az üresjárati fogyin is a fix feszültség miatt, de nem sokat ott se, ezt a cikkemben mérésekkel is alátámasztottam. -
abban teljesen egyetértek, hogy az eszetlen tuninggal kinyírt kártyák ne legyenek jogosultak garanciális cserére. a módszernek viszont, amivel ezt megállapítják, bolondbiztosnak kell lenni - erre jelenleg sajnos valóban az nVidia megoldása a legjobb, amikor nincs mit megállapítani.
-
kovsol
titán
Nekem CCC ben is engedi 1400 ig állítani a GPU -t, a VRAM -t 1450 ig, Power limitet +20%, ha ezen belül maradok akkor az nem ír felül semmit nem? Igaz itt csak alap feszültségen lehet tuningolni. Gondolom ez a fajta alap feszültséges tuninggal nincs még gondja az amd nek se, mert ő maga rakta a driverbe.
Ezt a védelmet nem akkor kapcsolja ki a tuning program amikor a driver által megszabott Mhz limiteket kilöveted vele? Pl a 7850 esetén driverből 1050Mhz lenne a max gpu, de ezt simán ki lehet iktatni és akár 1200 ra is feltolhatja az ember. Ha ilyen unlockot nem csinál az ember akkor nincs gond?
Más: Ha mondjuk én driverből állítok neki egy xy gpu órajelet és utána msi AB ből csak adok neki egy kis töblet feszültséget, akkor is kikapcsol a saját power tune profilja ?Viszont a programokban is maximalizálva van az adható max feszültség. Nekem gyári hűtéssel se megy 70-75 fok fölé a gpu a vrm meg kb +5fok hozzá képest, szóval elég durvák ezek a 100+ fokok amiket írsz.
Mondjuk én maradtam a ccc ből alap feszen program nélkül tuningnál normál használat mellett. -
karesz501
senior tag
Bocs Abu, de szerintem most nincsen 100%-ban igazad.... Egy AMD által kiadott, publikus elemzésben olvastam ezt, és röviden szólva fingjuk sincs, hogy hol van pontosan ez a migrációs pont, mert ugyanúgy más mindedn GPU-nál mint a tuningpotenciál vagy ASIC quality. És a folyamat lassú...
És abban sincs feltétlenül igazad, hogy amit beállítanak az a jó és mi csesszük el, MIVEL a boost miatt a kártyák alapfeszültségét olyan 1075 - 1250 mV között állítgatják az AMD mérnökei. És ugyanazon kártyákat kiadját boost változatban is, ergo az 1250mV feszültségértéket én "hivatalosan elfogadottnak" tekinteném.
Most akkor hogyvan ez?
@Bossi: ez bizony a boost state lesz.... Power limitet feltetted +20% -ra?
-
HSM
félisten
"Hamarabb tönkremegy a VRM, az Afterburner, Trixxx és a többi nem szabványos PowerTune-t használó tuningprogram rosszul megírt profiljától."
Ezt esetleg kifejtenéd bővebben, pontosan mit jelent ez? Mi van bennük rosszul megírva, és ez miért veszélyezteti a kártya élettartamát?
Azért kérdezem, mert legjobb tudomásom szerint egy PWM tápáramkör akkor megy tönkre, ha túl nagy teljesítményt vesz fel a mögé kötött lapka és emiatt túlmelegszik. Márpedig ez esetben egy +20% powertune és alulfeszelés még akár egészségesebb is lehet a VRM-nek, mint pl. egy boost bios a magas feszültségeivel.
Logouton van is egy "engedélyezésre váró" cikkem mérésekkel erről a témáról, ha gondolod, olvasd el, kíváncsi lennék a véleményedre a témában, akár ide, az ide vágó rész, akár privátban a többi.Gondolom, házigazadaként neked nem gond, hogy még nem jelent meg...
(#19843) Abu85: Én maximálisan megértem ezt. Néhány éve PH-n is meg lehet figyelni, hogy egyre többen, és egyre felszínesebb tudással vágnak bele olyan tuningokba, ami régebben bőven extrémnek számított... Csak sajnos a korlátok ismeretének a hiánya, elektronikai ismeretek hiánya, és az "áh, bírja ez, max gariztatom" hozzáállás sajnos ide vezet.
Nem örülök neki, a powertune-nak sem, de megértem, hogy szükség van rá. -
karesz501
senior tag
Csak az a kényelmetlen nagyon ebben a BOOST state-ben, hogy a + órajel miatt elég súlyosan felülfeszelik a kártyákat. 1250mV feszültség a 950-1000mHz -hez?
Na nemá....
És szerintem ha megfigyeled a felhasználók zömét itt a Ph! -n, a legtöbben nem az elméleti/gyakorlati maximumon használják a kártyáikat, hanem egy egészséges és sokszor aalcsonyabb feszültségen, ami mellett még mindig megy a tuning a 800-850-900-950 mHz -ekhez képest is.
Namármost, a BOOST state pont ezt húzza keresztbe, mert fixen odacsavar 1250mV -ot a GPU-nak, ami mellett a legtöbb kártya hűtése teker mint állat. És annak aki 1000-1100mv mellett használná a kártyát valami értelmesebb core clock mellett, ez nagyon nem jó. Nyilván meg lehet piszkálni, van rá mód (force constant voltage, bios csere), de nem működik mindegyik maradéktalanul MINDEN kártyán és a driverek miatt rengeteget kell mókolni mire jobb lesz. Sokan megcsináltuk itt magunknak, hogy tök szuperül működik minden, de szerintem egy átlag usernek inkább nyűg (ha észreveszi egyáltalán) mint előny....
-
-Solt-
veterán
Ezt én mind elhiszem és nem is vitatom, de azt ne mond nekem, hogy normális működés az, hogy az 1050MHz -> boost 1100MHz órajelű vga-t terhelés alatt vissza veszi 8xx-9xx MHz-re, és van, hogy ott is marad! És mindezt függetlenül a power limit beállítástól! Ráadásul egyik driverrel csinálja, a másikkal nem!
Ha 1050 és 1100 között ugrálna, akkor azt mondom rendben... de nem erről van szó, és mint látod a 13.2 beta6 esetében egyáltalán nem csinálja! Driverekkel változik a TDP keret? Nem hiszem...
-
HSM
félisten
Ez már ne is haragudj, de butaság. Az msi afterburner unofficial módja kikapcsolja a powertune-t, tehát akkor nekem szarrá kellett volna fagyjon a rendszer, mikor msi kombustor burn-in módot futtatttam, ami +20%-on is 116fps volt, ugrálást megszüntetve unofficial módban meg egyből 133. Pedig ez nem kis difi, és még a túlmelegedéstől is fényévekre volt, nemhogy le akart volna fagyni.
Tehát nem megmentett, hanem feleslegesen csökkentette az elérhető teljesítményt.
-
r3v0Lut10n
senior tag
Ezzel tisztába is van mindkét fél szerintem
Csak van aki azt mondja hogy adott kártya, nem boost biossal marad az adott órajelen (mondjuk 1.2V mellett), míg ha arra boost-os bios-t flashel nem marad úgy (ugyanazon feszültség és órajel emelés mellett). És nem a TDP keretbe való beleférést számítsuk most okként
Hanem ez egyéb voodoo ok -.- Én mondjuk nem ezt tapasztaltam saját boost-os kártyámon, ahogy mások sem. De van akit nem lehet meggyőzni
-
-Solt-
veterán
De probléma, mert 90% körüli gpu kihasználtságnál nekem ne dobálja el az órajelet, főleg ne úgy, hogy emiatt az fps is csökken...
Ha úgy venné vissza magát, hogy stabilan megvan a 60fps, akkor egy szót nem szólnék, de a történet nem erről szól...
Ráadásul eltérő driverekkel eltérően viselkedik, ami megint nem azt támasztja alá, hogy ez így van rendjén!
-
r3v0Lut10n
senior tag
A töprengés azon megy, hogy szerinte beállítasz valami OC órajelet egy boost bios-os kártyán, és az vissza fog ugrálni alacsonyabb órajelre. Holott ha ugyanezt teszi (példa kedvéért 1.25V @1150Mhz) egy nem boost bios-os kártyán annál nem történik meg az órajel ugrálás. Legalábbis ha jól vettem le erről próbált párunkat meggyőzni (holott a gyakorlat nem ezt mutatta nekünk)
-
Enclave
aktív tag
Látom igen nagy vita alakult ki itt az FC3 és egyebek kapcsán, így lenne is 1-2 gyors kérdésem:
1. Ha jól értelmezem a HD7970 vs GTX 680 vitát, akkor elvileg a Radeon "időtállóbbnak" tekinthető?
2. Hol lehet alaposabban infókat tudni arról, hogy egy-egy játék Global Illumation "alapú" engine-t használ és mondjuk compute shader-eket is alkalmaz? Wikipedia vagy hol vannak ilyen infók összegyűjtve? Esetleg meg lehet kérdezni azt, hogy az ilyen infókat honnan szerzed vagy ezt valami "belsős csatornán" keresztül kapjátok?
Ha jól értelmezem akkor a GI és compute shader jobban fog "feküdni" a GCN-nek így ha egy játék ilyen "algoritmusokat" használ, akkor GCN-es Radeon "ajánlott" elvileg hozzá...
Új hozzászólás Aktív témák
Hirdetés
- AKCIÓ! Apple MacBook PRO 15" 2018 i9 32GB 500GB 560X 4GB notebook garanciával hibátlan működéssel
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X3D 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Lenovo Thunderbolt 3 kábel (4X90U90617)
- Bomba ár! Fujitsu LifeBook U758 - i5-8GEN I 8GB I 256GB SSD I HDMI I 15,6" FHD I W11 I Garancia!
- ÁRGARANCIA!Épített KomPhone Ryzen 7 9800X3D 64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged