Hirdetés
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
ph Megkezdődött az NPU-k elleni hadjárat, de egy fontos részletet nem említ a cég.
-
A legtöbb amerikai szerint a TikTok egy őket befolyásoló eszköz
it Egy felmérés szerint a legtöbb amerikai osztja azon véleményt, hogy a TikTok egy őket befolyásoló eszköz.
Új hozzászólás Aktív témák
-
#68216320
törölt tag
Sziasztok. Gondolkodom a jelenlegi GTX 1050Ti leváltásán és árban egy GTX 1660 Super/Ti férne bele a költségvetésbe.
Azt szeretném megtudni tőletek, hogy felépítésben melyik példány a javasolt? A jelenlegi kártyám (bár tudom, nem egy kategória) Gigabyte Gaming, amivel semmi gondom nem volt eddig.
Szóval olyan verziót szeretnék venni, ami masszív és minőségi felépítésű, ha lehetséges akkor halk. Méretben mindegy, van hely a házban. -
#68216320
törölt tag
válasz zoo8800 #1127 üzenetére
Igazából nem tudok paramétereket de az alábbi két típust néztem ki:
Gigabyte GTX1660 Ti 6GB GDDR6 GV-N166TGAMING OC-6GD
MSI GTX1660 Ti 6GB GDDR6 ARMOR 6G OCEbből jó lehet valamelyik? Vagy van valami ajánlottabb?
[ Szerkesztve ]
-
#68216320
törölt tag
válasz soldi3r #1133 üzenetére
Én a 1660Ti-re szavaznék. A super kevesebb egység magasabb órajelen.
Bár elenyésző a különbség és az ár is ugyanezt tükrözi.
Mondjuk nem tudom a ti esetében mennyit lehet emelni az órajeleken, de ha van benne kis potenciál, akkor azért jó érzés a több CUDA, SM, TMU egység. Bár a VRAM lassabb. Ezek alapján csak tippelek, de gondolom FHD-ban nincs különbség, de ahogy emelkedik a pixelszám jön előre a Ti. De csak tippelek.Vásárlás előtt vagyok, én 1660Ti-t veszek.
[ Szerkesztve ]
-
-
#68216320
törölt tag
Végül mégis csatlakoztam egy MSI 1660Ti Gaming X kártyával. Rövidesen kipróbálom, remélem nem lesz vele gond.
-
#68216320
törölt tag
Upsz... Gondoltam beszerelem és beüzemelem az MSI 1660Ti kártyát. Igen ám, de a tápomon csak 2*6pin vga csatlakozó van, a kártyán pedig 8pin.
Gondoltam mi baj lehet, a 6pin-es csatit benyomom a 8pin-es helyre, a maradék 2 pinbe pedig teszek 1-1 szál margarétát üdvözlésnek az új vga érkezésének tiszteletére
Csakhogy a kis bélpoklosnak nem elég a 6pin.
Rögtön bekapcsolás után azzal fogad, hogy kapcsoljam ki a gépet és csatlakoztassam a vga tápcsatit.
Jól indulunk... -
#68216320
törölt tag
válasz #68216320 #1189 üzenetére
Egyelőre kapott egy táp átalakítót. Most működik a VGA, mitöbb pazar. Ha ilyen marad (hőfok, zaj) akkor rendben leszek vele 1-2 évet.
Kicsit ránéztem furmark alatt a dolgoknak. 99% gpu - 99%memória kontroller használat van. Ha AB-el feljebb veszem a VRAM órajelét 7000MHz-re (DDR 14000MHz) akkor rögtön megugrik 9-10%-ot az fps és visszaesik a memória kontroller terhelés. Ha tényleg igaz, hogy ugyanaz a memória van benne mint a super-ben és hivatalosan tudja a 14000MHz-et, akkor kellemes kis kártya lesz ez. Csak ezt a csilicsáré led fényt lehetne lekapcsolni... Gondolom valami program, de ezért telepítsek fel valamit?[ Szerkesztve ]
-
#68216320
törölt tag
Na, picit belementem az MSI 1660 Ti Gaming X 6G kártya lelkivilágába és megosztanék veletek pár gondolatot, ha nem haragszotok érte. Fontos megjegyeznem, hogy nem értek a témához, ezek csak a saját próbálgatásaim, gondolatmeneteim. Kéretik így kezelni. A hiba jogát fenntartom és élek is vele.
Az első, hogy aki újabb AA kategóriás játékokkal játszik és árérzékeny valószínüleg jobban jár egy 1660 Super kártyával. Nem, mintha a 1660Ti VGA-val bármi gond lenne, hanem más a karakterisztikája és főleg az árazása jelenleg. Az Nvidia ügyesen fogta meg a sima 1660 és 1660Ti közti rést és nagyon költséghatékonyan be tudta oda ékelni a Super-t. Amivel gyakorlatilag fogtak egy 1660-t, tettek rá egy GDDR6/14000 VRAM-ot és megemelték az órajelet (ezzel együtt picit a TDP-t is)
A 1660Ti ezzel szemben +2SM, +128 CUDA, +8 TMU számolóegységet tartalmaz.
Az MSI 1660 Ti Gaming X 6G kártyámat először Furmark-al kezdtem vizsgálni, figyelve a GPUZ értékeit.
A Furmark-ról tudni kell, hogy extreme módon terheli a GPU/VRAM párost, emiatt nem megfelelő hűtéssel rendelkező VGA esetében huzamosabb ideig használva kellemetlen meglepetéseket képes okozni. Játék közben jellemzően egy VGA sem kap ilyen terhelést, ezért a VRM-ek óvása érdekében javasolt ideiglenesen megemelni a venti fordulatszámot. A Furmark által kapott értékek sem mérvadóak, játékok közben nem kapunk ilyeneket. Emiatt lehet, hogy ahol a Furmark már hibázik, ott a játék még tökéletesen működik.
A teszt futása közben jól megfigyelhető volt, azonnal 98-99%-ra futott a memory controller kihasználtsága. Ergo a GPU memória limitbe futott. Alapvetően ez itt még nem jelent gondot, mint említettem játék közben nincs ilyen terhelés, inkább csak egy megfigyelés. Ekkor a GPU csak ~1700MHz-ig tudott Boost-olni, folyamatos TDP100% (TDP limit) volt, 130W fogyasztás mellett (VDDC kb. 0.8190-0.8250V). (a design eredetileg 125W)Mivel a kártyát nem kizárólag játékra vettem, hanem munkára is, ezért először a TDP-t vettem célba és a VRAM sávszél limittel is kellet kezdenem valamit. Az MSI AfterBurner-el a TDP értéket kitoltam 107%-ig. Ezzel a VDDC 0.8500V körüli értékre emelkedett, a GPU Boost felment 1770MHz körüli értékre, a fogyasztás 140W-ra ugrott. Viszont a VRAM sávszél most már nem ingadozott 98-99% között, 99% volt, durva limit. Elkezdtem hát emelni a GDDR6 órajelét. A +450MHz ( => DDR 12902 MHz) emelés elég volt a 96-97% eléréséhez. Ezt itt elmentettem egy OC profilnak. Tudni kell, hogy ezeket a kártyákat a Micron MT61K256M32JE-12 GDDR6 chipekkel szerelték, amik 1500MHz, effektív 12 Gbps tempót tudnak hivatalosan. Vagyis minden emelés már OC-nak számít.
Következik a játékos tuning ...
[ Szerkesztve ]
-
#68216320
törölt tag
Az ugye megvan, hogy nem a teljes VGA fogyasztásáról beszélünk, hanem a GPU fogyasztásáról. Márpedig a GPU pontosan (bizonyos lépésközzel, más alapon mint egy multiméter, de a lényeg ugyanaz) tudja mennyi a fogyasztása és mi az aktuális TDP lépcsője.
Ez alapján állítja be az órajelet is. Folyamatosan monitorozva van a TDP, fogyasztás, hőmérséklet, terhelés GPU szinten, a magon belül. A megfelelő API-n keresztűl a programok ezt lekérhetik. Hogy miként azt a VGA BIOS/DRIVER-a mondja meg.
Ergo, ha a GPUZ ismeri az adott GPU (esetünkben NVidia) API-t, akkor monitorozni is tudja, még akkor is, ha magát az adott GPU magot (esetünkben TU116) nem.Ha jók az elektronikai ismereteim, akkor a TDP érték egy számított érték, ami valós teljesítmény alapján (bár ugye itt változó kapacitás is van, tehát nem lehet egyszerűen számolni félvezető/kapcsolóüzemű tápellátásnál) megtippelt leadott hőteljesítmény. Azonban mivel erős arányosságban van az úgymond villamos fogyasztás és a TDP egy GPU esetében, ezért elég pontosan lehet tippelni.
A lényeg, pontosabb adatnak gondolom a GPU (nem VGA) fogyasztás kijelzését, mint a TDP értéket, amit amúgy hajlandóak a különböző gyártók eltérően kiszámolni, de ez másik story.Számunkra azonban a TDP a lényeg, mivel a dinamikus fogyasztás szabályozással ez határozza meg a GPU tempóját programozott módon.
Emlékezzetek csak amikor az Apple elszúrt valamit és túlmelegedtek az új MacBook Pro laptopok.(#1205) arcitec: Sajnos a Ti-t visszafogja az alacsonyabb memória órajel. Ezt megemelve (persze ez már OC) elő tud jönni egy kis előny. De itt nem is ez a lényeg, hanem az, hogy többe kerül sajnos. Vagyis játékhoz jelenleg jobb választás a Super.
[ Szerkesztve ]
-
#68216320
törölt tag
Mérni műszerrel lehet. Szerinted én mit mondtam?
1. Pont azt mondom, hogy a GPU-ban van egy szenzor (vagy ha úgy tetszik műszer) ami mér.
2. Szóval az, hogy vettél egy konektoros mérőműszert, amivel egy kapcsolóüzemű tápon (plusz PFC) keresztül, fene tudja hány aktív fogyasztó eszközön keresztül, egy vga VRM-en keresztül megtippelted a GPU fogyasztását az pontosabb, mint a GPU-ba épített, pont erre a célra kitalált szenzor, amivel gyakorlatilag már generációk óta (talán Fermi óta?? nem tudom) menedzselik az órajeleket és működik a power limiter? Biztos igazad van. Gondolom a GPU ugyanazon órajelen, ugyanazon tápellátáson, ugyanazon terhelésen volt ugyanolyan power-managemet szinten.
Akkor elnézést, veszek egy konnektoros mérőt, ami eleve a cosPhi értéket is tippeli, persze maga sem tudja, mivel a PC táp PFC eleve változtat rajta folyamatosan. De akkor legközelebb annak hiszek majd...[ Szerkesztve ]
-
#68216320
törölt tag
válasz #68216320 #1210 üzenetére
Amúgy részemről lezártnak tekintem a témát. Ha neked van igazad, ha nekem van, lényegtelen a topic témáját tekintve és igen off is a dolog.
Más:
3800+ : Üdv a klubban
Ha nem nagy kérés, megtennéd, hogy Unigine Superposition Benchmark segítségével mérsz egyet 4k-ban? Vagy ha nem tudsz akkor 1080p extreme módban? -
#68216320
törölt tag
Én a GTX 1660 Super helyett emiatt vettem GTX 1660Ti kártyát.
Játékokban szinte ugyanaz mindkettő, de tudományos számítási feladatokra (szintetikus szerves kémiai modellezés) kicsivel jobb.
A vicc, hogy lenyomják lazán a GTX 1080Ti kártyákat isPersze azért játszom is majd vele...
-
#68216320
törölt tag
Köszönöm, hogy megcsináltad
Nálam i5-6500k van mellette, de én úgy néztem nem igazán volt nálam különösebb cpu terhelés. Persze ennek ellenére lehet valammenyit számít, nem tudom.
4k:
Boost: 1950MHz - GDDR6: 6000MHz - FPS: 31.57/38.92/48.70 - Score: 5203 - TDP: 100%1080p extreme:
Boost: 1965MHz - GDDR6: 6000MHz - FPS: 21.40/25.74/29.10 - Score: 3441 - TDP: 100%Azért csak így és nincs kép, mert elkezdtem egy táblázatot csinálni, hogy megtaláljam az optimális OC értékeket játékhoz/munkához.
Köszi még1x.
[ Szerkesztve ]
-
#68216320
törölt tag
[kép] - picit megcibáltam a bajszát... 1660Ti (94k volt, decemberi beszerzés)