- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- Mobil flották
- Középkategóriában is menő lesz a mini?
- Android alkalmazások - szoftver kibeszélő topik
- Fotók, videók mobillal
- Ujjal lehet mutogatni a Huawei csúcsórájára
- Apple iPhone 16 Pro - rutinvizsga
- Yettel topik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
Új hozzászólás Aktív témák
-
Puma K
nagyúr
válasz
Találtgyerek #37192 üzenetére
A Mafia 2 mikor anno megjelent akkor azt egy New Game gomb megnyomása után egyben kitoltam. Kb 10-12 óra alatt megvolt. Közben persze kaja-pia-mosdó megvolt.
-
rumkola
nagyúr
válasz
Találtgyerek #37192 üzenetére
Ja, alt+tabozva van, és hagyom futni. Nem játszom 10 órát folyamatosan.
-
MaddeNNNN
addikt
válasz
Találtgyerek #37192 üzenetére
8-10 óra? Rookie numbers.
Annó WoW Burning Crusade progress időszakban péntek délután leültem és vasárnap este 11-kor keltem fel.Igaz csak középiskolás voltam és semmi gondom nem volt az életben
-
Laraxior
titán
válasz
Találtgyerek #37192 üzenetére
Ha nem nagyon agy megerőltető, amire figyelni kell, pl FPS, ott azert képben kell lenni, ha nem csak szédelegni akar az ember, hanem mondjuk egy gyűjtögetős mmorrpg, akkor simán
Ha szabadnapom van, akkor en is reggel elindítom a New Worldöt, aztán majd csak este lépek ki belőle. -
zebra_hun
veterán
válasz
Találtgyerek #37192 üzenetére
Én a múltkori 25 perces FH4 tesztnél kész voltam
Sörbontás, cigi kint, addig afk
-
FingR86
őstag
válasz
insyde5 #37187 üzenetére
nálam a 10GB-os verzió futott pár hétig hiba nélkül 850/1875-ön. Le is futottak a tesztek is, szépen, 3D mark, superposition, uncharted, high on life stb stb. Aztán előszedtem újra a cold wart és a nuketown pálya szinte azonnal kivégezte a stabilnak hitt UV-mat. Most belőttem 850/1800-ra. Amit ő a saját szakállára boostolgat 1815 vagy 1830-ra, mikor hogy tetszik neki. Ez eddig valóban stabilnak tűnik
-
válasz
Találtgyerek #37153 üzenetére
Úgy néz ki valamit csak sikerült kieszközölnöm. 3dmarkban is "Great" lett a minősítés. most 850/1880 van. igy 340w körül megáll. van egy 900/1925 ott már 370 is van. viszont az 3dmarkban az előbbi több pontott hozott. 850 esetében 69-70 fok, 900nál 73-74. Gyári curve mellett láttam 450w /84 fokot is. Ha van valakinek egy tuti jó setup px1 hez szívesen veszem
A kártya:
EVGA 3080 FTW3 12GB ULTRA GAMING
12G-P5-4877-KL -
HunChaos
aktív tag
Sziasztok, zotac 3080 trinity-kartyához milyen thermal pad settre van szükség teljes cseréhez? típus, méretek
Köszönöm -
laychi
veterán
válasz
s.bala31 #37183 üzenetére
Én is átalakítottam NZXT Kraken-nel aio vizesre.
A jó öreg ac liquid 240-el. + ramsünik mentek a ramokra.
Mai napig szuperál, azzal hűtöttem a 10850k-mat is.
Most adtam el a procit és a lapot.
13600k/13700k között vacillálok, illetve hogy maradjak e DDR4-en, de csak 16GB ramom van, vagy menjek rá a DDR5 vonalra és akkor ott 32GB-os kitet veszek.Most asszony gépével csapatom, amit tavaly raktam össze neki addig. 8700k+3060ti.
De elkanyarodtunk a topik témájától.
-
laychi
veterán
válasz
s.bala31 #37181 üzenetére
Nekem gamerock volt, annak jó volt a hűtese, 300W körüli TDP, el setudtam érni.
Talán 250-260W körül volt csúcson és 2100mhz körül ment, ram isjól OC-zható volt.
Ezekhez meg 400W+bios kell, hogy kifussák magukat.
0.85-900mV-tal is símán tdp limitne szalad az vele az ember. -
keIdor
titán
válasz
- = Zk = - #37175 üzenetére
Változnak az idők, azóta dupla TDP-s kártyákat adnak ki, valamint gyárilag eléggé kitapossák a hardvereket is. Ezért a magas TDP.
-
laychi
veterán
válasz
- = Zk = - #37175 üzenetére
20-as szériánál is volt már alulfeszelési lehetőség, csak 30-asnál kezdtek ebbe nagyon belemenni az emberek a magas fogyasztás miatt.
Alapon kifut a magas TDP-ből a kártya és dobálja az órajelet. -
Garsza
veterán
Asusnál sem ugrik a garancia. Ha fizikailag nem sérül közben a kártya.
-
- = Zk = -
félisten
válasz
keIdor #37159 üzenetére
"érdekes" én még a régi idők lovagja vagyok, amikor a zalman és egyéb cégektől lehetett vga aftermarket hűtést venni...
semmi UV csak felpattintottam először egy G12őt, majd egy ACE4-et a 2080Ti-re... powerlimitet kitoltam és mehet az MSI AB OC scanner...
ezzel a metódussal is sokat nyertem, viszont ha garis lenne és nem evga akkor most ugrana a garim, tudom jól...
de tény, ha lecserélem valaha a 22080at, akkor meglesem ezt az UV dolgot... -
-
SkyTrancer
senior tag
válasz
DroiDMester #37154 üzenetére
melyik kezed vót?
-
milszab
senior tag
válasz
DroiDMester #37154 üzenetére
Ennyi!!
-
válasz
Találtgyerek #37151 üzenetére
Ugyan azt megcsináltam. max 404w/79C.
A scan teszt lefutott. de a görbe maradt szinte az eredeti.
És persze benchmarkban elszáll a höfok. Szóval nemigazán jó szerintem.
-
válasz
Találtgyerek #37148 üzenetére
Ventiket és a színeket a px1ben állítottam. A színek alatt annyit kell érteni, hogy a legkisebb leden a höfokot tudom ellenörizni. ezért kellene egy jó konfig a px1 ben. Gondolom ha MSIvel csinálom a PX et el is kell felejteni, mert összevesznek.
-
Üdv!
Tudnátok segíteni abban, hogy egy FTW3 ULTRA GAMING 12GB kártyát PX1 el hogyan tudnám undervoltolni?Köszi.
-
s.bala31
őstag
válasz
Maelephant #37145 üzenetére
Csinálni kell több profilt úgy gyorsabb váltani ha valami nem stabil. Nekem a Metro E.e.e.-re is van külön, mert az tényleg nagyon érzékeny az u.v-ra.
-
Maelephant
senior tag
Ugyan 3070-en (ezért elnézést is kérek, hogy nem a megfelelő topicba írok, de probléma ugyanaz) a RE: Village utolsó bossfightja (zsinórban fagyás ötször, miközben a teljes játék oké volt, igen, eddig tartott, míg leesett, mi lehet a gond) mutatott rá, hogy csak képzeltem, hogy stabil az UV-om. Meg kellett emelni egy v. két lépcsővel a feszt, utána nem dobta el magát többé.
-
Garsza
veterán
Igazából feleslegesek is a tesztelgetések. Mindenkinek azzal legyen stabil amivel játszik. Egyébkén a Coldvarral nekem is kibukott a stabilnak hitt beállítás.
-
- = Zk = -
félisten
jaaa, jajaja
MSI AB asszem ilyet csinált, miután lecseréltem a gyári hűtést egy G12re, aztán egy ACE4-re.... memón is és az órajelen is tuningolt "óvatosba"... aztán lehet nagyon nem ilyet... fene tudja mit mókol a gép nekemköszönöm btw
-
laychi
veterán
válasz
- = Zk = - #37139 üzenetére
-
FingR86
őstag
válasz
- = Zk = - #37139 üzenetére
esetemben közel a gyári teljesítmény alacsonyabb fogyasztással és hőtermeléssel.
-
rumkola
nagyúr
válasz
- = Zk = - #37139 üzenetére
UnderVolt, downclock, powerlimit beállítás, kissebb órajel kevesebb fesszel, magasabb órajel a gyárinál kevesebb fesszel, ilyesmi.
-
- = Zk = -
félisten
komolyan nem tudom, nem figyelem annyira a topikot
-
Laraxior
titán
válasz
- = Zk = - #37136 üzenetére
Ami a drága VGAdból egy olcsóbb vackot csinál
4090-ből 3080Ti lesz
3080Ti-ből lesz a 3080
UVs 3080-ból meg egy stabil 3070Ti..talán. -
- = Zk = -
félisten
mi is az az UV?!
-
FingR86
őstag
válasz
szabeska #37133 üzenetére
nálam amikor kb minden játék meg benchmark futott stabilan, pár kör cold war ki tudta fektetni az UV-t, akkor jöttem rá, hogy mégsem olyan stabil
pedig érdekes mert a cold war UV mellett olyan 260-270W körül kajál max. Minden más újabb játék meg UV mellett is 300W felett. Azt gondolná az ember, hogy hamarabb behasal amikor többet zabál.
-
szabeska
addikt
válasz
TheProb #37132 üzenetére
Nalam 2 teszt valt be: 3dMark Speedway es Metro Exodus Enhanced Edition benchmark. Volt amikor 30 perc utan, de crashelt egyik vagy masik. Miutan egy ora elteltevel sem fagyott ki egyik sem, minden stabilan fut. Vicces, a Speedwayt amikor telepitettem megjeleneskor, 1 kor se futott le vele, szoval valami nem volt jo, amire addig azt hittem hogy igen
Ha valami, akkor ez a bench jo stabilitas tesztre 40-50 koros loopban.
-
TheProb
veterán
Amit a gyerek itt mutogat az korrekt? Mert amiket eddig néztem AF UV guide-okat, ott tök máshogy csinálták. Pl.:
1. Srác felnyomja csutkára a Power és temp limit csúszkát.
2. Settings alatt bekapcsolja az unlock voltage ctrl és monitoring box-okat.
3. A voltage csúszkával viszi le a curve-öt. Gondolom ez csak egy másik megoldás, a lényege ugyan az.
4. Voltage curve finomhangolás után ráver a RAM clock-ra +1k-t.Mivel az 1,2,4-es pontokat nála láttam először, így kérdezném, hogy ezeket meg kell csinálni vagy ez opcionális, netán full baromság?
CP77 alatt crash-el a játék (érdekes módon sem másik játék, sem furmark, sem TimeSpy alatt nem) ~2000MHz@950mV-nál. ~1950@950mV-nál már mondhati jó. Ez most azt jelenti, hogy a CP77 esetleg "érzékenyebb" és könnyebben összeomlik? Vagy esetleg egy furmark/TimeSpy test nem ad 100%-os képet az UV stabilitását illetően?
-
PROTRON
addikt
Nem is játékok miatt akarom és nem SLI-be, hisz az már nincs.
Az nvidia control panel natívan kérdezi meg hogy mit csináljon ha érzékeli hogy több nvidia gpu van egy alaplapra kötve. Akkor az nvidia control panelben, oldalt a 3D beállítások alatt tudod lekérdezni a "Set Multi-GPU configuration" szekciót.
Van idehaza a gtx 1070-en kívül egy Quadro K620-am, kíváncsiságból bedugtam a 1070 melletti slotba és meg is jelentek az alábbi opciók:
"
Select the multi-GPU configuration
-Disable multi-GPU mode: This option causes all GPUs to run independently and lets you drive multiple displays on each GPU.
-Span display with Surround: This option lets you combine multiple displays to act as one larger display to allow a panoramic view of full-screen games or your desktop.
-Maximize 3D performance: This option, where possible, causes the GPUs to work together to increase rendering performance of 3D applications.
-Activate all displays: This option enables all available displays. If possible, multi-GPU rendering may still be enabled.
"
Éppenséggel működött, valamivel már nem tudom mivel le is teszteltem és tűrésmezőn kívüli volt a különbség.De mint ahogy írjátok (és én is megírtam) ehhez az is kéne hogy kevésbé legyenek lusták a szoftverfejlesztők.
Pl vannak VR fejszettek amik már 8K-t tudnak és rendesen meg is telítik egy 3090 Vramját, amivel párhuzamosan pont az a gond hogy kevés az igazán meggyőzően jó minőségű és hasznos tartalom VR-ra.
Aminek oka az is hogy nem hajtják ki az ökoszisztémával a kártyát, pl HP reverb G2 is szemenként csak 2160x2160 pixelt tud, miközben a 3090 ugye maxon 7680x4320-at is bírna. -
PROTRON
addikt
Naja, nekem azért annál fiatalabb a konfig, egy x299-es 10940x, 4x8 gb ram quad channelben.
Igazából az alaplap tud 2 db 16x + 1 db 8x pcie sávot kiosztani a VGA-knak, ugye most már nem kell SLI híd, mert alaplapi szinten Nvidia driverrel tudja összegezni a számítási kapacitást.
Arról nem tehetek hogy a programozók lusták kihasználni a lehetőséget... :@
A terv továbbra is hogy a 3090 TI mellé majd idővel szerezni jóárasított további VGA-kat, valszeg 3080 TI elég lesz a 384 bites adat bus miatt, felette felesleges, mert nvlinket nem használnám ki tehát a + vga Vrammal nem mennék semmire.Persze 3 db VGA-nál már bőven kevés lesz az 1000W tápegység, valszeg már kettőnél is elfog fogyni a proci miatt, mivel az többet kér mint egy sima i9-es.
Ha meg zavarna hogy lassú az SSD, akkor a 4. PCIe slotba berakok 2xNVME pcie x8 adaptert és raid1-be beállítva ugyanott lennék. Így legalább ki is használnám a platformot, mert egyébként nincs ötletem milyen eszközök kérnek x1-nél többet pcie fronton, mert pl digitalizálás terén sincs igény ekkora sebességre, nem leszek streamer hogy avermedia 4k kártya kellene pciex4-el, legfőképpen mert 4k-n csak 60 fps-t tud felvenni.
-
PROTRON
addikt
Köszi.
A 3090 Ti-vel kapcsolatban oké hogy anno flagship volt, de ma már csak egy matematikai egyenlet, amiben az ár-érték a lényeg. Így elvérzik 420k összegekért amennyiért hirdetik.A PCIe 4.0 nem nagyon hat meg, igazából az SSD-k ilyen jellegű sebességét akárhogy keresem, semmi nekem fontos dolog nem használja ki.
Így a VGA az egyetlen kérdés, de ott sem érte még el azt a szintet hogy megérje a komplett gépcserét, egyszerűen nem tenne hozzá a jelenlegi PC géphasználati szokásaimhoz annyit ár-értékben. De köszi a javaslatot. -
-
Joshi
titán
válasz
PROTRON #37118 üzenetére
Ha biztosra akarsz menni nézz teszteket különböző felhasználással. Nekem ma már nagyon kevésnek tűnik a 10-12GB vram, szóval én biztosan egy 3090-et vennék. Azt hiszem létezik 16GB-os 3080 is, de a tuti biztos a 3090 szerintem. Én 3090Ti-t biztosan nem vennék, max ha nagyon jó áron lenne.
A PCIE 4.0 még kell az nvme ssd-hez is, szóval gondolkodj el egy komplett konfig cserén is. Én az adatlapomon látható konfigot vettem használtan, most egy Ryzen félkonfigot egész jó áron lehet venni.
VR kérdésben itt érdeklődj.
-
PROTRON
addikt
Köszi a választ.
Tehát 3090 Ti és 4070 TI közül hasonló árban az én felhasználásomhoz inkább a 3090 Ti-t javaslod a magasabb bus érték okán és hogy sem a magasabb nyers GPU erős sem a DLSS 3-al nem lennék előrébb. Vagy az is lehet hogy Ti nélkül.
A magasabb villanyszámlát majd a céges projektek kitermelik.Amúgy van VR szettem, néha előveszem játékhoz, de mivel a GTX 1070 már elég régi, így ehhez mérten a szett csak egy HTC Vive 1-es, ami szemenként csak 1080*1200pixelt tud.
Az újabb, nagyobb felbontású VR fejesek esetén vannak tapasztalatok VR játékokkal kapcsolatban a 3xxx vs 4xxx-es szériáról, tehát van értelme ilyen téren az újabb kártyát választani?
Azért is kérdezem, mert eddig munkához nem nagyon tudtam használni a kevés pixel szám miatt, de lehet hogy munkafelhasználás miatt a jövőben cserélésre kerül a VR fejes...Azt már korábban is láttam hogy a gen 3.0 határát már éppen átlépheti egy 3090 TI is, de ezzel a kompromisszummal még meg tudok békülni. Legalább is az hogy játékokban 1-2%-ot veszítek az nem érdekel, ha cserébe munka terén sem hagyok ott túl sok kihasználatlan kapacitást a kártyában. Ezért sem terveztem eredetileg 4xxx-es szériát venni ebbe a munkaállomásba.
-
-
PROTRON
addikt
Sziasztok.
Ősszel végül feladtam a dilemmát egyéb okok miatt, de most újra előszedtem.
A helyzet hogy alapvetően nettó 350k-t szánok videókártyára(persze az áfa erre rárakódhat ha pl boltból veszem).
Végre a használt piacon most már nem csak egyesek gondolják úgy hogy 3090 kártyák max kb 350-370k körül érnek, hanem a többség, ennek oka a 4070 TI kártyák nettó árazása, ami néha 400k körüli.
A fő dilemmám hogy a nagyjából hasonló gpu teljesítmény miatt az újabbat vegyem-e a jobb fogyasztása okán, de ez a 192 bites data bus elrettent.
Tapasztalatból tudom hogy ami engem érint 3D modellezés terén nagyon nem mind1 a data bus, sem pedig az összesített memory bandwidth.
Ilyen szempontból még a 4080-as is gyengusz az én értékelésemben, pedig nyers gpu erőben jóval erősebb a 3090 Ti-nél, pedig azt is kapni 400-420k között.
Ez a DLSS 3.0 tényleg ennyire jó újítás, hogy megéri az új generáció? A fogyasztási adatok kecsegtetőek.Az új generációval kapcsolatban az is zavar hogy noha nem kötelező, ajánlott az új power szabvány használata, nekem meg 1000W-os platinum EVGA tápegységem van amit nem akarnék most cserélni. Továbbá az alaplapot sem tervezem cseréni, az meg PCIe gen 3.0, amihez van processzorom.
Szóval ki hogy látja jelenleg a piacot:
jobb hűtéssel szerelt 3090-esek megérik a 350k-t?
jobb hűtéssel szerelt 3090 TI-k megérik a 400-420k-t? Így is túl van árazva ha a sima 3090-hez képest nézzük a tényleges többlet teljesítményt.
Ugyanakkor a 4070 TI esetén ez a 192-es data bus kevés, megéri egyáltalán a nettó 400k-t?
A 4080 TI-t meg fogja kapni a 320 bites data bust? Továbbá ahhoz már feltétlen kelleni fog új tápegység, jól gondolom? Bár az árak miatt valszeg ez eleve kiesik, de kitudja... -
Joshi
titán
Amit a #37112-ben írtam az most úgy néz ki hogy működik. Viszont a szimulátoros monitort eleve áramtalanítani szoktam, remélem az nem kavar be. Illetve azért nem tudtam hogy most mi van, mert régebben amikor ilyesmit próbáltam eleve régebbi Winem volt és akkor még az NV Control Panelben kellett ezeket csinálni. Még egy minőségi USB kábelt is be kell szerezzek 15m-es hosszban, szerintem a Kácsa Audiósoktól rendelek egyet.
-
Enton
addikt
Illetve én úgy akarom a két monitort használni, hogy egyszerre csak az egyik menjen de az mindig elsődleges legyen.
Ehhez igazából semmi beállítás nem szükséges mert annyi a kunszt hogy nem szabad egyszerre bekapcsolva lenniük és semmi nyűg nincs belőle. Amelyik épp nem kell azt eleve off/standby és jónak kell lennie.
-
Joshi
titán
Akkor lenne kérdésem a kábeles bal..ságom után. Igazán most kezdődik a kálváriám. Szóval a 15m-es DP kábellel az volta a célom, hogy a másik szobában lévő monitort is kiszolgálja ugyan az a gép. Már ott fura az egész, hogy az íróasztalos monitor LG nem az elsődleges, pedig az 1-es DP aljzatba van bedugva. Miért?
Illetve én úgy akarom a két monitort használni, hogy egyszerre csak az egyik menjen de az mindig elsődleges legyen.
-
Joshi
titán
válasz
PROTRON #37105 üzenetére
Jogos, de szerintem egyértelmű lett volna a fejekre gravírozni hogy Display és VGA. Végül is nem megy tönkre attól hogy fordítva dugja be az ember, különben sok selejt kábel lenne.
A legrosszabb esetben megfordítjuk a kábelt.
Az Audioquest kábeleinél nem így van megoldva, hanem a HDMI fejeken van egy nyíl. Szerintem az a kép irányát mutatja, ha nem, akkor azt se jól használom.
-
Joshi
titán
válasz
laychi #37102 üzenetére
Ha a képet vesszük mint utazó adatot, akkor igen nekem is ez a logikus, hogy a kimenet a VGA a bemenet pedig a Monitor. Ja úgy nincs kép, fordítva viszont jó.
Viszont lehet hogy a tápellátásra vonatkozik a felirat? Mert ugye ez aktív kábel, és a monitor biztosan nem tud feszt adni neki. Vagy nem tudom.
Új hozzászólás Aktív témák
- Samsung Galaxy A16 128GB, Kártyafüggetlen, 1 Év Garanciával
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 7600XT 16GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- BESZÁMÍTÁS! Gigabyte H510M i5 11400F 16GB DDR4 512GB SSD RX 5700XT Rampage SHIVA Zalman 600W
- Intel Core 2 Quad Q9550 2.83GHz LGA775 Processzor
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest