- One mobilszolgáltatások
- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- 45 wattos vezeték nélküli töltés jön az új iPhone-ba
- Az Oppo Find X8 Ultra lett a legvékonyabb kameramobil
- Google Pixel topik
- Okosóra és okoskiegészítő topik
- iPhone topik
- Motorola Razr 60 Ultra - ez a kagyló könnyen megfő
- Xiaomi 13 - felnőni nehéz
- Apple iPhone 16 Pro - rutinvizsga
Új hozzászólás Aktív témák
-
-
HSM
félisten
No, valami ilyesmi arányt simán el tudnék fogadni, amit itt fejtegettek.
A driverre gondoltam én is, kíváncsi vagyok, hoz-e majd javulást.#45863 Raymond : A Turing-nál nem lep meg, korábban többször volt róla szó, hogy vannak azért szűk keresztmetszetei RT-vel, aminek látszottak azért jelei is. Persze, a Radeonokon is, de azért nem ilyen meredeken.
-
-
-
huskydog17
addikt
NVIDIA Responds to Melting Cables, Warranty Concerns, & 12VHPWR Adapter Failures
Ha jól értem, a zöldek minden problémás kártyát cserélnek garanciában, annak ellenére, hogy nem ők tehetnek az egészről. A szabvány egyszerűen nem lett kellő mértékben "hülyebiztosra" tervezve.
-
Jacek
veterán
Igen ez egy , erre válaszoltam , majd össze mostad a válaszoddal. hagyjuk.. Volt a kezedben ilyen kártya?
Ezt ide rakom neked, ha kiszedtem csinálok a TUF és a SuprimX viszonyáról képet neked.Ezt ide rakom azért
[link] 6:45
-
Petykemano
veterán
De akkor elég lett volna a 4090Ti-re rárakni ezt a hűtést, nem?
Mondjuk a 3090 hűtése is elég lehetett volna nagyjából. Nem?Én inkább azt gyanítom, hogy az Nvidia nem tudta a legelején, hogy pontosan hol fog landolni az RDNA3. Magában az AD102-ben van még kb 10% CUDA és a fennmaradó 25% L2$. Szerintem a fennmaradó TBP-t a letiltott részek fogják majd kihasználni. Csak nem tudták előre, elkészítették a hűtőt és annyi letiltást eszközöltek a végén, amennyi az Navi31 meggyőző legyőzéséhez szükséges.
Abu mondott valami ilyesmit a TUL vagy Compal-os kontaktjától, hogy az AMD "lastminute" engedte el a 450W-os kártya lehetőségét. Lehet, hogy nem volt annyira lastminute, mint azt Abunak megüzenték. Mivelhogy más források arról számoltak be, hogy a frekvencia skálázása nem lett jó, azért nem megy 2.5Ghz fölé és kell egy respin.
Tehát lehet, hogy amikor az NVidia ezt megtudta, akkor már készen álltak a 4090 kártya 450W-os designjai (+ a 600W-os a 4090Ti-hez) és lastminute már nem tudtak változtatni a hűtőn, ezért letiltottak annyit, amennyi elegendő és elengedték a 600W-os kártya gondolatát.
-
huskydog17
addikt
Igen.
"GPU decompression is supported on all DirectX 12 + Shader Model 6.0 GPUs."
Ezen felül speciális GPU optimalizálásokkal még több sebességet lehet nyerni:
"However, one of the benefits of DirectStorage 1.1 is that GPU hardware vendors can provide additional optimizations for their hardware, called metacommands."
Az Intel csinált egy konkrét mérést az Arc A770-el, ami majdnem 3× volt gyorsabb kicsomagolásban, mint egy Core i9-12900K. Ez pedig még csak az első lépcsőfok. Ígéretes.
Az NVIDIA mérései és blog bejegyzése itt található, míg az AMD bejelentése itt.
-
Jacek
veterán
Nem tom en beraktam valos arakat 4080 Strix OC 2000 euro de nem hiszik el az emberek
Lesz Feleki Kamil par nap mulva
A TUF nonOC- nak van rendes ara 1550 euro, na abbol probaljatok majd venni legyartottak mar oszagonkent a 15 darabot. TUF OC 1875 euro. Mondjuk a svedek sosem a olcsosagukrol voltak hiresek meg a szurke se megy nagyon -
Devid_81
félisten
Csodalatos valasztas lesz $1200-ert
NVIDIA GeForce RTX 4080 gets tested in Geekbench, 30% to 37% faster than RTX 3080
-
-
Dtomka
veterán
Igen tudom, hogy egy lábon állnak. De azért valljuk be nem jó az irány amit mutatnak vagy amifele viszik ezt a szegmenst. Most, hogy az Intel is beszáll a "játékba" (amire már régóta vártunk, hogy legyen több "résztvevő") ezáltal előbb vagy utóbb stratégiát kell váltaniuk.
Mert ha ezt az irányt követik, akkor szerintem sokan a másik 2 gyártó által kiadott vga-k között fogják megtalálni ami számukra megfelelő és szükséges.
De tudjuk jól idővel minden kiderül. -
Dtomka
veterán
Lehet rossz példát hozok fel de mégis megteszem. Az INTEL éveken át morzsákat dobot nekünk, mert elég az nekik - gondolták. Lefordítva "alig" növekedett a teljesítmény az előző genhez képest mégis mindenki hajbókolt.
Az NVIDIA szerintem átesett a ló túloldalára. Brutál teljesítményt mindenáron elv lett a fő céljuk. Lehet ezt azért teszik mert látják, hogy a piros kis csapat évről évre egyre jobb és ettől félnek ennyire? Ezért nem számít ha leég a vga, biztosan a user elhajlította vagy nem jól csatlakoztatta a tápcsatit.
Ejj azért ha hibázik az ember (ez esetben cég) akkor azt lássa be. Tanuljon belőle és az által fog fejlődni javulni. Szóval csak azt szerettem volna átadni, hogy van amikor az alig fejlesztés sem jó, de a túlzott sem. Fokozatosan és szem előtt tartva a hatékonyságot, számomra ez a legfontosabb dolgok egyike. (A melom során is ezt vallom és teszek is érte nem csinálom meg 3x ugyanazt a melót mert 2. alkalommal már a makrót írom)
-
Dtomka
veterán
Ettől függetlenül még lehet, hogy tényleg tudni fogja amit látunk. És ha igaz lesz akkor nem értem miért nem TI jelzésű?! Mert még a házon belüli előző gen. legerősebb tagját is sokszorosan felülmúlja.
Olvastam a TI-t még ezek után "akarták piacra dobni". Hova, minek és kinek? A tápcsati problémák (és az áram drasztikus drágulása) miatt tuti egy ideig nem lesz 4090TI. Bár nem is én vagyok a célközönség -
Dtomka
veterán
Legalább de egy tölgyfába vésték volna hihetőbb lenne...
Megnéztem, és volt aki kételkedett, hogy 4x nagyobb teljesítménye lenne mint a 3090TI-nek.
És ez így 100% -ban hivatalos? Mert majd ezekután nem grafikonokat hanem excel táblázatokat fogunk látni a gpu-k review oldalain. -
Arm is anti-competitive and monopolistic!
Arm Changes Business Model OEM Partners Must Directly License From Arm
No More External GPU, NPU, or ISP’s Allowed In Arm-Based SOCs After 2024
Kills Samsung AMD GPU licensing dealTehát csak az ARM-től származó GPU-t lehet majd a designba tenni, ha jól értem. Azok melyikek? Mali?
Mit jelent majd ez a piacon vajon? Nincs rálátásom, most hogy mennek a dolgok.
-
i9 13900K vs R7 5800X3D - RTX 4090 | 10 Games Test
Asszem, ez eldőlt. Új platformra kell váltaniuk a tesztelőknek.
-
-
-
Persze, egyrészt vannak gondok az interconnecttel, másrészt a GPU-kkal, meg még akármi mással is, amit nem részleteznek. Írta is az ember, hogy ilyen projekteknél szoktak gondok lenni, főleg, ha ilyen volumenű a dolog. Tehát igazából nincs itt semmi látnivaló, csak fel lett fújva a dolog.
-
Hivatkozott InsideHPC cikkből, fordítóval:
Whitt nem volt hajlandó a Frontier jelenlegi kihívásainak nagy részét az Instinct GPU-k működésére fogni. "A problémák sok különböző kategóriát érintenek, a GPU-k csak az egyiket."
"Sok kihívás ezek körül összpontosul, de nem ez a kihívások többsége" - mondta. "Elég jól eloszlanak az alkatrészhibák gyakori okozói között, amelyek nagy szerepet játszanak. Nem hiszem, hogy ezen a ponton sok aggodalomra adnának okot az AMD termékek. Sok olyan korai életkori jellegű dologgal van dolgunk, amit már láttunk más, általunk telepített gépekkel, szóval ez nem túl szokatlan."
Abu elfogultságában nem említi az AMD-t, de nem is az AMD GPU-k a kizárólagos, vagy akár csak legfőbb hibaforrás.
-
Petykemano
veterán
Nem tudom, hogy mennyire pontos/hiteles, de egy ilyen ábrát láttam ma:
A google szerint az USD viszonya a kínai Yuan-nal is hasonlóan változott. Az első negyedévben $1 még Y6.4 volt, most épp Y7.1, tehát valahol ott tartanak, mint a CAD/AUD
A google szerint az euró árfolyama $1=E0.86 volt 1 éve, most $1=E1.02
Az szám szerint 18%-os esést jelent a dollárhoz képest.
Ezt csak azért számoltam ki, hogy segítsen az ábraértelmezésében. Tehát az ábrát nem úgy kell értelmezni, hogy a dollár felfelé ívelő grafikonja és a többilefelé ívelő grafikonja közötti távolság a tényleges értékcsökkenés, hanem a lentiek a dollárhoz képest, a dollár pedig kitudja mihez képest 22%-kal értékesebb.Összehasonlításul:
1 éve $1=310Ft, most $1=430Ft => ez 38%-os értékvesztést jelent. Magasan a legsúlyosabb. (Az okokról beszélhetnénk, de szétfeszítené még az offot is.)De e amúgy a dollárban számolt eszköz árak is magasak, amit az elmúlt 1-2 év emelekdett költségeivel és az általános inflációval, valamint az új technológiák (DDR5, Pcie5) magas bevezetései költségeivel lehet magyarázni, de akkor is rátesz egy lapáttal.
Megkockáztatom, hogy esetleg valamikor valamilyen módon beavatkozni lesz kénytelen az USA kormányzat/FED, mert nem biztos, hogy olyan jó nekik, hogy a megerősödő dollár / dollárhoz képest gyengülő világdevizák miatt nem tudnak exportálni.
-
zsid
senior tag
Ez nekem nem világos. Azért van enkóder a GPU mellett, hogy ne kelljen a processzort használni. Eddig sem terhelte a régebbi NVENC sem a processzort, de még az AMD enkóderei sem. GTX1070-nel is simán tudtad tolni a 4K H264 streamet, nem kellett hozzá erős processzor.
Az AV1 bitrátája azonos minőség mellett pont alacsonyabb, mint a H264/H265 bitrátája, jobban tömörített az anyag. Ezért fér bele ugyanabba a sávszélességkeretbe magasabb felbontású AV1 stream, mint H264.
Az NVENC simán nyomja real-timeban az anyagot. Azért van a fenti táblázatban is, hogy 1 enkóder chip 3 sessiont tud kiszolgálni ( ennyire vannak korlátozva a desktop kártyák ), de ez szerintem inkább a párhuzamos enkódolásra vonatkozik. Ilyen a 7gen NVENC 30Mbit H264-nél(felvételre beállítva, streamelni csak fele/negyed ekkora bitrátával tudsz):
A 8gen biztosan hatékonyabb ennél, de egy normál forrásnál szerintem teljesen felesleges a 2 "enkóderchip". Szerintem ide azért jött dupla enkóder, mert ezek a kártyák már alkalmasak magas felbontáson is sok FPS-t kitolni és a 8K60-hoz valamint a 4K120-hoz azért már valszeg kell a két enkóder. De "alacsony" felbontásra felesleges.
A HDR lehet más világ, de az ma még messze nem általános. -
Busterftw
nagyúr
"This slide is arguably misleading at best. If you ignore the table and just look at the headline, it sounds like AMD delivers a massive increase in value — up to 90% more FPS per dollar! Except, that comparison uses the recent Radeon RX 6400 and pits it against the six-years-old GTX 1050 Ti, which also happens to cost more than the newer GTX 1650."
lol.
-
Petykemano
veterán
A táblázatról én elsőre azt hittem, hogy SteamSurvey gyűjtés.
De az adatoknak ez a wccf-es cikk a forrása: [link]Hát nem tudom, hogy kell ezt a "channel trade" cuccot értelmezni
Volt róla szó, hogy az AMD növeli a GF irányába a megrendeléseit. Én azt hittem, hogy a nagyobb volumenű Zen3 DT eladás miatt.
De lehet, hogy benne volt az is, hogy polaris/vega kártyákat értékesítettek bányászoknak.Viszont ennek azért csak jobban be kellett volna zuhannia, nem?
Ha annyi polaris kártyát gyártanának, akkor most úgy kéne eldobniuk, mint a forró krumplit.
De polarist már szinte alig lehet kapni.Nem is beszélve arról, hogy anno ABu azt mondta, hogy a GDDR5 gyártása gyakorlatilag leállt, nem is olcsóbb, mint a GDDR6. Még ábrándoztunk is, hogy milyen jó lenne, ha az AMD kiadna egy GDDR6-ra frissített polarist, mert azon a node-on nincs akkora hiány. Abu meg azzal csapta le, hogy sajnos az áremelkedések egyik oka épp a GDDR6 hiánya.
Vagy lehet, hogy ezek a százalékok azt jelzik, hogy még mindig az ilyen nagyon olcsó RX 550 menne notikba és prebuild gépekbe?
-
Raggie
őstag
Mondjuk én ennél nagyobb növekedést majd csökkenést vártam... Ezek alapján pl AMD 2019 végén több kártyát adott el, mint a mostani legnagyobb bányászláz idején.
Valamint NVidia is igazából a bányászláz előtt nőtt nagyot és a bányászláz alatt csak marginálisan.
(Ugye az igazi bányászláz Q1-21-től kb Q2-22-ig tartott)A legérdekesebb a Q3-22 adat lenne, ami az igazi bányászláz lecsengés utáni mennyiségeket mutatná majd.
SZERK:
ETH-USD árfolyam grafikonon szépen látszik a bányász idény
-
Petykemano
veterán
"felhasználónak hűhűhű, milyen jó is lehetne, miközben az NVidia hülyére keresi magát keresi i magát" = bugyuta érv
Rendbenm, bugyuta megfogalmazás. Kérlek, akkor próbáld meg 2 mondatban összefoglalni, hogy milyen érvek szóltak az Arm Nvidia általi felvásárlás mellett?"Egy CPU és egy GPU gyártó állt volna össze akik egy célt néztek hogy Intel és AMD mellett betörjenek a szerverpiacra nem X86 dizájnnal."
Merthogy ez igazán (jó) érv a felvásárlás mellett. Az Nvidia ma is szuperjó Arm processzorokat tud(na) tervezni - desktop notebook vagy szerver piacra egyaránt. És mindenféle csodálatos szinergiákat megvalósíthatna a saját tervezésű Arm processzorai és a GPU/gyorsító/CUDA technológák között.
Csak valószínűleg nem az volt a cél, hogy ezzel betörjenek az AMD és Intel által jelenleg dominált szerverpiacra, hanem sokkal inkább az lehetett, hogy az ARM processzorokat, amiket világszerte milliárdszámra használnak szerverekben, telefonokban és infotainment rendszerekben hozzászabja a saját AI/ML/grafika/Accelerator/stb rendszereihez. Ne lehessen, vagy legalábbis ne legyen érdemes mellette elmenni. Legyen az Nvidia ezen a területen is ugyanolyan név, mint az Apple. Tudod van a tablet, meg az Ipad.
Egyébként volt a Coreteks-nek egy videója arról, hogy miként kíván az Nvidia a Metaverse Apple-je lenni. Szerintem ennek a tervnek volt a része az Arm felvásárlása és az Arm magok hozzászabása a saját rendszereikhez.
Szerintem ennek a hozzászabásnak van jelentősége. Persze, megteheted, hogy Nvidia GPU IP helyett Imagination-t használsz, de miért tennéd, ha ha készen kapod az Nvidia teljes hardver és szoftverkínálatát az Arm CPU mellé? Abba akkor külön energiát kell fektetned, csak akkor tennéd, ha azzal diverzifikálhatod magad.
Az Nvidia valójában nem az Arm CPU részleg feletti hatalmat akarta megszerezni, hanem sokkal inkább a Malit küldte volna nyugdíjba.
Az Intel+Samsung általi felvásárlás vonatkozásában (már ha egyáltalán van igazság ebben a pletykában), ->szerintem<- a hozzászabás jelenleg a TSMC felé létezik. Megteheted, hogy inkább másutt gyártatsz, de akkor külön energiát kell fektetned, amit csak akkor teszel meg, ha lényegesen jobb ajánlatot kapsz.
El lehetne vitatkozni azon, hogy ez más-e versenyjogi szempontból.
Csak azt mondom, hogy ha ez lenne a felvásárlás célja, akkor mivel a lépés "hazahozza" "a biztonságos nyugatra" az ARM designok gyártását, ezért nagyobb esélyét látom annak, hogy átmenjen.Talán te mélyen csalódott lennél, ha így alakulna, én nem lennék ettől boldogabb.
De persze minden szempontból tévedhetek. -
Petykemano
veterán
Én látok némi különbséget aközött, hogy milyen piacokon milyen erős szereplők és milyen céllal igyekeznének az Arm designokat terelgetni, de nem is mondom, hogy örülnék, ha ez összejönne. Csak azt, hogy geopolitikai okok miatt látom esélyét annak, hogy átmenjen.
másként megfogalmazva: a versenyhatóságok szemében a "felhasználónak hűhűhű, milyen jó is lehetne, miközben az NVidia hülyére keresi magát" érvnél többet nyom a latba az, hogy "geopolitikai és nemzetbiztonsági okokból szoktassuk át az Arm partnereket nyugati gyártósorokra és legyen inkább a >>kína által veszélyeztetett<< TSMC opcionális" többet nyom a latba.
-
Petykemano
veterán
Azt miért gondolod ennyire biztosan, hogy az Intel kilőné az nvidia alól a lehetőségeket?
Nem állítom, hogy nem történhet meg, csak fura ezt az aggodalmat pont attól.olvasni, aki az nvidia vásárlási szándéka esetén ezt leginkább elhessegette.
Mindenesetre szerintem, mondom, az arm designok Intel és Samsung foundryra.való alapértelmezetté tétele lehet a cél. Tudjuk, hogy a tsmc abból él, hogy sok a partner. Rájuk fáj a foguk.
És azt is tudjuk, mennyi a zűr Taiwan körül. Az, hogy az intel és a Samsung "hazahozza" brit chiptervező termékeinek gyártását (kimenekití a gyártást és a partnereket Kína karmaiból) , szerintem át fog menni a nyugati hatóságokon.
-
Petykemano
veterán
Az nivida általi felvásárlást még valahol értettem volna: processzort tervezhettek volna, dé hozzá akarták kötni az arm designokat a Geforce-hoz/CUDA-hoz. (Mármint ezt persze sosem vallanák be hivatalosan)
De se az intelt, se a samsungot nem értem.
Mármint az inteltől csak valami rosszindulatú felvásárlást tudnék elképzelni: azért akar felügyeletet az arm felett, mert korlátozni akarja annak fejlődésének ütemét és irányát. De ez nem menti meg attól, hogy valaki más tervezzen arm alapon jobbat.
Vagy a másik lehetőség az, hogy élére állna a változásnak. De szerintem az intelnek nem annyira ezen a területen vannak gondjai.
Az egyetlen szóbajöhető célja az intelnek... hupsz és a samsungnak is (!) az lehet, hogy az arm designokat a.tsmc helyett/mellett az Intel és a Samsung gyártástechnológiájához (is) igazítsák. -
-
FLATRONW
őstag
Egyébként a videóban és az írásban szó esik arról, hogy mennyivel később jelent meg a Vega?
15 hónappal, nem kis idő, szinte egy teljes generációs különbség fejlesztési időben.
Fine Wine, Future-proof? Nevetséges. A GCN legalja volt, minden szempontból. A sokat szidott 290x tényleg az volt, mert az idővel nem kicsit hagyta le a 780 Ti-t, és nem is kellett rá várni hónapokat, mert egyszerre jelentek meg. -
Devid_81
félisten
Nalam az, hogy nem emeltek arat valahogy azt sugja az Intelt nem fogtak be vele es inkabb "csinositanak" csak kelenedo legyen.
Vagy ilyen "rendesek voltak" es szamoltak azzal, hogy egyre kevesebb lesz a userek penze es inkabb szamlakra koltenek majd uj gep helyett?Nem hinnem -
Petykemano
veterán
Igen, amikor az NVlink-hez hasonló sávszélességgel bíró csatlakozásnál jártam, nekem is az jutott eszembe, hogy feltörték az Nvidia-t. DE az csupán fél évvel ezelőtt volt. Azért nem említettem, mert nem tudom, fél év vajon elegendő lehet-e egy saját implementáció készítéséhez. Bár ha Te azt mondod, hogy minden megszólalásig hasonló, akkor valószínűleg igen. Valószínűleg az sem véletlen, hogy a TSMC-nél gyártják.
-
Dtomka
veterán
Egy biztos a köv gen. még többet fog "zabálni" mert a teljesítmény a prioritás\elsődleges.
2k -ra nekem elég a 3070... nem tetszik az irány mely fele tart a gpu piac...
3090ti még akkor sem vennék ha 3070 árában lenne, márpedig most már csak féláron dobálják a nép után. Vigye aki akarja, de elvből (nem az áramszámla miatt...) sem vennék olyan vga-t amely 250-280w nál többet kajál. -
proci985
MODERÁTOR
250W folott nagyon megdragul a korites, HPCbe meg max 300Wig lehet tervezni pciE szabvany miatt. szoval a sweet spotot oda kell beloni a compute megoldasok miatt.
szoval ha 400+os kartyakrol beszelnek, akkor nagyon ki kell huzni az utolso 10%ot. ha eros a konkurencia akkor szokott lenni jo cucc jo aron, de utoljara az 1080TInel volt keszult ugy az NV, hogy a Vega64 nagyon durvan jo lesz. csak nem lett.
-
-
Petykemano
veterán
Nem fogom.visszakeresni, de én minden rekord állítás esetén süvegelés, hovatovább az emelkedő nvidia részvényárfolyamon való.hümmögésre emlékszem.
Ezzel semmi gond nincs, megérdemelt elismerés.Engem különösebben az sem érint, hogy az nvidia mivel keresi a kenyerét. Nem vagyok részvényes, nem engem vertek át azzal (egyik cég sem), hogy a crpyto nem tényező. (Persze tudom, hogy ez alapvetően arra vonatkozott,.hogy nem fognak amiatt többet gyártani és nem pedig arra, hogy hová megy a kártya.)
Mindenesetre azért úgy tűnik, ezúttal az nvidia érintettsége lehetett nagyobb. Évesen szintén 33%, negyedéves összehasonlításban 44% csökkenés. Egyébként az ábrám is látszik, ez több mint $1b. Ehhez képest az amd romlása "csak" $200m/~10% (azt persze nem tudjuk, hogy ebből.mennyi a konzol)
Azt is tudtuk, hogy a kártyák árait a bányászképességeik határozzák meg. De az is lehet, hogy még a JPR piaci részesedési adatok is teljesen mások (lennének)
Még az is lehet, hogy az RDNA3 vs AL időszakban valódi versenyt fogunk látni, mert mindkét cég igyekszik majd túladni a portékán, amit a TSMC nem vesz vissza.Elnézést, ha túl nagy port kavartam.
-
awexco
őstag
Szerver fronton biztos lesz szép menyiségű értékesitésük ... De raja ojan mint a ferrárinál a stratéga ... Egy kalap fos . Anno csodálkoztam is hogy , hogy olyan gyorsan átengedték az Intelhez ... De több kért okoz mint hasznot . Mostani CEO komolyan gondolja , hogy rendbe szedi a céget ... gondolom nem vicből vettek fel kb 50.000 embert . Azért bármelyik szar projektük megélt 3-4 gent pl itanium stb ... csak utána lötték le . Az idő alatt még kiforrhatja amagát a dolog ...
-
-
Raggie
őstag
Szerintem egészen egyszerűen csak arra gondolt Petyke, hogy fordított esetben egyből be van posztolva az AMD bevételcsökkenése/piacvesztése/"bénázása", míg most, hogy az Nvidiánál történt csökkenés semmi, csak kuss.
És ebben van igazság.
Inkább csak azt nem értem, hogy ezen miért lepődött meg. -
sutyerák007
senior tag
most vagy te szívtad fel nagyon magad vagy én értettem félre valamit..
Méltatlan a hallgatás és elhessegetés, ami a témát övezi, pedighát szó sincs arról, hogy bajban lenne. Csak legfeljebb arról, hogy mélyebb volt az érintettsége a bányászati vásárlásokban, mint ahogy azt bevallották.volt ott egy második bekezdés is
egyáltalán nem volt petyke hozzászólása ennyire "sértő"
szerintem az egész negyedéves bevételre gondolt úgy általában bontástól függetlenül -
proci985
MODERÁTOR
800W eselytelen, 450W is nagyon necces 1 GPUval a heat density miatt, vizen is. 295x2 volt 450Wos, de ott eloszlott a homennyiseg.
800Wra par eve kb LN2 pot terulet volt.
350W az meg talan oke jelenleg a 4slotos lethutok koraban, tripla radiatorral (megtamogatva nemi PCB hutessel) kb 400W is oke, afolott az epitett viz territorium.
en hasznaltam 425+Wos GPUt, ijeszto volt.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- PowerColor RX 6700 XT 12GB GDDR6 Hellhound Eladó!
- 3 hónapos Sapphire NITRO+ AMD Radeon RX 7900 XTX Vapor-X 24GB, még 33 hónap garanciával
- Csere-Beszámítás! Sapphire Nitro+ RX 7800 XT 16GB GDDR6 Videokártya! Bemutató Darab!
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming D OC Eladó!
- Csere-Beszámítás! Asus Prime RTX 5060Ti 16GB GDDR7 Videokártya! Bemutató darab!
- ÁRGARANCIA!Épített KomPhone i5 10600KF 16/32/64GB RAM RTX 3050 6GB GAMER PC termékbeszámítással
- Bontatlan SteelSeries QcK 3XL egérpad
- Xiaomi Redmi Note 13 256GB, Kártyafüggetlen, 1 Év Garanciával
- Telefon felvásárlás!! Apple Watch Series 9/Apple Watch Ultra/Apple Watch Ultra 2
- LG 55B4 - 55" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest