-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
bitblueduck
senior tag
válasz
NvidiaRTX #59642 üzenetére
ezt miért ide írod? szerintem küldj egy cv-t ezzel a szöveggel a frostbyte csapatnak felvesznek lead engine architect pozira.
azt csak megemlíteném, hogy steam hw survey top100-ban nincs geforce 40 vagy rx 7000 series gpu, egyik modell sem ugorja meg a 0.15%-ot.
értem én hogy vettél egy 4080-at de attól még nem akörül forog a világ. -
-
Z_A_P
addikt
válasz
NvidiaRTX #59642 üzenetére
egy 5 éves CPU-t fog majd használni játékra modern VGA mellé.
Miert ne, ez lenne a PC ertelme, nem kell kidobni es ujat venni, eleg komponensenkent bovitgetni, csak amit epp kell.
2023-ben az az évi meg az az előtt évi hardverekhez optimalizálja az új játékait.
Itt van pl csak az intel legujabbja: [link] Meg sem szamolom mennyu cpu.. -
Busterftw
nagyúr
-
Petykemano
veterán
válasz
NvidiaRTX #59637 üzenetére
Ez egy CPU teszt volt, nem pedig GPU.
Azért használták a 4090-et és azt is 1080p-n, hogy a CPU-k összehasonlításából minél inkább kiszűrjék a GPU limitet. Ha 4K-ban mérnek, ahol a GPU limitál, akkor lehet, hogy szépen le lehet olvasni a grafikonról, hogy a 4090 mennyivel gyorsabb, mint a 6950XT, de nem biztos, hogy kiderül, hogy melyik processzort érdemes venni.(Régebben volt olyan technika is, hogy 720p-ben mértek és abból próbáltak következtetni a processzor jövőállóságára. Csak ezt a 720p-s tesztet ritkán végezték el belépőszintű processzorokon, amitől nem is várja senki, hogy jövőálló legyen.)
Ez persze nem nagyon változtat azon, hogy amit Abu többször elmondott, hogy az AMD driver overhead-je kisebb, vagyis kisebb terhelést tesz a CPU-ra, és ami ebben a tesztben megmutatkozik, annak a valós felhasználási körülmények között kevés valós hatása van.
Egy 4090 mellé ugyanis nem fogsz belépőszintű processzort venni, a 4090-et kevéssé valószínű, hogy 1080p-ben fogja használni a többség (kivételek lehetnek) és a belépőszintű proci mellé valószerűen vásárolt 1080p-ben használt középkategóriás GPU esetén pedig megintcsak nem fog érezhető hatást kifejteni a kisebb driver overhead.
-
PuMbA
titán
válasz
NvidiaRTX #59642 üzenetére
Muszáj figyelembe venni a játékos társadalom többségét és ott húzni meg a minimum gépigényt, ami ma GTX1060 6GB / GTX1070 és RX580. Steam felmérésben jól látszik, hogy a legnépszerűbb VGA-k azok ezek körül vannak és a játékfejlesztő nem akar elesni az eladásoktól és profittól. Hiába vesz valaki 4090-et, a játékokat nem teljes mértékben arra optimalizálják, hanem a középkategóriára, mert ugye a konzolokon is jól kell futniuk és a konzolokban szintén RX6700 10GB / RTX3060 szintű VGA van.
-
PuMbA
titán
válasz
NvidiaRTX #59637 üzenetére
1440p-ben nem vagyok biztos, mert sok tesztben még ott is proci limites volt. 4K-ban volt csak tisztán VGA limites a 4090. Kár, hogy nem mérték ki ebben a felbontásban is a Hardware Unboxed-osok. Ennek a tesztnek majd a közép kategóriás kártyákkal lesz még jelentősebb eredménye.
-
Petykemano
veterán
válasz
NvidiaRTX #59619 üzenetére
Mi volt előtte? A MS PowerPC (IBM) processzorral és ATI videokártyával készült.
A Playstation 3 IBM-Toshiba-Sony kooperációban készült Cell nevű CPU-t és Nvidia gpu-t tartalmazott.Az IBM szerintem 2010-es évek elejére már felhagyott a konzumer processzorok tervezésével. Így maradt az x86, de valószínűleg a Jaguar magok teljesítményét lehetett volna hozni Arm magokkal is.
Ahogy az előttem szólók elmondták fontos szempont lehetett a GPU IP, amivel az Intel pl valóban nem rendelkezett valamirevaló GPU-val.
Az Nvidia nem rendelkezett x86 licenszszel, de szerintem ez másodlagos, mert lehetett volna Arm magokkal is. (Nem kizárt, hogy az Nvidia Shield az Nvidia a konzolok irányába való nevezésének (PoC) egy mellékterméke)Az AMD leginkább CPU-GPU közös címtérrel (Fusion) és ahhoz kapcsolódó víziókkal előzte meg versenytársait. (Nem kizárt, hogy az akkori marketinganyagok a Fusion-ről nem is nekünk fogyasztóknak szóltak, hanem alapvetően a B2B ügyfeleket igyekeztek elsősorban meggyőzni)
Ez a szempont az elmúlt 1 évben látszik változni. Egyrészt az Intel rendelkezik már GPU-val. Lehet, hogy nem a legjobb még, de lehet, hogy házon belül fejlesztett csomagolási rendszerek, a "Fusion" és OneAPI által kínált lehetőségek elég vonzóak lesznek.
És az Nvidia is nemsokára élesben fogja demozni a Grace formájában a CPU architekt leleményességét.A másik szempont pedig az lehetett, hogy sem az Intelt, sem az Nvidiát nem lehetett olyan mértékben kézivezérelni, mint az eléggé legatyásodott AMD-t. Az AMD feltehetőleg jobb ajánlatot adott az árra vagy a rugalmasságra vonatkozólag.
Ez a szempont annyiból változhatott, hogy talán ma már az Intel is lehajolna ilyen lehetőségért. Az Nvidiánál nem látok változást.
Viszont egyre inkább teret nyer a Streaming-Gaming. A Sony tudtommal ezen a területen kissé le van maradva, együtt is működik a MS-tal. A MS cloud gaming viszont erősnek tűnik. Az Nvidia üzemelteti a Geforce Now-t. Félig-meddig talán ellenérdekelt is MS szekerének tolásában. Viszont mivel a Sony ezen a téren le van maradva, így nem zárnék ki a jövőben egy Sony-Nvidia együttműködést, aminek része az, hogy a Sony a GFN cloud gaming szolgáltatásra nyergel át és az Nvidia fogja szállítani a konzol hardvert. (Azt se tudom kizárni, hogy ezzel párhuzamosan esetleg az Arm felvásárlásának stratégiai célja a gaming Arm CPU-ra való átterelése lett volna)
-
PuMbA
titán
válasz
NvidiaRTX #59621 üzenetére
"És azzal nem próbálkoztak, hogy PC-be is kiadják ezt a brutál erős CPU/GPU cuccot?"
Felesleges, mikor egy ITX házba vehetsz olyan CPU-t és GPU-t, amivel ezt megcsinálhatod most is, de amit HSM ír is fontos. Tehát hogy a Sony és a Microsoft is módosított AMD GPU-kat használ, további speciális hardver egységekkel megfejelve, tehát a PC-s szoftverkörnyezet nem jó hozzá (Windows, DirectX 12 stb.).
-
Raggie
őstag
válasz
NvidiaRTX #59600 üzenetére
Ez egy részlet der8auer eredeti videójából, ahol egy tudottan hibás RX 7900 XTX-et bekapcsol és kijön a füst belőle(direkt azért vette a hibás kártyát, hogy troubleshoot-olja).
Mostanában mém lett belőle a nagy meghibásodási rátájú MBA RX 7900 XTX-ekre utalva, de emiatt sokan azt hiszik ez egy új kártya amit először beindítanak...
LINK az eredeti videóhoz
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Csere-Beszámítás! AMD Számítógép PC Játékra! R5 5500 / RX 5700XT / 32GB DDR4 / 256SSD+1TB HDD
- Gombászkönyvek egyben
- Telefon felvásárlás!! iPhone 13 Mini/iPhone 13/iPhone 13 Pro/iPhone 13 Pro Max
- AKCIÓ! Apple Macbook Pro 16" 2019 i7 9750H 32GB 500GB Radeon Pro 5300M hibátlan működéssel
- Bowers/Wilkins PX8 fejhallgatók (dupla Bluetooth eszköz csatlakoztatása!) - ELKELTEK
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged