- Megjött a jubileumi Pixel széria
- Megdöntheti az iPhone 4 rekordját az iPhone 17
- Honor Magic7 Pro - kifinomult, költséges képalkotás
- Nothing Headphone (1) – nem kell ide idézet
- Samsung Galaxy S25 - végre van kicsi!
- Magisk
- Kínos szituba keveredett a Nothing
- One mobilszolgáltatások
- Motorola Edge 40 - jó bőr
- iPhone topik
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
S_x96x_S
addikt
válasz
DaVE-1 #65899 üzenetére
(“Strix Halo” APU)
> Túlárazott lesz ez is szokás szerint.
Az eletciklus elején minden túlárazott.
És az árazás szubjektív.
Első körben azok veszik meg, akiknek a munkájukhoz kell, és%vagy megengedhetik maguknak.és talán már az idén meg is jelenhetnek.
"HP to launch 14-inch laptop with AMD Ryzen AI Max 390 “Strix Halo” APU"
https://videocardz.com/newz/hp-to-launch-14-inch-laptop-with-amd-ryzen-ai-max-390-strix-halo-apu
> Szokás szerint olcsóbb lesz
> majd egy random intel+nvidia konfigos laptop ami gamingben jobb lesz ennél.de csak rövid távon ..
és azért lesz olcsóbb az intel+nvidia,
mert a mobil RTX 4070M , 4060M, 4050M -es chipek gyorsan elértéktelenednek
és dömping áron kiszórják a raktárkészletet.Amúgy az Intel az új mobil chipjeit már a TSMC N3B-n gyártja majd,
úgyhogy én ott se várnék olcsóságot. -
sb
veterán
válasz
S_x96x_S #65881 üzenetére
AMD Strix Halo: Ryzen AI Max+ 395 genehmigt sich 96 GB Videospeicher
Itt is van a tippünk megerősítése: small ws rocm-el. -
S_x96x_S
addikt
September 19th, 2024
"DirectX Adopting SPIR-V as the Interchange Format of the Future"
https://devblogs.microsoft.com/directx/directx-adopting-spir-v/"Today the Direct3D and HLSL teams are excited to share some insight into the next big step for GPU programmability. Once Shader Model 7 is released, DirectX 12 will accept shaders compiled to SPIR-V™. The HLSL team is committed to open development processes and collaborating with The Khronos® Group and LLVM Project. We’re sharing this information at the beginning of our multi-year development process so that we can be transparent about this transition from the start. We are working with the Khronos SPIR™ and Vulkan® working groups to ensure that this transition benefits the whole development ecosystem."
-
S_x96x_S
addikt
Victor Peng (AMD) Hotchip 2024- es keynote-ja - megvágva - elérhető a youtube-on
"HC2024-K2: The Journey to Life with AI Pervasiveness"
"""
Victor Peng, AMD
In this keynote talk, Victor gives an overview of how hardware is changing to keep up with the challenges presented by increasingly complex AI models. Power management and efficiency have become primary design goals, with new innovations appearing in areas like dataflow architectures, quantization and other model compaction techniques, new packaging technologies, interconnect improvements, and so on in order to keep up with AI computation requirements.""" -
S_x96x_S
addikt
"AMD RDNA™ 3.5 Instruction Set Architecture (ISA) reference guide is now available"
September 16, 2024
https://gpuopen.com/amd-rdna-3-5-isa/
(PDF, 3.2MB, ~644 oldal )"""
Organization
This document begins with an overview of the AMD RDNA3.5 processors' hardware and programming
environment. Subsequent chapters cover:
1. Organization of RDNA3.5 programs
2. Program state that is maintained
3. Program flow
4. Scalar ALU operations
5. Vector ALU operations
6. Scalar memory operations
7. Vector memory operations
8. Flat memory instructions
9. Data share operations
10. Exporting the parameters of pixel color and vertex shaders
11. Detailed specification of each microcode format
12. Instruction details, first by the microcode format to which they belong, then in alphabetic order
"""sok szép ábrával.
-
hokuszpk
nagyúr
nemtom mi a ps6 target, tippre a ps5 pro erejenek duplaja ; a cpu mar meg is van, a 3.5 Ghz -s Zen2 -nel kb. sacc 2x erosebb egy 5Ghz Zen5 ; mire erkezik az uj konzolgen, a 4nm -es node is fillerekert lesz ; Rdna 4 is a kanyarban, csiszolnak belole rdna4+ -t, hogy rá lehessen fogni, hogy "custom" ; hozzacsapnak egy xilinx ai gyorsitót és valoszinuleg kellene még a gddr7(x), de addigra az is sanszos, ha meg nem, akkor majd a 3d cache besegit.
tippem az, hogy jövőre összeáll a cucc, évvégén fejlesztői kitek feltünését várom. -
Abu85
HÁZIGAZDA
Ma már nincs keresztfinanszírozás a konzoloknál. Az AMD modellje take and pay. Minden kockázatot ők állnak, cserébe kérnek is nem kevés pénzt a lapkákért. Ezért van az, hogy negyedévenként több százmillió dollár az ebből származó bevétel. Ez egyébként hasznosabb a Sony és a Microsoft számára is. Kicsi a fejlesztési befektetés, és a kockázatot a partner viseli. Cserébe per konzol szintjén többet fizetnek a platformért. Nyilván van egy előre meghatározott szabályrendszer, hogy az AMD ne tudja kihasználni, hogy egyedüli beszállítók, de végeredményben per chip fizetnek a termékekért a megrendelők.
-
Alogonomus
őstag
válasz
DaVE-1 #65889 üzenetére
Bukóval aligha adja, az viszont valószínű, hogy a konzolok fejlesztési költségeit jelentős mértékben az MS/Sony is finanszírozta, vagyis az AMD a fejlesztés költségeiből tud sokat megspórolni, mert a konzolokban használt technológiákból sok mindent át tud emelni főleg az asztali APU egységekbe, de a különálló CPU és GPU vonalra is.
Valamint a konzolok évi extra 10-25 milliós volumenének is köszönhetően tudnak a TSMC kiemelt ügyfele maradni, amiből következik a kedvezőbb node-árlista és a TSMC fejlesztési irányára való ráhatás lehetősége. Ja és persze a játékfejlesztőket is könnyebben meg lehet győzni egy bizonyos Zen és RDNA architektúra egyedi képességeinek támogatásáról, ha a készülő játékuk egyébként is potenciálisan 50-100 millió AMD hardvert felvonultató konzolon is meg tud/fog jelenni. -
S_x96x_S
addikt
válasz
Alogonomus #65887 üzenetére
> miatt az Intelnek nem sikerült volna tartania a határidőket,
> és végül a Sony visszakényszerült volna az AMD-hez,szerintem ilyenre nem szabad alapozni.
és más alternatív forgatókönyv is lehetséges a problémák kezelésére,
ami az AMD-nek szintén nem olyan jó.
- kötbér
- az Intel a TSMC -vel gyártat (ahogy most is a TSMC N3B-n )
- ...Vagyis nem érdemes kísérteni a sorsot.
Az AMD + TSMC együtt pályázott és $30 billion deal - volt
( Intel and IFS battled AMD and TSMC. )
és a TSMC-nek se volt érdeke, hogy az Intel gyártást (IFS) lovagiasan megkönnyítse.
Amúgy is mindkét cégnek presztizsveszteség lett volna a deal elvesztése.-------------
és az se biztos, hogy az Intel/IFS olyan jól volna a PS6-al.
ha a PS6 - 2027, 2028 körül jön ki, addig az Intel valószínűleg nem lát egy centet se,
de egy csomó tervezési költséget bele kell ölnie, ráadásul rengeteg kockázata van a projektnek.
Jelenleg (2024) az Intelnek semmi tartaléka sincs - és leépítésre kényszerül, hogy a PS6 áldás lenne vagy átok .. azt nehéz megállapítani. -
Alogonomus
őstag
válasz
S_x96x_S #65882 üzenetére
Pedig mekkorát szólt volna, ha 2022-ben nagyon nyomott áron végül elviszi az Intel a PS6-os lehetőséget az AMD elől, hogy Gelsinger az IFS-t megrendelésekhez segítse, viszont a komoly technológiai lemaradása és szűkülő anyagi lehetőségei miatt az Intelnek nem sikerült volna tartania a határidőket, és végül a Sony visszakényszerült volna az AMD-hez, de akkor már az AMD diktálhatott volna a szerződési feltételeket illetően.
Nagyjából mint ahogy a Samsungos Ampere-sztori után a TSMC a Lovelace esetén. -
S_x96x_S
addikt
válasz
Devid_81 #65883 üzenetére
Aki a kicsit nem becsüli ...
~ "Dispute over profit margins blocked Intel-Sony deal, sources say"Az is elképzelhető - hogy a gyorsított RDNA4 kihozatal ( high-end nélkül )
szintén ennek a deal-nek a következménye volt
( Amolyan AMD ígéret a SONY-nak )
és ki tudja mit ígért még meg az AMD az üzlet miatt.de indirekt módon is igaz -
ha nem lenne az RDNA4 a láthatáron,
akkor elég ciki lenne, hogy az AMD saját terméke nem tudja az új ficsöröket ( pl. jobb RT )úgyhogy direkt - vagy indirekt módon,
de a PS6 PRO hatással lehetett az RDNA4 tervekre és ütemezésre. -
S_x96x_S
addikt
2022-ben a Sony - újra-pályáztatatta
a PlayStation-t és az utolsó körbe az Intel és az AMD jutott.
( A Broadcom korábban kiesett )
A visszafelé kompatibilitás az AMD felé szólt,
és az Intel nem akart - annyira - árat csökkenteni, hogy megérje a Sony-nak a váltás.sejtés: Az AMD még jobban csökkenthette az árait, mert nem engedhette volna meg, hogy elbukja a meglévő konzolos üzletet.
"Exclusive: How Intel lost the Sony PlayStation business"
https://www.reuters.com/technology/how-intel-lost-sony-playstation-business-2024-09-16/
Summary:
- Intel lost PlayStation 6 chip contract to AMD in 2022, sources say
- Dispute over profit margins blocked Intel-Sony deal, sources say
- PlayStation deal could have generated $30 billion in revenue, sources say"""
A dispute over how much profit Intel stood to take from each chip sold to the Japanese electronics giant blocked Intel from settling on the price with Sony, according to two of the sources. Instead, rival AMD landed the contract through a competitive bidding process that eliminated others such as Broadcom (AVGO.O), opens new tab, until only Intel and AMD remained.
Discussions between Sony and Intel took months in 2022, and included meetings between the two companies’ CEOs, dozens of engineers and executives.
""" -
S_x96x_S
addikt
Az AMD-nek van(lesz) 2 szerbiai kutató helye ( Belgrade, Nis )
Aki arra jár kocsmázni - szerezhetne híreket"Interview with AMD's Senior Vice President and Chief Software Officer Andrej Zdravkovic: UDNA, ROCm for Radeon, AI Everywhere, and Much More!"
https://www.techpowerup.com/326593/interview-with-amds-senior-vice-president-and-chief-software-officer-andrej-zdravkovic-udna-rocm-for-radeon-ai-everywhere-and-much-more""""
Aleksandar: So, you were discussing ROCm. How easy it is for development right now and how easy it will be in the future for developers to write ROCm software and adapt from other accelerators for AI and machine learning to AMD ROCm accelerators.
Andrej: Great question. Today the challenge for ROCm developers is that they need to work on a big data center, [Instinct MI] machine intelligence type products. The access to that kind of a high-end product is limited, usually to developers in big companies like Microsoft. Also, the cost of that access is pretty high. We are bringing ROCm as a subsystem on the Radeon graphics products, desktop graphics products, or any Radeon APU powering desktops and notebooks. Developers will be provided with everyday access to ROCm. ROCm subsystem and the language that sits above it, which is "HIP", is very interesting for many developers from a perspective of being completely open. Compared to our competition, we have the system that is open top-to-bottom, completely open source. Any development, any contribution, and debugging is much easier for developers. We also provide the tools that allow a developer to take an AI application designed for CUDA and use the application that is called "HIPIFY" to transfer it from CUDA to run directly on HIP and ROCm.
Aleksandar: How reliable is HIPIFY for enterprise applications?
Andrej: We find that HIPIFY is very reliable and very straightforward. We also find it's usually quite performant. Further optimizations are always welcomed, of course, but we find that out to the shoot, it works OK. There are some aspects that introduce complexity because the hardware subsystems are not the same. If the application is using these constructs and some of the lower level function calls, that are hardware specific, that is something that HIPIFY cannot translate. We don't find it that often, other than in applications that are extremely, extremely optimized. But then, if somebody had a will to optimize the application to an extreme level, we are going to help them optimize for HIP/ROCm
Aleksandar: So AMD's strategy is to provide ROCm support across the entire stack, edge-to-core-to-cloud. All of these cases?
Andrej: Correct.
Aleksandar: Regarding the new UDNA: We heard that UDNA is combining RDNA and CDNA to single architecture for GPU. So if that's going to be something that's going to be developed here or parts of it developed here or something else?
Andrej: Yeah, that's new. The portions of that new work will be developed in Serbia. We are working to define the next aspects of what's going to be developed here. The technology is moving very, very fast, so access to good engineers thank can learn quickly is extremely, extremely important. This is what we have in Serbia. Along the lines of your question on the combination of new technologies in notebook computers powered by AMD, we are major player in what we call an "AI PC", That is actually immersion of everything. This is the device that has a CPU, that has GPU, and it has a new unit, the NPU. We are opening the world of low power AI using the NPU in combination with the new Windows operating system, supporting the new features that Microsoft announced for NPU. In addition to running the most advanced AI on the NPU you can also execute AI applications on AMD GPU and on AMD CPU.
Aleksandar: That's very exciting. Exciting because the true power of architecture lies in low power solutions, not high-power high-performance solutions when you give them power and massive TDPs, it is much easier to run than something constrained like smaller NPUs.
Andrej: That is correct. The interesting way to look at it is: we always need to find the balance. There are applications that require high-power solutions, that they are natively designed to work on, let's say with larger data formats, FP16, FP32... and large data sizes. So, some of the applications of the artificial intelligence require these formats and large memory would be run on various types of GPUs. Either RDNA or Machine Intelligence [Instinct MI] GPUs. If you go into the large language models, something like ChatGPT, or that kind of apps, a lot of these actually run perfectly well on the data formats like INT8 or INT4. So, we run that on the NPU on the low power executing very, very quickly, equally quickly, or even faster, as you would on GPU, using much less power. And that's where the AI PC starts playing. NPU combined with APU offers something for every aspect of human need in a PC, AI PC. And beauty of AMD is that we have all the solutions to offer to all these aspects of the need.
"""" -
Alogonomus
őstag
Azért a videó elején beígért 20 játékot felvonultató tesztet várd még meg a konklúzió levonása előtt, mert azt eddig is tudtuk, hogy a CP:2077 a zöldek hardveréhez készült a zöldek jelentős támogatása mellett. Az XTX a jelentős tartalékainak köszönhetően 4K-ban már a 4080 elé tudott kerülni, de a 1080p és 1440p még megvan a 4080-nak. Közben a 7900 XT már 4K-ban sem tud elég pluszt nyújtani a szembe szél leküzdéséhez.
-
Raggie
őstag
Azért tegyük hozzá, hogy a 4080 Super kevesebb FPS-t is csinál abból a kevesebb fogyasztásból.
4080S = 45 FPS átlag
7900XTX = 53 FPS átlag
Így már nem annyival jobb a perf/watt, mint amire csak a fogyasztási számok összehasonlítása alapján gondolna az ember.
Kb +40% fogyiért kb +20% sebesség.Nyilván így is jobb még a 4080S de nem annyival.
-
fLeSs
nagyúr
Ez a bajszos fickó a zsíroshajúval együtt egy vicc, rengeteg baromságot hordanak össze. Zsíroshajúnak ráadásul egy kisebb bekezdésen belül szokása az "interesting to see" mondatrészt kb. 10-szer elmondania.
Leaket egyedül MLID-nek hiszek el, mert tényleg be szoktak jönni neki (az ezekből kialakított spekulációival viszont sokszor eléggé mellélő, a spekulálását nem érdemes komolyan venni). -
X2N
őstag
-
S_x96x_S
addikt
> Az jó hír hogy megindult a Rocm szekér.
A Linux Kernelen is dolgoznak, mai hír:
2024-Szept-15 : Phoronix: Linux 6.11 Features Many Exciting Updates For AMD Hardware & More
"""
Some of the AMD related highlights for Linux 6.11 include:
- AMD RDNA4 graphics seem to have a baseline of the Linux 6.11 kernel. From all public indications thus far, Linux 6.11 looks like it will be the initial baseline for graphics driver support. This is good news with AMD next-gen graphics not yet being launched... But it's stabilized enough that it looks to be in good shape for Linux 6.11. Granted, more performance optimizations and new features may still arrive in Linux 6.12+.
- AMD Core Performance Boost handling is added to the AMD P-State driver along with Fast CPPC support for select Zen 4 and newer laptops.
- Polishing up of the RDNA3.5 graphics support for AMD Ryzen AI 300 "Strix Point" laptops.
- ASUS EC Sensors driver support for the AMD-based ProArt X670E CREATOR WIFI motherboard.
- The Framework Laptops with AMD SoCs using the ChromeOS EC can now enjoy fan speed and temperature and charge control support from the Chrome OS EC driver.
- Support for AMD SEV-SNP guests is finally in place on the mainline Linux kernel at long last.
- Much faster AES-GCM crypto performance for modern Intel and AMD CPUs thanks to AVX-512/AVX10 and VAES optimized implementations.
""" -
S_x96x_S
addikt
> az Instinct gyorsítókártyák mennyire vannak jó hatékonyságra beállítva?
ezek 7/24 -es (non stop) működésre vannak tervezve, és persze a cloud üzemeltetőknek számít a fogyasztás és a hűthetőség is ( a megbízhatóság mellett. )
Amúgy is egy Epyc szerver proci is alacsonyabb freq-n megy
mint egy hasonló magos Threadripper Pro.Más a célfüggvény.
-
X2N
őstag
válasz
S_x96x_S #65865 üzenetére
MI300 Peak Engine Clock 2100 MHz
Annyira ezekkel nem vagyok képben.
Ez is a TSMC 5&6nm-en készül, ahogy a 7900XTX is, ahol az órajel ilyen 2.5-2.8GHz magasságába boostol, ezek az Instinct gyorsítókártyák mennyire vannak jó hatékonyságra beállítva? Ezen az órajelen a legjobb az energiahatékonysága ennek a szériának? Az jó hír hogy megindult a Rocm szekér.Kamelot-Kell bizony, elég durva spike-ok vannak.
-
X2N
őstag
válasz
Busterftw #65863 üzenetére
Veszítesz 4K-n ~6-8fps-t 300W-on... XFX 400W, a Ref 360W. A nitro még ennél is rosszabb az 436W-ot vesz fel 4k felbontáson a refhez képest +4fps-ért....jobban jársz ha inkább aláfeszelsz mert akkor csökken a melegedésed, magasabb lesz az órajel meg az fps is.
Ezek nem "HWinfo mérések":
All power consumption numbers reported on this page are "card only" values measured via the PCI Express power connector(s) and PCI Express bus slot. Everything is measured on the DC side, it's not the power consumption of the whole system. We conduct a physical measurement using professional lab equipment, the values are not software sensor readings, which are much less accurate. -
S_x96x_S
addikt
válasz
S_x96x_S #65864 üzenetére
Nézve a régi terveket - az MI300C és az MI300P -vel még adós az AMD.
De ha nem most,
akkor is : MI325P/MI350P/MI400P -ként még várható
egy >= 64GB-os Workstation-os kártya."MI300P is like a half sized MI300X. It is one that can come in at a lower power in PCIe cards. This again requires host CPUs. This would be the easiest one to get to start developing with, although we think that’s more of a 2024 release."
( via )
És egy 64GB -os (fél MI300X --> MI300P) kártya eléggé érdekes lenne az nVidia ellen:NVIDIA RTX 6000 Ada Generation 48GB
NVIDIA RTX 5000 Ada Generation 32GB
NVIDIA RTX 4500 Ada Generation 24GB
NVIDIA RTX 4000 Ada Generation 20GBÉs az új - 288GB Instinct MI325X GPU -ból
még jobb MI325P kártyát lehetne készíteni;
pl. egy 96GB memóriával - ami 2x -se az RTX 6000 ADA (48GB) - nak.2024 október 10 -én ( AMD Advancing AI 2024 Event ) sok minden kiderül.
-
S_x96x_S
addikt
válasz
yarsley #65861 üzenetére
> A röhej, hogy ebből a 360 CU a leghihetőbb.
> .. közelébe nem engedik 2,8GHz-nek hogy meg ne süljön.az MI300X -ból spekulálhatták, ami TSMC 5nm + 6nm FinFET
- Compute Units: 304
- Peak Engine Clock: 2100 MHz
- Stream Processors: 19,456
- Matrix Cores: 1216
- Bus Type PCIe® 5.0 x16
- Transistor Count : 153 Billion> Meg ha general DC használatra lesznek a CU-k kihegyezve
> akkor nem igazán látom értelmet hogy sima GPU-ként eladjak,
> mikor DC kártyáért sokkal többet kapnak.minden fillérért le kell hajolni.
és biztos, hogy lesz belőle "WS" - kártya is, ( pl. "Radeon RX 7900 WS " utódja )
És kell a Threadripperekbe is valami erős kártya .Amúgy manapság annyira kinőtte magát a Threadripper,
hogy az Intel már az AMD alá árazza az új procikat.És mivel ha nem csak DC kivitel lesz, --> akkor több fejlesztőt lehet vele elérni --> ami pozitívan hat a ROCm ökoszisztémára --> ami szinergetikusan növeli a DC keresletet és eladásokat is.
-
X2N
őstag
válasz
yarsley #65861 üzenetére
512bites busz ráadásul GDDR7-el...hogy lesz az a nyák megtervezve? 5090-se lesz 512bit-es nvidia elengedte a dolgot... vicces lenne egy ilyen visszatérés miután kijelentették hogy nem versenyeznek a felső szegmensbe, aztán rá 1,5 évre kiadnak egy ilyen 600W-os szörnyeteget
Nem értem miért erőltetik még mindig a GDDR memóriákat. Annak ma már rendszermemóriának kellene lennie. Már a Radeon 7 16 GB, HBM2-memóriával jött miért nem úgy lesz akkor megtervezve ez a kártya is?? Nem volt a Radeon 7 mai szemmel drága kártya.
-
yarsley
aktív tag
A röhej, hogy ebből a 360 CU a leghihetőbb. Gyors matek nekem 1200mm2-re hozza ki a chip méretét (feltételezem valamelyik 3-as node-on fogják gyártani), ami nincs az az isten hogy 600W-ból elél, főleg nem 2,8GHz-en. Más kérdés hogy ekkora nagy batár chipet a közelébe nem engedik 2,8GHz-nek hogy meg ne süljön.
Meg ha general DC használatra lesznek a CU-k kihegyezve akkor nem igazán látom értelmet hogy sima GPU-ként eladjak, mikor DC kártyáért sokkal többet kapnak. -
X2N
őstag
Ha annyi a biosban a limit akkor azt fel is vesz a kártya. Nem tudom ez neked mióta újdonság. Ellenállás moddolt 980Ti-k is képesek csúcsokban 650W-ot felvenni ha kiiktatod az áram limitet. Nekem 360W-os bios a gyári, ha aláfeszelek már 300W-ot se fogyaszt a kártya. Lehet limitálni a Total Board power-t Adrenalin-ban.
XTX kicsit jobb átlagba meg minimum fps-be is, sokkal folyamatosabb. De gondolom az mindegy
Totál természetvédő mód télleg 300+W-os kártyákkal gépelni egész nap -
PuMbA
titán
Ilyet se fogunk látni már szerencsére az RDNA4 esetén
zWORMz Gaming végre kapott 7900XTX-et az AMD-től és hát még mindig megüt engem is a brutális fogyasztási különbség. NVIDIA logója épp joggal zöld a természetvédelem jegyében
Az AMD-é meg piros, mint egy lángoló kazán.
Cyberpunk 2077 4K natív Ultra grafika RT nélkül
7900XTX átlag 380W, 450W-os maximummal: [link]
4080 Super átlag 270W, 300W alatti maximummal: [link] -
Busterftw
nagyúr
válasz
Petykemano #65852 üzenetére
Kompatibilis árazás az új "piacot szerzünk" stratégiához.
-
X2N
őstag
válasz
Petykemano #65852 üzenetére
Sosem ált tőlük távol a nagyotmondás
KAMELOT-Ezt a rendesen becsavarozást szeretem, legtöbb új házat amennyi anyagból van az alkatrészek tartják össze
Megoldás a vertikális beépítés vagy a vízSzerverek se véletlenül vertikálisan vannak elfektetve a rack-be.
-
X2N
őstag
7900XTX-nél is kiadáskor ment az anyázás amikor elrontották a vapor chambert, nagy kár mert én pont REF-et szerettem volna venni, így Pulse lett Vapor nélkül amit lehet vertikálisan is használni.
Effen-Nincs hátránya, nem fogod látni a képen ha erre gondolsz.
DRVGA-nak kérdés:-Manapság melyik gyártót tartod a legkörültekintőbbnek?
Én ha vennék most, szerintem MSI Suprim-ot vennék, vagy Aorus-t (utóbbi 4090-ét még tavaly decemberben simogattam és tetszett amit láttam) de kinek-mi :) -
Mostanában amúgy sok gond van az Asusokkal például ez is egy jó videó.
[link] A Dual az Amperenél az egyik legjobb volt, most meg nem túl erős.
Igen , szuper a fickó. Nem is neked, csak ha valaki nem ismerné véletlenül.Effen: Nincs igazán hátránya, csak annyi, hogy nem tömörítetlen. legalább is én nem látom , mondjuk ez lenne a célja.
Ha HDMI 2.1 kijelződ is és a kártyád is, és DP 1.4 van akkor jobb a HDMI, de ha régebbi verzió a HDMI , akkor nem.
Feljebb betettem a képet ott látod a sávszélkülönbségeket.
Viszont számít hogy van e Gsync vagy VRR, nem annyira egyszerű ez az Nvidiánál. -
X2N
őstag
Nem csak gondolom, szerintem ez az általános építési minőség, főleg ASUS-nál. Láttam már ezt a repedést számtalan előző szériás 30-40-es kártyánál nem egyedi eset. Lehet itt mutogatni a userekre hogy használjon kitámasztót vagy fordítsa vertikálisan a kártyát. Túl nehezek a kártyák, vékony a pcb. Nekem is vertikálisan van pont emiatt a kártya... Ismerem DR VGA-t is nem kell bemutatnod
-
-
X2N
őstag
4080 SUPER-ekel már most ilyen problémák vannak...reped a PCB, nincs beforrasztva az 1!db tápcsatlakozó normálisan ennyire sz.r az építési minőség egy felső kategóriás kártyánál is...
-
X2N
őstag
Megteheted hogy rákötsz x monitort csak az lesz a baj hogy az összes monitor ami a display portba van dugva 4K 60Hz-en fog menni HDR mellett garantáltan, felette lottó, nem tud tud többet a Display Port 1.4a 32.4 Gbit/s-nál. Az a "sok gyártó" aki 2db HDMI pottot tesz a kártyára általában a Gigabyte,újabban ASUS...ott is csak a drágább kártyákon. De az még mindig nem 3 teljes értékű port.
-
-
X2N
őstag
Az a baj hogy ahogy kiadják a gyártók az új Display port 2.1-es monitorokat akkor egy Radeon kártyával már most megtudnál hajtani probléma nélkül 3!db 4K-s 240Hz-es monitort 180Hz-en HDR-el olyan játékokban mint az Assetto Corsa Competizione, amit a 4090-essel nem tudsz jelenleg megcsinálni mert csak 1db HDMI 2.1 van rajta ami hasonló sávszélt tud. Jó hogy van mindkét gyártónál 1db HDMI 2.1- de nem mindenki használ csak 1db monitort. Csúcskártyánál az hogy több éves VEsA szabványokat használnak minimum megmosolyogtató...
-
Sajnálom hogy neked az Nvidiás mondat jött át az egészből.
ne értsd félre, JÓ dolog, hogy rákerült egy DP 1.4 hez gyorsabb csatlakozó.
Biztos vagyok benne hogy sajnos ők is megcsinálják ezt, hogy bőven a szabvány specifikáció maximuma alatti DP portot tesznek rá.... Számomra ez nem hogy nem jó dolog, hogy ebben a formában rákerült ugyan azzal a névvel de teljesen eltérő sebeséggel az Intel és AMD kártyáira, hanem elítélendő
. Azon a charton nem véletlenül nincs ott a HDMI 2.1 specifikációja és a DP port teljes értékű specifikációja.
Gondolod át amit leírtál... Amin lesz DP 2.1 azon lesz HDMi 2.1 is,de fordítva ez nem igaz sajnos, tekintettel a rengeteg Tv -re és HDMi 2.1 monitorra. Ahhoz hogy ki mivel játszik DSC vel 4:4:4 nél - betettem egy képet és abban igazad van hogy a DP 1.4 hez képest szép előrelépés csak az a kellemetlen ha valaki ezért vesz majd egy méregdrága 4 K monitort DP 2..1 támogatással és a DSC mindíg aktív lesz neki a DP 1.4 specifikációin felüli használattal. -
X2N
őstag
Elég lesz nekem 4K felbontáson 8 biten DSC-vel 480Hz, 8k felbontáson 165Hz
Feleslegesen mosdatod nvidiát egy sima csatlakozó miatt amit egyébként ők is rátehettek volna a kártyára, ha már ott volt a lehetőség, ha ekkora baj volt a 2.1-es display Port-al akkor miért nem tették fel rá a DisplayPort 2.0-t(ami már kész volt 2019-ben, évekkel ezelőtt a 4090 megjelenésekor)(ez megint csak azt bizonyítja mekkora egy sz.rrágó cég is az nvida)?? Az volt ráírva a kártyára hogy Display Port 2.1, fenét se érdekelte hogy melyik UHBR szabványt tudja mert így is a szabvány része lett a még a lassabb UHBR13.5 mód is utólag, és így is gyorsabb mint az 1.4a, 2.0. Tudom ciki hogy a 4090-esen 10bit-es videónál már csak a 60Hz-et tudja átvinni a csatlakozó, én meg elmegyek 180-ig a limitált Display port-al, HDR játéknál nem mindegy remélem tudod.
-
De hiába támogatja ha valójában nem támogatja....félre vagy vezetve mert nem tudja a DP 2.1 maximális specifikációkat...
Épp azt írtam feljebb hogy ez nagy gondot fog okozni a szabványban és te is beleestél a marketing csapdába.
A DP 2.1= az UHBR 20 és 80 Gbps
Intel féle DP 2.1 = UHBR 10 az csak 40 Gbps. ez amúgy szabvány szerint létezik,de fele csak a sebessége a neve ugyan az....AMD DP 2.1 = UHBR 13.5 és 54 Gbps. Ez szabvány szerint nem létezik,de ez is sokkal lassabb.
A DP 2.1 natív törörítetlen formában 4k 240 Hz-t lazán átenged.
Tömörítetlenül 4:4:4 ben 4K@144 Hz-hez 42 Gbps kell ,amit tud a HDMI 2.1,( 48@ 43Gbps) tud a DP. 2.1 UHBR 13.5 ( 54@52Gbps)és fölötte, de Intel csatija hiába DP 2.1 már nem tudja.( 38,4 Gbps max)
Tehát ott már lehet meglepődnének páran, ( ha kellene nekik) hogy DSC-t kapnak hiába van a legújabb szabvány.A te a radeon gamer kártyádon 4 K 240 Hz ra már szintén nem pályázhatsz, hiába hívják így a csatidat, mert 68 Gbps az adatigénye a 4 K 240 Hz-nak és neked 54 Gbps fér át, tehát ugyan ott vagy mint a HDMI 2.1 tulajok pedig amúgy a DP 2.1 szabvány szerint tudnia kellene a kártyádnak... szval szerintem jól döntött az Nvidia.
-
X2N
őstag
Csak szerintem túl nagy elvárás, hogy egy csúcskártya az aktuális legújabb ingyenes Vesa DP vagy a HDMI szabványt támogassa? Monitoron lehet mindkét csatlakozó, ha lehet ne emiatt kelljen már szívni a jövőben. A kártyákon is jellemzően csak display portok vannak 1db hdmi portal. Az se mindegy hogy a HDR-es kijelzőt használok majd 10-bit a színmélységgel, az megint több adat, még ha nincs is meg a kártyán jelenlegi teljes jelenlegi 2.1a sávszél...
-
Kár, hogy a munkatársad nem tőlem vagy a házimozi topikban, az ott aktív emberkéktől kért tanácsot mert én 3 éve használok ilyen kábelt gond nélkül. A DP 1.4 az hibátlan dolog, azon nem csodálom , hogy átvitte.
De a sima 2- 3 és 5 méteres HDMi 2.1 kábel is többszörösen hosszabb és olcsóbb.
Értelme úgy lenne ennek az egésznek, hogy a DP 2.1 et átvinni 10 méterre a radeon pro 7900 ről mert azon van egyedül teljes értékű DP arra az 1-2 kijelzőre ami natívban támogatja, de a többi 7000 radeonnál nincs még. Tényleg nem azért írom,de az 1.4 DP vagy a HDMI 2.1 jelenleg a kettő reális port.
Remélem a teljes értékű, 80 as DP fog elterjedni ...de az Intelen 40 Gbps és DP 2.1 a neve az AMD-nél pedig 56 és DP 2.1 a neve, a szabvány pedig 80 Gbps és DP 2.1 a neve. Gáz így az egész és sok problémát fog okozni ez még . -
X2N
őstag
9970XTX Leak:
360CU 2.8GHz
32GB 2.3TB/s
600W
2000usdb. A 10 méteres méregdrága optikai hdmi kábellel munkatársam tapasztalata hogy semmire nem jó pedig csak 4K 60-at kellett volna átvinnie. Pince és a szoba közti távolságot kellett volna csak áthidalni, vett egy ugyanolyan hosszú sima Display port kábelt, probléma nélkül átvitte.
-
A HDMI 2.1= 4 K@240 Hz , 48 Gbps... akár 10 méteres optikai kábellel is van már a piacon rengeteg megjelenítővel....értelmetlen az a butított 54 Gbps DP 2.1 port a radeonon így mert a kábel és monitor szabvány szerint sem létezik ilyen hogy DP 2.1@54 Gbps és ha 80 asként ismeri fel a monitor akkor úgy is akar működni ezért simán megkapod a DSC-t, hogy működjön , mint a Dp 1.4 nél miközben le vagy korlátozva távolsággal és horro áron vettél egy 80 as Dp kábelt ami maximum 54 et tud kapni a kártyádtól,de azt sem fog mert ahhoz hogy működjön DSC-t fog használni... Hát izé... semmivel nem tartasz beljebb. elég nagy katyvasz ez így ...
-
X2N
őstag
Nekem nem gond, számítottam rá hogy nem lesznek 2,5-3m-es kábelek ilyen sebességgel, itt van közvetlen a tv mellett a gép, monitort is közel van. Majd idővel kiderül mire lesz elég ez ha lesz olyan megjelenítőm amihez már kell..feature szinten benne van. 54-es szerintem elég lesz egy ilyen 4K 200Hz-ig az nekem bőven jó.
-
Ezt olvastam a múltkor is tőled, de azzal semmire nem mész. Itt ez a cikk érdemes elolvasnod. [link]
Nincs hozzá megfelelő hosszúságú kábel .... 0.8 méter vagy 1 méteres. nekem nomrmál asztalom van és közel 2 méteres kábelt hazsnálok,de ez is necces.+nincs hozzá monitor, csak egy darab Samsung... ráadásul A radeonon butított DP 2.1 van ,nem teljes értékű .80Gbps helyett 54 Gbps-t( A HDMI 2.1 48 Gbps) tud csak...a pro vonalon ,a 7900 pronak van teljes értékű 80-as DP2.1 portja egyedül..
Az RDNA3 DP 54 et tud max átengedni de olyan kábel meg nem létezik ....tehát vagy veszel 0.8-1.2 méteres DP 80 as kábelt és akkor is max 54 Gbps sebességet kapsz radeonon vagy a sima DP kábellel 40 Gbps-t aminél a HDMi 2.1 is gyorsabb , mert az 48 Gbps sebességet tud. Tehát nincs semmi értelme jelenleg a gamer radeon kártyákon a DP 2.1 nek és ebben a formában semmire nem mész ezzel a csatival.
Ezért nem ment bele anno az Nvidia még, mert már akkor káosz volt a specifikáció,de anno erről Kopite írt is bejegyzést, hogy nem kockázattnak a zöldek mert a DP nél az is probléma ha túlterheled a sávszélt és a vissza fele kompatibilitás itt elbukhat, képi anomáliákat okozhat,de ez benne is van a cikkben.
A HDMI 2.1 nek sokkal több értelme van jelenleg. -
Petykemano
veterán
Szerintem a konzumer GPU-k és a pcie generációk összefüggésbe hozása teljes tévút.
Ha egy játék nem fér el a vramban, valószínűleg nem a 2-4x gyorsabb PCIe-től lesz mégis élvezhető. Úgy értem, nagyon kevés memória hiányát tudna elfedni.
Azzal lehetne játszani, hogy a mainstream kártyák olcsóbbak lehetnek, mert kevesebb sáv is elég. De közben meg az alaplapok a generáción spórolnak.
-
S_x96x_S
addikt
> Az asztali gamer Blackwell gen6?
-
Jacek
veterán
Butto 100 alatt is talaltam b650e-s lapot ami gen5.
Ujat bótbannem hogy hasznaltat.
-
S_x96x_S
addikt
> Meghat mar csaknl kozepkaregorias AMD kari jon annak nem kell gen5
2022 ; az RX 5500(xt) Gen4 x8 utódja --> RX 6500 XT Gen4 x4 -es.
AMD Radeon RX 6500 XT is limited to PCIe 4.0 x4 interfaceÉs ha értesz az extrapollációhoz,
akkor a következő Gen5 -ös : vagy x2-es , x3 -as ; vagy x4-es lesz. -
Jacek
veterán
válasz
S_x96x_S #65816 üzenetére
4090-en a gen3 1-2% ha nem tevedek, de lehet.
Mire ez limitalo tenyezo lesz pont elavul az egesz...
Meghat mar csaknl kozepkaregorias AMD kari jon annak nem kell gen5Ha meg van love majomra legyen bananra is, mert ertem en hogy limitalja a sok gen5 -os ssd-t a lap, de lehet hogy akkor nem kell spuroskodni a lapon ha mar sok gen5-os ssd-re futja
-
S_x96x_S
addikt
> Pcie4.0 nem fog vissza semmit meg sokaig.
én erre nem vennék mérget.
A PCIe Gen5-nek eleve alacsonyabb a latency-je ,
És majd a távoli jövőben a CXL képes GPU-k sok új trükkre lesznek még képesek.és ott van még az AMD surprise.
pl. egyes RDNA4 - modellek : x8 vagy x4-es Gen5-el jönnek,
Valami indok kell majd az upgrade-re.Amúgy es egy x8-as Gen5-ös GPU mellett - több x4 Gen5 M.2 is szépen elvan.
Mert kell a hely a rendes - Gen5-ös SSD-knek,
amelyek kevesebbet melegednek és a fogyasztásuk is rendben van.
"Silicon Motion SM2508 SSD review: Finally, a true PCIe 5.0 contender" -
S_x96x_S
addikt
> Most a legolcsóbb használt 7800X3D 146 K.
> a legolcsóbb DDR5-PCIE5 alaplap hozzá használtan120 K .A B650E is Pcie 5.0 -val van szerelve.
Az "ASROCK B650E PG Riptide WiFi" 1 PCIe 5.0 x16, + 1 Blazing M.2 (PCIe Gen5x4), + ...
újonnan a kazynál br86eFt (1-2héten belül), az alzanal(raktaron ) br 97e.
De újonnan is van 120K-ért alternativa , nem kell használt )
( ASRock X670E Pro RS ; GIGABYTE B650E Aorus Elite X AX ICE; ... ) -
X2N
őstag
Sony megirigyelte a profitot a scalperektől
. Gondolhatod ha mondjuk erősebb processzor kerülne PS5Pro-ba most mit reagálna a nép ha az ára még ennél is drágább lenne mint a jelenleg bejelentett...
Nem volt jó a prezentáció sem, mégis hogy mutatod be normálisan hogy sokkal részletesebb 4K felbontáson a Pro által renderelt kép mint a visszaskálázott PS5 képe ilyen youtubos tömörítés meg minden mellett?? Még felnagyítva is alig látszanak ezek a dolgok, de élőben biztos hogy látod...
Jó nagy kereslet van az X3D-re, az ára is kilőtt rendesen... -
Devid_81
félisten
Sajnos az ITX hianyat most mar en is aterzem.
Egyszeruen alig van alaplap, ha van akkor 2 fele opciod van, picit olcsobban olyan gagyi, hogy a VRM egy 1 magos CPU-t nem bir el throttling nelkul, vagy ott a masik opcio ami joval dragabb az mATX/ATX tarsanal.Egyebkent en is epp 7800X3D-at akartam venni, majd lett egy "uj" X3D arhoz kepest pontosan a feleert eBayrol egy talcas uj sima 7700 helyette, azzal meg a minusz 10fps-el elleszek amig az arak beallnak
-
Jacek
veterán
válasz
DaVE-1 #65810 üzenetére
Egy megjegyzes mert full off
A problema ott van hogy a Slim PS5 470euro ez meg 800
Es akkor nezzuk meg hogy mi is tortent +1Tb ssd megbegy video kartya upgrade ez olyan 60 dollar plusz koltseg
Mitol kerul 2x annyiba? Azon kivul hogy a kretenek megvettek ezen az aron a PS5 a scalperektol? Semmi siman oda arazott a Sony.Remelm PSVR2 effekt lesz belole.
-
X2N
őstag
Viszont jön nemsokára az Arrow Lake...én most nagyobb pénzt már nem tennék bele se AM5-be, 14.gen Intelbe persze te tudod mire kell a gép.
DaVE-1-a 2TB SSD az vagy 50eFt, kihasználod? 1TB-ig lenne érdemes elmenni SSD-vel az még jó áron van.
Azért a 6 magos proci mert az 6 magos proci gyorsabb órajelű és még tuningolhatod is a PS5-be meg csak 3.5GHz-es régi a proci van(ami miatt már szerintem ma kérdéses hogy fog azon a vason futni a GTA6, eleve korában jött ki a covid miatt a PS5, szerintem eredetileg is egy PS5 Pro kaliberű gépet akartak volna kiadni a sony-nál ennél erősebb processzorral, de most így a Pro-ba utólag már nem rakhattak erősebb processzort mert akkor ugyanaz lenne mint az Xbox S esetében ahol sokkal gyengébb az S és szívnak vele a fejlesztők), teljesen mindegy hogy 6 vagy 8 mag.
Akkor veszel új 7800XT-t 200et-ért. Szerintem baromira nem éri meg főleg úgy hogy 160eFt-ért alig használt nem bányász Sapphire Nitro-kat lehet venni garisan apróról, de te tudod -
DaVE-1
senior tag
De miért 512GB SSD? A PS5 proban 2TB-os lesz és nem lassú.... az eleve + 20guriga.
Miért 6 magos proci amikor a sima ps5-ben is eleve 8 magos van?
Ram + vga ha azt veszed nem is összevethető mivel a konzolban ez "egybe" van és abból gazdálkodik a rendszer..
És a végére pedig egy új HW árához miért teszel be használt vga-t összevetésnek?
A ps5 HW ára ha lehetne 1az1-ben mérni pc-n ugyanugy 330-350re jönne ki.. totál nem drága.. csak megszokta a nép hogy a sony + ms bukóval adja a gépet. Hát most már nem úgy akarják ... -
használt piacon értem arról volt szó feljebb.
Igen a procik között nincs nagy eltérés.
Most a legolcsóbb használt 7800X3D 146 K. a legolcsóbb DDR5-PCIE5 alaplap hozzá használtan120 K .
A Legolcsóbb 790 alaplap, ami DDR5 és PCIE5 60 K+i7-14700 120 K.DE még így is elgondolkodnék azon hogy az Intelt vegyem, mert a 7800X3D nagyon állat cucc.
-
Hát az AMD-t akkor se lehetne most megfogni ARM mal desktop fronton ,ha össze is jött volna az üzlet. Az ARM, ha esetleg kiépül tényleg a Win támogatása akkor energiahatékonyságban lesz kiemelkedő, azzal nehéz lesz versenyeznie az AMD nek, meg akkor lesz gondban,ha Nvidia speciális tulajdonságokkal megspékeli az ARM támogatást azaz az Nvidia kártyák gyorsabbak lesznek a saját CPU-ik-kal mint az Intel.- AMD( X86) kombóval. Biztos, hogy fog ilyet lépni Nvidia.
inkább Intelnek fog az menni az energiahatékonysága speckó felépítéssel. Az AMD procik jók,nem vennék újan mást én, de most épp nézegettem a használt piaci árakat . Lassan egy 7800X3D árából összerak az ember egy Intel 14700 kombót alaplappal, ami PCIE5 és DDR5 támogatású, szinte fullos.ha ésszel csinálja az ember nem is fog crashelni. -
X2N
őstag
Úgy értem hogy az nvidia hiába adja bundle-ben a videokártyáit, processzort nem nvidia gyártja, ha összejött volna az ARM biznisz akkor lehetne de így nem akarják ők az intel vagy a vetélytárs szekerét húzni
. AMD régebben is árult a honlapján kártyákkal együtt processzorokat bundle-ben.
-
X2N
őstag
Amúgy is mindenki felháborodott a napokban hogy túl drága a PS5 Pro ennyi pénzből már "gaming" pc-t is vehetnek az emberek, és tényleg:
-Ryzen 5 5600 42790Ft
-Asus Prime B550M-K 31390Ft
-32GB G-Skill Ram 3200-CL16 23090Ft
-FSP Fortron 500W 21790Ft
-512GB Sata SSD 13290Ft
-Apróról egy garis RX 7800XT(160-180eFt)
-Ház-15-25eFt
~320eFt
Egy hasonló bundle-t az AMD még ennél olcsóbban is összetudna hozni...Nvidia ilyet nem tud csinálni. Azért a 7800XT még 4K-n is odaver a konzolnak:
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- ÚJ MSI RTX5060 Ventus 2X OC 8Gb GDDR7 bontatlan, számla
- Eladó Gigabyte Aorus RTX 3070 8GB /Jótállással!/Dobozos!/Posta ok!/Beszámítás!
- Külső táp nélküli Asus GeForce GTX 1050Ti 4 GB ! AkciÓÓ!
- XFX Speedster SWFT210 Radeon RX 6600 8GB Garanciával!
- Több db Nvidia Quadro M4000 8GB GDDR5 videokártya számlával
- BESZÁMÍTÁS! ASUS 560M i5 10400F 16GB DDR4 512GB SSD RTX 2060 Super 8GB ZALMAN S2 TG ADATA 600W
- EMESE! 16napot futott! MacBook Pro 16 i7-9750H 16GB RAM 512GB SSD RX 5300M 1 év garancia
- Samsung Galaxy A53 128GB, Kártyafüggetlen, 1 Év Garanciával
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! Samsung Galaxy S23/Samsung Galaxy S23+/Samsung Galaxy S23 Ultra
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest