Aktív témák
-
Abu85
HÁZIGAZDA
Van füles:
Két chip lesz elvileg ... RV830 (800 SP - 140 mm^2) és RV840 (1200 SP - 180 mm^2)
A karik közül négy modell jöhet.
RV830 - 800 SP
RV840 - 1200 SP
2xRV830 - 1600 SP (valszeg MCM)
4xRV830 - 3200 SP (MCM+dual GPU)
Esetleg ezek két különböző órajelen (mindegyik GDDR5).
Jövőbeli lehetőségek:
2xRV840 - 2400 SP (MCM)
4xRV840 - 4800 SP (MCM+dual GPU) - utóbbi végszükség esetén ... valszeg a fogyasztása nem lenne semmi
Az árak elvileg teljesítmény szerint lesznek pozicionálva a jelenlegi palettához mérten. Ergo a DX11-ért nem kő extrát fizetni. Nyilván a jelenlegi paletta HD 4800-tól felfele hamar kiszorul, mert nincs értelme. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4456 üzenetére
Fake GI-ra van Emil Perssonnak egy algoritmusa (anno még az ATI-nál dolgozott). Ezt használták a Pin-Pong Demóhoz. A lényege, hogy Cube map tömbökbe menti az aktuális környezeti hatásokat, melyeket GS-sel számol, enyhe sugárkövetés beütéssel. Konkrétan van a jelenetben egy csomó Capture gömb, ami ellenőrzi a rajta áthaladó fénysugarakat, és azok alapján árnyalja le a hozzá tartozó dobozban lévő objektumokat. Nagy előnye, hogy a statikus és a dinamikus objektumokat is kvázi azonos sebességgel kezeli függetlenül azok számától, továbbá a teljes aktuális környezet vissza van tükrözve mindenre. Hátránya ... nos a hátránya, hogy iszonyat komoly Stream Out teljesítményt követel, ez kb. azt jelenti, hogy 2-3 FPS bármilyen GeForce rendszeren.
Esetleg még azon gondolkoztam, hogy a GS használható stencil árnyékokra is, ezzel tehermentesítve a processzort. Bár talán ez manapság már nem olyan nagy szám. Carmack atyánk a híve a stencil árnyékolásnak, bár azóta lehet, hogy változott a véleménye. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4393 üzenetére
A kép nem lényeges, csak szemléltetés. A tesszellálást érdemes csak a közeli objektumokra végrehajtani. Nyilván ha kevés lesz a gyorstár, akkor csak a memória marad, de mindenképp érdemes minimalizálni a VRAM használatot, mert brutálisan lassít. A békás demóból kiindulva okos LOD-dal nincs túlzott memória használat, pedig a közeli békák nem gyenge részletességűek.
A másik, hogy a DX11-ben a tesszellálás a Vertex Shader mögé került, egy csomó vertex számítástól mentjük így meg magunkat, ez szintén pozitív lesz a sebesség szempontjából. Ráadásul ezen a szinten már nem kell foglalkozni a teljes modellel, hiszen a transzformálás kész. A Xenos rendszeren még a transzformálás előtt tesszalál, az úgy szopás, ahogy van.
DemonDani: Egyelőre nem látom a Tegra ellenfeleit. Illetve látom, őket csak nem ellenfelek.
A QualComm-nak nagyon oda kell pakolnia magát, mert a Snapdragon lehet, hogy eladásokban jobb, de a Tegra új szereplő és technikailag fejlettebb. Az Intel Atom lehet még probléma, de a legkisebb verzió is túl nagy és túl sokat fogyaszt ezen a szinten, így max. 1-2 év múlva lehet reális ellenfél.
ALONSO11: Mindenki aki DX11 játékot fejleszt odamehet az AMD-hez és a vállalat elbírálja, hogy kapnak-e segítséget. Ez a segítség lehet hardver, mert már év eleje óta van működő példány, míg a nyáron bemutatott modell kvázi véglegesnek mondható. Egy-két optimalizáló revízió lehet még a TSMC bénázása miatt. Ha nem ítélik a projectet az AMD-nél komolynak, akkor csak csapatot küldenek, akik megírják a DX11 kódot (ezek a különítmények már egy éve foglalkoznak a DX11-gyel, tehát tapasztaltnak mondhatóak). A tesszellátorhoz meg ott az AMD Tesselation SDK, ami ismeri a Xenost és a DX11-et is. Gyerekjáték vele dolgozni.
Vistára is lesz DX11, itt a WDDM megoldott XP-re ez nagy munka lenne, ráadásul az eddigi XP drivereket is kukázni lehetett volna. Valszeg a DX11 az utolsó releváns API. DX12-ben kételkedem. Mármint a név értéke nagy tehát használható, de nem hiszem, hogy lehetne bővíteni a DX11 futószalagot.
Nem kő kidobni a HD 4850-et. Abban van tesszellátor és DX10.1 is. Sok hátránya nem lesz.
-
Abu85
HÁZIGAZDA
válasz
schwartz #4383 üzenetére
Nem a pár hónap előny a baj, hanem a piac lefedése a GPU-s processzorokkal. 2010-től az Intel az alsóházban ilyet kínál, de 2011-től már az Intel és az AMD-s processzorok többsége integrált grafikus magot tartalmaz majd, amik nem lesznek olyan gyengék. Olyan piactól esik el az NV, ami a legtöbb eladást hozza. Mégis mi motiválhatja az NV-t, hogy aktív résztvevő legyen? Az egyetlen ahol bevételhez juthat az a felsőkategória, de 2012-től már oda is lesz olyan CPU, ami kellően erős GPU-val van felszerelve. Innentől már csak egy kis lépcső az olyan alaplap, ami két CPU socketet tartalmaz, így az abszolút csúcskategóriába vehetsz még egy izmos GPU-val ellátott procit, ami a dedikált GPU-nál még az általános számítási teljesítmény szempontjából is többet fog érni. Platform nélkül ilyen irányvonalakkal ez a piac mostantól pénzkidobás az NV-nek. Talán ha a CUDA elterjedne, akkor befolyásolható lenne az AMD és az Intel rendszerek teljesítménye, de az OpenCL és a DX Compute Shader már itt kopogtat.
Kétirányú fejlesztéssel plusz egy év versenyképesség valósulna meg, hosszútávú haszna nem lenne. Az NV jövője a Tegra, és ezt ők is tudják. Egy cég mindig a pénzkeresésre hajt, a presztízs másodlagos. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4379 üzenetére
A képek azok csak szemléletes példák. A memóriában egyébként az alacsony poligonszámú modell lesz tárolva.
Ahogy néztem LOD-dal már a Xenos féle rendszer is okosan bánt, a DX11-es változat biztos nem butult ebben a formában. A legnagyobb baj maga a raszterizálás a poligonszám növekedésével az eljárás hatásfok egyenes arányban gyengül. Ebben a tempóban 4-5 év múlva elérjük a határokat. Talán már két év múlva is érdemes Tile Based alapú Geometry Binning elvű GPU-val előállni, komplex ütemezés ide vagy oda, egy bizonyos mennyiség mellett jobb sorba rendezéssel dobni a háromszögeket, mint számolni a teljes pixelre eső sort. (ez az elv a Xenosban nagyon jól vizsgázik, bár ott a fő szempont inkább a kevés memória használata volt)gbors: Én a teljesítményen nem biztos, hogy meglepődnék ... a HD 4890 árazáson mindenképp. Bár nem elképzelhetetlen, lehet érezni, hogy a HD5000-rel az AMD a kivégzésre megy. Komoly veszély az Intel. Nem árt az AMD-nek a piaci részesedés, ez lenne az egyetlen ütőkártyája, az Intel pénze ellen.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4377 üzenetére
Maga a tesszelláció gyors. Ellenbe a rendszer többi része képezhet szűk keresztmetszetet a megnövekedett poligonszám alapján. Elméleti alapon a triangle setup teljesítményre nagyon gyúrni kell, de a gyakorlatban sokat segíthetett Xenos-féle tesszellátor éles elemzése is. Talán ez lehetett a valós oka annak, hogy az R600-700 is kapott tesszellátort, így gyakorlati tapasztalatok alapján fejleszthették az R800-at.
-
Abu85
HÁZIGAZDA
Valószínűleg fake a dokumentum, mert a Codemasterstől a Computex idején érkeztek meg az első Dirt 2 sajtóanyagok, és minden infó (megjelenés, dx11 adatok) NDA-s volt e hét hétfőig. A Codemasters AMD partner, tehát amit az AMD előadáson lehet hallani az a Codemasters által megerősített információ.
Én voltam eladó, egyáltalán nem így működik, azt adtam el ami raktáron volt (bizony néha szívtam a fogam amikor azt az 500W-os hulladék PowerLogic-ot kellett pakolni a gépekbe, de hát ez van). Ezen a szinten le kell szarni a tényleges erőviszonyt, mindig az a legjobb ami ott van a polcon (persze az árukészletet megpróbáltuk úgy alakítani, hogy kvázi ne a legsilányabb holmikat hozzuk a vevőknek). Egyébként aki az eladóra hallgat az megérdemli, hogy szart kapjon. Manapság már elég általános az internet, hogy betévedjen valaki egy fórumra, vagy esetleg pár perc kereséssel tájékozódjon a kinézett termékről.
-
Abu85
HÁZIGAZDA
A BettleForge-nak van hivatalos fóruma, oda érdemes járni eszmét cserélni.
Részt vettem a Computex alatt tartott telefonkonferencián, maga Richard Huddy mondta, hogy karácsonyra lesz itt a Dirt 2. Ha neked más infód van az nem első kézből származott. A Colin Dirt 2 fejlesztése mögött eleve az AMD segítkezik, az NV-nek nuku tapasztalata az új eljárásokkal kapcsolatban, semmi értelme kívül a kapcsolatot tartani velük, egy csapat segíti az optimalizálást és ennyi elég is.
Fura eddig mindig a nagy nevek jöttek november december felé, amik általában jól is sikerülnek. A játékokat akkor adják ki ha kész van, marhára nem érdekli a fejlesztőket a szarban lévő cégek érdeke.
Senki sem beszél itt a bosszúról. Mindenki azt fogja venni, ami neki jobban megéri.
-
Abu85
HÁZIGAZDA
A BattleForge-nak nyugodtan nézz utána, mert a szaksajtó jól vélekedik róla (az utóbbi idők egyik legjobb stratégiája) és a játék is jó bevételeket hoz az EA-nak. Már ingyenes is az alapjáték, mert a mikrotranzakciós modell a fő üzlet, veszed a kártyákat és te leszel a májer.
Az, hogy a nagyközönségnek nem mondták a Decembert szerinted a beavatottak nem tudták? Egyébként nem fog többet csúszni, mert a karácsonyi szezon fontos az eladások alapján. A Fermit meg biztos nem fogják bevárni, nincs értelme ekkora eltolásnak, ha kész a játék.
Nincs értelme félrevezetni a vásárlókat (végén nem veszik komolyan az NV mondandóját) ... eddig DX10.1 semmiség volt, most meg fontos a támogatás. Ezek nagyon komoly presztízsveszteségek. Jobb ha hallgatnak és csendben dolgoznak.
-
Abu85
HÁZIGAZDA
Azt hiszed, hogy az NV tolatta el a játékot?
Bryan Marshall csak most említett először konkrét megjelenési időt PC-re. Eddig sem volt érdemes azt hinni, hogy kijön a játék a konzol verziókkal. Mellesleg jelen állás szerint, az NV-nek DX10.1-es lapkái lesznek az év végére ... a Fermi még odébb van.
A BattleForge olyan szinten C listás játék, hogy a szaksajtó igencsak magasztalta. Az hogy neked nem tetszik ez a játékstílus, az miért a fejlesztő hibája?Az NV jelenleg a DX11 mellett van! Ellene nem is lehet hiszen, akkor már most csomagolhatnak ... a DX10.1 terjedését is úgy megállították, hogy be kell állni a támogatók sorába, mert nem jöttek össze az eredeti tervek.
Biztos előnyére vált az NV fanoknak, hogy mostantól grafikai hátrányokkal teker a túlárazott GeForce kártyájuk. De nézzük a jó oldalát, legalább most nem hazudnak a zöldek, mert a DX10.1 bizony fontos.
-
Abu85
HÁZIGAZDA
válasz
schwartz #4341 üzenetére
Jap ... de ezek nem használják PC-n, mert idén lett kész a Tesselation SDK. Azokat a kódokat is az ATI-AMD intézte, a Xenos alacsony nyelvi szintjén (a programozóknak nem volt idejük tanulmányozni a rendszert). Most, hogy van SDK már mindenki könnyen írhat algoritmust, ezért is jönnek a DX11 gamák, mert az SDK a DX11-es kódot is támogatja, ami kifogástalanul fut más DX11-es hardveren is. A VIA már jelezte is, hogy szeretne Chrome libet a fejlesztőkörnyezetbe (a még jobb sebességért) ... valszeg az NV is beszáll, mert neki is érdeke, hogy a legjobban fusson a tesszellációs algoritmus.
Egyelőre az eredményeket várja a Techland. Az Ubisoft utána dönt a DLC-k sorsáról. Egyelőre három DLC van tervezve, ám ha jók az eladások, akkor lesz több is, továbbá van esély a DX11 patchre. Most épp fejlesztik a Dead Island-et. Azzal kész akarnak lenni még idén, elvileg a COJ BiB-ért sok zsetont kaptak, szóval még a Chrome 2-re is elég lesz.
-
Abu85
HÁZIGAZDA
DX9 alatt is lehet tesszellálni, mert a Tesselation SDK API független. Minden támogatás a fejlesztőn múlik.
A jelenlegi Radeonok tesszellátora Xenos kompatibilis, így az a kód ami fut Xbox360-on megy majd HD2000/3000/4000 Radeonon is, gyakorlatilag változtatás nélkül. A DX11 támogatás ennek megfelelően komoly érdeke az NVIDIA-nak, mert ők nem képesek futtatni a Xenos kompatibilis kódot.
-
Abu85
HÁZIGAZDA
Ebben biztos nincs benne az NV keze, ugyanis nekik a DX11 teszi lehetővé a tesszellálás használatát. Ha nem DX11-es a kód, akkor csak az AMD kártyákon fog működni a tesszellátor, lévén a fejlesztők a Tesselation SDK-t használják a programok ezen részéhez.
Nyilván ez a legkönnyebb út, mert ez az SDK támogatja az Xenost, a Xenos kompatibilis Radeon kártyákat és a DX11-es megoldást is.
Gyusz: A DICE (DX10.1/11), a GSC Game World (DX10.1), az Ubisoft (DX10.1), a Techland (DX10.1/11) és a Rebellion (DX11) háza táján érdemes szétnézni, meg lesz a BattleForge DX11 patch, ami lényegében nyílt titok.
-
Abu85
HÁZIGAZDA
Szvsz nem hülyeség. Illetve maga a GPU már eleve többmagos a shader processzorok miatt, de a Shader Core az R600-nál egy mag. Ellenben a mai moder GPU-k problémája a Triangle Setup, ami csúnyán szűk keresztmetszet Tesszellálás esetén. Két shader kód 2 Triangle/órajelet eredményez, ami már jobb.
Az ATI elég régóta tanulmányozza a Teszellálást, hogy tudja hol vannak a technika problémás területei.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4256 üzenetére
Konkrétan az AMD-s modellekből nagyon kevés. Ezen a szinten főleg a GeForce a menő. Az AMD inkább 80-100 dollár fölött kerül jó pozícióba. Nekik a legnagyobb mennyiségben eladót kártyájuk az asztali piacon a HD 4870 512 MB.
Illetve a beágyazott rendszerekbe iszonyat mennyiségben viszik a Radeon 7000-et, de az egy más piac.gyiku: Hát ez van én ma röhögtem ki magam az íráson.
(azé voltak benne jó osztások: "A LOT OF people don't understand the train that is heading at Nvidia this fall...", "If you are wondering about the laughable performance...")
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
[link] - Csárli megint oszt.
-
Abu85
HÁZIGAZDA
válasz
VaniliásRönk #4222 üzenetére
Az AMD-nek sem tetszik. Nekik is jó ez a kétszereplős piac, főleg úgy, hogy az Intel most ellenőrizve van. A VIA-nak majdnem mindegy, míg az IBM-nek csak megvan a licensze, de nem használja.
-
Abu85
HÁZIGAZDA
válasz
schwartz #4198 üzenetére
Az Intel 2015-re tud olyan Larrabee-t csinálni, ami versenyképes a GPU piaci igényekkel. De nem azért, mert beérik az AMD-t ... hanem, mert az AMD is tudja, hogy a szoftver rendering a jövő, így ők is átformálják akkorra az architektúrát.
Az NV-nek ez a "mindkettőt akarom egy chippel" elgondolása a rossz. Ha választanak, akkor nyilván sikeresek lehetnek. Most nyilván az AMD is fog a GPGPU piacért versenyezni, de a nagy HPC rendszerekbe nem invesztálnak, mert az nem az ő terepük. Az Intel a Larrabee-vel jönnek a PC-s VGA piacra is, de nem vesznek majd részt a versenyben csak lesznek és kész.janos666: Hosszútávon minden beköltözik egy tokba. Vehetsz full AMD-s és Full Inteles gépet. Ha pedig szükséged van extra teljesítményre, akkor vehetsz bővítést a gépednek megfelelően (az AMD-től, vagy az Inteltől)
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4183 üzenetére
Az innovatív eljárásokra gondoltam grafikában ... Geometry Shader, Cube Map tömb. Ezek alatt összefossa magát a G80 rendszere, persze nyilván nem DX10-re tervezték a chipet, ahogy te is mondod.
schwartz: A Larrabee-ről már sokat beszél az Intel. Az első generáció csak szárnypróbálgatás, nem várnak tőle nagy eredményt. A második generáció az amivel már akarnak is versenyezni, míg a harmadik generáció lesz a nagy dobás, ami majd megfelelően felveszi a versenyt a konkurens chipekkel (bár itt konkrétan csak az AMD-t említették).
-
Abu85
HÁZIGAZDA
A HD4000-ből kivették az extra mintavételező csatornákat, mert eddig a Riddick az egyetlen játék ami komolyan profitál belőle. Ez az oka.
TTomax: Majd mi is mérünk a Riddickkel. Egyébként a Win7-et miért használsz ... beta az oprendszer az OpenGL modulok még nem is voltak tesztelve ... az OpenGL-es CF rutinok például teljesen hiányoznak még a Catalyst-ból. Értem ezt a nagy Win7 lázat, de mit vársz egy beta rendszertől, nem véletlen nem váltottunk még Win7-re tesztelés szempontból. Egyszerűen a meghajtók nem működnek jól, és a Win7 megjelenéséig nem is lehet mást várni.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4155 üzenetére
Ez a buta teljesen relatív fogalom. Most a G80 és az R600 architektúrája más szemszögből közelíti meg a dolgokat. Igazából itt a butábbat nem is érdemes használni, mert nincs értelme a kifejezésnek. Mindkét chippel meg lehet csinálni ugyanazt, csak az R600 kifejezetten a grafikai számításokra koncentrál, így a szekvenciális kódon alapuló GPGPU alkalmazásokban a függőségek kialakulása miatt lassú, míg a G80 pont az ilyen kódokban erős, mert nem alakulhat ki függőség. Ennek persze az az eredménye, hogy a komolyabb grafikai számításoknál összefossa magát.
schwartz: Szerinted az AMD nem fejleszt a Riddickhez drivereket? Egyébként már kiderült, hogy a sebességben a HD2000-3000 széria az erős. Konkrétan a HD 3870 a HD 4830-cal és a GTX 260-nal egy szinten teljesít.
-
-
Abu85
HÁZIGAZDA
Hát ... attól függ mit tekintünk kis magméretnek.
A jelenlegi Radeon architektúrával 3000 SP úgy 350 mm^2-be férne bele. Most nyilván az AMD-nél ez a 300+ mm^2 stratégia nem él, tehát nem kell 3000 SP-vel számolni. Most a legtöbb dolog a TSMC-től függ. Éppen kérdezgetem őket a helyzetről. Ha elég infó gyűlik össze írok majd róluk hírt. Jelenleg azt mondják, hogy az alapproblémákat okozó 40 nm-es gyermekbetegségeken nyár végén lesznek úrrá. Tehát a 40 nm-es nagy mennyiségű termelés szeptemberben kezdődhet meg, de nem ajánlják a gyártósorokat 230-250 mm^2-nél nagyobb chipekre, mert nagyon romlik a kihozatal. Itt alapvetően koncepció szinten szúrták el az egészet. Várhatóan igazán nagy méretű 500+ mm^2-es chipet ezek a TSMC gyártósorok még minimum 1 évig nem tudnak majd megfelelő kihozatallal gyártani. Ezért is állt át rengeteg mérnök a 28 nm-re, mert mire teljesen megoldják a 40 nm-ert érintő problémákat akkora már gyárthatók a 28 nm-es lapkák.
-
Abu85
HÁZIGAZDA
Mivel globális gyorstárról beszélünk ezért minimálisan nőne a magméret. Az AMD rendszere teljesen egységes, az NV-nek az a legfőbb baja, hogy a G80 úgymond futószalagokra felosztott. Tehát ha a gyorstárak méretét duplájára kell növelni, akkor mindegyik futószalagban el kell ezt játszani. Persze itt fontos megjegyezni, hogy alapvetően a megcélzott piacok is eltérnek (AMD-GPU, NV-GPGPU), tehát ezek alapján megfelelő a chipek kialakítása.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4093 üzenetére
Ez nem így működik. Az AMD a költséghatékonyságra ment. Már a debütálás elején megszabtak egy olyan feszültséget, ami mellett hozható a 85 később 95-99%-os kihozatal. Ennek az eredménye a magas fogyasztás. Az NVIDIA ezt nem tehette meg, mert nekik nagy a chipjük, így a működési feszültség megszabásánál a fogyasztás alacsony szinten tartása játszotta a főszerepet. Ez persze azt eredményezte, hogy nemcsak a hibás területek miatt kellett eldobni a lapkákat, hanem vigyázni kellett az elektronmigrációra is, tehát nem jó ha ez túl magas, vagy túl alacsony. Emellett az sem ártott ha a "szűrővizsgálatokon" átment chipek az alacsony feszültség mellett képesek a referencia órajelre. Jelen pillanatban az AMD kvázi hibátlan wafereket csinál a TSMC-nél. A terület alig 3%-a hibás. Ez az NV-re is igaz, ellenben a GT200-ak 30-35%-a mégis kuka az elégtelen elektronmigráció és az instabil működés miatt.
-
Abu85
HÁZIGAZDA
válasz
schwartz #4091 üzenetére
Itt az a probléma, hogy az R600 a VLIW rendszer, tehát az ütemezésért a driver felel. A Dispatch processzor csak a minták sorrendjét és az állapotváltásokat vezérli. Gyakorlatilag a shader processzorok számának emeléséhez csak nagyobb globális gyorstárak kellenek, mást nem kell megváltoztatni. Az ütemezés szoftveres oldalról továbbra is működik.
-
Abu85
HÁZIGAZDA
A GTA4 az szégyen. Az Xbox360-ra írt kódot fordították át PC-re. Megnövelték a lehetőségeket, de optimalizálni nem volt idejük a nyaralások mellett. Az egésznek az a célja, hogy a PC az nyűg a Rockstarnak. A GTA4-et azért adták ki, mert nagyon rinyált a közösség, de most, hogy gyengék az eladások a következő résznél odadörgölhetik a PC-seknek, hogy a GTA4-et sem vettétek meg, a GTA nextről nem is álmodjatok. Az 1.0.3.0-ás patchbe került bele egy minimális optimalizáció, pedig az AMD és az Nv is felajánlotta nekik, hogy segít a Xenos kompatibilis shadereket optimalizálni a PC-s igényekhez, de a Rockstar nem kért belőle. Nyilván okkal ... ők végleg ki akarnak szálni a PC-s buliból, ha jók a GTA4 eladások, akkor szemét banda hátat fordított annak a közösségnek akik sztárt csináltak belőlük, de olyan szar PC-s GTA4 eredményekkel, mint ami most van a Rockstar csípőből kontráz, hogy nem érdekli a PC-s közösséget a GTA4. Ez a szomorú valóság.
-
Abu85
HÁZIGAZDA
Legnagyobb hiba a Multisample Access hiánya. A DX10-ben csak color mintavétel van, és a Z mintavételt hozza be a DX10.1. DX10-es GPU-k szempontjából az R6xx, a G8x, a G9x és a G200 is képes Z mintát venni, tehát számomra érthetetlen, miért nem a DX10-ben lett bevezetve a Multisample Access ... és ez nagy probléma, mert Deferred Rendering mellett ez kell a tökéletes AA-hoz. Ráadásul a DX10 API caps bitektől mentesített, így függetlenül a GPU tényleges képességeitől, a DX10-es rendszerek nem futtathatják a Z mintavételt. Nyilván a caps bitek mellőzése előny, de jobban át kellett volna gondolnia az MS-nek ezt az egészet. Akik dolgoznak a szabvány kidolgozása mellett azok szakemberek. Azért vannak fizetve, hogy előre lássák mi a jövő, és mi lesz majd a probléma. A Deferred Rendering és az AA problémája szerintem nagyon átlátható volt, ez az egész az MS sara.
Kisebb hiba, hogy a Cube map tömböket a DX10 még szekvenciálisan számoltatja, míg a DX10.1 párhuzamosan. Konkrét változtatás a hardverben itt sem szükséges, tehát megint érthetetlen, hogy miért nem a DX10-be került bele a párhuzamos számítás. Mondjuk ez annyira nem lényeges, mert kb. semelyik játék nem használ Cube map tömböt (Az AMD-s ping-pong demót nem tekintem játéknak- bár szórakoztató).
-
Abu85
HÁZIGAZDA
válasz
janos666 #3896 üzenetére
Most már jó lesz így is. Lement a CUDA vonat, és jönnek a független szabványok. Mi a probléma? Mindent átírnak OpenCL-re és Compute Shaderre. Ha az NV akar valamit a PhysX-ből, akkor azt is át kell pakolni egy független API-ra. Ennek pedig egyenes következménye lesz, hogy minden GPU-n futni fog.
-
Abu85
HÁZIGAZDA
válasz
schwartz #3890 üzenetére
Milyen jól látja kend a helyzetet.
Keldor papa: Csak játszadoznak a számokkal. Maga Richard Huddy mondta a mai konferencián, hogy még cégen belül is nagyon kevesen tudják az AMD pontos stratégiáját. A többség cégen belül csak annyi infót kap, amennyi okvetlenül szükséges. A csatornákon pedig megy a ködösítés.
Ez van az NV-nél is ... -
Abu85
HÁZIGAZDA
válasz
schwartz #3885 üzenetére
Jött egy privi a Larrabee-ről. A forrás nem teljesen megbízható, de azért beírom. Az első 32 magos Larrabee sample ismeretlen órajelen annyit tud, mint a mai egy chipes top kártyák ... Radeon HD 4890 és GeForce GTX 285. Persze a drivereken szerintem lehet még javítani, de nem nevezném biztatónak az eredményeket.
-
Abu85
HÁZIGAZDA
Mert a Ring az előnyös globális vezérlés mellett késleltetésbeli hátrányokban szenvedett a Crossbar-hoz viszonyítva. A gyűrűnek négy megállója van. Egy megállóból az adat a szomszédos megállóba el tud jutni egy egyszerű szomszédos jellel, de mehet a másik irányba is, amikor meglátogatja a másik két megállót is. Nyilván ez késleltetésben háromszoros időveszteség.
És néha vezérlés a rosszabb utat választotta. A HUB az pont-pont kapcsolat globális vezérléssel.
-
Abu85
HÁZIGAZDA
válasz
janos666 #3864 üzenetére
A GeForce-nál sincs semmilyen memory leak. Ezt csak kitalálták, mert nem tudták, hogy a Radeon 256 MB memóriája, miért fogy el később, mint a GeForce 384 MB-ja. Igazából itt semmi hiba nincs, egyszerűen a Crossbar partíció alapú vezérlése ennyire képes. Nem véletlen cserélte le az AMD a Ringre és a HUB-ra.
Ez olyan, mint az AMD PowerPlay rendszere. Mindenki azt mondja, hogy hibás, közben nem hibás, csak nem képes többre. -
Abu85
HÁZIGAZDA
Nem teljesen értem, miért holnap. Nekem június 4-et mondtak. A konferencia is akkor lesz ... na mindegy. Mondjuk Charlie megint drámaira vette az utolsó mondatot: Mid-day tomorrow, the winners and losers for the next 2-3 quarters will become very very clear. ... Talán a hír vége felé hatott igazán a beszívott anyag.
-
Abu85
HÁZIGAZDA
Ok ... vegyük úgy, hogy fejlesztettek egy középkategóriás motyót a GT200-ból. A G92 magméretébe GT200 felépítéssel max. 120 stream processzor fér 40 textúrázóval, és 16 blending egységgel, 256 bites memóbusszal. Az órejelknél még ott van a kérdés, de jó eséllyel nem lehetne úgy hajtani, mint a G92-őt. Ezzel kaptunk volna egy G92-vel hasonló méretű, de lassabb chipet a középkategóriába, aminek az előnye annyi, hogy jobban bírja majd a Geometry Shadert (bár a Radeonoknál nem jobban tehát lényegében csak a különbséget csökkentené, elverni nem tudná a konkurenst). A DX10.1 beépítése még jobban fájt volna, mert G92 mérethez már csak 96 stream processzort lett volna használható 32 textúrázócsatornával. Ez nyilván még lassabb chip lett volna.
-
Abu85
HÁZIGAZDA
Közel 100 játék használja a PhysX API-t ... ennek a töredéke képes a hardveres gyorsításra. A PhysX API használata nem jelenti rögtön a GeForce PhysX gyorsítást. A Maffia 2 ugyanúgy procin számolja a fizikát, mint a PhysX-es játékok többsége.
Egyelőre mindenképp jobb a titkolózás. Az NV szerintem csak végső elkeseredésében döntött a GeForce PhysX játékok felfedésében. A CEO nyilatkozta, hogy a PhysX-től nagy változásokat remélnek. Bár szerintem ez a nyilatkozat csak valami pozitív hangvételű konkrétum volt, hogy megállítsák a részvényárak meredek zuhanását. Igazából csodálkoznék, ha maga az NV is elhinné, hogy a PhysX így zárt rendszerként valamire is vihetné. Az NV-nek most nagyon nehéz döntéseket kell meghoznia. Gyakorlatilag most vannak azon a szinten, hogy nem lehet eldönteni, hogy egy pozitív hangvételű bejelentés mennyire lesz a valóságban is pozitív hatású. A 2009-es GeForce PhysX játékok bemutatása inkább negatív irányba sodorta a történteket. Itt hagyni kellett volna a "Maffia 2 GeForce PhysX lesz pletyka terjedését".
A Radeon HD 4770 ellen amúgy sem tudnak mit kezdeni.
Azt lehet tudni, hogy az AMD dolgozik pár fejlesztő támogatásán. Ergo lesznek még idén DX10.1 címek. Már nagyon erős a pletyka, hogy a DICE és a Techland jó kapcsolatot ápol az AMD-vel.
Meg persze olyan is előfordulhat, hogy nem is tudják, hogy egy játék DX10.1 támogatással jön. A H.A.W.X. például kellemes meglepetés volt. -
Abu85
HÁZIGAZDA
Ezer százalék, hogy volt. Kaptunk is róla hírt mailben. Még gondolkodtam is rajta, hogy megírom hírnek, de voltak fontosabb anyagok is ... meg az AMD is mondta, hogy 10 nap múlva jön a 9.2 WHQL sok újítással.
schwartz: Maguk a fejlesztők is mondták, hogy nem támogatják tovább a játékot. Innentől kezdve nem lehet majd CF támogatást várni. De az AMD nem is a régi játékok miatt dolgozik a CF-en. Az új játékok érdeklik őket.
janos666: Nem mondanak semmit. Félő, hogy visszafelé sül el a dolog (Az NV Physx játékok bejelentése is eléggé negatív eredményeket szült ... gyakorlatilag a többség konstatálta, hogy nem nagy címek lesznek, így kvázi a PhysX mint alternatíva ki lett ütve.). Most ugye a játékoknál benne van a célközönség, de ha te tudod, hogy az x játékkal nem fogsz játszani, akkor világos, hogy az x játék által támogatott technológia (legyen az PhysX, Tesszellátor, DX10.1) neked nem fog számítani. Ellenben ha nem tudod, hogy mi jön DX10.1 és Tesszelátor támogatással, akkor felvetődik benned a kérdés, hogy mi van ha a kedvenced is közé esik. Az NV is jobban járt volna, ha titokban tartja a címeket, mert a Maffia 2 sokan GeForce PhysX-re mondták, aztán most kiderült, hogy mégse. Pedig mennyire jó lett volna ez a tudat a vásárlásnál.
Lesznek még DX10.1-es játékok év végéig, sőt lesz tesszellátoros támogatású is (már ha megjelennek idén).
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
Beowulf_78 #3711 üzenetére
Há me az Atiék már dolgoztak a CF-en. Bőven volt rá idejük, hogy megfelelő legyen a skálázódás egy SLI-s progiban.
-
Abu85
HÁZIGAZDA
válasz
schwartz #3708 üzenetére
Pár sort kell írni a render pathba. De előfordul, hogy magától is működik.
Igazából az SLI-nél is ugyanezt kell eljátszani, de az SLI az nem tudja külön profil nélkül kezelni a multi-GPU kódot. Illetve tudja, csak az esetek nagy többségében ez lassulást hoz. Ezért van a kezelés tiltva, amíg nincs profil a driverben. Most, hogy felbomlottak a TWIMTBP szerződések, az NV nehezebben dolgozza fel az SLI támogatást. A fejlesztői szinten a CF optimalizált kód az elsődleges. Elsősorban az egyszerűbb implementálás miatt, és profil után jól működik az SLI-vel is. Az SLI-s kód az a CF-fel nem éppen barátságos (Crysis).
-
Abu85
HÁZIGAZDA
válasz
schwartz #3706 üzenetére
Ezért indult be a múlt évben közepén a Crossfire partner program. Az év elejétől működik teljes gőzzel eddig nem volt olyan játék idén ami alapból nem ment volna CF támogatással. Az EVGA ezért indította az SLI Enh. Kit. támogatást nemrég (gyors SLI profilok a friss játékokhoz) ... az SLI-nek driver oldali támogatás is kell, míg a CF-nek elég, ha a programkód Multi-GPU Ready.
-
Abu85
HÁZIGAZDA
2,4 milliárd tranyónál sok az 500 mm^2 40 nm-en ... 430 maximum. És ebben még redundáns területek is vannak.
rocket: Nagyon picik a SIMD tömbök. Ráadásul az architektúra miatt a méret a belső tartalommal nem arányosan növekszik. Például, ha kétszerezel benne mindent, akkor tranzisztorban csak 40 plusz, vagy még annál is kevesebb. 1200 SP-hez 1,3 milliárd tranyó elég. A DX11-hez meg nem kell kiegészítés. semmi olyan nincs benne amit a Radeon jelenlegi hardvere kvázi ne tudna.
-
Abu85
HÁZIGAZDA
Az a baj, hogy az R8xx családban nem biztos, hogy az X2-nél megáll az AMD. Idén lesz nyolc utas CrossFireX. Nem nehéz kitalálni, hogy egy kártyára már négy RV870-et is ráapplikálhatnak. Az infók szerint az RV870 1200 SP-s lesz. Ez DX11-en 170 mm^2 max. Van esély a tényleges MultiGPU-ra.
Ha azzal számolunk, hogy az NV 2,4 milliárd tranyóval fogja küldeni ... az 430 mm^2 kb. (most feltételezzük, hogy a tesszellátor lesz a chipben, és nem a pletykáknak megfelelően emulálva dolgozik). Ez akkor is sok ... átlagos előállítási költségen négy RV870 van egy GT300 árán.
-
Abu85
HÁZIGAZDA
válasz
philoxenia #3687 üzenetére
Pusztán arra, hogy a jelenlegi architektúrák közül messze az R600 a legjobb a DX10 eljárásaihoz. A Larrabee az majd a szoftveres renderelésnél fog ütni ... addig nem nagyon zavarja majd a dolgokat. Nyilván jó teljesítménye lesz, csak nem mindegy, hogy azt az x sebességet egy jóval kisebb R600-ra építő rendszer tudni fogja. Az NV meg talány. A jelenlegi architektúra nem jó. Amolyan határeset, de inkább az általános számítás felé hajaz. Most az NV nyilván dönt majd, hogy merre viszi tovább a dolgokat, mert az Intel a GPGPU-ra nagyon ráfekszik a Larrabee-vel, az AMD meg az R600 architektúrával a PC-s VGA piacot akarja. Az NV most tudja, hogy az egyik piacot (VGA vagy GPGPU) biztos be fogja bukni. Kérdés, hogy melyik mellett dönt. A GT300 felépítését az egyik irányba el kell vinni, mert ha ilyen köztes megoldást csinál, akkor se az AMD, se az Intel nem fogható.
A procik azok teljesen irrelevánsak játék szempontból. A fizikát és az AI-t is a GPU fogja számolni a jövőben. Mellesleg 2008 elejei írás. Idén már 5%-ot hoztak a globális részesedésen. Az EU rálépett az Intel tökeire.
schwartz: Az NV-t, meg az alkalmassága érdekli. Egy idő után nem fogja megérni neki ez a huzavona. Pénzt akar, nem elismerést.
-
Abu85
HÁZIGAZDA
Pedig a játékpiacon az AMD sokkal nagyobb hal lesz az Intelnél a közeljövőben. Közel egy év az architektúra alapú előny. Az NV szerintem ezzel a GT300-zal eldönti, hogy melyik piacokra fog koncentrálni. Az Intelt tudjuk, hogy a GPGPU-ra. Az Ati a PC-s VGA-ra. Az NV még kérdés. A kettő együtt nem megy, illetve úgy megy, hogy az egyikben szenvedni fognak, mint most a GT200-zal.
-
Abu85
HÁZIGAZDA
válasz
janos666 #3654 üzenetére
RV870-ből múlt év végén volt type out.
R.Zoli: Nem érdekes az architektúra utasításkészlete. Az API-k megoldják a kompatibilitást. A Larrabbee-nek a GT300 lesz a GPGPU piacon az ellenfele. Egyelőre ezen a területen az NV az úr, az Intel lesz a pici kihívó.
A PC-s VGA piac teljesen más elveken mozog. Ott nem megengedett a saját platform (pl.: CUDA), de a GPGPU piacon ezt várják el.
-
-
Abu85
HÁZIGAZDA
Most egy kicsit jobban beszívott.
-
Abu85
HÁZIGAZDA
Ez világos volt eddig is, hogy a Core i7 az nem népproci. De az látható a gyártókon keresztül, hogy amekkora marketinget kapott a rendszer, ahhoz képest nagyon gyengék az eladások. Sokkal többet vártak a Core i7-től.
Gondolom a válság sok ember anyagi forrásait megvágta. Igazából a Core i7-nek kellene az Atom nudli haszonkulcsát ellensúlyozni az extrém nagy haszonkulcsával. -
Abu85
HÁZIGAZDA
válasz
Beowulf_78 #3590 üzenetére
Rossz lóra teszel kedves fórumtárs.
A Vantage minimum 3000 ponttal többet ad a Core i7-re. Ne feled, az a teszt teljesen kiüti a VGA limitet. A mai játékokban azért teljesítenek kvázi ugyanúgy a 40k fölötti árcédulával kapható procik, mert VGA limit van. Ha ez nem lenne, akkor a Core i7 elgyepálna mindent (ahogy azt 800x600-ban már meg is teszi), de hát ott van a VGA limit.
Plusz, ha jól látom az a Core i7 négy darab RV770-nel dolgozik. Ott már lehet, hogy van pár százalékos javulás, ami nem feltétlen mérési hibának tudható be.
-
Abu85
HÁZIGAZDA
Most akkor az NV visszatér a grafikus processzorokhoz? A GPGPU kódokra a G80 architektúra a legjobb amit ki lehet találni ... grafikára pedig az R600-nál nem lehet jobbat csinálni.
Az a baj, hogy a kettő együtt nem megy. Olyan rendszer nincs ami megfelelő az egyszerű és a bonyolult számításokra is ... valahova mindenképp áldozni kell. Kérdés kinek mi a fontosabb, de a jelenlegi állás szerint már mindketten döntöttek. -
Abu85
HÁZIGAZDA
válasz
schwartz #3446 üzenetére
Egyelőre a PhysX-szel próbálják megfogni a fejlesztőket, aztán át kell őket állítani teljesen CUDA-ra. Ha bejön a PhysX biznisz, akkor az AMD és az Intel is támogatni fogja a CUDA-t, és innentől kezdve a fejlesztőknek a CUDA már nem lesz tabu többé. Ha ez nem sikerül, akkor úgy sem versenyképes az NV az AMD és az Intel platformszintű terjedésével szemben, így nyilván lelépnek.
-
Abu85
HÁZIGAZDA
Ehhez nem kell diploma, hogy kitalálják. A GT300-nál 450mm^2-es chipet mondanak, az RV870 meg 180mm^2 körül lehet. Plusz az AMD stratégiája is az teljesítmény/mm^2 arány növelésén van. Az RV740 12-es aránnyal rendelkezik. Ezt túllépheti bőven az RV870. Én úgy számoltam, hogy azonos gyártástechnológián az R600 rendszerrel feleakkora tranyószámból lehet kihozni ugyanazt a grafikai teljesítményt.
schwartz: Az nem jó. Az NV bírja még egy ideig az anyagi megpróbáltatásokat. A gyártópartnereket kell kicsinálni, ezt pedig úgy kell, hogy bizonytalanságot kell kelteni az árakkal. Baromi szar helyzet, amikor kiadsz egy kártyát, és a következő héten már felezheted is az árát. Az NV-nél ez az év lesz az utolsó, amikor mindent megpróbálnak a CUDA elterjesztésére (vettek is egy csomó játékot). Ha nem sikerül, akkor nincs értelme folytatni. Másodhegedűs szerepkört nem szívleli majd a vezetőség.
-
Abu85
HÁZIGAZDA
Hát a fejlemények eddigi alakulása alapján mindegy mikor jön. Mindenesetre a gyártók nagyon bizalmatlanná válnak majd, mert egy ilyen infó azért végigfut a csatornákon. És ugye ezt az AMD már egyszer megcsinálta, tehát valós a veszély, hogy most akár szándékosan is szopatni fogják az NV-t.
Én úgy látom, hogy hibás döntés volt nyilvánosságra hozni a PhysX-es játékokat. Gyakorlatilag az AMD-nek ebből az jöhetett le, hogy ha idén nem terjed el a CUDA ennek hatására, akkor az NV elkezdi majd elhagyni a piacokat. Gyakorlatilag erre ezzel a hírre rásegítenek, mert ki is húzzák a lábuk alól a gyártópartnereket. Számomra egyértelmű már, hogy az AMD már nem a koronát akarja, hanem tisztán a monopóliumra tőr, mert a versenybíróság a Larrabee miatt jó eséllyel nem fogja betámadni őket.
Departed: Időpontok egyelőre nincsenek, de ez az AMD-nek nem hiszem, hogy baj. Idén valszeg DX11 játék lesz a Battlefield Bad Company 2, de csak a tesszellátort használják az új API-ból, ami a mostani AMD karikon is elérhető a Tesselation SDK segítségével.
-
Abu85
HÁZIGAZDA
Kaptam egy fülest a TSMC-s kontakttól. Elképzelhető, sőt egyre biztosabb, hogy a GT300 után jön az RV870 (pontosan két héttel). Ugyanazt akarja az AMD, mint a GT200-RV770 csata során. Úgy fogja árazni az RV870-et, hogy a GT300 kezdőárát felezni keljen már az első két hét után. Kicsit gecik?
-
Abu85
HÁZIGAZDA
válasz
schwartz #3167 üzenetére
A minimum FPS-eket mondom sose nézd, mert azok lényegtelenek.
Nem csak a procitól függnek.
A legtöbb tesztoldal sajnos nem tudja, hogy kell ezt az értéket mérni. Azt hiszik, hogy ez olyan egyszerű, hogy benyomom a teszt minimumát és kész. Ez baromság ki kell tesztelni, hogy az a minimum valóban a tesztelt holmitól van-e.A másik oldalon a GRAW eredmény az tipikus problémája a Core i7-nek. A Hyper-Threading. Ha kikapcsolod, akkor felnő a teljesítménye a Phenom II szintre.
A GTA 4-ben sok mindent lehet mérni, sajnos az a program baromira szór. Egyszerűen teszt szinten alkalmazhatatlan. Ezért nem is használják sokan.
ashot: kb. igen.
-
Abu85
HÁZIGAZDA
Mert a jelen kórban nagyban a VGA teljesítményétől függ a végleges képsebesség. Ez a teszt jó példa.
Jelen állás szerint egy bizonyos szint felett mindegy milyen procit raksz a gépbe, ha azt játékra használod.
Már a Left 4 Dead is képes lenne az Ati Stream-en keresztül számolni az AI-t, volt egy Valve bemutató erről, ahol bezúdítottak százakárhány zombit és derekasan tűrte az RV770.
Nyilván maga a játék nem tartalmaz ilyen jelenetet, így oda elég a CPU-s AI számítás. Az AMD a GPU-s AI-ról csinálta azt a Froblins techdemót. Ez korrekten dokumentálva van, több fejlesztő is érdeklődött a mechanizmus után. A Blizzard már ki is tanulmányozta (Starcraft 2 esélyes a bulira). Elsősorban a stratégia játékok készítői érdeklődnek a dolog után. Az OpenCL-en keresztül elvileg minden VGA rávehető az AMD algoritmusával az AI számításra, így izgalmas lehet a jövő (ami viszont fontos, hogy tényleg rengeteg Shader erőt igényel a dolog.
-
Abu85
HÁZIGAZDA
A Phenom II a legjobban a játékokban teljesít. Az AMD is erre épít a Dragonnál (a 955-öt a Core i7 965-höz hasonlították a játékokban, és még 1-2 FPS-sel a Phenom II gyorsabb is volt, sőt volt ahol 10 FPS plusz is előfordult ... ez egyébként a Hyper-Threading hátrányának fogható fel, mert a Core 2 Quad már Phenom II szintű eredményeket adott - nyilván a Core i7 nem igazán a játékteljesítményre épít.). Nyilván itt a VGA limit a dolog lényege. Kb. a Phenom II X3 fölött mindegy mit raksz a gépbe (Phenom II X4, Core 2 Quad, vagy akár Core i7) ... nem lesz lényegi különbség. Persze ha ultra low beállítás mellett játszol, akkor a Core i7 elhúz, de a jövőben az egyre nagyobb VGA limit jön elő, hiszen már az AI-t is ott akarják számíttatni.
-
Abu85
HÁZIGAZDA
A legköltséghatékonyabb megoldást kihagytátok.
Gyári AMD-s CF lap Phenom II-vel.
Az SLI-vel szerintem annyi a probléma, hogy az a technológia jelenleg kétoldali támogatást igényel. Programkódnak is SLI-lover-nek kell lennie és szükséges a driver profil is. Az EVGA nem véletlen kezdett bele az SLI csomagok gyártásába. Ugye nem túl sűrűn van WHQL NV driver. A mai szinten minimum a havi frissítés az ideális. Az NV is errefelé áll át, de még nem csoportosította át tökéletesen erőforrásokat.
AMD CF megoldásánál elég ha a programkód CF lover, és mindenféle extra profil nélkül működik a technika. Esetleg ha a program nem CF lover, akkor kell a profil. Ha egy program nem SLI-lover (pl.: GTA 4), akkor az NV addig nem tud mit tenni, amíg ki nem jön egy gyártói patch (GTA 4 esetében az 1.0.3.0). -
Abu85
HÁZIGAZDA
A Crysis-sal vigyázni kell, mert több MultiGPU algoritmus van benne. Alapból az SLI-re optimalizált az aktív. A másikat cfg-ből kell beállítani. Próbáld meg a Warhead-et, mert az már fejlettebb motor. Ott is van két algoritmus, de már jobban működik az általános. Mindenesetre és a CF-re a "multigpu 1" beállítást javaslom, mert az +10 FPS volt nálam.
Aktív témák
Hirdetés
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- OLED monitor topik
- Már az Apple AI-igazgatóját is elcsábította a Meta
- Állítólag megérte kitiltani az okostelefonokat az iskolákból
- Home server / házi szerver építése
- NTFS, exFAT, FAT32 – Melyiket válaszd és miért?
- Samsung Galaxy Watch6 Classic - tekerd!
- Kínai és egyéb olcsó órák topikja
- Yettel topik
- Bambu Lab 3D nyomtatók
- További aktív témák...
- LG 40WP95XP-W - 40" NANO IPS - 5120x2160 5K - 72Hz 5ms - TB 4.0 - HDR - AMD FreeSync
- 129 - Lenovo Legion Pro 7 (16ARX8H) - AMD Ryzen 9 7945HX, RTX 4080
- AKCIÓ! HP Elitedesk 800 G1 USDT mini asztali számítógép - i7 4770S 16GB RAM 128GB SSD Intel HD
- Telefon Felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest