- Samsung Galaxy A55 - új év, régi stratégia
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Google Pixel topik
- iPhone topik
- Bemutatkozott a Poco X7 és X7 Pro
- Szerkesztett és makrofotók mobillal
- Huawei Watch GT 5 Pro - egészség + stílus
- A holnap határán: itt van minden új Galaxy promóképe
- Megjelent a Poco F7, eurós ára is van már
- Xiaomi Watch 2 Pro - oké, Google, itt vagyunk mi is
Aktív témák
-
Abu85
HÁZIGAZDA
Az OpenCL-t az AMD heterogén programozásra képzeli el. Az Ati Stream 2 már támogatja azt, hogy egy AMD-s gép esetében az OpenCL programot CPU-n és GPU-n is futtatja párhuzamosan. Nyilván ezt az Intel is fogja tudni, ha lesz megfelelő GPU-juk. Az NV-nek meg nincs CPU-ja, így ők természetes, hogy más utat járnak.
Az AMD cucca is jó GPGPU számításra csak nem szereti az egymástól függő skalár műveleteket, ez esetben nagyon lassú. Folding az egyetlen példa erre, az ilyen műveleteket használ. -
Abu85
HÁZIGAZDA
Az elképzelhető, hogy az SSAO algoritmust nem írták át PS4.1-re. Amúgy az egész Clear Sky-on van mit javítani ... természetesen sebesség szempontból.
Szerintem a fejlesztők kezét sokban kötötte a TWIMTBP szerződés. Az Xray 1.6-nál (következő Stalker) már nagy sebességbeli javulást ígérnek.
-
Abu85
HÁZIGAZDA
A tény az, hogy az AMD 4%-ot vett el az elmúlt negyedévben az NV-től. Én ezzel nem vitatkozom. Te linkeltél erre egy egy évvel ezelőtti jelentést amiben az AMD 40%-os részesedésre számít, de ez nem tény, hanem előzetes várakozás. A tény az a jelenben van, amikor is az AMD 4%-ot elvett az NV-től.
-
Abu85
HÁZIGAZDA
Azért egy éve teljesen más volt a helyzet. A GeForce név volt a köztudatban, az emberek bíztak az NV fejlesztésében, most nincs új NV fejlesztés, sőt azt is tudjuk, miért nincs. Kapnak egy olyan árazást, hogy az egész internet erről fog beszélni. Ergo megtörik a VGA=GeForce mítosz.
Persze nyilván értem a félelmed, hiszen ezt az alacsony árazást a jövőben egyeduralkodóként keményen behajtja majd az AMD a vásárlókon. Ez ellen csak az Intel tehet, mert nekik érdekük is ez a piac. -
-
Abu85
HÁZIGAZDA
válasz
janos666 #5436 üzenetére
Én nem a személyed ellen küzdök (téged bírlak
) ... csak próbálom a júzerek érdekéből nézni a dolgokat. A lényeg, hogy az NV és az AMD is rábólintott anno arra, hogy a DX10.1-ben lesz megoldás az AA problémákra. Ezeket a speckókat közösen hozzák össze, ha valakinek nem tetszik valami felszólhat ellene, aztán majd elemzik az érveket. Fejlesztésre bőven van idő minden gyártónak. Az meg az NV egyéni döntése, hogy milyen architektúrát készít. Nekik számított a GPGPU piac, az AMD-nek annyira nem. Ez jelenleg a legnagyobb különbség, és hátrányos az NV-re nézve.
gbors: Nyilván a gyorsulást csak az algoritmus erőforrásigényére értem. A teljes képkockának ugye csak kis része az SSAO. Persze el is lehet kúrni a dolgot.
Mackósajt: Faja ... bár nekem holnapra mondták a Q2 eredményének közzétételét, de mindegy.
-
Abu85
HÁZIGAZDA
Nem tudom melyik bolygón élsz, de az RV770-nel jelentős részesedést szereztek a középkategóriás kártyák piacán. Ez elég volt ahhoz, hogy több nagy stúdió is felbontsa a TWIMTBP szerződéseket, mert már a Radeonra is figyelni kell a célközönségnél. Majd érdemes lesz megnézni a 2009 Q2 eredményeket, mert már írta a Best buy, hogy a 70 dollár alatti piacon (ahol eddig nagyon gyenge volt a teljesítmény - Q1-ben is kétszer annyi olcsó GeForce lett eladva a Radeonhoz viszonyítva) is alig fogyott kevesebb Radeon, mint GeForce, de e fölött Radeon uralom volt teljesen. Ez pár százalékot biztos jelent majd.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5427 üzenetére
A Multisample Accesst tudná minden DX10-es kártya, persze nem a fázisokkal párhuzamosan futtatva.
A Gather4 az X1900-ban bevezetett Fetch4 szabványos változata, sebességre nagyon jó hatással van. Például egy SSAO algoritmus majdnem négyszer gyorsabban fut le négyszeres mintavétellel, mint nélküle. -
Abu85
HÁZIGAZDA
válasz
Dark KillerX #5425 üzenetére
Régóta nem akciózik az NV az oldalak lefizetésével. Ez nyár előtt volt divat náluk. Azóta nyugi van.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5405 üzenetére
Van olyan játék, ami használja boxon a Xenos tesszellátort, csak a PC annyira erős, hogy megbirkózik a teljes részletességű modellel. A Tessellation SDK is nagyon lassan készült el. 2009 áprilisában lett mindenki számára publikus a rendszer. Mondjuk az is igaz, hogy sokkal többet tud az ígértnél, hiszen képes a DX11-es kód értelmezésére is, ami nem volt tervezett. Ez persze nagyon tetszik a fejlesztőknek, hiszen jelentősen megkönnyíti a munkát, ráadásul minden jövőbeli DX11-es hardvert támogat. Konkrétan ez jelentős segítség a multiplatform fejlesztéseknél elég ha ezt a programot használják és az Xbox360 mellett a PC GPU-k is támogatottak az R600-ig visszamenőleg.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5403 üzenetére
Az UT3 még az Ageia rendszert támogatta. Sweeney egyébként nem is tagadta soha, hogy a PhysX-be egy kölcsönösen előnyös szerződés vitte bele az Ageia-val. Az NV később megvette a céget és elkészítette a támogatást, amihez az Epicnek semmi köze nem volt.
A multiplatform fejlesztést mindig PC-n kezdik, még akkor is ha nincs PC port. Utána írják át a kezdeti alapokat konzolspecifikusra. A GeForce PhysX jelenleg azért működik, mert az NV pénzt ad, ha beépíted a támogatást. Az AMD soha nem ad anyagi támogatást, mert ők minden pénzt a fejlesztésre költenek. Az NV azért költ a PhysX-re, mert fejleszteni felesleges számára egy olyan piacra ahol nincs már jövője. Gyakorlatilag az eladásokat is a PhysX fogja generálni, más lehetőség nincs ... teljesítményben már nem tudják tartani a lépést, hiszen a GPGPU piac eltérő felépítést kíván.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5401 üzenetére
Ha megnézed kik támogatják, akkor láthatod, hogy a komoly pénzmag miatt kattantak rá. A GRIN konkrétan leamortizálódott, bár ők nem is kapták meg a zsét a Terminatorért. Ahol nincs szükség pénzre, ott a PhysX-et nem is emlegetik ... jó dolog ha van anyagi fedezet a Havokra.
A PhysX-et sem viccből kínálják ingyen. Sőt a GeForce PhysX támogatásért fizet az NV.
A tényleges fejlesztési pénzt a szoftveres támogatásra fordítják.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5399 üzenetére
Szerinted ők ezt így tervezték. Azt hitték mostanra már nem lesz Ati. Tévedtek.
Jelenleg tudják, hogy ez egy veszett ügy, de még van a piacban pénz, a lényeg, hogy a kiadásokat kell visszafogni, mert egyre kisebb a bevétel lehetősége. Láthatod, hogy a GPU piac az NV-nél is működik tovább csak leépítik arra a szintre, ami mellett nyereséges tud maradni.Ahhoz, hogy valami ipari szinten elfogadott szabvány legyen el kell, hogy terjedjen. HA ott álna a CUDA mögött az AMD és az Intel, akkor már menne a TWIMTBP úthenger a platform terjesztésére. Amíg nincs mögötte a piac többi szereplője, addig felesleges köröket futni, mert mindenhol ajtót mutatnak.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5397 üzenetére
Meg lehetett volna valósítani, hisz a DX10.1 hardveres követelményeit 2006 végén zárták le. Idő volt, mint a tenger. Azért nem támogatták, mert a CUDA-t kellett lenyomni mindenki torkán, így valahol a DX mellett, valahol pedig ellene kellett dolgozni. CUDA nélkül nincs az NV-nek jövője, ezt ők is tudják.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5392 üzenetére
A HD 2900XT a 8800GTS 640 ellenfele volt. De a 8800 GTX-et már hozza.
A DX10-et szerintem az NV miatt kellett megkurtítani. A GPGPU mellett nem tudtak normális rendszert fejleszteni. A DX10.1 pedig időt adott nekik, amit végül nem használtak ki. Ez az ő bajuk.Departed: UE3-ban be elehet kapcsolgatni az AA-t, AMD-n és NV-n is. Az AMD az effektett tartja elsőnek, így sok helyen nem működik, az NV az AA-t tartja meg, és a textúra minőség lesz rossz, illetve eltolódnak az effektek.
A Wolfenstein (vagy a GTA4) például már Deferred Lightning, itt semmit sem lehet tenni, bármit állítasz nem lesz eredménye. A teljes deferred lightning fázist ki kell ütni, ami lehetetlen driverből. -
Abu85
HÁZIGAZDA
Ha az Evergreen olyan magas szinten támogatja a DX11-et, mint az R600 a DX10-et, akkor az már tökéletes lesz. A tesszellátort ki kell tapasztalni, elméleti alapokra helyezni a tervezést hiba, mert sok dolog függ a gyakorlattól is, és ezek mind teljesítménybe kerülnek. Márpedig a tesszellátor évek óta a legnagyobb újítás DX fronton.
Az olcsóság meg maga a tökély, minél jobban terjedjen az Evergreen, hogy az NV-nek ne legyen befolyása, ha nem jó a chipjük.Departed: Ezt meg lehet köszönni az NV-nek. Visszatartották a fejlődést, mert nem voltak érdekeltek benne. A DX10.1-ben ott a megoldás az AA problémákra.
-
Abu85
HÁZIGAZDA
válasz
leviske #5375 üzenetére
Az egész DX11 a tesszellátorra épül. Mekkora a technika már ... sokszor részletesebb modellek és felületek közel dupla sebességgel. A baj az, hogy számos szűk keresztmetszetet lehet találni a gyakorlatban, ami akadályozza a sebesség megfelelő skálázását. Gondolom az AMD ezt tudta, és ezért épített tesszellátort a mostani rendszerekben, hogy agyontesztelhesse magát, és a DX11-re már jó rendszerrel jöjjenek ki.
-
Abu85
HÁZIGAZDA
Azt hallottam, hogy az R600 tesszellátor gyakorlati vizsgálata során számos ponton szűk kereszt metszetett találtak a rendszerben, így az Evergreen több helyen modernizált lett. Ez vélhetőleg komoly mennyiségű tranzisztorba került. Állítólag a DX11-es tesszellátor beépítése olyan gyakorlati problémákat vet fel, melyre az elméletben nem is gondolna az ember. Mivel az AMD mindig megfelelő rendszert csinált az aktuális DX-nek, így most is a maximális kihasználásra törekedhetnek, még akkor is ha az teljesítménybe kerül a régi DX esetén.
-
Abu85
HÁZIGAZDA
válasz
Petya2900XT #5349 üzenetére
Az olcsóság inkább annak tudható be, hogy a TSMC kárpótolja az AMD-t a 40 nm-es RV740 miatt. Így az R800 esetében olcsón bérelnek gyártósorokat és sokkal olcsóbban kapnak wafert a többi vállalathoz viszonyítva.
-
Abu85
HÁZIGAZDA
Pedig ez a megfelelő stratégia. Eleve rohadt olcsó gyártani a kártyákat, majd ha a névben még jelenlévő konkurencia eltűnik, akkor fognak az árak eldurvulni. Addig az a lényeg, hogy minél többen vegyék az Evergreent. Egy csomó ember mostanában akarja lecserélni a régi GeForce 8800-át, itt a lehetőség.
A PhysX a jelenben él, a jövőben életképtelen. A gyorsabb halálért viszont tehet valamit az AMD. Igazából se az Intelnek se az AMD-nek nem tetszik, hogy az NV makacsul ragaszkodik a GPU piachoz, amikor tudják ők is, hogy ez a harc bukta. Még erőszakosabban kell fellépni ellenük. További probléma a konzol, a PC-s társadalom kezd átállni. Az AMD pedig a PC-s GPU piacot választotta, nem úgy, mint az NV és az Intel, utóbbi vállalatok inkább a GPGPU frontra állnak rá..
-
Abu85
HÁZIGAZDA
Magasan jobb ár/érték arányt akarnak kialakítani. Azt az NV-nek le kell követnie, ha nem teszi, akkor azt az eladások fogják megsínyleni. Az egész gondolom a PhysX visszaszorítására tesz kísérlete, illetve a nagy elterjedtségre. Ezzel a fejlesztői támogatás is meg lesz, és a PhysX-et is elteszik láb alól.
TTomax: Ja jó dolog a választék, de még jobb a haszon. A választék meg annyi, hogy rendelsz egy-két darabot a többi termékből. Voltam eladó, ha valami nincs, akkor ajánlod azt ami van, az esetek 80%-ban elviszik, 15% meg visszajön, mert nem találja meg a kereset hardvert.
-
Abu85
HÁZIGAZDA
Követni kell nekik az árazást. Ha nem követik, akkor teljesen életképtelenek lesznek ár/értékben. Ha a kereskedők rárakják, a bónuszhaszont a Radeonra az is az NV-nek gáz, mert nem fognak rendelni Geforce-ot, hiszen ugyanazzal a befektetéssel jóval nagyobb haszont hoz a Radeon eladása. Ha nem lesz a boltban GeForce, akkor baromi nehéz lesz eladni azt.
-
Abu85
HÁZIGAZDA
A Futuremark a Vantage óta az NV partner. Nem véletlen nem az az erőviszony a programban, mint a DX10-es játékokban. Akkor még volt pénz benchmarkot is vásárolni.
luw2win: Egyelőre a Shattered Horizonon dolgoznak. Bár abból már kivágták a single kampányt, mert kevés az idő, így multi FPS lesz. Aztán majd meglátják. Szerintem egy az egyben Vantage lesz PhysX effektekkel. Amolyan 3dmark05-06 evolúció.
-
Abu85
HÁZIGAZDA
válasz
TESCO-Zsömle #5135 üzenetére
A Futuremark új bench-je a PhysX-re fog épülni. A DX-ben egyelőre nem újítanak.
-
Abu85
HÁZIGAZDA
válasz
DeckardCain #5081 üzenetére
Az AMD féle Blizzard kapcsolat sem olyan, hogy betolt az AMD egy valag pénzt és mostantól csak mi létezünk. Egyszerű munkakapcsolat. A Blizzardnak nincs szüksége anyagi fedezetre, így az NV-hez hasonló pénzbetolós akcióktól eleve elhatárolják magukat. Nyilván, az hogy a múlt évben az AMD-vel hosszútávú fejlesztési kapcsolatot kötöttek eleve nem jelenti azt, hogy az Intel és az NV hardvereit nem veszik alapul.
-
Abu85
HÁZIGAZDA
válasz
janos666 #5071 üzenetére
Carmack azon kevés fejlesztő közé tartozik, akit nem lehet megvenni kilóra. Egyszerűen a lehető legjobb technikát akarja piacra dobni, amihez az aktuális kor legtutibb hardvere kell. Ettől Carmack nem fordul el az NV-től eddig is minden gyártó igényeit maximálisan figyelembe vette.
A másik, hogy Carmack sokkal többet tud, mint mi. Valószínűleg már látja, hogy mi van - esetleg mi nincs - az NV kezében. -
Abu85
HÁZIGAZDA
válasz
janos666 #5065 üzenetére
Fejlesztési szerződést kötöttek az ID-vel és a cég partnereivel. Carmack atyánknak mostantól az AMD szállítja a hardvert. John meg optimalizálja rá a cuccot. Az új Wolf is AMD reklámmal jelenik meg.
Amúgy ez várható volt. Az Intel még nem versenyképes, az NV-ről meg össze lehet rakni a részleteket ... valszeg tipliznek. -
Abu85
HÁZIGAZDA
válasz
janos666 #4865 üzenetére
Ebből csinálni kellene egy filmet.
Nem tom, hogy mi volt pontosan a háttérben, de szerintem a DX10-et visszabutították az NV hardverhez, mivel a DX10-ben már nincs caps bit, így mindent kell tudni a GPU-nak. Szerintem eleve a DX10.1 volt a DX10. Túl kevés idő telt el a két API megjelenése között.
Az MS-nek világos volt, hogy az NV a CUDA-t fogja tolni. Azért az ottani elemzők benne vannak annyira a szakmában, hogy láthatták az NV esélytelenségét a CUDA nélkül. Az ATI felvásárlása és a Fusion tervek kiszivárgása után nem volt nehéz kitalálni, hogy a platform nélkül, itt senki sem marad életben.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
janos666 #4859 üzenetére
De mit jelent a Max. A játék eleve nem támogatja az AF-et. Így lehet AF-es maxról beszélni? A játék eleve összeütközik az AA-val.
Amúgy elég szar ez a probléma, nyilván nem tudunk mit csinálni azzal, ha egy gyártó a saját érdekeit előrébb tartja a felhasználók érdekénél, de ezt már nem sokáig lehet fenntartani.
Szerencsére csak egy ideig lehet vakítani.Előbb utóbb mindenki elfordítja a fejét, vagy végleg megvakulnak.
-
Abu85
HÁZIGAZDA
válasz
janos666 #4857 üzenetére
Senki sem tudja a nem kompatibilis effektekkel összehozni az AA-t és az AF-et. Erre az NVIDIA sem képes. Minden ugyanúgy működik az AMD és az NV oldalon is a Crysis-ben. Eleve nem értem miért akarsz Edge Detect-es CFAA-t erőltetni az AMD oldalról, amikor a CryEngine 2 nem támogatja! Igen NV oldalon sem.
Erre van a beépített Edge Detect Shader ami nyilván az AA bekapcsolásával azonnal kikapcsol a motor. A POM meg ugyanúgy működik az AMD és az NV AF-je mellett. Ugyanúgy szarul lesz szűrve a textúra. HA az NV tudna olyan algoritmust ami mellett működne az AF a POM-mal, akkor minek dolgozták volna ki az MS-sel és az AMD-vel a DX10.1-be a LOD utasításokat?
-
Abu85
HÁZIGAZDA
válasz
Sweet Lou 6 #4810 üzenetére
Elvileg hard launch lesz ... minden jön, aminek jönnie kell. Gondolom az AMD egyszerre kihasználja a Win 7 keltette hype-ot.
-
Abu85
HÁZIGAZDA
válasz
Sweet Lou 6 #4805 üzenetére
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4683 üzenetére
Ez nem így működik. OBM eleve nem fut le ha POM shader van a felületen. Nem tudom honnan jött ez a DX9-ben nincs POM, de ennek nincs alapja. Futtasd le a Crysis-t DX9-en és üsd be a konzolba a con_restricted 0 parancsot. Ezután az r_usepom 1, az e_terrain_ao=1 és az r_DetailTextures=1 parancsokkal tudod a texture opció Very High paramétereit előhívni.
Próbált ki egy köves helyen működni fog a POM.
-
Abu85
HÁZIGAZDA
válasz
schwartz #4676 üzenetére
Nyilván ... az Intelnek minden álma, hogy támogassa a CUDA-t és örök második, netalántán harmadik legyen az NV mögött.
Hát nem erős a Larrabee az eddigi infók alapján, de újabban az Intel is azt nyilatkozza, hogy a harmadik generáció már felveszi a versenyt az aktuális vasakkal.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4673 üzenetére
Offset bump mappingot a Far Cry 64 bites verziója használt. A Crysis DX9-ben és DX10-ben is ugyanazt a Parallax Occlusion Mapping eljárást használja.
Baromira egyszerű megtudni a DX10-es parancsokat. Amikor előkerült az XP-s Very High beállítás, akkor megkérdeztek a Crytek-et, mi a helyzet.
Az az anyag meg a Cryengine 2-ről szól, miért kellene minden olyan dolgot felhasználni a Crysis-hez amit tud a motor.
Fel kellene rakni az 1.2-es patchet, ami javítja a WDDM kezelési problémákat, és felzárkózik a sebesség az XP-hez.
gbors: 1.0-ás verzió tényleg lassabb. Te 1.21-gyel mértél ami imprúved perfórmensz.
-
Abu85
HÁZIGAZDA
Egy Crytekes gyerek publikálta az SSAO-t. Gondolom tud optimalizálni.
Esetleg az is játszhat, hogy a Crysis képszámításának kis részét teszi ki az SSAO, így kicsi lesz az eltérés is a teljes frameidőben.
Az NV driveres HBAO meg teljesen általános algoritmus lehet, talán a fő szempont a széleskörű hasznosítás. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #4665 üzenetére
A crysis két eljárást használ DX10 módban: ami az r_UseGSParticles és a d3d10_CBUpdateMethod. Az első parancs részecskeszimuláció a robbanásoknál, míg a másik a Constans Buffer gyorsabb kezelését teszi lehetővé. Utóbbi alá tartozik még a d3d10_CBUpdateStats és a d3d10_NumStagingBuffers. Ezek teszik lehetővé a d3d9-hez képest a gyorsabb feladatkezelést.
VinoRosso (4666): Ha a DX9 Displacement Mapot használna, akkor egyrészt normálisan működne az AF szűrés, másrészt összefosná magát az összes VGA.schwartz: A 3dfx 2000-ben bukott. Az utolsó motor ami támogatta a Glide-ot az Unreal volt, de az UT esetében már kivették a támogatást, mert felesleges volt. Gyakorlatilag mondhatjuk, hogy az Unreal játék volt az utolsó glide támogató program 1998-ban. Ha a Glide nyeregben lett volna, akkor a 3dfx nem megy csődbe, mert a Glide a saját zart API-juk volt és csak a Woodoo kártyákon működött. Ergo a konkurens megoldásokon el sem indult a játék.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4657 üzenetére
Hát pont ez a baj amit írsz, hogy együtt tervezték őket. A CUDA a G80-hoz hasonló teljesítményű hardveren lassabban fut. Ha nem, akkor azt az NV megoldja, hogy lassabban fusson. Ezért nincs támogatása.
Senki nem akar a konkurens gyártótól függni, főleg úgy nem, hogy az a konkurens gyártó a CUDA nélkül búcsúzhat a piactól.
A Tesla rendszerek G80 architektúrára épülnek.Szerinted az NV vagy az Intel miért nem támogatja az Ati stream-et? Függetlenül attól, hogy nincs értelme.
Itt mindenki bukni fog, csak az OpenCL és a Compute Shader marad életben, aztán egyszer az a harc is el fog dőlni, ahogy eldőlt a DX és az OpenGL harca is.Pontosan ezért nem akar az AMD a GPGPU piacon komoly részesedést, mert az architektúrát nem úgy építette fel.
Vagy GPU, vagy GPGPU. A kettő együtt nem megy. Illetve ment volna, ha az AMD nem veszi meg az Atit, mert akkor a kanadaiak kifeküdtek volna.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #4654 üzenetére
A CUDA memóriamodellje teljesen a G80-ra van optimalizálva. Azon fut a leggyorsabban. Bár itt főleg nem ez a baj. [link] - itt egy NV-s embörke nyilatkozata alapján, a zöldek már nyíltan várják a CUDA támogatóit. Gondolnak itt az AMD-re és az Intelre. Kell nekik a segítség, mert a fejlesztőket nem érdekli egy zárt platform. Ráadásul megjöttek a gyártófüggetlen kihívók. A Glide is sok előnyt tudhatott magáénak az OpenGL-lel és a DX-szel szemben, aztán be lett darálva. Most a CUDA-ra is ez a sors vár, hacsak nem lép be a támogatók köré az AMD, és utána az Intel. De miért is lépne be. Hisz ők is tudják, hogy az NV felügyeli az egész platformot, beleszólásuk nem lesz, aztán nézik ahogy az NV honlapjáról letölthető CUDA 4.0 a GeForce GTX 400-hoz lesz ajánlva. Szépen megcsillagozva, hogy a szánalmas AMD és Intel rendszerek csak a 3.1-es verziót támogatják, így nem is érdemes velük foglalkozni.
Persze a CUDA sikeres lehet a HPC rendszereknél, dehát ez hol érdekli az AMD-t és az Intelt. Majd csinálnak saját felületet a saját termékeikhez. Bár ahogy én tudom az AMD egyelőre nem is akar foglalkozni a HPC piaccal.
Egyelőre nincs sok infó az NV új architektúrájáról, nem is igazán akarok róla beszélni, mert ki tudja milyen lesz. Nyilván a buta Radeon ellen a grafikai számításokban nem fogja felvenni a versenyt. Az AMD most is kisebb lapkával hozza ugyanazt a teljesítményt, fejletebb képességek mellett.
Év végére még befut a 96 SP-s GeForce GT 230, aztán nem tudni mi lesz, bár én gyanítom, hogy karácsonyra még megejtenek egy dupla GT215-öt, hátha az elvakult fanok megveszik. Sőt, ha olcsó lesz, még racionális érv is lehet mellette. -
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
[so far, there are six confirmed DX11 titles launching this year]
Fura. Én ötről tudok, de hogy idén jön mind azt nem mondanám. Szerintem félreértettek valamit, mert DX10.1-ből pont hat jön még idén.
Dare2Live: Még nincs az NV-nek második negyedéves adata. Egyébként nem tudnak mit csinálni. Egyszerűen nincs alternatíva a GPU-s procikkal szemben. Ezek pedig pont a legnagyobb bevételt jelentő piacokat csinálják ki.
-
Abu85
HÁZIGAZDA
Az R600-zal technikailag nem volt probléma. Tökéletesen megtestesítette az ideális DX10 gyorsítót. Az NV-nek volt más az elképzelése. 2004-től már lehetet látni, hogy a platformban a jövő. 2011-től ugye jönnek a GPU-s procik, így a dedikált GPU-k forgalma jelentősen visszaesik. Nyilván az Intel és az AMD is erre fejlesztett, azzal a különbséggel, hogy az AMD nem kezdett mindent a nulláról, hanem vett magának egy GPU gyártót (ATI). Az NV innentől kereste a megoldásokat a közelgő problémára az egyetlen esély az életben maradásra, a saját szabványok bevezetése. Ezt szorgalmazza a CUDA. Innentől annyira gyorsra kell tervezni a G80-at, amennyire csak lehet, és lényegtelen, hogy a DX10 egyes fontos újításaiban megfekszik, mert a GeForce elterjedésével megvehetők a fejlesztők. Itt jött volna az, hogy az ATI DX10-re megfelelő chipet tervezett, így ők teljesítményben hátrányban voltak. Anyagilag nem bírták volna és tulajdonképpen már csődben lennének (ugye komoly anyaig és fejlesztői segítséggel fejezték be az R600-at, és a drivert is a Transmeta segítségével hozták össze). Ez lett volna anno a fordulópont (kb. 2007 vége), ezután a DX10-et eldobni, és jöhet a CUDA korszaka. A CUDA pedig annyira elterjedt volna 2011-re, hogy az Intelnek és az AMD-nek (most ők alternatív síkban vannak, mert anno nem vették meg az ATI-t) be kell állnia a támogatók közé, mert az NV uralja a teljes GPU piacot, és a CUDA a megkérdőjelezhetetlen platform. Az NV a CUDA rendszert a saját GPU-ira optimalizálja, így az Intel és az AMD az integrált és diszkrét cuccaival nehezen versenyez (befolyásolható a teljesítményük). Ezzel az NV gyakorlatilag megfogja a platformosodás problémáját.
A homokszem ott csúszott be, hogy az AMD megvette az ATI-t és túlélte a kritikus időszakot. Innentől kezdve a CUDA terjedése a támogatás hiányában nem volt megfelelő. Az R600 is jelentősen fejlettebb volt az G80-nál, így jobban skálázható, és technikailag is egyszerűbb a paraméterezhetősége.
Jelenleg másfél év van még a teljes platformosodásig. Addig kell valamit csinálnia az NV-nek, vagy a GPU piac elveszik. Persze ahogy az már látszik inkább egy lehetséges új piac után kutat. -
Abu85
HÁZIGAZDA
Tény amit tényként közölnek velem, pletyka meg amit pletykaként.
Nem olyan nehéz ezt megkülönböztetni.
Mi a baj a hsz-szel? Leírtam, hogy mi lehet az értelme az AMD alacsony árazásának. Nyilván racionálisan gondolkodó informatikus nem gondolja, hogy az NVIDIA-nak platform nélkül van jövője. A CUDA hajója már elment, így ideje átszervezni az erőforrásokat cégen belül. Gondolom te sem gondolod komolyan, hogy az NV-nek most a DX10.1-es belépőszintet kellene nyomatnia. Ennél sokkal többre lennének képesek, ha a vezetőség látna jövőt a piacban és megfelelő erőforrásokkal látná el a GPU részleget, nem pedig építenék le azt. Gyakorlatilag egy éve lesik az AMD technikai előnyét, és most próbálnak felzárkózni. Régebben ez nem így ment. Megy a hírbe kerülni mindenképp dolog, de tényleges újítást a Computex-en sem mutatott a GPU részlet. Talán nincs is mit mutatni?
-
Abu85
HÁZIGAZDA
Sose írok meg kamut. Aki nem hiszi el, az nem hiszi el. Ez van. Minden pletyiről meg szoktam kérdezni egy csomó beavatott emberkét. A hivatalos gyártók általában nem csiripelnek, de az OEM csatornákon keresztül sok minden kiderül. Ezt nekem kötelességem kihasználni, hiszen információt kell szereznem, amit megírok.
-
Abu85
HÁZIGAZDA
2011 nem a távoli jövő. 1,5 év van addig. Márpedig a CPU-ba épített GPU a legnagyobb bevételforrásokat szedi el az NV-től.
Nem viccből építették le a múlt héten TWIMTBP programot sem. A csoport fele mostantól a Tegrára koncentrál, mert a PC-s GPU piacba már nem éri meg sok pénzt fektetni. -
Abu85
HÁZIGAZDA
Még nem nyilvánosak a q2-es piaci részesedés adatok, de az AMD 78%-kal növelte a GPU-k termelését, míg az NV közel a felére csökkentette (legalábbis a TSMC-hez sokkal kevesebb rendelést adtak le áprilistól). Ez gyakorlatilag a fordulópontot jelent.
Az NV élni és virulni fog, csak nem a PC-s GPU piac lesz a cég profilja. Az AMD csak azt akarja, hogy a lehető leghamarabb "leszereljenek". -
Abu85
HÁZIGAZDA
Az AMD-nek az NV mielőbbi kivéreztetése az érdeke. Ha nem lesz konkurens (a Larrabee nem lesz az), akkor helyből dobálhatják a cuccokra a 100+ dollárokat. A HD 4800-nál is teljesen logikus lépés volt az árazás. Akkorra hype lett belőle, hogy hatalmas reklám lett az AMD-nek. Nem mellesleg az NV-t is veszteségbe taszították.
A DX11-es karikat is okkal árazzák alacsonyra. Az NV versenyképességét akarják megölni, már most sem követik a zöldek az AMD árazást. Egyszerűen ez a minimum, amit megengedhetnek. Ha az NV nem lenne rákényszerítve a PC-s iparágának leépítésére, akkor az AMD is előnyben részesítené a nagyobb haszonkulcsot, így viszont előrébb hozzák az amortizálódást. Nem mellesleg a részesedést is magasabbra kell tolni, mert végleg ki kell csinálni a CUDA-t.
A webáruházaktól meg megszokott az elején a nagyobb haszonkulcs. Ezt akkor is eljátszanák, ha drágább lenne a termék listaára. Két-három hét és normalizálódik.
-
Abu85
HÁZIGAZDA
Igazából minden programozás kérdése, de az elején inkább a sebességet fogják a DX11-en keresztül kamatoztatni. Szóval kicsit lassulni fog a DX10.1-es rendszer feldolgozási teljesítménye.
A DX10-hez képest képminőség különbség is játszhat, mert azok a rendszerek már annyira belassulnak, hogy a kevesebb számítással tartják fent a teljesítményt. Illetve nyilvánvaló, hogy a DX10 esetenként nem lesz képes AA-ra és AF-re. A DX10.1 ezeket képes kezelni.
A Xenos tesszellátor elvileg működőképes DX9, DX10 és DX10.1 alatt. Mivel mindenki az AMD tessellation libraryt használja, így ez sem jelent majd hátrányt. Esetleg sebességben, mert nem tudni, hogy a gyakorlatban lesznek-e a régi rendszerek esetében szűk keresztmetszetek. -
Abu85
HÁZIGAZDA
Ahhoz, hogy ez megtörténjen az összes kereskedőnek össze kellene beszélni (persze ez annyira kartelgyanus, hogy már kartelnek is mondható
), mert jó esély van rá, hogy nem mindenkinek a fejében fordul meg ez az ötlet. Amúgy a kereskedők állandó haszonkulccsal dolgoznak, nem igazán bónuszoznak. Ha a szomszéd bolt ugyanonnan szerzi és az alacsonyabb haszonkulccsal alád megy, akkor csak nézheted a magasabb haszonkulccsal árult termékedet, ahogy a polcon porosodik.
-
Abu85
HÁZIGAZDA
Keldor papával értek egyet. Most add el az egyiket és a másikat elég akkor, amikor már itt az új Radeon. Így jössz ki belőle a legjobban.
Az új generációt kb. teljesítmény szerint árazzák be a jelenlegi palettához viszonyítva. A DX11, mint fícsőr nem fog pluszt jelenteni az árban.
-
Abu85
HÁZIGAZDA
Tekintve, hogy a DX11 legtöbb specifikációja az ATI-tól származik, erre kicsi az esély. Ráadásul a tesszellálásban is több éves gyakorlati tapasztalatuk van szemben az NV elméleti elképzeléseivel. A történelem is az ATI oldalára billen, hiszen minden új DX-re elsőnek fejlesztettek hibátlan architektúrát. Míg az NV-nek ez a DX9-nél másodjára sikerült, míg a DX10-es speckókat még a GT200 sem tudja teljesítmény szempontjából teljesíteni (ennek mondjuk van magyarázata, így ez talán nem releváns). (Mondjuk a GeForce FX-nek is van magyarázata csak az nagyon vérszegény
)
Az új NV mellett a PhysX és a CUDA szól, már ha érdekelnek ezek még valakit.
-
Abu85
HÁZIGAZDA
Miért? ... driverből szabályozható, hogy az egyes játékok milyen konfigurációt használjanak. Van olyan konfiguráció, ahol a GPU-k terhelése nem sorrend szerint történik. GPU1 megkapja az adatot, akkor elkezd számolni, GPU 2 kapja a következő adatot, de mire a GPU3 megkapná a harmadik scene-t, addigra a GPU1 is felszabadul, és a GPU1-be megy a scene. Nem egy nagy ördöngösség, fogyasztás szempontjából pedig jobban jársz.
A Kkrieger pedig a GPU-t dolgoztatja. A CPU kvázi mindegy. Nem véletlen megy a 3way CFX.
Med1on: Hát én nem mondtam, hogy jó dolog a 3 utas CF HD 4850-ből, főleg az 512 MB-osból. Én sem ajánlanám. Ahol működik oda kevés az 512 MB memória. Az írásodban jól összefoglaltad a lényeget. Annyit tennék hozzá, hogy ha a CF anomáliamentes, akkor mindegy hány GPU van a rendszerben, CPU limit nélkül skálázódni fog.
Hát igen az SSAO is megoldás lenne, de az AMD nem hiszem, hogy kedvezne az NV-nek, a fejlesztők az AMD HDAO algoritmusát kedvelik, az NV ez ellen akar tenni, de vérszegény próbálkozás volt.
gbors: Egyelőre nem publikus a rendszer de lehet jelentkezni próbára. Asszem mi jelentkeztünk is.
-
Abu85
HÁZIGAZDA
CPU limites környezetben, ez előfordul. A harmadik GPU-ra nincs szükség, mert egy GPU mindig pihenne. Éppen ezért a harmadik GPU nem vesz részt a feldolgozásban, ami azt eredményezi, hogy terhelésmentes üzemmódot alkalmaz. Úgytom két GPU-ig mindenképp kényszerített az AFR felállás, e fölött már nem. A GTA 4 az speckó eset, ott eleve két GPU-ig van engedélyezve a skálázódás, egyszerűen amíg nincs a világon 5 GHz-es Core i7, addig ennél több nem kell. Maga a játék nem igazán megterhelő a mai GPU-knak, még az AA sem támogatja. Cimbinek volt két HD 2600XT-je, az szépen duplázott teljesítményben a GTA 4 alatt, konkrétan ez a grafikai szint ezt a rendszert eszi meg.
DemonDani: Tudod a megoldást, hogy Deferred Rendering mellett, hogy lehet MSAA-t alkalmazni DX9 alatt?
-
Abu85
HÁZIGAZDA
Nézd, ha azt akarod, hogy a 3 utas CF skálázódjon, akkor valahogy ki kell ütni a CPU limitet. Ez két módon lehetséges, növeled a részletességet, vagy emeled a proci órajelét. A GTA4 is erősen CPU függő játék, a részletességet kell növelni, vagy meghúzni a procit. Mást nem tudsz kezdeni a CPU limittel. Nyilván ebbe téged a memória mérete lekorlátoz, tehát lényegében nem tudod használni a három kártya erejét.
gbors: Ki kell próbálni. Csak a Cloudhoz tudunk hasonlítani, ami közel 350 ms-os laggal dolgozik, és gyakorlatilag akik kipróbálták nem érezték zavarónak a jelenséget, sőt nem is vették észre, amíg nem szóltak nekik.
-
Abu85
HÁZIGAZDA
Már sokan kipróbálhatták az AMD Cloud-ot és játékosok is voltak köztük, nem vettek észre különbséget az otthoni környezethez képest pedig a Cloud 350 ms feletti input laggal dolgozik (ugye internetes képszámítás). Csak azután érzékelték a dolgot, amikor megmondták nekik a jelenséget, de mindannyian úgy nyilatkoztak, hogy nem igazán érzékelhető, gyakorlatilag lényegtelennek minősítették. És itt már komoly lagról beszéltünk, 160 ms az nudli, képtelenség felfogni. Már rajta vagyunk, hogy mi is kipróbáljuk a Cloud-ot, majd beszámolunk.
-
Abu85
HÁZIGAZDA
Hát ha ki akarod ütni a CPU limitet egyes játékoknál, akkor ez lenne az ideális. Ha ott a CPU limit, nem skálázódik a CF, mert nincs infó amivel számolhat a három GPU. Erre megoldás a részletesség növelése, azaz az egyes GPU-k dolgát megnehezíted, így mind a három cucc csúcsra lesz járatva.
-
Abu85
HÁZIGAZDA
Az AFR és az objektum alapú renderelés az elméleti lehetőség. Az AFR a tesszellátorral annyi előnyt szerez, hogy a triangle setup teljesítmény két chip esetén duplázva számít, így nagy poligonszámhoz ez az ideális megoldás. Persze jó a dupla setup egység is, de két chippel költséghatékonyabb, és erősebb is. Már írtam nemrég, hogy ha van két chip, amik közül az egyik shaderben dupla olyan erős, de a Triangle Setupban megegyeznek, akkor olyan programban, ahol a Triangle setup szűk keresztmetszet, mindkét chip ugyanazt a gyakorlati teljesítményt fogja adni. Ellenben két kisebb chip, mindkét megoldásnál 2x gyorsabb lesz.
-
Abu85
HÁZIGAZDA
Ezekkel a programokkal azért nem lehet reakcióidőt mérni, mert előre tudod mi fog történni. Azaz előre vársz egy információt amire az agy értelmezés nélkül reagál, mert már előre tudod, hogy mit kell csinál. A reakcióidőt váratlan eseményekkel mérik. Ez a program akkor lenne jó, ha nem mindig ugyanazt csinálnád, tehát zöld felvillanás jelentené a jobb klikket, míg az esetleges kék a balt. Ilyen esetben az eredmény akár 100 ms-ot is romlik, mivel belép az értelmezési faktor.
A második kérdésre meg igen. Négy GPU a valós viszonyokhoz képest ennyi input lag-ot eredményez, ez azt jelenti, hogy tökéletesen folyamatos a kép, csak 160 ms-mal később jársz a számolt jelenethez képest.
Cagm^c: Jó hát az agyondoppingolt sportolók már kategóriát képeznek, ők évekig gyúrnak erre, meg ugye a doppingszerek.
-
Abu85
HÁZIGAZDA
Ha 25 jelenetet számol a játék másodpercenként (egy jelenet után 40 ms-ot vár - kb ez a megszokott), akkor tök mindegy az FPS, mert 25-nél több scene információ nem kell másodpercenként. Elég egy frame minden sceneből.
A 200-250 ms az brutálisan komoly reakcióidő, ilyen értéket alig pár embernél mértek a világon. Biológiai megközelítésben ez azt jelenti, hogy minden 11-est kivédenél (megfelelően fitt testtel ugye).
Abba gondolj bele, hogy a biológia szerint a pislogás, mint önkéntelen (azaz nem tudatos) reakció és maga az inger érzékelése 220 ms az agy számára. Egy átlag ember reakcióideje bőven 350 ms fölött van. A rutinos gamerek talán tudják a 350-et, de ez is már csodaszámba megy.
-
Abu85
HÁZIGAZDA
Egy játék eleve egy alacsony fix jelenetsebességgel fut általában 25-30 jelenet/másodperc. 25 jelenetnél a proci 40 ms-ot vár, amíg elkezdi számítani a második jelenetet. Ez négy GPU-nál is gyakorlatilag észrevehetetlen input lagot eredményez. konkrétan 160 ms késésben lesz a jelenet és a kép. Egy átlagos ember 500-600 ms sem képes észrevenni, a 300 ms-os tudományos határt pedig csak az veszi észre, aki kifejezetten az alacsony reakcióidőre edz (versenysportolók). Akár nyolc GPU-ig is el lehet menni, ez a legtöbb embernek fel sem tűnik.
Elméletben igen, de most gyakorlatilag milyen más életképes megoldást tudsz az AFR mellé.
-
Abu85
HÁZIGAZDA
Ez rég nem gond, az új motorokat frame és scene limitre írják (ez majd feloldhatatlan lesz) ... a jelenlegi motorokat a driver már most korlátozza, a számítás időzítve megy, ahogy a scene limit. A Microstuttering már rég nem probléma ebből a szempontból, gyakorlatilag nem is az input lag okozta, hanem az energiamenedzsment. A HD4000-es driverektől kezdve már most jó a működés, addig nem kerül ki a köv. frame, amíg egy bizonyos limitidő el nem telik (ez az eljárás nemrég aktiválva lett a teljes HD családra). Gyakorlatilag a frame már 4 GPU-nál is folyamatos ha az FPS a scene limittel azonos, vagy a felett van. Az NV is már ezt a megoldást alkalmazza. De igény szerint át lehet majd térni az objektum alapú renderelésre is. Azzal is foglalkoznak már. Bár sokszor az AFR még mindig jobb, de alternatívának jó megoldás.
-
Abu85
HÁZIGAZDA
válasz
Petya2900XT #4494 üzenetére
Nem tok számozást. Szerintem ezzel várjuk októberig, addig úgy sem lehet venni DX11-es GPU-t.
-
Abu85
HÁZIGAZDA
válasz
Petya2900XT #4490 üzenetére
Ilyen amikor nincs tapasztalatuk a rendszerprogramozóknak. Gyakorlatilag mindent át kellett írni. Bár az előző driverek is használhatóak voltak, de a teljesítmény szempontjából a 8.3 után jöttek az áttörések.
-
Abu85
HÁZIGAZDA
válasz
Petya2900XT #4483 üzenetére
A 8.3-as volt ez első jó driver az R600-hoz. Itt volt valami egyezkedés a Transmeta-val is, cseréltek rendszerprogramozókat. Az Ati-sok mentek tanulni, a Transmeta-sok pedig jöttek tanítani. Gyakorlatilag ennek az eredménye volt a 8.3.
-
Abu85
HÁZIGAZDA
Valszeg MCM-en közös memó lesz. Az MCM dual package négy maggal már kérdéses, de a CrossFire Sidebar lehet itt jön majd képbe.
Járható út a két setup blokk is, de minek ha már eleve a több GPU-ra gyúr az AMD. Valszeg tranyószámban sem kellemes ez a megoldás.
A hinteket ne vegyétek azért biztosra, még az AMD nem mond semmit, de egyelőre ezek reális infók lehetnek.
rup1u5: Olyan mint az Intel Core 2 Quad ... két chip egy tokban.
Petya2900XT: Már most is jók a driverek, nem hiszem, hogy ez probléma lenne. Eleve pár sor a programkódban a Multi GPU támogatás.
-
Abu85
HÁZIGAZDA
válasz
tzsolesz #4472 üzenetére
Az eddigi tapasztalatok alapján az órajelek nagyon függnek a nyomtatott áramköri rétegek számától. De az 800-900 esetleg 1000 MHz reális. Erre egyébként nagyon gyúrni kell most, mert a Triangle Setup tűnik a legjobban limitáló tényezőnek. Nagyobb órajel, ugye nagyobb triangle setup.
Az MCM (illetve a Dual-GPU) azért jobb most, mert a tesszellációval ugrásszerűen fog megnőni a poligonszám. Gyakorlatilag ezek a számítások csak a GPU-t fogják terhelni, azaz a raszterizálásnál komolyan limitál majd a Triangle setup sebessége. Persze ehhez majd kell az a bizonyos részletesség, de tegyük fel, hogy meg lesz. Ilyenkor a Triangle setup megfogja a teljesítményt. Tehát ha kép chip teszem azt 1 milliárd háromszöget dolgoz fel másodpercenként, akkor magas tesszellálás mellett kvázi ugyanaz lesz a teljesítményük, függetlenül attól, hogy az egyik egyéb paraméterekben duplája a másiknak. Ellenben a kisebb chipet MCM-be kötve a Triangle Setup is megduplázódik az AFR mód miatt és a tényleges sebesség is dupla lesz.
-
Abu85
HÁZIGAZDA
válasz
tzsolesz #4466 üzenetére
Há de ki mondta, hogy 512 bittel jön?
Amúgy 256 és 384 bit van kilátásban.
Amúgy meg ugyanazért az árért én kapásból az RV830-at venném.WesTM: Szerintem nem ... a felsőkategóriában a multi GPU a jövő, mert az eddigi adatok alapján a Tesszellátor sokkal jobb sebességre képes AFR módban.
tzsolesz: Nem hiszem, hogy drágább lenne, ezek egyértelmű cserék a jelenlegi palettára.
Aktív témák
Hirdetés
- AliExpress tapasztalatok
- Samsung Galaxy A55 - új év, régi stratégia
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Revolut
- Lakáshitel, lakásvásárlás
- Google Pixel topik
- Kerékpárosok, bringások ide!
- iPhone topik
- NTFS, exFAT, FAT32 – Melyiket válaszd és miért?
- További aktív témák...
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RTX 5070 GAMER PC termékbeszámítással
- AKCIÓ! HP Victus 16-R1002NF Gamer notebook - i7 14700HX 16GB RAM 1TB SSD RTX 4070 8GB WIN11
- Azonnali készpénzes GAMER / üzleti notebook felvásárlás személyesen / csomagküldéssel korrekt áron
- AKCIÓ! MSI B365M i5 8600 16GB DDR4 512GB SSD RX 5700XT 8GB CM MASTERBOX Q300L Zalman 600W
- BESZÁMÍTÁS! Gigabyte A620M R5 7600 32GB DDR4 512GB SSD RTX 5060 Ti 16GB Zalman i3 NEO Enermax 650W
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest