- Telekom mobilszolgáltatások
- Egyedülálló akkumérettel futott be a OnePlus Nord CE5
- Google Pixel topik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Samsung Galaxy A56 - megbízható középszerűség
- A holnap határán: itt van minden új Galaxy promóképe
- Bemutatkozott a Poco X7 és X7 Pro
- Nothing Phone (3a) és (3a) Pro - az ügyes meg sasszemű
- A OnePlus Nord 5 sem sokkal marad le akkuméretben
- Samsung Galaxy A55 - új év, régi stratégia
Aktív témák
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1400 üzenetére
Azért DX10.1 az új aero, mert nem sok embernek lesz DX11-es karija egyhamar. NEm hiszem, hogy olcsó lesz az RV870. Az oké, hogy az elmúlt hónapokban szimpi volt az AMD stratégiája, de jelenleg akkora előnyük van, hogy pofátlan árat is kérhetnek a technikájukért. Ők is cégként működnek. Nyilván öröm nekik, ha mi felhasználók örülünk a vásárolt cuccnak, de még nagyobb örömmel vigyorognak az arcunkba, ha sokat fizetünk érte.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1397 üzenetére
Elvileg úgy lesz, hogy lesz az alap mód, nuku kinézettel. Ehhez gyakorlatilag nem kell komoly kari. Lesz egy normál aero DX9 amihez DX9-es hardver a minimum elvárás. És lesz egy nagyon gyors változata az aeronak, amihez minimum DX10.1-es kártya kell (ebbe beletartoznak a DX11-es karik is). A DX10.1-es felületnek a másik előnye, hogy feleannyi memóriát zabál, mint a sima DX9-es verzió.
DX11 az benne lesz. Erről annyit mondott az MS, hogy mérsékelten kompatibilis visszafelé. Ez azt jelenti, hogy ha egy DX11-es progit futtatunk, akkor ahhoz nyilván DX11-es kari kell. Ha DX10.1-es karink van, akkor picit butítja a grafikát. Azok az eljárások amiket nem támogat a kártya nem fognak lefutni. Ha DX10-es kari van a gépben, akkor még tovább butítja a grafikát, továbbá lassul a feldolgozás is a gyengébb mintavételezési eljárások miatt. -
Abu85
HÁZIGAZDA
válasz
Gonosz15 #1395 üzenetére
Az meg még odébb van. Amúgy ha a Win 7 valóban elstartol szeptemberben, akkor szerintem az AMD sem várja meg az NV G300-at, hanem kinyomja ősszel a cuccost. A G300 startjára meg marad az X2 verzió. Bár szerintem nincs miért sietni, eleve a Win7 is a Radeonnak kedvez, mert a szupergyorsnak beharangozott új aero felület csak DX10.1-es VGA-val érhető el. Lehet megint benyalt tövig az AMD.
-
Abu85
HÁZIGAZDA
válasz
marcias #1340 üzenetére
Túl sok pénzt nyomnak a CUDA-ba és túl keveset a GPU oldalra. A G300-tól azt várom, hogy GPGPU vonalon durrantson hatalmasat, abban pedig reménykedek, hogy a grafikus feldolgozást nem helyezik annyira háttérbe.
A jelenlegi helyzetben az architektúrák adottságait figyelembe véve, 2,7-2,8 milliárd tranyóval, DX11 támogatással az 500 sp kb. jó eredmény lenne. -
Abu85
HÁZIGAZDA
válasz
marcias #1336 üzenetére
Minden Wafer mérethez van egy nagyon ideális méret. Már amennyiben közel négyzet formában gondolkodunk (a VGA-knál általában így szokás). A tapasztalatok szerint a 200mm^2-es chipméret adja a legjobb kihozatalt és relatíve a legkevesebb csonka lapkát. Itt még arra is gondolni kell, hogy a wafer szélén található jó lapkáknak, nagyobb lesz a szivárgási áramra vonatkozó paraméterük, így picivel többet fogyasztanak. Az egész gyártási eljárás tapasztalaton alapul. Persze a túlzottan nagy chip sem jó. általában a 380-400mm^2 felett elég gáz a dolog ... persze csak akkor, ha nem tudnak a gyártók megfelelően vastag árcédulát megadni a nagy chipeknek. A kis chipek 100-120mm^2-es méretben, akkor jók ha elmennek téglalap irányba, mert így kevesebb levágás lesz. Az Intel doksija szerint ha az Aton négyzet alakú lenne, akkor 3-szor annyi chipet kellene eldobnia. Figyelembe véve az Atom kis méretét egy tetemes mennyiség.
-
Abu85
HÁZIGAZDA
válasz
schwartz #1330 üzenetére
Full HD-re vannak az X2 rendszerek. Mi a probléma?
Durván erős az AA-ban a HD 4000-es Radeon ... mi ez ha nem gyakorlat?Az ROP blokkokat a rendszerhez kell szabni. Az R600 és a G80 nagyon különbözik. Az AMD-nek nincs szüksége 32 Blending egységre, hogy jó eredményt érjenek el, mert az architektúrát kiegyensúlyozták a grafikai számításokra. Ez lenne az R600 lényege. Olyan technológia amit kis tranzisztortöbblettel lehet nagyságrendekkel gyorsítani. Nem viccből fejlesztették ilyenre a rendszert.
A stratégia szempontjából az AMD a méret és a teljesítmény ideális egyensúlyát keresi. Ha megtoldanák a rendszert +2 ROP blokkal, akkor átlag 2-10% teljesítmény növekedés érhető el (nyilván alkalmazásfüggően). Ez nagyon kevés a befektetett tranzisztorszámhoz és a dráguló NYÁK-hoz viszonyítva. Ha 30-35%-os átlag meglenne, akkor érdemes lenne elgondolkodni az alkalmazásán.
A G80 az nem teljesen a grafikai igényekre lett fejlesztve. Ennek megfelelően a grafikus teljesítményt nem igazán lehet okos átszabásokkal növelni ... tranyót kell áldozni a 32 Blendingre, hogy érezhető gyorsulás legyen ... Ilyen ugye a G200. Nyilván a G300-ban a mérnökök keresni fogják a spórolási lehetőségeket, mert a G200 DX11-re felkészített változata 480 SP-vel 3,5 milliárd tranyós lenne, ami borzasztóan sok. Le kell nyomni az ütemező méretét, és még sok helyen kell találni valami "szűkítést" ... Eleve az NV-nél úgy gondolkodnak, hogy az AMD ismét 2,5-szeres SP számot alkalmaz majd, mert ők is tudják, hogy 200mm^2 chip az optimális, amihez 1,7-1,8 milliárd tranyóra van szükség. Szvsz ha az NV be tudná gyömöszölni a 480 SP-t 3 milliárd tranyó alá, boldog lenne. Sőt szerintem ez is a cél. -
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1315 üzenetére
Semmi szükség a fokozatosság elvére. Ezeket a chipeket külön csapatok fejlesztik. Az RV870-nek azért reális a 2000 SP, mert ezzel kb. meglenne a 200 mm^2. Ha ennél kisebb a chip akkor, a wafer szélén sok lapkát kell eldobni. Például az Intel Atom eléggé kicsi, de ezt a mérnökök úgy kompenzálták, hogy hosszúkás chipet csináltak, így a kocka formához viszonyítva, kevesebb csonka chip lesz. A GPU-nél ezt nehéz megcsinálni ... valamennyire el lehet menni téglalap irányban, de nincs annyi egységes cache a rendszerben, hogy megfelelő legyen a kialakítás.
Pl.: az RV740 elég gáz lesz a méret szempontjából, mert a wafer szélén tuti sok csonka chip megy majd a kukába. Bár az árak még mindig jók lesznek ... -
Abu85
HÁZIGAZDA
Nem hiszem, hogy a G300 teljesen új lesz, az NV a GPGPU vonalra fejleszt, oda a G80 vonal az ideális. Ettől függetlenül szükséges némi optimalizálás a globális ütemezőn, mert marha sok helyet foglal. A legjobb lenne, ha az AMD-hez hasonlóan statikus chipet csinálnának, csak ahhoz minimum fél év mire összepakolják a drivert.
-
Abu85
HÁZIGAZDA
válasz
schwartz #1312 üzenetére
Mi a probléma ezekkel az írásokkal. Ez azt bizonyítja, hogy a ROP blokkok szerepe egyszerűen kezd korlátozódni. Az NV semmit nem ért el a 32 Blending egységgel, mert a két és félszer nagyobb chip alig nyújt nagyobb teljesítményt az RV770-nél. Lehet ésszel és erővel fejleszteni.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1311 üzenetére
Először azt kellene elérni, hogy a Physx támogatás ne a pénztől valósuljon meg.
Ha ez megvalósul, akkor valószínüleg az AMD sem utasítja majd vissza a CUDA támogatást. Az OpenCL mellett, ennek nagyon kevés esélye van, így lényegében pár játékban ki is fog merülni a Physx ereje. Többekközt ezért nincs AMD-s támogatás, mert tudják, hogy nincs jelentősége a dolognak.
Nem kötelező támogatni, a DX-et. Az MS csak szívességet tesz azzal, hogy a szabványt fejleszti. A fejlesztőknek is ott van az OpenGL ... nem az MS monopolhelyzete miatt nem támogatják ezt hanem, mert a DX sokkal jobb alternatívává nőtte ki magát. A GPGPU-ra is lesz alternatíva: OpenCL és Compute Shader ... itt van esélye az OpenCL-nek alkotni, de a Compute Shader valszeg jobban fog kötődni a DX-hez.
-
Abu85
HÁZIGAZDA
Májusra helyre lesz téve. Dolgoznak rajta a TSMC-nél.
Igazából a pénz miatt lassult le a fejlesztés, mert a gazdasági válság őket is elérte. A második negyedév pedig hatalmas bukás lesz a TSMC-nek. Számítottak rá, hogy az NV csökkenti a rendeléseket, de azt nem gondolták, hogy 50%-kal. -
Abu85
HÁZIGAZDA
válasz
Depression #1292 üzenetére
Hát igen ... kb ez a lényeg. Januárban vettél a GeForce-ot, mert a Mirror's Edgez lett a kedvenc játékod és hát a Physx.
Márciusban beleszeretsz a Battleforge-ba, és máris mehetsz a boltba a Radeonért.
De legalább szabad a választás.Végül is az én érdekem két VGA-t tartani otthon.
-
Abu85
HÁZIGAZDA
Attól függ, hogy mekkora feszültséget szabnak meg. Gondolom, most kellő nyugalomban mehet a munka, mert idő van bőven. Az RV770-en a megjelenés előtt egy hónappal változtattak. Ehhez plusz két revízió kellett. Persze nem volt annyira gáz, mert fogyasztásban belefért a dolog, csak hát nem ideális az A9-es steppingnél eldönteni, hogy +200 MHz kell a magórajelre.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1289 üzenetére
Az Xbox360 is támogat OpenGL-t. Csak nem biztos, hogy előnyös azt használni. Az egy dolog, hogy Carmack OGL mániás, de a 3.0 nem hozta azokat a változásokat amiket várt tőle. Sőt gyakorlatilag alig változott. Egyszerűen ha van lehetőség rá, akkor érdemes váltani, mert könnyebb és gyorsabb a munka a DX10-en.
Ez a DX elterjedtség nem MS féle nyomjuk le a torkukon dolog. Egyszerűen jobb a rendszer. -
-
Abu85
HÁZIGAZDA
Hozna maximum 10% pluszt ... és ehhez konkrétan meg kellene duplázni a ROP egységek számát, ami tranzisztorban már sok.
Egyébként ha egy RBE-be 32 mintavételezést nyomnának a Z-ből, akkor már eleve ott lennének a 10% plusz közelében (7-8%) és tranyó alig fogyott.Nyilván a játékok különböző igényeket követelne, de az mindenképp érdekes, hogy az NV és az AMD is a DX10-es Call Of Juarez-t tartja jelenleg kiindulópontnak, mert a jövő motorjai hasonlóak lesznek. Ha egy chip az előbbi játékban jól szerepel, akkor a jövő játékaiban sem lesz gondja.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1278 üzenetére
Az a poén, hogy ez az "olcsó" gyári hűtés működik a legjobban.
Nem az a jó hűtés ami alacsonyan tartja a GPU hőmérsékletét, hanem az ami megfelelő üzemhőmérsékletet biztosít az összes alkatrésznek. Ez csak a referenciahűtésre jellemző.
schwartz: szerinted 32 ROP-pal gyorsabb lenne? Totál nem így működik az egész. Jelen pillanatban a Z-Sample az AMD-nél a szűk keresztmetszet ... azt elég ha megemelik 8 mintára órajelenként. Ez ilyen többet ésszel, mint erővel stratégia. Eddig bevált.
TTomax: A gazdasági válságnak ehhez semmi köze. Az AMD GPU-t akar csinálni, az NV meg GPGPU-t. Nyilvánvaló, hogy a stratégia nem változik egyik oldalon sem. Az RV870 és a GT300 is 40 nm-en jön.
Az AMD-nél úgy 1,6-1,8 milliárd tranyós chip lesz ... DX11-re felkészítve. Ebbe a jelenlegi rendszer szerint 2000 SP bőven belefér, sőt még tán kevés is ... de nyilván máshol is meg lesz toldva a fejlesztést, szóval kb. reális.
Az NV-ről azt mondják, hogy 3 milliárd fölé megy. Az átdolgozások miatt azonban nem lehet normálisan következtetni az SP számra, mert nagyon sok tranyó maga a DX11 beépítése ... főleg a Gather4 textúrázócsatornák viszik majd az anyagot. Valszeg spórolásból vissza is térnek a 384 bit-es memóriabuszra, ... 480 SP-vel minimum kell jönnie, de több nem igazán fér bele. Persze sok függ attól, hogy mennyire változik az ütemező. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1269 üzenetére
Most azt akarod mondani, hogy az AMD belemegy a CUDA támogatásba, amikor az OpenCL kint van és a Compute Shader is hamarosan megjelenik? Az AMD egész végig arra játszott, hogy a CUDA ne legyen életképes a PC-s VGA piacon. Ezt gyakorlatilag már el is érte.
Szerintem ha a fejlesztők annyira problémának éreznék a DX Windowshoz való kötődését, akkor nem használnák, de mivel a vásárlók 99%-a Windows alatt játszik (még az OpenGL játékkal is) így lényegében mindegy a dolog.
Amikor az OpenGL volt jobb, akkor sokan azt használták. A DX a 6.0-ás verzióval kezdte a hódító útját. A DX7 már pár esetben jobb volt az aktuális OpenGL-nél, míg a DX8 totálisan elverte azt. Innentől van teljes DX uralom. Az OpenGL azért nem fejlődik úgy, mint a DX, mert a CAD programokkal való kompatibilitás meggátolja ebben. Az MS egyszerűen bevállalta azt, hogy a DX10 nem kompatibilis a DX9-cel és így tudott nagyot lépni előre.
Carmack fejleszt DX-re, mert az Xbox360 játékokhoz ez az alap ideális. A Rage-ről nem sokat tudni, de nem elképzelhetetlen, hogy hagyja az OpenGL-es vonalat, miután azt nyilatkozta, hogy a 3.0-ás verzió hatalmas csalódás számára.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1259 üzenetére
Eleve egy szabvány csak akkor fog elterjedni, ha a hardverek támogatják. Ezért lobbizik az NV a CUDA támogatásért az AMD-nél.
Ha már a hardveres támogatás is egyoldalú, akkor kb. lehet tudni a végeredményt. A nyílt független szabványokat nem a konkrét gyártók fejlesztik, tehát mindenkinek ugyanannyi beleszólása van a fejlesztésbe. A Physx az jó technika, de nem lesz elterjedt, mert a CUDA-t senki sem akarja támogatni. A fejlesztők esetében az Ubisoft az élő példa rá, hogy még pénz is fizetett vissza a TWIMTBP szerződésből csakhogy elkerülje a Physx használatát.
A Radeon Physx project is zátonyra fut hamarosan. Soha nem fogja az AMD odaadni a driver dokumentációit, sem az NV-nek sem az NGOHQ csapatnak.Amúgy én írtam, hogy mindenki dolgozhat bármin ... ezzel semmi gond, de a házi feladatot meg kell csinálni ... jelen esetben a házi feladat a DX10.1. Amíg ez nincs meg az NV-nél, addig nem képviselik a PC-s játékpiac érdekeit. Ennek megfelelően szép számmal csökken a TWIMTBP szerződések népszerűsége.
Egyébként most is van választása a fejlesztőknek ... Használhatnak DirectX-et, OpenGL-t, OpenCL-t, és CUDA-t, sőt még Stream SDK-t is. Ezek közül nyilván a támogatás hiányában a CUDA és a Stream SDK kiesik ... semmi szükség kétszer megírni a programot, ha az OpenCL-t mindenki támogatja.
A grafikára sem kötelező a DX-et használni ... ott az OpenGL is, persze nem véletlen a DX elterjedtsége, mert sokkal jobb már az OpenGL-nél.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1257 üzenetére
Továbbra sem értem, hogy miért jó nekem a zárt szabvány. Tehát az 97-ben normális volt, hogy három API-ra írták a játékokat, melyek különböző grafikai képességekre lettek felkészítve. Vettem egy gépet Voodoo-val és egy játék tök szép és jól futott, de a másik már a támogatás hiánya miatt szoftver renderingre volt képes ... ahhoz venni kellett egy Riva TnT-t. Lehet, hogy rosszul látom a dolgot, de ez szerintem messze nem a fogyasztó érdeke.
A DX10 XP-re képtelenség volt. A komplett driver alrendszer megváltozott ... Ha újraírták volna az XP alrendszerét, akkor meg a gyártók szoptak volna a támogatással, mert a driverekbe fektetett eddigi munkát kukázni kellett volna. Ezt a gyártók sem akarták ... senkinek nem volt érdeke a többéves munkát kukázni.
Több lenne az OpenGL-es játék ha a fejlesztők érdekeit tartanák szem előtt, de sajnos a CAD alkalmazások miatt nem férnek bele a rendszerbe olyan reformok, mint ami a DX9->DX10 váltásnál volt. Az MS a fejlesztők szavait issza, és ezért terjed a DX10. Az igényeket valóban fontolóra veszi és beépíti.Nem azt mondtam, hogy a CUDA el fog sorvadni, de a PC-s piacon egyszerűen nincs helye. Ugyanez a meccs egyszer már le lett játszva. A DX8-nál az nv hozta a cg-t. Aztán azt lemásolta az MS HLSL néven és egy hasonló került az OpenGL-be GLSL jelzéssel. A nyílt szabvány nyert. A CUDA esete is ilyen. Már kész az OpenCL és év végére itt a Compute Shader. Képtelenség elterjedni a jobban támogatott platformok között. Ezért megy az NV folyamatosan az AMD-hez támogatásért, de felesleges, mert úgyis elküldik. Az AMD is tudja, hogy a nyilt szabványok mellett, támogatás hiányában a CUDA el fog tűnni a PC-s piacról.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1252 üzenetére
Én nem értem, hogy miért jó nekem, mint fogyasztónak egy zárt szabvány. Ezzel visszatér a 3dfx-es időszak, ahol a különböző effektek különböző kártyát igényeltek. A fogyasztónak a független szabvány az érdeke, azt pedig mindkét gyártónak támogatni kell. Amelyik gyártó nem így gondolja annak nincs helye a piacon ... a 3dfx sem tartotta szem előtt a szabványt el is tűntek.
Nem értem mi a baj a DirectX-el. A legjobb dolog amit az MS valaha letett az asztalra. Persze ha nem tetszik, akkor ott az OpenGL ...Egyébként felőlem csinálhatják a CUDA-t ... soha sem fog elterjedni. De a legfontosabb, az ipari szabványok támogatása ... ez a házi feladat kategória.
-
Abu85
HÁZIGAZDA
válasz
#65755648 #1237 üzenetére
Az elmúlt négy-öt évben már kiderült rólam, hogy mindig a jobb architektúrát képviselem. Lehet ha kijön a G300 újra "NV párti" leszek ... ez csak a technológiától függ.
Ezenkívül viszonylag sok olyan infó van a birtokomban, ami miatt jelenleg az NV nem képviseli a PC-s játékpiac érdekeit. Én egy átlagos felhasználó vagyok. Mondhatni fogyasztó ... nem akarok még egy 96-97-es 3dfx korszakot amikor a játékokban háromféle effekt háromféle kártyán futott. Kérdezem ez kinek jó? Nyilván az NV örülne, ha elterjedne a CUDA, de továbbra is az ipari szabványokat kell támogatni ... értsd DX10.1. Erre jelenleg csak az AMD hajlandó. A mi (fogyasztók) érdekünk a DX szabvány fennmaradása ... és ezzel egyetemben a CUDA kisöprése a PC-s játékpiacról.
Igazából semmi probléma nincs azzal, ha egy gyártó csinál valami extra szolgáltatást a kártyáihoz (Pl.: NV Physx, AMD tessellator) ... egy dolgot azonban szem előtt kell tartani, erősen a házi feladat kategóriába tartozik az aktuális piacvezető API legújabb verziójának a támogatása (jelenesetben a DX10.1). Ez az én szememben merénylet az ipari szabványok ellen ... elfogadhatatlan a piac számára, és az fejlesztői és felhasználói érdekek kiszorítását hozza el. Hasonló eset történt a Radeon X1000 széria megjelenésekor (logout blogomban az első írásban le van írva a lényeg) - akkor még "NV párti" voltam, mert az ő hozzáállásuk képviselte a játékipar érdekét. Igaz, hogy az AMD a VTF eljárást mindenféle hátsó szándék nélkül hagyta ki, de ettől még nem volt támogatva, amivel az SM3 szabvány legfontosabb újításának az elterjedését.
-
Abu85
HÁZIGAZDA
Nyilván hasonló árú Radeon karival jobban fog futni amellett, hogy szebben is néz majd ki, de azért a GeForce tulajokra is odafigyelnek.
A Battleforge esetében a DX10.1 élsimítást fog eredményezni ... és kb. 15-20 %-al lesz gyorsabba a DX10.1 kód a DX10-hez viszonyítva. Lesz DX9 kód is, de az a beszámolók alapján elég lassú már eleve. A fejlesztők nem ajánlják a használatát. A beállítások menüben pár paraméter nem állítható be DX10.1 nélkül.
A Stormrise az komolyabb változásokat eszközöl. Eleve csak DX10 a motor ... Win XP kilőve. A DX10.1 lehetővé teszi az élsimítás ... és a fejlett LOD algoritmusokat a sebesség növelésére. Ezenkívül szebb árnyékolás és megvilágítást is eredményez. Továbbá sokkal gyorsabb lesz az Ambient Occlusion. Itt nagyon sok különbség lesz, így nem lehet megmondani, mikor milyen lesz a sebesség. Annyit mondta a fejlesztők, hogy a dX10.1 mód érezhetőek gyorsabb és sokkal szebb lesz.
-
Abu85
HÁZIGAZDA
válasz
K21_overlord #1193 üzenetére
A körülményektől függ a dolog. Igazából egy normális fejlesztésnél az AMD és az NV is jelen van. Nemritkán egy kisebb különítménnyel. A feladatok csupán annyi, hogy segítséget nyújtsanak (CF, SLI támogatás ... optimalizációk) ... Nyilván a fejlesztőknél sokkal jobban ismerik a cégek a saját rendszerüket és tudják mire haklisak, illetve mi jó nekik.
A dokumentációk azok a fejlesztők munkáját segítik. Az MS csak elkészíti az API-t. Nyilván alapszinten az ismerethez szükséges dolgokat leírja, de a komolyabb támogatás, az AMD és az NV feladata. Ők készítik az úttörő eljárásokhoz a dokumentációt ... persze a saját kártyáikhoz megfelelő kóddal. A legtöbb fejlesztő ez alapján készíti majd a motorjába az effekteket.
Nyilván vannak kiugró esetek, amikor az egyik cég (NV, vagy AMD) a projekt mögé áll. Ilyenkor lesz egy reklámszerződés, és segítenek a játékfejlesztőknek. Rossz esetben tejelnek egy csomó pénzt (szokásos NV stratégia), és feltételeket szabnak ... zárjátok ki a konkurens céget, kúrjátok el az multi GPU kódját, vagy rakjatok egy pár grafikai hibát a játékba ... meg hasonlók. Persze a legtöbb esetben a TWIMTBP program pusztán a támogatásról és a reklámról szól ... nagyobb kiadók nem is engednék meg, hogy a fejlesztők szándékosan rosszul csináljanak valamit az egyik gyártó kártyáira. Persze a kis csapatok pénzhiányban vannak, így ők elgondolkodnak egy jobb ajánlat esetén.Régebben azért volt jó TWIMTBP tagnak lenni, mert az NV ingyen hardvert adott, és programozókat is küldtek mindenfelé. Meg eleve szinte mindenkinek GF8-a volt, így nem volt gond a kisebbség sem. Most az AMD jelentősen átrendezte a piacot. Gondolom azért nem újítják meg a TWIMTBP szerződéseket, mert az NV nem csak reklámot akar, hanem physx támogatást, meg mást ... nyilván a fejlesztők többsége még mindig épeszű, így tudják, hogy egy nem szabványos technikának semmi keresnivalója a piacon. Főleg amikor itt az OpenCL, és saját fizikai motort is lehet írni a motorhoz.
Az egyébként, hogy megszűnik egy szerződés nem jelenti a támogatás hiányát ... az AMD és az NV érdeke, hogy jól fusson a játék a rendszereiken, így exkluzív szerződés nélkül is segítenek.
Az NV sok pénzt szokott költeni. Az Ubis szerződés az 2 milla volt, de az főleg reklám alapú ... meg persze volt benne technológiai támogatás is, de az alól az Ubi némi pénzmag visszafizetésével kilépett. Nyilván ők sem hülyék. Aki a physx-et támogatja az az ipari szabványok létjogosultságát kérdőjelezi meg. A PC-s játékpiacnak, most pont ez nem lenne jó, mert semmi szükség, hogy a megmaradt játékosok is áttérjenek konzolra.
A Mirror's Edge az kényszermegoldás volt. Az NV három címet ígért 2008-ra physx támogatással, de ebből egy sem jött össze. Sőt a Gearbox annyira elszámolta magát, hogy a két Physx projektjének a megjelenése kiszámíthatatlan. A DICE éppen sírt a konzolos eladások miatt, mert elég gányul teljesített a Mirror's Edge ... Az NV megjelent a physx-el, és a DICE lehúzta őket 5 millával, gondolván lehet, hogy a játék PC-re sem fut be ... mentsük a menthetőt. Csak viszonyítás képpen az Ubis szerződés 10 játékra szól elméletben. Persze azt nem tudni, hogy januárban mennyire változtak meg a szerződés pontjai, de a különbség így is szembetűnő.Az AMD általában reklámszerződéseket köt. Pl. a Valve-os. Ebbe kb ez áll ... Segítünk, de úgy csináltok mindent, ahogy jónak látjátok. Ja és kérünk egy ATI logót a beállítások menübe. Ennyi.
Általában ez kevesebb pénzmagba kerül. Sőt a fejlesztők számára mostanában előnyös is jelenleg a dolog, mert csak az AMD-nek vannak tapasztalatai a komolyabb Pipe GS DX10 eljárásairól, és a DX10.1-ről. Ezek használata most kezdődik meg, így jól jön a tapasztalat. Nyilván aki DX10.1-et épít a játékba, az csak az AMD-hez mehet. Nyilván az AMD felajánlja a többségnek a szokásos szerződést ... x pénzért szeretnénk a doboz sarkán egy AMD-ATi logót (ez nem sok zseton max. 100 ezer dodó, de inkább kevesebb). Ebbe a legtöbben boldogan belemennek, a pénz mindig jól jön, a logó meg elfér.
leviske: Az ubi-nak nem sok köze van a Mirror's Edge-hez ... az DICE+EA cucc
-
Abu85
HÁZIGAZDA
Csak a referencia kártyákról van hivatalos adat az AMD-nél. Azok 10%-os meghibásodással rendelkeznek, ami elég jó 2008-as viszonylatban. A többi statisztika a gyártókra tartozik. Azokról nincs hivatalos kimutatás.
A kihozatal miatt jól jött a +0,2 V. Három hónap alatt 95% lett a chipek kihozatala. Technikailag ez fantasztikus eredmény. A referencia alkatrészek meg bírják a strapát.
-
Abu85
HÁZIGAZDA
Szivárgó áram mindig van, de komoly gondot nem jelent. Annyi volt a történet, hogy Dave a project menedzsere egy hónappal a kiadás előtt szólt a mérnököknek, hogy az előre tervezett magórajeleknél 20%-kal nagyobb kell. Ezért fel kellett pakolni a kariknak a feszkót, hogy tudja ezeket a specifikációkat teljesíteni. (asszem az eredeti tervekhez képest +0,2 V-ot kapott) Ehhez gyorsan módosítottak a hűtésen, és gőzerővel nyomtak le két revíziót a chipből egy hónap alatt.
-
Abu85
HÁZIGAZDA
Tudod hány fejlesztőcég nem újította meg a TWIMTBP szerződést.
Az Ubisoft is újra tárgyalta a feltételeket januárban. Persze visszafizetett egy csomó pénzt az NV-nek, de sikerült elérnie, hogy Physx támogatásra ne kötelezze őket a megállapodás. Nem a piaci részesedés a probléma (ami egyébként közép és felsőkategóriás rendszerek esetében folyamatosan csökken az NV-nél), hanem az a baj, hogy az NV az elmúlt években nem törődött a PC-s VGA piaccal. Ha valaki az új korszerű eljárásokat akarja használni, akkor az csak az AMD-hez mehet, mert egyedül nekik van ilyen irányú tapasztalatuk ... több újszerű eljárást is csak az AMD dokumentált (Pipe GS programozás, Cube map tömbök, Global Illumination, gyors SSAO) ... A DX10.1 esetében is ez a helyzet. Az AMD dokumentumaiból lehet csak tanulni, és dolgozni, mert az NVIDIA el volt foglalva a CUDA-val és a Tegrával.
Emellett ott a Mirror's Edge-ért lerakott 5 milla. Szerinted megérte? Ennyi pénzt kiadni egy játékra vicc. Ez a TWIMTBP program valósága. Nincs normális dokumentálás, nincs teljes funkcionalitású DX10 driver ... és hardver szempontból is előrébb van a Radeon család. A Stormrise az első teljesen DX10-re optimalizált játék, nehéz lesz kirakni a tesztekből ...
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Eredetileg is 2009 március volt a megjelenés nem tom ki terjeszti a 08Q4-et ... Már volt A13-as sample is az RV740-ből. Rég mehetne a gyártósorra ha az működne. Persze ez tervezés szinten alig változtat valamin. Annyi a dolog lényege, hogy kaptak a marketingesek egy kis időt, amit tavasszal érkező DX10.1-es játékokra használnak majd fel.
"Modern card for FUTURE gaming" stratégia. -
Abu85
HÁZIGAZDA
A Sideport-ot azt nehéz méretben kifejezni, mert bele van építve a vezérlőbe ... át kell építeni a vezérlőt ha ki akarják venni. Mindenesetre olyan 30 mm^2 a területe.
Egy 80 utas SIMD sor, TMU-val 2 redundáns Shaderrel 12 mm^2. Lehet számolgatni...Persze az adatok 55 nm-re vonatkoznak.
-
Abu85
HÁZIGAZDA
Geza26: Az RV740 fog előbb jönni.
Robb202: A CeBIT-en nem lesz ott az AMD. Csak egy kis csapat megy pusztán a képviselés szempontjából. Ettől függetlenül a bejelentések megtörténnek, csak nem tudni pontosan mikor. Szvsz a CeBIT után a legvalószínűbb, mert általában a rendezvény után egy rövid uborkaszezon kezdődik, amikor mindenki ellőtte a puskaporát. Ilyenkor az AMD nagyobb nyilvánosságot kaphat.
A Master Chip Design az nem fikció, csak nem most fog megtörténni. Talán a HD6000-nél. Az RV870 valamivel a G300 előtt jön ... Bár elméletben már nyáron kész lesz, csak nincs hova sietni. Minél tökéletesebb a gyártás annál nyomottabb árakon lehet kezdeni a forgalmazást. A G300-ról eleve egy 3 milliárd tranyós 600+ mm^2-es chipet pletyiznek 40 nm-en ... nem lesz egyszerű összehozni.And01: Az RV870 lesz az első DX11 GPU ... addig minden DX10.1 lesz.
-
Abu85
HÁZIGAZDA
A CUDA Library tartalmazza azokat a termékeket amiken futhat a CUDA-val írt program. Egyszerűen felvették az AMD karikat a listába. Persze ezt még csak az NGOHQ-s srác használhatja ... megkönnyíti a fejlesztés. Sose lesz kiadva, mivel jogi aggályai vannak a dolognak. Ettől függetlenül a Physx-re fel lesz használva.
-
Abu85
HÁZIGAZDA
Ja értem ... igen elég sok doksit ad ki az AMD. Ezek vélhetőleg a kapacitás miatt húzódnak. Az R600 statikus architektúrája miatt a drivert megírni nagyon nehéz. Emlékszem, volt anno még a Transmeta-s beruházás, akkor az AMD cserélt a vállalattal pár rendszerprogramozót. Ugye a Transmeta a legjobb a statikus vezérlésű rendszerek kezelésében, az AMD-s emberek tanulnak, a Transmeta-s kölcsön skacok pedig tanítják az AMD alkalmazottakat. Gyakorlatilag ennek az eredménye volt a 8.3-as Catalyst driver ami áttörés volt a HD Radeonok történetében. Gondolom nincs meg a kapacitás minden dologra, így fontosság szerint osztják be a támogatást.
Hát például nem ártana a driver működésének zárt doksija. A Physx nem olyan dolog, mint a mod driverek, itt alacsony szinten kell belenyúlni a rendszerbe. A CUDA Radeon Libraryt, azt megcsinálta az NV. Oda nem kell más.
Elméletben a működést elemezve visszafejthető a driver kódja, csak hát ez eleve illegális, továbbá nem egyszerű a dolog.Hát az OpenCL az nem téma. A Physx a CUDA-hoz van szabva, csak azzal használható. Azért érdekli az NV-t, az AMD támogatása, hogy a CUDA terjedjen. A jelenlegi formájában nem lehet lenyomni a rendszert a fejlesztők torkán. Ha viszont elterjed, akkor az OpenCL helyett lehet a CUDA a szabványos programozási környezet. Ez paradicsom az NV-nek, mert a konkurenseknek támogatni kell a zárt rendszert, és nem GeForce kártyák teljesítménye tökéletesen befolyásolhatóvá válna a CUDA-n keresztül. Kis túlzással élve bármit is fejlesztene az AMD, annak a teljesítményét az NV tetszőlegesen belőheti a CUDA-n keresztül. Gondolom ebből az is kiderül, hogy miért nem akar az AMD CUDA és Physx támogatást.
janos666: nem fake amit csinált, csak az itt a lényeg, hogy egy módosított driverrel és egy programmal csinálta. Ilyen alapon persze megcsinálható a dolog, csak minden külön programra módosított driver kell ... egy jó adag buherálással persze. A mai világban azért, ha csinálsz valamit, akkor azt érdemes olyanra készíteni, aminek a telepítését és beállítását egy 1.0 user is megérti.
-
Abu85
HÁZIGAZDA
Ez a regiszterkezelés ... nemigazán a DX10.1 fejlődését szolgálja. De jó, hogy jött.
Bár az én véleményem szerint, a fejlesztők a Tesselation SDK-t várják.
Amikor jön egy új API, akkor jönnek a példaprogramok az MS-től hozzá. A gyártók pedig irkálják a programozási útmutatókat (persze némileg a saját kártyáihoz igazítva). Ez amolyan "mit, hogy csinálj" dolog. Hol tudsz sebességet nyerni, meg mit ne csinálj soha. Nyilván a DX10.1 azért gond az NV-nek, mert mindenki az AMD doksijaiból készül fel rá, így ha meg is jönnek a DX11 karik, akkor a programozási szokások az AMD dokumentumai alapján alakulnak ki.
-
Abu85
HÁZIGAZDA
válasz
K21_overlord #966 üzenetére
Az a baj, hogy nem az NVIDIA támogatásától függ a dolog. Hiába ad meg a gyártó minden segítséget a srácnak, ha az AMD nem adja oda a szükséges dokumentációkat a driverről.
-
Abu85
HÁZIGAZDA
Egyrészt elég sok új játék már ment az első pillanattól CF-fel. Saját tapasztalat. Amik pedig nem azokra ott a hónapos Catalyst frissítés. Nem véletlen van így bevezetve. Az SLI-zone fórumon is havi frissítést követelnek a felhasználók.
Jelen pillanatban csak a TWIMTBP címeken nem megy a CF alapból, mert nem teszik bele a szükséges kétsoros kódot. Egy független fejlesztő ezt megcsinálja.
Az NV is ilyen megoldást fog bevezetni, mert a GTA4-nél például azért nem támogatják az SLI-t, mert nem csak két sor a támogatás.
Jelenleg az AMD áll a multiGPU-s megoldásokkal a legjobban ... a 8.3-as driver óta a hibák gyakorlatilag minimálisak. Ha nem lenne jó a technika már rég eladtam volna a CF rendszerem. -
Abu85
HÁZIGAZDA
Az esetek nagy többségében működik átnevezés nélkül is ... túl van lihegve a probléma.
Arról nem is beszélve, hogy a fejlesztők már több éve tudnak az SLI és a Crossfire létezéséről. összesen öt plusz sor a játék programkódjában a két technikát támogatni. Ha meg gond van, akkor szólni kell a NV-nek, vagy az AMD-nek. -
Abu85
HÁZIGAZDA
Ezt így nem érdemes használni. Van általános rutin is.
AFR-FriendlyD3D.exe - DirectX-es játékhoz
AFR-FriendlyOGL.exe - OpenGL-es játékhozA játékfejlesztő dolga a CF támogatása. Két sor kell a renderkódba ... minden ott van az AMD dev oldalán. A FEAR 2-ben azért nincs CF támogatás alapból, mert TWIMTBP játék. Szándékosan kihagyták az AMD CF optimalizációs algoritmusait. A független fejlesztők nyilván használják.
-
Abu85
HÁZIGAZDA
A partnerek el lettek látva infóval, csak nem tartották be a követelményeket. A nyár végére az AMD konkrét doksikat dobott össze a refdizájnt elkerülő gyártóknak. Azóta no problem.
A hőmérséklet az ilyen ... és amíg az emberek nagy többsége a halk működés tartják szem előtt ilyen is lesz. A kártyák bírják ... a legminőségibb alkatrészek vannak engedélyezve a gyártásra ... ezt mindenkinek be kell tartani. A gyártóknak is jó ez az állapot ... lévén senki sem panaszkodik a karikon lévő haszonkulcs véget. -
Abu85
HÁZIGAZDA
A referencia karik meghibásodása alig 10%. Ez bőven jó arány az iparágban.
Az NV-nél azért van 75-80 fok, mert Pb kötéseket használnak ... ezek kevésbé hőtűrő forraszok. Az AMD minden chiphez eutektikus kötést csinál. Nagyobb élettartam, és nagyobb hűtőrés, persze sokkal drágább, mint a Pb kötés.
-
-
Abu85
HÁZIGAZDA
Nem kell nagyobb hűtés. A 40 nm-es TSMC chipek 130 fokot is kibírnak tartósan. Az ajánlott működési hőmérséklet 90-100 °C lesz. Csak a fogyasztás szempontjából problémás a TSMC technológiája. Mellesleg egy komolyabb hűtő is jó a rendszerre, mert 15 dolcsi alá van tervezve az előállítási költsége a lapkának. 30 dodoból az egész kártya kijön, topminőségű anyagokkal és extrém hűtéssel. Bőven van mozgástér, mivel a 80-90 dollár közötti rétegnek lesz szánva a termék. Persze nálunk a szar forint miatt nem lesz olyan olcsó, mint anno azt gondoltam.
-
Abu85
HÁZIGAZDA
Az nem teljesen AA ... az egy Deferred Supersampling nevű eljárás. Edge detect shadert futtat a képen és ahol élt észlel ott blur shader lesz futtatva. Kb. Ezért szarik be rajta a legtöbb kari.
VinoRosso: Nekem pont, hogy gyorsabb a DX10.1-es mód. Igaz én már az 1.5.08-as patchet használom, de szerintem nem ez az oka.
-
Abu85
HÁZIGAZDA
Az 1.5.07-es verzióról beszéljünk, mert a legelső változatban még mindent lehetett kapcsolgatni. Az 1.5.07-től már nem lehet AA-t állítani a DX9 módokban. DX10-ben működik először ... míg az Alpha tested object-ekre csak a DX10.1-es móddal megy.
Az FPS esés minden bizonnyal NV-s driver bug volt.
-
Abu85
HÁZIGAZDA
Sajnos nem valami jó az algoritmus. Az XRAY 1.5 úgytom úgy működik, hogy DX10-ben van shader alapú élsimítás. Az alpha-test felületekre pedig van egy DX10-es kód és egy DX10.1-es algoritmus. A probléma az, hogy a DX10-es kódnak nem látni a hasznát, gyakorlatilag nem működik.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #855 üzenetére
Az igaz, hogy a DX az az MS fejlesztése, de fejlesztői szempontból ez lényegtelen. A GF és a Radeon (illetve az S3) is támogatja. Gyakorlatilag mindegy, hogy OpenGL-re, vagy DX-re írok egy progit. A CUDA az már más tészta, azt csak az NV támogatja. Radeonhoz használni kell a CAL-t. Vagy jobb megoldás megírni egyszer OpenCL-ben a kódot és fut GF illetve Radeon hardveren. Elvileg az S3 is beépíti a támogatást hamarosan.
Hát a STALKER CS-t nem a fejlesztők toszták el. A DX10 túl lassú azokhoz az eljárásokhoz amiket használ, a DX10.1-re pedig nem volt lehetőség az NV-s szerződés miatt. Az 1.5.07-es javítást csak a TWIMTBP program megszünésének idején kezdték el készíteni, nyilván még így is gyorsabb a kód jobb képminőség mellett, de egyszerűen nem volt lehetőség átírni a kritikus részeket.
A GTA4 meg lényegtelen, igénytelen konzolport ... el kell fogadni, hogy ilyen is van. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #852 üzenetére
Most őszintén a DX szabványt nem támogatja minden gyártó? Mert ott van még az S3 kártyáiban is a támogatás. Ezért független szabvány. Az tök mindegy, hogy ki fejleszti.
Nos kb. a Call Of Juarez az a program ami ténylegesen használ pár újgenerációs DX10 eljárást. De érdemes a DX10 SDK-val nézegetni a dolgokat, mert ott szépen használják a technikát. Bár azt aláírom, hogy az SDK az nem játék. Éppen ezért érdemes figyelni a Stormrise-ra ami full DX10 motor, ennek megfelelően még DX9 path-ot sem írtak a fejlesztők.
Sajnos a Stalker CS alatt az alpha-teszt objektumokra nincs elsimítás a DX10-ben az XRAY motor 1.5-ös verziójával. Ennek a TÉNYnek a fényében nehéz elhinni, hogy a GeForce szebb képet ad. De erről írtam anno hírt ... [link] - itt össze van vetve a DX10 és a DX10.1 képminőség 4x-es AA mellett.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #849 üzenetére
A kiadó adja a lóvét a fejlesztőknek. Az NV, vagy az AMD csak segíti a munkájukat. Tökéletesen látható, hogy az NV-nek sokkal több pénzt kell bevetnie, mert nyár óta egy csomó TWIMTBP szerződés járt le és senki! nem újította meg. A Mirror's Edge-ért is horror pnzt fizettek. Két éve ennek a zsetonnak a töredékéből megkaptak 10 játékot. Azért a fejlesztők és a kiadók is az aktuális hardvereket tartják célplatformnak, márpedig az RV770:G200 elterjedtségi arány átlagosan 25:1 fölött van még mindig. Jelenleg irgalmatlanul sok pénzt kérnek az NV-től, ha támogatást akarnak.
Kit érdekel az OpenCL és a CUDA viszonya? Egy független szabványt hasonlítasz egy zárt rendszerhez. Nem kérdés, hogy melyiket érdemes választani. Ezért dolgozik az NV azon, hogy a CUDA elterjedjen és a Radeonok is támogassák, mert másképp a fejlesztők rá sem bagóznak. Nincs a PC-s játékpiacba annyi pénz, hogy három, vagy négy interfészre megírják a fejlesztők ugyanazt. Mellesleg a Khronos Group neve eléggé jól cseng a piacon, az OpenCL-t használó stúdiók szerint nagyszerű munkát végeztek.
Most őszintén ... egy programozónak szerinted mennyi ideig tart megtanulni egy új nyelvet? Na ugye ...
Szerintem PC-s környezetben grafikus processzorként gondol mindenki a GT200-ra. Márpedig az világosan látszik, hogy nem legjobb chip a DX10-re. Erre majd a jövőhónapban megjelenő Stormrise példát is statuálhat, mivel ez lesz az első teljesen DX10-re írt játék.Nem vágom miről beszélsz. Az OpenGL és a DX is független szabvány. A .net is. Az Win NT és a Unix nem tom, hogy jön ide ... mindkét rendszert ott használják ahova való.
A DX10.1 a jövőhónapban beindul két címmel is. Azért fontos látni, hogy eddig a fejlesztők többsége az NV-hez volt kötve szerződéssel, most ez a szerződés már nem él, így ők is kezdhetik az ismerkedést az új technikával. -
Abu85
HÁZIGAZDA
válasz
ulveczkii #841 üzenetére
Sürget az idő ... mát itt az OpenCL és pár hónap van a Compute Shaderig. Ezekkel ugyanúgy lehet fizikát számolni, mint a Physx-el, csak minden hardveren fog futni. Értsd a CUDA ténylegesen értelmetlenné válik a PC-s piacra.
Azzal a kis Physx kairval semmit nem nyernének. Grafikára a többség ugyanúgy Radeont használna. A CUDA ugyanúgy egyoldalú lenne, mert az AMD nem támogatná. Ez pedig továbbra is az OpenCL és a Compute Shader előnyét hozná.
-
Abu85
HÁZIGAZDA
válasz
janos666 #836 üzenetére
Nem ésszerű alternatíva a kis GeForce a Radeonnal. Nem sok embernek fordul meg a fejében. A fejlesztőkhöz nem tudnak úgy odamenni, hogy nézzétek pár ember vett GeForce-ot a Radeon mellé, így már megéri a Physx-et támogatni? Kb. elküldenék őket. Ilyenkor még be lehet próbálkozni mással: ne és ha van rá 5 millió dolcsim is?
Ez már nyilván reálisabb üzleti ajánlat, hisz a Physx a célközönség ellen van, de öt milla az szép summa, nem mindenki mondhatja el, hogy lehúztuk az NV-t ennyi zsével.
Az NV-nek az a lényeg, hogy vegyétek a GF GTX260-at meg a többi gyors karit. Ha nagymértékben növekednek az eladások, akkor már lehetne valamit kezdeni a Physx-el, így az NV is jobb helyzetbe kerülne. A CUDA támogatás pedig egy idő után jönne magától, hiszen ha a fejlsztők többsége már Physx-es, akkor az AMD is be fog állni a sorba. -
Abu85
HÁZIGAZDA
válasz
janos666 #833 üzenetére
Ők azt akarják, hogy az AMD támogassa a CUDA-t ... ezenkívül minden más hidegenhagyja a zöldeket. Azzal semmit nem ér el, hogy összehozod a GeForce karival a Radeont és nyomod a physx-et. Nekik a CUDA elterjesztése kell ahhoz, hogy a piacon maradjanak. Ha ez nem sikerül, akkor ennyi volt.
DeckardCain: A Diablo 3-nál még semmi sem biztos. Egyelőre az idei megjelenés sem.
-
Abu85
HÁZIGAZDA
válasz
DeckardCain #831 üzenetére
Hát kb. ennyi a CPU igény ... kettő vagy több mag.
Igazából sok dolga nincs a CPU-nak a fizikát számolja és kész. Az egységeket Geometry Shaderrel másolgatják.
DX10.1-ben elvileg mennie kell egy HD 3800/4600 kaliberű karin. -
Abu85
HÁZIGAZDA
válasz
janos666 #824 üzenetére
AAA = Top pc-s játék ... illetve esetenként annak indult
Azé illik megvárni a végleges játékot mielőtt levonjuk a következtetést a grafikáról. Soha nem tudhatjuk, hogy ami képeket lőttek azok mikori verziók.
Ha lejár az Ubis TWIMTBP szerződés, akkor talán visszarakják. Bár szerintem tök mindegy a dolog. Jól fut az DX10-ben is csak helyenként nincs AA.
-
Abu85
HÁZIGAZDA
Nem csak 3 játék jön idén DX10.1-el.
2008 közepe óta senki sem újította meg a TWIMTBP szerződést.
Amúgy a Battleforge az beszarás, akkora hangulata van, csak ne lenne az a lehúzós pénzrendszer.
Mondjuk az EA mondta, hogy WOW szintű elterjedtséget vár minimum. Nyilván ahogy olvastam a fórumon mindenki hibátlanra értékeli szóval van esélye a kiadónak a kaszálásra. A Stormrise-ról annyit hallani, hogy eléggé gépigényes. A közepes beállításokhoz jelenleg kell egy HD2900, vagy egy GeForce GTX 260. Magas részletességhez DX10.1-es HD3800 kell, jól pedig HD4800-on fog futni. Szvsz kapunk egy másik Crysist. Mondjuk az poén benne, hogy több száz egység is rohamozhat, meg nonstop akció. Reméljük azért lejjebb nyomják a gépigényt, hogy többen élvezhessék.
Mellesleg idén még nem láttam AAA címet ... Sajna a Mirror's Edge csalódás. Elindulsz az első órát élvezed aztán ... kész slusz kilapul az egész szerencsére még két óra és vége van.
-
Abu85
HÁZIGAZDA
Hát a Physx az nagyon beindult ... Csak gyengusz 5 millió dollárba került a DICE partneri viszony a Mirror's Edge-re. Ezt nem nevezném túl jó ómennek (mondjuk a DICE-nak tuti megérte
). Ennyi pénzt egy játék nem ér. Emlékszem, hogy az Ubisoft jelenleg is élő kétéves szerződése 2 millás volt és tíz játékra lett megkötve. Mondjuk akkor még a GF 8 jól fogyott, így a fejlesztőknek is megérte támogatni a dolgot, de most látható, hogy rendesen megkérik az árát, ha a célközönség kvázi kizárását kéri az NV ... márpedig a Physx az GF only fícsőr lesz mindig is. Az NGOHQ-s project sosem fog sikerülni ... kb. ott áll a fejlesztés, hogy hetente könyörögnek a driver speckókért AMD-nél. Az AMD meg minden héten közli, hogy jövőhéten póstázzák ...
Kb. ez megy fél éve.
Úgytom, hogy Rege már hozzákezdet a kódvisszafejtésnek. -
Abu85
HÁZIGAZDA
Én nem mondtam, hogy az RV790 40 nm lesz.
Bár azt sem, hogy nem 40 nm lesz.
rocket: Az infók szerint a multi-thread három lépcsőben kerül beépítésre (9.1-9.2-9.3). A 9.2-ben már jól kell, hogy működjön ... elméletben. Kérdés, hogy az AF átkalibrálás mennyi időt vesz el.
-
-
Abu85
HÁZIGAZDA
A Cebit-en láthatjuk működésben, de áprilisban lesz világszinten elérhető. Március közepe fele lesz a hivatalos bejelentés. DX10.1 lesz. DX11 csak az RV870 lesz. Abban a chipben néhány dolgot meg kell oldani. A tesszallátornak kompatibilisnek kell lennie a DX11-gyel és a Xenos-sal. A baj az, hogy a kettő együtt nem igazán megy az eltérő logikai futószalag miatt.
-
Abu85
HÁZIGAZDA
válasz
#72042496 #651 üzenetére
Az RV740 az jön áprilisban. Az RV790 meg, akkor jön ha elfogynak az RV770 készletek. KB. nyár közepe (persze a chip már áprilisban kész lesz). Az RV870 meg valszeg nyáron lesz kész és a G300 előtt jön valamennyivel, de Q4-nél tovább nem várnak, mert jön a Win 7. Ha késik a G300, akkor késik.
A legfontosabb stratégia az ár. Mindenképp azt akarják, hogy a G300 már az első héten szenvedjen egy 200 dolláros árcsökkenést, pont úgy ahogy a G200. Ezért is késleltetik az RV870-et, hogy az NV ne tudja a teljesítményt, és ne igazítsa hozzá az árat. Túlképp az NV partnerek helyzetét akarják válságossá tenni.
-
Abu85
HÁZIGAZDA
Szerintem még nem gyártják. Február közepe fele érdemes a tömegtermelést kezdeni. Nyilván a Cebiten csak bemutatják. A nevet azt később is ráérnek kitalálni, hisz az csak a BIOS-sal kerül bele. Gondolom azon megy a vita, hogy maradjon-e a HD 4000 családban, vagy indítsák a HD 5000 családot. A Cebitre biztos lesz neve.
-
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
Sweet Lou 6 #495 üzenetére
Amelyik játék DX10.1-el jön, ott előnye lesz a HD 3850-nek. Főleg az lesz az előny, hogy kapsz AA támogatást és sokkal gyorsabb lesz az SSAO és az árnyékolás.
Az első full DX10 játék a Stormrise ... nem is készítettek DX9-es path-ot. A fejlesztőktől tudom, hogy szebb képminőség mellett, az általad említett felbontásban jelenleg a GF GTX 260-nal van pariban a HD3850. De lehet, hogy a DX10 kódból kiveszik az Ambient Occlusiont, ami sokat fog dobni a GeForce sebességén. Persze így már sokkal csúnyább lesz a játék.
-
Abu85
HÁZIGAZDA
Pedig ellőtték a Physx címeket. Most már nemet mond minden fejlesztő. A támogatásnál nagyon fontos, hogy a piacon a célközönségnek milyen rendszere van. Egyszerűen a GeForce GTX 200 elterjedése annyira kicsi, hogy nincs értelme támogatni.
A felhasználók jelentős része még mindig HD Radeont vesz. Amíg ez meg nem változik, addig nincs baj. Márciusban meg jön két új motyó. Elég durva lesz a HD 4830 teljesítmény 20k-ért.
-
Abu85
HÁZIGAZDA
Nem tom ... szerintem csak a G212 van bajban. Mondjuk ha tényleg szeptemberre lenne leghamarabb kész, akkor egyértelmű, hogy törölni kell. A G300-at azt úgytom, hogy nem teljesen a grafikus gárda tervezi, de nyilván a segítség jól jön.
Hát az AMD szerintem már nyár végén kész lesz az RV870-nel. Itt nyilván az a stratégia, hogy plusz egy steppinget lenyomnak a G300-ig. Gondolom a legjobb kihozatalra törekednek. Gondolom az NV most már számít az RV770-nél lévő stratégiára, kérdés, hogy tud-e olyan chipet tervezni, ami ugyanannyi tranyóval hozza, majd ugyanazt a teljesítményt.
-
Abu85
HÁZIGAZDA
Hát a G212-re azért annyira nem kell számítani, mert nagy az esélye, hogy a project törölve lesz. Legjobb ütemterv szerint is szeptemberre lesz kész ... Novemberben meg elméletben itt lesz a G300. Teljesen felesleges folytatni a fejlesztést ... inkább át kell nyomni az erőforrást a többi projectre.
-
Abu85
HÁZIGAZDA
válasz
DzsedalY #476 üzenetére
A DX10.1-es effekteket nem fogják tudni az NV karik, de a kár minimalizálásán már dolgozik az NV. Majd kapnak a driverben helyet ilyen speckó effektek, mint pl. a Screen Space Ambient Occlusion a 185.nemtomhányas alfa driverben. Persze az extra fázissal tizedelni fogja a sebességet, de legalább megcsinálja a kari ... GTX 295 SLI tulajok előnyben.
Aktív témák
Hirdetés
- Telekom mobilszolgáltatások
- Xbox Series X|S
- Kerékpársportok
- Suzuki topik
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- NTFS, exFAT, FAT32 – Melyiket válaszd és miért?
- Autós topik
- Egyedülálló akkumérettel futott be a OnePlus Nord CE5
- Kazy Computers vélemények - tapasztalatok
- One otthoni szolgáltatások (TV, internet, telefon)
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest