- Xiaomi 15 - kicsi telefon nagy energiával
- Yettel topik
- Motorola Edge 40 - jó bőr
- Kiszivárgott a Pixel 10 Pro
- Motorola Moto Tag - nyomom, követ
- VoLTE/VoWiFi
- Vékonyabb lett, jobb kamerát kapott, de az akku maradt a régi: itt a Fold7
- Milyen okostelefont vegyek?
- iPhone topik
- Samsung Galaxy A56 - megbízható középszerűség
Aktív témák
-
rocket
nagyúr
Honapok ota temeted a PhysX-et, kozben megint marketingben porra zuzza eppen az AMD-t az NV, ott a Batman egy noname B kategorias jatek amibol a PR hype miatt A+ lett, video is van ami a PhysX effekteket mutatja be, mig a masik oldalon ott van a DIRT2 az AMD-nek, amibol meg 1 darab DX11-es kepet se lattunk amiben bemutatnak mekkora kiralysag lesz a felhasznaloknak a DX11, a semmitmondo demoikkal feltorolhetik a padlot, valos alkalmazasokban kellene bemutatni, de megint elakadt a marketing henger feluton.
Annak ellenere amiket irogatsz, a jelekbol itelve megint nem az AMD all nyeresre a marketing haboruban, aztan lehet magyarazni a bizonyitvanyt ha a 2009Q4-es szamok nem ugy alakulnak ahogy azt az AMD szerette volna.
#5744:Persze, pont arrol hiresek az atlag felhasznalok hogy ilyen dolgokat tudnak
PC-s boltba bemennel es eloadnad ezeket a dolgokat kinevetnenek, pedig ott elvileg azert nem artana kepben lenni, hogy dragabban ne egy DX10-es atnevezett NV kartyat ajanljon valaki egy DX10.1-es ATi helyett.
Tovabbra is azt gondolom tulzasokba esel, egyszeruen nem vagy kepes felfogni, hogy amiket irsz hosszutavu folyamat resze, mert a GeForce-t mint brandent nehez lesz kitorolni az atlag felhasznalok fejebol, es helyere a Radeon-t ultetni.
Es akkor meg mindig ott van a marketing, amivel az NV barmit eltud hitetni, megvannak a "katonaik" akik segitenek nekik ebben. -
igen, lesz olyan, aki megvárta az 5800-asokat a váltással, ez biztosan így van. egy másik csoport viszont meg fogja várni, hogy mennyi előnyt is jelent majd a DX10.1. a Stalker szebb árnyékai nekem szimpatikusak, de mass appeal szempontból 25%-kal nagyobb sebesség lényegesen ütősebb lett volna. a battleforge és a hawx meg nem annyival gyorsabb Radeonon. lehet, hogy a DIRT 2 lesz a fordulópont, de aki azt megvárja, az már idén nemigen vesz Radeont...
-
smkb
őstag
Persze igen. Csakhogy dx11-en kívül milyen olyan szolgáltatást nyújt bámelyik új win is amire szükségem van? Semmit. Lehet sokan használnak win 7-et már, de nem a még piacra sem dobott végleges kemény eurókért megvásárolható verziót, azaz nem tényleges win 7 juzerekről van szó. Tuti nem fogok venni alaphangon 50 rugóért egy oprendszert, csakhogy legyen dx11-em. Így voltak a vistával is. Ráadásul jópár audio alkalmazásom b.szik menni vista alatt, többek közt ezért sincs, xp virtualizációhoz meg a core2duóm is kellene cserélni, hogy win 7 alatt menjenek esetleg ezek a cuccok...hát az meg tuti, hogy proci, oprendszert stb csak azért nem fogok venni, hogy legyen dx11-em. És nem kevesen lesznek valószínűleg így.
És most ne hozzuk szóba a majdani warez win 7-eket.
Úgyhogy a dx10-11 fejlesztéseket ez is keményen vissza fogja fogni, és tuti hogy 99%-ban csak pecsek formájában fog megjelenni a játékokhoz, nem natívan abban lesznek fejlesztve.
-
-
Crytek
nagyúr
Pont ezt mondtam hogy ha a havok is tud ilyet akkor hol van??
Gears of War-ba is mekkora lett volna ha a így amortizálodnak a dolgok betonfedezéket pik pak ledarlták volna stb.
De minek tépem a szám ezen nem nekem kéne rágódni hanem a fejlesztőknek felmérni mit is akar a nép.Ja hogy ezt leszarják és a saját fos szarjukat ontják csak azt vagy veszik vagy buknak. -
Crytek
nagyúr
"Szövetmozgást és élethű gőzt illetve ködöt lehet csinálni Geometry Shaderrel. Csempetörés az volt már ezer éves játékokban, az nem nagy kunszt."
Nem bizony azt mégse teszik bele a játékokba.
Azt nem mondom hogy minden cég csak a grafikára gyúr mert a megjelent game-ek grafikáját nézve sokon csk röhögni lehet hogy ezt 2009ben kiadni így stb.
De akkor legalább a fizikára gyúrjanak.Én nagyon nagy grafika buzi vagyok ez tény,de egy atombrutális fizikával ellátott game írtozatos hangulatot tud teremteni.
Csak pl a Strangleholdot mondanám ami nem egy kiemelkedő de ott már valami amortizáció észlelhető és ha mindekit kinyirtunk a nagy romhlamazt végipáztázni élmény.Olyan lenne a jó game amibe pl Stranglehold szerűen sőt még brutálabbúl törik minden fps-be tpsbe meg pláne és ott is marad a törmelék és semmit nem lehetne látni szinte a portól szilánkoktól a szikráktól harcok közben,de jó is lenne.
De hát erre mondják azt hogy ilyet SOHA!!! -
Bj Brooklyn
aktív tag
A Flagship Studios azért ment tönkre, mert egyszerűen xar volt amit kiadtak! Tipikusan ez a "szarka" esete! Amit beígértek annak csak ép hogy a töredékét kapta meg a játékos singliben, a multi ami még talán elvitte volna a játékot az is semmitmondó volt, mert fizetős volt egy ideig a "normális" része. Annyira meg azért nem volt jó, hogy bárki is fizessen érte. Mire már feloldották és az is ingyenes lett, addigra már senkit sem érdekel ez a "bug" halmaz! Már nem is tudnám megmondani, hogy hányadik patch után lett játszható az SP és a MP! Azért mert Flagship silány munkát végzett, nehogy már az NV-re legyen kenve! Az akkori ATI HD 2xxx széria nem túlzottan remekelt a "teljesítmény" terén, tehát ezt sem érdemes felróni az NV-nek! ( Szóval kellet "egy kis idő" mire "átoptimalizálták" a HD 3xxx szériára )
Naná, hogy nem fizet olyanért az ember amit nem kap meg! Azért mert a GRIN másba rakta bele a Physx-et, az még nem az amibe az NV- akarta/ kérte/ megegyeztek/szerződésben állt! A Terminátort meg ugye azért reklámozza hardveres fizikával, mert úgy volt, hogy patch formájában megkapjuk, de közben a GRIN megszűnt. Akkor most hova és kinek is fizessen?
A Batman csúszás oka elég egyértelmű volt, mikor már mondták, hogy Physx-es lett! Az, hogy mi túlárazott, és mi nem relatív! Majd mindenki eldönti, hogy saját magának mi az optimális!
-
Crytek
nagyúr
Nem a physx ről beszélek.Arra csesznek a cégek nagyban hogy normális fizikát csináljanak physx nélkül.
Mert csempetöréshez,szövetmozgáshoz szakadáshoz leváláshoz, élethű gőz köd reagáláshoz nem kellene physx de ugy néz ki csak vele képesek megcsinálni.
Ezért jó ez a physx ott leglább van fiziki a többi csira cég meg nem képes erre. -
Igen, én is ezt tudom csak "felsorolni", és még itt is van egy kérdésem: a szebb árnyékok csak AA mellett jelentkeznek, vagy AA nélkül is? Első esetben irreleváns a dolog, mert maximális beállítások és 4xAA mellett csak kétchipes VGA-k játszanak, 1280x1024-ben (!) Ha AA nélkül is, akkor rendben van, viszont kíváncsi lennék, hogy mitől?
A várakozás meg nem csak az nVidia fanokra jellemző. Pl. sokan várták nagyon a 4770-et, hogy aztán utána tovább várjanak az 5800-asokra. Én meg arra fogok várni, hogy egyáltalán bármire van-e értelme cserélni
-
de most őszintén, ki a jó ég fog DX11-es kártyával rendelkezni? a pletykák alapján jó sansz van rá, hogy idejön 300 USD-ért egy olyan 5850, ami a 4890-nél nem lesz számottevően gyorsabb, ki fogja megvenni? az 5870-nek még lesz értelme, de a 400 USD már nem kifejezetten az áltag-user VGA-ja. ráadásul, amíg a 3800-asokat érdemes volt lecserélni, mert sok esetben lassúak voltak, a 4800-asok (ill. a másik oldalon a 9800-asok) cseréjére nincs igazából erős indok. kíváncsi leszek, mit fognak eladásban produkálni ezek az új szörnyek - hátha meglepődöm
-
nocsak, közelednek az álláspontok
2 GPU-val tényleg nincs gond, már csak azért sem, mert a default D3D beállítás az, hogy 2 frame-mel előre renderel. utána is kb. egyetértünk.
mondjuk személy szerint siralmasnak tartom, hogy az SLI reinkarnációja óta fennáll ez a probléma, és még mindig nincs rá kulturált megoldás, de úgy tűnik, hogy a QuadSLI / CrossFireX4 felhasználók nem elsősorban játszanak a gépükkelmég egy kérdés: eszerint szeptember 10-én a nagy semmit fogjuk megtudni?
általános dolog: akik 850-900MHz-es órajelben gondolkodnak, miből gondoljátok, hogy ennyire értett lesz az új chip gyártása, hogy ilyen órajeleken rentábilisen járatni lehessen?
-
rocket
nagyúr
Anno az R600 Ibiza-i parti utana kaosz volt pedig az joval kozelebb volt a megjeleneshez mint a mostani rendezveny, ha nem fognak kodositeni akkor biztos NDA lesz szeptember 22-ig.
Jobb mindent az utolso pillanatig titkolni nehogy rossz kovetkezteteseket vonjanak le belole, mert ugye ha X meg Y dologrol szo van, az nem biztos mutatja az osszkepet.
Nem hinnem igy gondolkodik az AMD, inkabb ugy hogy "jobb felni, mint megijedni" -
rocket
nagyúr
Azt kifelejtetted, hogy lesz kaja, pia, korhinta
Gondolom jo AMD szokashoz hiven megint 3 fele verzioval allnak majd elo, aztan amik kiszivarognak "hirek" az Evergreen-rol teljesen ellentetesek lesznek egymassal
Nem hinnem barmi fontos (felepitesevel kapcsolatos) info nyilvanos lesz az Evergreen kapcsan szeptember 10-en, viszont pl. az EyeFinity-rol valoszinuleg lehet majd infokat kozolni, ha csak nem lesz koze a 3DStereo jatekokhoz, akkor ennek nagyobb lesz a fustje mint a langja mert a 3 monitor tamogatasa kb. a felhasznalok 0.1%-at fogja erdekelni. -
azt sejtettem, hogy Te így gondolod, viszont azt látom, hogy a többség a SW-renderer kapcsán is egy DirectX-szel rokon sémában gondolkodik, és ezt próbálom oszlatni.
nagyon érdekes játék lesz amúgy ez a SW-rendererek és a HW-ek között, nehezen tudom elképzelni, hogy annyival el lesz intézve, hogy egy CPU-amit-GPU-nak-hívnak megoldás hosszú távon egyeduralkodó tudjon lenni... -
ismét előhozom szokásos vesszőparipámat, miszerint nincs olyan, hogy SW-renderre jó GPU. a SW-rendernek ugye az a lényege, hogy (elvileg) 0 kötöttséggel csinálod a képelőállítást, de praktikusan mindegyik rendererben lesz egy futószalag, amelyikre megmondható, hogy milyen típusú végrehajtó egységekre támaszkodik leginkább. mivel a jelen elérhető információk alapján mind Carmack, mind Sweeney a voxeles irányba kacsingat, az első SW-motorok minden bizonnyal ilyenek lesznek, és az lesz a kritikus, hogy egy ilyen futószalaggal milyen hatékony lesz majd a GPU. de lehet, hogy további 3 évvel később tök más lesz a domináns algoritmus, és akkor teljesen más GPU kell.
a Larrabee meg persze, hogy jó lesz minden ilyenre, mert egy rakás x86-os CPU van benne, viszont könnyen lehet, hogy valaki előkeveredik egy voxeles rendererre optimalizált GPU-val, ami fele tranzisztorból fogja ugyanazt a teljesítményt hozni...
-
rocket
nagyúr
Mar megint a jovoben jarsz, ez a GF hype is unalmas mar, egyelore a GF 0 darab GPU wafer-t gyartott es dolgozott fel, a penz egy dolog, vannak cegek akiknek hatalmas volt a tokejuk de nem vittek semmire a tobb evtizedes tapasztalat hianya miatt, es hiaba szippantottak el nehany embert a TSMC-tol, az se garantal semmit.
TSMC jelenleg monopoliumba van a 40nm-es gyartasban, UMC-hez nem fogja az AMD/NV vinni a termelest (mint ugye most se rohantak hozzajuk hogy gondok voltak). -
rocket
nagyúr
Deja vu
#5601:Ezzel csak az a baj hogy meg ott van az RV790XT is ami +20% az RV770XT-tol, raadasul ha csak ennyit gyorsul es igazak lesznek a merettel kapcsolatos pletykak (40nm-en ~340mm²) akkor ar/ertek aranyban nagyon sokat rontanak az RV770/RV790-hez kepest, es nem marad semmi a kezukben.
-
Igen, ezt mondtad korábban is, emlékszem. Ezzel kapcsolatban az a meglátásom, hogy ha az RV870 DX9 és DX10 alatt tud egy másfélszeres gyorsulást felmutatni az RV770-hez képest, az jó. Ez a tőled származó információ alapján azt jelenti, hogy a DX11 felépítés és teljesítmény oltárán feláldozták a (sokak által elvárt) sebességduplázást.
Ezzel nincs is baj, de fontos, hogy a régebbi játékokat is futtassa megfelelő módon (erre a másfélszeres gyorsulás már elegendő). Amikor viszont eljön a DX11 ideje, azaz lesznek már játékok ezen a platformon, akkor azok is fussanak szépen, magas IQ mellett magas FPS-sel. Szerintem ez lenne az alapvető elvárása azoknak, akik komolyabban belegondolnak, és nem csak a csilliárd FPS-t akarják látni a régi és mostani játékokban.
-
janos666
nagyúr
Szerintem itt az akozza a nagyobb félreértést, hogy mindegy hogy nevezzük. Annak idején GT300 néven kezdtek régélni a következő, DX 11-es nv chipról. Mivel azóta sincs hivatalosan nyilvánosságra hozva a kódneve, így tök mindegy hogy hivatkozunk rá, de ha a GT300 már ismerős pár émbernek, könnyebb ezt használni a "nextgen nv highend chip" helyett, vagy külön kitérni rá egy bekezdésbe, hogy most ugyan Fermi nevű akármiről szól a cikkünk, de ez ugyan az, amit pár hónapja még GT300 néven emlegettünk, csak most így fogjuk hívni, míg napvilágot nem lát egy valódi név...
Még egy olyan embernek is egyszerűbb GT300 néven emlegetnie, aki már kapott is egy ES kártyát, és ismeri a pontos kódnevét, és a várható termékmegnevezéseket, mert a nagyközönség így referál rá magyarázkodás nélkül is. Tehát nem feltétlenül kell azért lehúzni a WC-n az eszmefuttatást, ami GT300-at ír, nem Fermit, NV86-ot, vagy akármit...
Ugyan így, ahogy az Evergreent is becézzük még mindíg Rv870-nek, pedig itt maga az AMD mondta az Evergreen szót nyilvánosan.
Persze ettől még 95%, hogy minden GT300-ról szóló mese távol áll a valóságtól, és azok súrolják jobban az igazat, amik mellesleg Fermit emlegetnek, de ez nem szükségszerű.
De ugyan így számításba vehető, hogy az nv is átvette az AMD-től a szándékos félrevezetés stratégiát, és a Fermiről nem hallott még egy mérnök sem, csak a 1-2 merketinges. -
VinoRosso
veterán
Én meg azt hallottam, hogy a Jóska azt hallotta, hogy a Géza azt hallotta, hogy a...Mirodnek Jahodnitek azt hallotta, hogy nem is lesz semmiféle evergreen. Az egészet csak azért találta ki az ati, hogy megtévessze a fogyasztókat. Ja ...hogy nem hallottál sose a Mirodnek Jahodnitekről? Kár, mer énse. Pedig Mirodnek Jahodnitek nagyon közel áll ám az atihoz, és ha Mirodnek Jahodnitek egyszer fingik, akkor az úgy is van!
-
Akkor talán még van esély arra, hogy GPGPu téren is csak kicsit legyen lemaradva az AMD, persze ha a proci is izzik, akkor már kérdéses a fogyasztás/teljesítmény mutató, de ez "idegen" területen még elmegy.
Mondjuk intel proci + nV GPGPu még esélyes, nem? Vagy ott is kell majd valami spéci cuccot támogatni? -
Mivel én játékokban és 3D-s progikban is érdekelt vagyok (Ezért hozom fel sokszor a GPGPu témát.
), azt fogom majd megvenni, amelyik az ellenfél pályáján kevésbé lassul be.
Az lehet még érdekes, hogy nem csak a két cég egy-egy lapkáját hasonlítjuk majd össze, hanem több lapka esetén ár/GPGPU teljesítmény és fogyasztás/GPGPU teljesítmény arányban hogy lesz a felállás. Továbbá az AMD proci + AMD GPU <-> nV GPGPU felállás is izgi.
Vajon, AMD CPU + nV GPGPU páros esetén is fog menni a megosztott OpenCL?Jó, tudom, ezek még a jövő kérdései.
-
janos666
nagyúr
Dehogy, véletlen sem vettem a személyem elleni sértésnek, de ha annak tűnt volna, még akkor sem vagyok sértődékeny.
(#5444) leviske - Oké, 1 bekezdésből is felfogtam, hogy téged zavar, majd próbálok rád tekintettel lenni, de ez itt az én szememben (és ahogy nekem lejött még sokakéban) a "VGA pletykatopic", itt kell offolni mindenről, ami a VGA-kat és a gyártóikat illeti, de nem passzol a többi konkrét topicba. Tudom, hogy van nv-nek dedikált pletykatopic, de az kihalt, és gyakorlatban ezek együtt töltik be a versus meccsek színterét is (persze a dolog jóslás jellege miatt csak elméleti szinten), most épp itt van mozgolódás, itt gyűlik a gaz is...
Néha én is unom (és valahol kezdem szégyellni magam), mikor 5.-jére vitatom meg ugyan azt Abu-val, de mint te is írtad, ilyenkor a redundáns meddő copy-paste szerű újrajátszás mellett előkerülnek a külső szemlélők számára is hasznos információk a hozzászólásokban, valamint megindítja mások saját értekezését, és ily módon összességében pozitív hatása is van, a spamm-off pedig elviselhető egy ilyen topicba, szerintem direkt jó, hogy az ilyennek teret ad, itt elfér, máshol sokkal zavarób lenne...
Nameg persze ha nem olvasod végig (miért tennéd? nem is várom el), azért én is hozok be néha új témát is, még ha a 90%-a ismétlés is, az új felvetés kedvéért a korábbiak fényében megengedem magamnak, hogy offolja a jós-pletyka topicban.
Továbbá való igaz, amit te mondasz is. Miért ne állhatnék be ide hirdetni azt, hogy én elégedetlen voltam az eddig nálam járt két radeonnal is (és a jóstémánál maradva azt jósolgatni, hogy biztos szar lesz a HD5 is, hisz én erre tudnék voksolni a tapasztalataim alapján), és akár megjegyzem, hogy az eddig nálam járt Geforceok nekem jobban beváltak. De szerintem nem is toltam ilyen durván.
Ne mondd, hogy nincsenek itt ettől irrelevánsabb hozzászólások is. Esetleg ellentett értelműek, amire csak bólogat a többi ATI fan (de részemről érthető is, ha az ATI topicban belőlük van több, nincs ebből baj).Igyekszem offba tenni, de a nevem alapján is könnyen szűrhetsz, az avatarom nem egyedi, de azért nem is kérek másikat, mert nem sokan használják ott, ahol megfordulok, könnyű kiszúrni.
Nekem bevallottan van ilyen tulajdonságom, hogy még az eleve veszett ügyek mellett is szeretek akár végletekbemenően, és végnélkül érvelgetni, még akkor is, ha én magam sem hiszem el, amit mondok, de ehhez is legalább két ember kell.
Abu pedig nincs rákényszerítve, hogy válaszolgasson nekem, vagy ő is szereti ezeket unaloműzésképp, már akár azért, mert ott lebeg mögötte a marketinglehetőség (hátha látják a potenciális vásárlók, ahogy engem meggyőz az AMD igazáról), vagy valahol látja a fentebb leírt pozitív vonatkozásokat. (De nem látok eléggé a vörös fátyol mögé, hogy ezt biztosra mondjam helyette.
)
De nem offolok tovább azzal, hogy mentem magam, amiért offolok...
Elmarasztalás tudomásul véve. -
cowboy_bebop
őstag
"Ergo megtörik a VGA=GeForce mítosz."
Ezzel mélységesen egyet tudok érteni.
AZ NV jelenleg a múlt mítoszából, és a jelen marketingjéből él.
Van pár olyan ismerősöm, ahol a gyerek "kilencezernyolc gétét" kér születésnapjára, mert az iskolatársak azt mondták h. azon gyorsabban megy "krájzisz", mint a csúnya és gagyi 4830/50-en. A szülő meg bamba módon megveszi az NV kártyát. Mondjuk én sem szívesen kezdeném el magyarázni a bömbölő 10 évesnek RV770 és a G92 közti teljesítmény- és technológiaibeli különbségeket. -
rocket
nagyúr
Talan el kellett volna olvasni mit irnak a linken
2008Q3-ra vartak a 40%-ot, most 2009Q2-re lett 35%, 2008 elejen ~30% korul voltak, tehat az RV7xx-re epulo VGA-kkal 4 negyedev alatt ~5%-os piaci reszesedest szereztek, es mindezt alacsony arazassal ertek el, ami a profitot csokkentette.
Q3-ban kiderul az 5 fele 80-100$ kozotti kartyaval mire mentek. -
janos666
nagyúr
Kösz, hogy azért az én oldalamra is hozol fel bizonyítékokat, miközben alapvetően engem cáfolsz
(fetch4->gather4 ; de nem, nem olyan cuccokkal van tele az MSA-en kívül a dx 10.1, amiket az ATI régóta feleslegesen is beletett már a GPU-kba, ha kellett, ha nem, és most átvették a DX-be ; de az nv-nek sok feles tranyó lett volna...)#5434) Mackósajt - Sikerült nekik nagyon könnyen betartható ígéretet választani. Ha jó lesz, akkor azért, ha R600 reinkarnáció lesz, akkor azért (ha túl drága/túl olcsó lesz, akkor azért) nem fogunk hinni a szemünknek.
-
Mackósajt
senior tag
Kijöttek a 2009 Q2 eredmények, az AMD felküzdötte magát 35%-ra a nem integrált kártyák piacán...
Lehet, hogy a jövőre nézve nekik áll a zászló, de az nVidia gyakorlatilag még most is uralja a piacot, RV770 ide vagy oda.
Emlékszem rá, a 3000-es sorozat, és annak mobil változatainak kijövetelekor is tele volt a fórum azzal, hogy a nagy gyártók vásárolják fel az ATI kártyáit OEM-ben. Pár hónappal később direkt keresgéltem a neten, nagyítóval is alig lehetett olyan brand gépet találni, amiben ATI kártya volt.
Szal tényleg úgy látszik, hogy az AMD mindent visz, de ha visszanézünk a múltba, akkor minden eddigi hasonló optimista nyilatkozat lufi volt. Az emberek többsége számára még mindig az nVidia a videokártya, és kész. Ezt az óriási marketing hátrányt vagy csak évek alatt vagy egy igazán elsöprő fölényben lévő termékkel tudják leolvasztani.
-
rocket
nagyúr
Pedig kelleni fognak a katonak a FUD-hoz amit az Evergreen megjelenesehez kozel fognak kezdeni, vicces lesz, mar most erdemes a popcornt bekesziteni
Erdekes lesz latni az AMD mit tud majd kezdeni ezzel a helyzettel, az NV-tol mar lattuk hogy mindent kifacsartak a javukra a G80-nal.
Szemely szerint egy lyukas garast nem tennek arra, hogy megkozelitoleg hasonlo sikert fog elerni az Evergreen-nel az AMD, RV770-nel kapcsolatos remenyekbol se sok minden lett, nem sikerult jelentos piaci reszesedest szerezni a diszkret desktop piacon, pedig ez volt a cel. -
Med1on
aktív tag
A Wolfenstein alatt 2 trükköt is olvastam amivel be lehet erőltetni az élsimítást. Az egyik az nHancer progi ez csak Nvidia kártyákon működik. A másik módszer radeon kártyákhoz az exe fájl átnevezése pl. xr_3da.exe-re. Gondolom ezek után a driverből be lehet már kapcsolni az AA-t.
Nem tökéletes az eredmény de "valami van"...
-
janos666
nagyúr
Már megint 2013-ban vitatjuk meg azt a 2009-es kérdést, hogy mi történt 2006-ban.
Épp azután, hogy nemrég éltél a csavarral, hogy "mert másképp alakult, mint várták".
Arra emlékszel még, mikor mostanra Xenos tesszelálós játékokat ígértél? (És, hogy akkor még nem volt életképtelen egy AMD-s SDK alapján programozni.)
Azt most nem kötekedésképp mondom, de én akkor is azt jósoltam, hogy meg kell azzal várni a DX 11-et, és a mai VGA-k is csak azon keresztül fognak tesszelálni, ha a DX 11 visszafelé kompatibilis, nem lesz itt semmiféle AMD-s SDK-val Xenos tesszelátora írt játék idén HD5 előtt, utánna meg itt a DX11...
Ezzel mostanában mi a helyzet? -
janos666
nagyúr
Aha, az UT3 esetében sem volt pénzmag, és csak viccből került be az enginebe a hardwares Physx lehetősége.
Az, hogy a "konzol érdekel is, a PC meg kap egy csontot, ha már az engine úgy is multiplatform" fejlesztő lusta szebb effekteket is gyártani Physx-hez, amik úgy is csak a Geforce-os PC-n futnak le, ugyan úgy egállban áll azzal, mikor a fejlesztő lusta 3.0-ástól újabb verzióra átírni a PC-re szánt kódokat, vagy épp megfejelni a DX 10-et 10.1-re, amit meg úgy is csak a Radeonos PC támoagat.
Ez elméletben megint 1:1, gyakorlatban pedig pillanatnyilag emerre billen a mérleg. -
janos666
nagyúr
Szép dolog a 10 éves terekkel magyarázni a közelmúltat és a jelent. De attól még ha előrelátható a halálod pillanata, attól még nem akarod kiélvezni a jelent? Sok víz lefut még a dunán, mire távoznia kell az nv-nek. Ha ilyen egyszerű, miért ne akarták volna még nyereségesen végigvinni ezt a pár évet?
Nekem még ez a rejtély. Miért kell sátrat bontani, ha csak 2 nap múlva indulunk, és ma este az esőben aludni szabad ég alatt, az összehajtott sátorral a táskában? Talán nem azért, mert valaki(k) baszogatják őket, hogy "Takarodj!"?Sőt, ha még ennyire komolyan gondolták a CUDA-t, végképp nincs értelme, hogy nem a TWIMTBP alatt akarták felfuttatni. Le akartak dugni valamit mások torkán, de előbb eldobták a tölcsért?
Sok itt a fekete luk, és a megmagyarázhatatlan dolgokból épp annyi akad, mint a kétféleképp is megmagyarázhatóakból.
-
Departed
őstag
Tehát aki még mostanság is "NV-drukker", azoknak nincs szükségük AA-ra? Vagy zöld szemüvegen keresztül kisimulnak az élek?
Lényeg ami lényeg, terjedjen el legalább a 10.1-es DX, de úgy igazán, ha a 4850-esemen is viszonylag jól menne, akkor a tesszelláció isVagy beszerzek egy 5850-est
-
rocket
nagyúr
Ha mar elore kezded a magyarazkodast akkor az nem sok jot sejtet, meg a vegen tenyleg R600 szindroma V2 lesz
#5387: G80-nal hasonlo helyzet volt (OS kesobb jott a megjeleneshez kepest mint most fog, es a DX10 jatekokra is tobbet kellett varni) es megis jol fogytak a megjelenestol kezdve, sot az NV konkurencia hianya miatt a kozepkategorias felhasznalokat a highend aljaig kenyszeritette a 8800GTS 320-szal.
Normalisan megirt DX9-es jatekokhoz mar nem fog kelleni nagy plusz teljesitmeny, ugye a legtobb DX9-es jatekban mara mar divat lett, hogy nincs AA, szoval erre se megy el teljesitmeny.
Nem gond ha valamennyire felaldozzak a DX9-es teljesitmenyt, csak nem szabad a lo tuloldalara atesni mint az R600-nal tortent, hanem megkell talalni az arany kozeputat. -
Ricco_hun
senior tag
"...még akkor is ha az teljesítménybe kerül a régi DX esetén."
Ájajj. Ugye nem fog megint ilyen irtózatos baromságot elkövetni az AMD. Év végére lesz nekünk egy darab DiRT2-nk, ami kihasználja a DX11-et (+pár felpeccselt). Meg lesz vagy 10-15 DX10-es játék. A többi DX9-es! És az AMD teljesítményt akar beáldozni a játékok 95%-ában, mert ő megint 2 évvel előreszalad a technikával, jó lesz az majd valamikor címszóval?
-
Petya2900XT
aktív tag
"még akkor is ha az teljesítménybe kerül a régi DX esetén."
Nane...ez volt tudtommal a 2900XT-nél...ugye nem az lesz megint...
Ha a régi híreknek lehet hinni a vídiás híreknek mielőtt elkezdték "újratervezni" a karit a sok sp(480?) a nagy sávszél meg a Gddr5 fog dominálni benne elméletileg...azaz a régi DX-ekben nem fog lassulni,így mivel ezután is sok DX9-es gém jön ki sztem,remélem nem fog megint tleg a 2900xt esete bekövetkezni ahol az Ati jogosan verhette a mellét,h DX10-be gyors a kártya,de ez nem jött elő,mert kevés szinte nem is volt 10-es gém így csak a 9-ben látott nvidia fölény látszódott,mivel az Ati beáldozta vmilyen szinten a 9et a 10-ért.
Nem teljesen érthető,de sztem nem írok hülyeséget -
Petya2900XT
aktív tag
"Eleve rohadt olcsó gyártani a kártyákat"
Akkor gondolom nagyon kicsi chipeket kell gyártania ahhoz,hogy olcsó legyen és jó legyen a selejt arány??!
Különben szerintem ez a 285-ös fake hír az anno 640 vagy 800sp-s 4-es szériára emlékeztet....285-ös találgatósok után lesz nagy happy end amikor a 295-öt nyaldossa a teljesítménye a Cypressnek...vagy nagy marhasógokra gondolok -
rocket
nagyúr
Az is ongol lenne ha konkurencia nelkul javitanak az ar/erteket aranyt, ilyet akkor kell ha piacon van egy konkurens termek (jelen esetben az azonos generaciot gondolom annak)ami jobb valamiben.
PhysX-et mar eltemetted fel evvel ezelott, most meg ezzel magyarazod ezt a lepest az AMD-tol? ,ne viccelj mar
Tovabbra is azt gondolom ez az egesz ongyilkos strategia, megha nehany 10millio $-os nyereseg becsusszanna negyedevenkent meg akkor se mondanam azt hogy belefer, dehat ettol tavol all az AMD, szoval wth
-
rocket
nagyúr
Gondold at ujra amit irtal, ezzel a hozzaszolassal azt mondod a 299$ tukrozi a HD5870 ar/teljesitmenyet a GTX285 elleneben (az ugye a jelenlegi arak mellett azt jelentene, hogy lassabb nala, ugy hogy a HD4890 is kozel jar a GTX285-hoz).
Azt esetleg eltudom kepzelni, hogy ragyurtak a tesszallatorra es kialakult az R600 szindroma V2, ami azt jelenti 2 evig majd nagyitoval kell keresni a hozza illo valos alkalmazasokat, de meg ebben az esetben is lehetetlen, hogy a jelenlegi valos alkalmazasokban lassabb legyen mint a GTX285
-
TTomax
félisten
Még szerencse hogy ezt nem így tanítják,és a kerekedik se így dolgoznak...mert ha ez így lenne akkor mindenből csak egyféle lenne a boltokban... gondolom ismered azt a szót választék.Nem most ne arra gondolj amit reggelente egyenesre próbálsz erőltetni egy fésűvel a tükör előtt.....
-
TTomax
félisten
-
zuchy
őstag
Az egyetlen játékuk is elszállt. Ha nagyot akarnak alkotni multiban le kell nyomniuk pár komolyabb játékot, ami 0 játékfejlesztői tudással nem lesz egyszerű. Ha lett volna még single kampány, még jó lett volna. De csak multira kiadni egy játékot, miben a Physix, meg a grafika a lényeg, közben a multiban köztudottan le fogják butítani a grafikát, mert ott számít az fps...
-
-
DeckardCain
senior tag
Hogy csak támogató az világos, a meglepett alatt azt értem, hogy voltak tavaly pletykák, hogy NV akart valamit Blizz-től, aztán elküldték őket a "sunyiba". Illetve hogy nyomták tavaly a Havok-ot és D3-al és SCII-vel kapcsolatban, aztán most meg megjelenik az NV mint támogató. Aztán most AMD sehol. Persze pénz beszél..
Hogy ON is legyen. Van valami újabb megosztható infó arról hogy csak az rv870 jön következő hónapban, és hagynak időt az HD 48xx sorozat kiszórására, vagy indul az egész.
-
janos666
nagyúr
Elég hihetetlenül hangzik, de úgy néz ki, igaz.
Rendben, hogy az nv tiplizik pár éven belül, de lesz még 1-2 kártyájuk, addig miért nem vártak még ki (főleg a wolf esetében)? Ilyen hosszú barátság után már mit számított volna, ha 1-2 évig még fenntartják a látszatot?
Ha már Carmacket is zsebre tették, akkor most már elhiszem, hogy itt a ma ismert grafikus_világvége.
Én ugyan sosem rajongtam a játékaikért, a DOOM3 esetében a grafikát is inkább bíráltam, mint hogy az állam esett volna le, a történet meg annyira hatott meg, hogy már godmódban végigrohanni is fárasztónak találtam.
Viszont maga Carmack azért még jelentős figura az iparágban, és ha már most feladta az nv-vel való hosszú barátságot, mikor még kívülről nézve nem is süllyed a hajó, csak a vészmadarak kárognak, akkor talán tényleg ömlik már befelé a víz is valahol, és nem csak a patkányok rohannak.
Mondjuk lassan úgyis felhagytam volna már ezzel a hobbyval, de akkor ez most tökéletes pillanat lesz, mikor megjelenik az utolsó Geforce, abból még veszek egyet, aztán keresek egy új hobbyt. -
janos666
nagyúr
Hát, sokmindent el lehet képzelni a tények és az egyhangú következtetések mögé. Tömören ugye ez a kettő áll sorba:
- Az MS az nv kedvéért hajlandó volt lebutítani a DX 10.0-át.
- Az MS az ATI(MD) kedvéért úgy trükközik a DX-ekkel, hogy az nv szopjon.
Tény:
Az MS új Xboxaihoz jelenleg az AMD adja a chipeket, miután összekaptak az nv-vel.
Más:
Szerintem mára eljutottunk oda, hogy gyakorlatilag csakis a DirektX tartja monopol helyzetben MS-t OS piacon (és ha az nincs, borul az egész kártyavár). Elég közel állnak már egyes Linux disztrók ahhoz, hogy az árakat és szolgáltatásokat együttesen figyelembe véve leváltásra kerülhessen a Windows az otthoni felhasználók körében (és ezzel a már most is vegyes céges felhasználói területen is átbillenjen a mérleg). Tulajdonképp már csak a játékok futtatása az, ami amit nem lehet pótolni Linux alatt, ha megnőne a felhasználók tábora, hamar kinőhetné már a többi gyermekbetegségét a többi linuxos alkalmazás (pl. profi filmlejátszó védett blurayhez, és hasonló, csak annak kérdése, hogy megéri-e megcsinálni erre az OS-re is, vagy sem - az akár fizetős programot is).Ennek tükrében akkor hajlandó lett volna az MS lebutítani a DX 10.0-át az nv kedvéért, hogy ez se tolja a Vista amúgy is defekttel rajtoló szekerét? Kockáztatna az MS, hogy hamarabb érjen véget a DirectX biznisz, mint mielőtt visszajön a software renderer? Az Xboxok is DirectX-re alapoznak, innen a dupla hasznon, hogy vagy Xboxon, vagy legalább Windowson játszol vele, a Sony egy konzolos frontja ellenében (bár nem tudom nekik kellett-e DX licens, vagy fogalmam sincs milyen API-t használ, lehet hogy mást, bár fura lenne a multiplatform enginek miatt).
És itt bújkál még az árnyékban, hogy a 10.1 véletlenül épp olyan újításokat hozott, amiket nagyon könnyű volt beépíteni az R600-ba, de nagyon nehéz lett volna a G80-ba. Sok a véletlen, és az "először úgy nézett ki a 10.0, mint ma a 10.1" ott bukik, hogy azért az R600-hoz is hozzá kellett nyúlni egy picit. Miért butítottak volna az R600 chipen, hogy később driverfrissítéssel ne lehessen DX 10.1 komapatibilis a 2900XT is? (főleg minek piszkáltak volna rajta, mikor örültek hogy végre ki tudják adni valahogy)
Az még hihető lett volna, hogy újfent lepaktálnak az nv-vel, lesz még 3. xbox is, de akkor miért dobták ki ilyen hamar a 10.1-et? Így hamar eldőlt volna a létra az nv alatt, trégebb óta van már kint a 10.1, mint amit a 10.0 futott. Megérte ezért csorbítani a Vista hypon, hogy a G80 még elkeljen (a partnerük kártyái ellenében)?
Vagy szebb és hihetőbb mese az, hogy az MS az AMD-vel paktál, így orrba szájba küldik az nv-t, mikor épp lehet? Főleg azok után, hogy az FX-eknél ez még észrevehetőbb? Nem tudom ki emlékszik még arra az időre, de én már akkor elhittem, hogy azért szarok az FX-ek SM2.0-ban, mert az MS így tett keresztbe az xbox ügy miatt, és azóta mintha csak ismételgetné magát a történelem.
De majd kiderül, ha 11.0-ás Geforceok rajtja után 1 éven belül kijön a 11.1, hozzá a frissített radeonokkal, bár ennyire még az MS sem lehet beképzelt.Továbbvíve ezt a gondolatot, épp ennek veheti elejét az nvidia akkor, ha tényleg mindent csak amulálnak a textúrázások kívül. Akkor driverfrissítéssel lesz megoldva a DX 11.1 (amit így persze már ki sem jön, mert nem lenne értelme).
Najó, most más abbahagyom, mert kezdek hinni a saját maszlagomban, és 5 év múlva erre tényként emlékszem majd vissza.
-
janos666
nagyúr
Nekem van egy bamulatos teóriám, ami választ ad kérdésre (még akkoriból, mikor debütált a HD3870/50), hogy hogy is van ez a DX 10.1
Tömören:
Volt Xboxunk nvidia chippel, aztán mit ad isten, mikor az új konzol chipjeinek árazása körül összevesztek az MS-el, jött egy FX korszak, amit a DX9.0a körüli kavarásokkal tarkíthatunk. Később az nv összeszedte magát, az SM3.0-val be is előzte az akkori ATI-t. Aztán mikor már túl voltak az új boxon, és szorosra fűződött a barátság az ATI és MS közt, akkor jött a DX 10.0. Mit ad isten, a DX 10.0 csakis egyetlen olyan generációt élt meg, melybe az ATI (közben később AMD, mint jogutód, de addigra már a rég megírt forgatókönyv zajlik) csak egy eleve bukásra ítélt hardverrel szállt be. Előre sejthették már, hogy szar lesz az R600, de tudták hogy úgy is gyorsan leváltják, így legalább szar lesz az egyetlen 10.0-ás hadver, aminek fényében még jobb lesz az új 10.1-es. Mikorr az nv kész volt egy DX 10.0-ás hardverrel, amiről sejthető volt, hogy már nem csak grafikára készül, így kevésbé rugalmas a felépítése, az R600-at pedig eleve úgy tákolták össze, hogy nem gond ha most még szar, majd később jó lesz, egycsapásra rögtön előrántották a DX 10.1-et. Hiába ígérgették, hogy nem lesz mindenféle alverzió, mint DX9-nél, hogy SM 2.0, 2.0_b, 3.0, és egyebek, egy generációt sem futott ki rendesen, máris leváltották a 10.0-át a 10.1-el (SM4.0->4.1), és a korábban behypolt 10.0 már hirtelen szart sem ér, hisz a 10.1 mennyivel, de mennyivel okosabb. (A hosszú évek alatt gondosan fejlesztett 10.0-át fél évbe sem telt nagyságrendekkel jobbá tenni, arra sem volt idő, hogy gyakorlati tapasztalat alatt bukjanak ki a gondok.) Mit ad Isten, a Radeonok könnyen veszik az akadályt, mondhatni DX 10.1-re termettek, a Geforceokon pedig túl nehéz lenne átpofozni a chipet, főleg így, hogy 1 generációt élhetett még csak az egyébként sikeres G80 (és már dobjuk is ki, mikor GPGPU-nak meg jó?).Na, valahogy így születhetett egetverő hiányosságoknak is nevezhető lukakkal tarkított DX 10.0, de jöhetett rögtön a megváltó DX 10.1, ami betöm minden lukat, és az ATI(MD)-nek már vannak is hozzá hardverei, az nvidiának meg sosem lesz, mert mire behozná, addigra többet ér bevárni a DX 11-et. (És ez is jó terv lett volna, mert ha nincs ennyi gond a 40nm-el, és jobban sikerül a propagandahadjárat, akkor ki is húzhatták volna emelt fővel a kb. napjainkban megjelenhető új DX 11-es kártyájukig.)
Bocs, de ez is van olyan mese, mint amit te adtál elő arról, hogy a nvidia azért basszatta el a DX 10.0-át az MS-el, hogy CUDA legyen helyette. (Te figyu, MS, nem akarod elkúrni a saját zárt szabványod, hogy az enyém befuthasson? Végül is neked csak azért kell, mert egy Windows-t akarsz vele eladni, ami élteti a többi eladásod, de nélküle senki vagy...? Naaa...)
-
janos666
nagyúr
Hát, alapvetően azt szerettem volna, ha Crytek fórumtárs teszi fel magában ezt a kérdést, amit most te (mi is az a max?).
Ő írta (#4843)-ben:
Én majd olyan VGA-ra akarom lecserélni a 8800GT-met ami viszi majd a Crysis-t és a Warhead-et 1280*1024 very high max AF ás max AA mellett.Ki akartam ábárándítani a tervéből, hogy a MAX-ra tolt AF-ről és AA-ról álmodjon (ábrándozzon inkább minél nagyobb felbontásokról, és gyönyörködjön a POM effektben AF helyet...), tehát most épp, hogy a te elveiddel is összeegyeztethető szándékkal hoztam fel a témát. Csak úgy tűnik az ő irományai felett elsiklottál, és így az enyémben pedig a multkori vitánk folytatását (vagy inkább sokadik újraindítását) találtad meg. (Pedig ez most tényleg nem az akart lenni, ott már elfogadtam, hogy sosem jutunk közös nevezőre, mert csak egymás mellett beszélünk, nem is vitatkozunk, így még ha mindketten igazat mondunk, akkor sem jutunk dűlőre soha, nem hogy az kiderül kinek nincs igaza a konkrét példára szűkített kérdésben.
)
(#4861) zack - Biztos függ ez driver verzióktól, de talán még játékpatchektől, és a többi cvar érétkétől, amiket nem nézünk. A konkrté összehasonlítás talán még 8.x-es driverrel történt, bár inkább 2009 eleje rémlik (nem is én csináltam a képeket).
-
janos666
nagyúr
Hmm. A múltunk ezúttal befeketítette a jelent.
Kivételesen nem ezt a mondókámat akartam most újra előhozni, hanem ha elolvasod végig, akkor látod, hogy csak szösszentem valamit arról, mi is az hogy MAX-on menjen a crysis AA/AF-el, és mi mindenre jó az a recsin kívül.
Amúgy nem teljesen alaptalan az AF rész, rágebben nézegettem screenshotokat is, ahol a driverből erőltetett AF krisszi alatt mindkét kártyával szar, persze, de nv-nél mindíg mindíg sokkal közelebb áll a "mint ha csinálna valamit"-hez, mint a semmihez, amit a radeonok csinálnak. Jelen esetben azért mertem felhozni, mert ilyen MAX-ra gizdulunk a téma, és ha MAX kell, akkor jobban jár a "kicsit mintha"-val, mint a kevesebbel. Az AA meg megint a rejsznyág, mert nem ő lenne az első, aki beállít, hogy "hova lett a menüből a 16xQ mióta radeont tettem a gépbe, mi az hogy nem tudja?" -
schwartz
addikt
Maradjunk annyiban, hogy en szepitem a multat Te meg ferdited a jovot (a joslataiddal)...
Kivancsi leszek mennyi ido kell az Intelnek, hogy megemessze a Larrabee-t. Mert nemigen lesz 3-ik generacio csak ha beallnak a CUDA moge... Ahogy hallom, harmatgyenge a vas...
Ebbol lesz majd gamer platform?
-
VinoRosso
veterán
Utánanéztem, és valóban rosszul emlékeztem, mert nem dispalcement map az, hanem sima offset bump mapping. Mind1, a lényeg, hogy nem POM. Ezt a két eljárásos dolgot nem tudom honnét veszed, talán részt vettél a fejlesztésében? Vagy megsúgták a kontaktjaid
? Még a Med1on által linkelt írásban is több shaderről beszélnek, egy shaderben meg minimum van 1 függvényhívás. Találtam egy ilyen anyagot, ebből is arra lehet következtetni, hogy jóval több dx10es kód van a cryisban, mint ahogy írod.De tegyük fel hogy igazad/igazatok van, és crysis dx10=dx9 very high. Mivel magyarázzátok azt, hogyha a dx10es renderelő fut ugynazon( Vista, Win7 ) oprendeszeren, akkor - szimpla high setting mellett is akár - konfigtól függően 5-10 fpsel lassabb a játék, mint dx9es renderelő esetén. Várjál kitalálom: a gonosz Crytek az nvidia sugallatára belefordított egy két féket a d3d10es dllbe, hogy lassabban fusson.
-
VinoRosso
veterán
A CUDA memóriamodellje teljesen a G80-ra van optimalizálva.
Ez ebben a formában nem igaz, mivel azt sugallja, hogy a G80at készítették először, és erre szabták rá a CUDA-t. Az igaz, hogy memóriamodell optimum g80ra, de fordítva is igaz, teáht a G80 optimum a CUDA-ra. Mégsem lehet azt mondani, hogy G80 architektúrális sajátosságai határozták meg a CUDA felépítését, hanem mind a G80 architektúrát és a CUDA-t együtt tervezték, egy specifikus céllal, és ez a követelmény határozta meg mind a G80 mint architektúra, mind a CUDA 1.0 mint platform felépítését. Ha egészen pontos akarok lenni, akkor a CUDA-val kapcsolatban a Tesla-ról kellene beszélni, mivel a CUDA fejlesztését ezzel hangolták össze.
(#4656) Med1on :
Ez nem elfogultság hanem tény. Az ATI jelenlegi chipjei kevesebet tudnak az NV chipjeinél ahhoz, hogy jól domborítsanak általános számításban. Igaz amennyivel kevesebbet tudnak, annyival jobbak specifikus alkalmazásokban, pl grafikában. A kettőt nem lehet egyszerre, vagy ha lehet is( a G80 elég jónak számított a maga idjében dx9-dx10ben, és GPGPU ként is a maximumot hozta ), nem fél éves fejlesztési idő, mire egy ilyen chipet elkészítenek. Igaz utána évekig megélnek belőle.
-
VinoRosso
veterán
Az NV a CUDA rendszert a saját GPU-ira optimalizálja
Bár már elegem van a folytonos vitákból, de azért itt közbe kell szólnom. Sosem GPUra optimalizálnak, sem semmiylen hardverre, ez abszurd. Van egy célfüggvény, konkrétan az,hogy hídat képezzenek a GPGPU és a GPU közt, és ez független mindféle hardvertől/szoftvertől. Ez még a tervezés előtt megjelenik követelményként, és mindent ennek rendelnek alá. Erre készül a hardver és a szoftver környezet is, vagyis nem a CUDA-t optimalizálja a GPUra, sem a GPU-t a CUDA-ra, hanem az egész plattform egy célfüggvény alá van rendelve, és erre készülnek a GPU-k és a CUDA is. Amit mondasz az olyan mintha valaki elmenne a szabóhoz, és nem a ruhát, hanem saját magát szabatná a ruhára, nem a ruhát magára. Az én véleményem - bár tudom, hogy ez nagyjából senkit nem érdekel, de azért leírom, hátha valaki vezi a fáradtságot - teljesen ellentétes a tieddel a CUDA-val kapcsolatban.Még ha be is jönnek a jóslataid, akkor sem értem miért kell temetni a CUDA-t. Ha el is tűnik a GPU szegmensből, attól még GPGPU-ban egyeduralkodó marad. De szerintem egyik helyről sem fog eltűnni, sőt mégnagyobb teret nyer. A most bemutatkozó CS & OCL kb olyan képességekkel jön, amit a CUDA már évek óta tud. Ez arra enged következtetni, hogy ennyivel előttük is jár. A konkurrens apikat használó alkalmazásokról szinte semmit sem tudni( mivel nem nagyon vannak ) ellenben azt tudni lehet hogy a CUDA-s cuccok nagyon jó hatékonysággal futnak, egyszerű a fejlesztésük( ez nagyon fontos a SW fejlesztések költsége szemppontjából ), széles tudásbázissal rendelkzik ( több egyetemen is oktatják, rengeteg tapsztalat felhalmozódott az évek során másik oldalon itt pár demon és példaprogramon kívül sokminden nincsen) , és nem csak emiatt egyszerű elsajátítani. Hátrányt a CUDA a versenytársai gazdasági fölánye miatt szenved, el akarják nyomni( illetve lopni ), mivel tudják, ha nem teszik, nagyon gyorsan elterjed és a fejükre nőhet. Emiatt alacsony a hardver támogatottsága, de ha megfelelő előnyre tesz szert, pl egy kijön egy új verzió, ami többet tud mint a konkurrens plattformok, és sokkal gyorsabb és oclsóbb is egyben, akkor az utóbbi még az NV előnyére is válhat, mert ennek egyenes következménye, hogy emiatt jelentősen nőni fognak az eladásaik. Ez utóbbira egészen jó esély van, mivel minden egyes GPU generációval frissült valamit a CUDA, és most nagyobb változás van kilátásban a a DX11 miatt. Valószínűleg az új dx11es GPUval új CUDA is jön, és ha a versenytársak a jelenlegi CUDAval akár egyenlő számítási teljesítményű plattformot csinálnak( ez nem valószínű, mert ehhez még ha meg is lesza jó api, hardver is kéne, azt meg kétlem hogy az ATI a buta chipjeivel általános számításokban fel tudná venni a kesztyűt ), a CUDA már egy lépéssel előttük lesz. Az átlag felhasználókat pedig nem fogják befolyásolni ennek a versenynek a kimenetelét, mivel ők grafikára vesznek kártyát, és itt az fog dönteni, hogy melyik jobb dx11ben. Ez a csata ott fog eldőlni ahova kell a számítási teljesítmény, ott ahol meg nem egy két VGA-t vesznek, hanem 50 - 100 karesz fortyog egy klaszterben, és itt már rohatul számítani fog, hogy mennyit kell perkálni a gépidőért, mennyi bugot kell kigyomlálni a fejlesztés során, mennyibe kerül betanulnia a fejlesztőknek, hány és miylen kvalitású ember közül lehet választani, menyi ideig tart a fejlesztés, stb.. egyszóval itt már más jellegű gazdasági megfontolások vanak, mint hogy hány fps-el fut a legújabb játék. Ezekben a CUDA mind jó. Nem tudom, hogy pl az OCL milyen lesz, de szerintem csak akkor fog sikert aratni, ha azon kívül, hogy plattformfüggetlen, fel tud még valamit mutatni a CUDA-val szemben. Ha semmit nem mutat fel, akkor nem hiszem, hogy sok vizet fog zavarni GPGPU szegmenben. A grafika az más káposzta, bár az is megérne egy misét.
Aktív témák
Hirdetés
- Hangtalan nootbook
- Hálózati / IP kamera
- Lakáshitel, lakásvásárlás
- VoidXs: Tényleg minden játék optimalizálatlan?
- Xiaomi 15 - kicsi telefon nagy energiával
- Drón topik
- bitpork: MOD Júni 28- Augusztus 2- szombat jelen állás szerint.
- Kerékpársportok
- NTFS, exFAT, FAT32 – Melyiket válaszd és miért?
- One otthoni szolgáltatások (TV, internet, telefon)
- További aktív témák...
- Csere-Beszámítás!AMD Asztali számítógép PC Játékra! R5 5600/ RX 6700XT 12GB / 16GB DDR4 / 500GB SSD
- Konica Bizhub C220 - A3 fénymásoló
- Lenovo Thinkpad L14 Gen 4 -14"FHD IPS - i5-1335U - 8GB - 256GB - Win11 - 2 év garancia - MAGYAR
- Bomba ár! Dell Latitude E5440 - i5-4GEN I 8GB I 320GB I DVDRW I 14" HD+ I HDMI I Cam I W10 I Gari!
- ÁRGARANCIA! Épített KomPhone Ryzen 5 7500F 32/64GB DDR5 RTX 5060 8GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest