- Honor 200 - kétszázért pont jó lenne
- Fotók, videók mobillal
- Google Pixel topik
- Okosóra és okoskiegészítő topik
- Samsung Galaxy A56 - megbízható középszerűség
- Magisk
- Samsung Galaxy Buds3 - vissza a kályhaezüsthöz
- Samsung Galaxy S23 Ultra - non plus ultra
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- 200 megapixeles zoomkamerát sem kap az S26 Ultra?
Aktív témák
-
válasz
VinoRosso #3139 üzenetére
lehet x38-at kapni normális áron, csak keresni kell
de amúgy ha költséghatékonyan akar valaki CF-et, akkor P45-ös lapban érdemes gondolkodni, ha két GPU-nál megáll, akkor nem lesz gond a 8x-os PCIE sávszélesség.
az SLI-vel kapcsolatos problémák nekem inkább user errornak tűnnek, régebbi és kiforrottabb, mint a CF, ráadásul az AFR kezdettől a fókuszban volt. de abban amúgy teljesen igazad van, hogy a multi-GPU problémásabb és vannak hátrányai - aki ilyet akar, az ezekkel legyen tisztában és vállalja fel.
sidenote: miért beszélünk külön a GTX295-ről? az is csak egy szimpla SLI...pH-User: nagyban függ attól, milyen CPU és memória van mellé...
JColee: ááááááááá, csak véletlen egybeesés
-
Bluegene
addikt
válasz
VinoRosso #3139 üzenetére
sztem a videókártyák mindig ugyanannyi wattot fognak enni hisz hiába javítanak a gyártástechnológián belepakolnak 2X annyi tranzisztort és ugyanott vagy, tehát egy 5870X2 is fog annyit zabálni mint egy 3870X2 csak épp 640sp helyett lesz benne mondjuk 4000sp
és a játékok teljesítményigénye is nő tehát indokolt
-
-
válasz
VinoRosso #3135 üzenetére
nemt'om, mi bajod az X38-as lapokkal
de nyilván akkor szimpatikusabb ez a lehetőség, ha a lap már adott.
itt egy teszt példának, szimpla 4830 van csak benne, de a Crysis, a FC2 és az Oblivion kivételével számolhatsz a teljesítményének a 180-200%-ával - ha így nézed, jóval több, mint az esetek felében a 285-ös fölött lyukadna ki. az is igaz, hogy crysis-ezni nem annyira király.
szóval akkor mi az alternatívád a 4830CF-re? a 4870-nél sokkal gyorsabb, különösen annál az 512M-s változatnál, ami egy árban van vele.
ill. az is érdekelne, hogy a 4890CF-et mivel helyettesítenéd.és szegény SLI meg mit vétett?
tzsolesz: a másik helyen válaszoltam
-
rocket
nagyúr
válasz
VinoRosso #3032 üzenetére
Mi alapjan feltetelezel ilyet?
Semmi masrol nem szolt az R600 utani idoszak mint az AMD kisebb core strategiajarol amivel a monolitikus highend GPU lehetoseget eltemettek, a doksik azzal vannak tele ahol mutogatjak a kulonbozo kategoriakat,hogy hol vannak a legnagyobb eladasok, es ez nem a highend termekek kozott van.Mibol gondolod lesz 2xGT300? ,es mibol gondolod az AMD elet celja, hogy a "kinek er messze a lolaba" kategoriaban az elre keruljenek mindenaron?
-
-
rocket
nagyúr
válasz
VinoRosso #3021 üzenetére
Miert lenne keves?
1200SP melle 800mhz orajellel majdnem megvan a 2 Tflop/s S-P teljesitmeny, ezt megszorzod 2-vel (RV770 strategia stilusban) es maris 4Tflop/s kornyeken vagyunk.Nem az RV870 kell versenyezzen a GT300-zal ha az egy highend GPU lesz, hanem annak a dual core, vagy dual GPU megoldasa.
Ha augusztusban jon az RV870, akkor siman feltudnak keszulni az X2-vel a GT300 rajtjara, ezert is irtam nehany hozzaszolassal ezelott, hogy nem kell kapkodniuk a highend termekukkel.
-
válasz
VinoRosso #2902 üzenetére
Nem az én gépeim, így nem tudok annyit foglalkozni vele. A hibáról olvasott haverom külföldi fórumokon is, és állítólag megoldás is van rá, de az egy driver mod, ami bekavar pár játéknak.
De egyébként annyira már nem izgalmas a dolog, mert itt a win7, és az alatt tökéletesen műxik. Engem más nem érdekel. -
válasz
VinoRosso #2887 üzenetére
Ez biztos nem lehet az oka, mert ugyanabban a lapban az én nV 7600gs karim hibátlan Vista alatt is.
Viszont, már mások is mondták, hogy náluk nem jött elő a probléma, úgyhogy egyre inkább tanácstalan lenni. Melóhelyen intel proci+nV lapban is ugyanazt produkálta Vista alatt, pedig tök más gép, mint a haveré, még a MAX verziója is más.
Egyre inkább gyanakszom, hogy valami más szoftver szól bele a dologba... de xp, és Win7 alatt miért nem csinálja 99.9%-ban ugyanazzal a szoftver körítéssel?Mindegy.
-
válasz
VinoRosso #2879 üzenetére
Havernál full-AMD gépen van fent Xp és Vista is.
Xp alatt semmi gáz, de Vista alatt a MAX folyton hülyéskedik. többfélét produkál: átlátszó a test, amikor nem kéne, normal vektorok is elég önállóak, villognak a poligonok, más színűek, stb. Ez egy 4850-es, és egy 4870-es karival jött elő DX módban (OpenGL alatt még rosszabb), de kisebb kártyákkal is próbálta, és ugyanez. Win7 és XP alatt sosem jött elő a probléma (legalábbis DX módban).
Munkahelyemen is tapasztaltuk a problémát, de ott csak 2-3 óra után kezdett furcsaságokat művelni, pedig a hűtés tökéletes volt.
Viszont win7 alatt sem volt jó mindig; csak az utóbbi driverekkel.
Reméljük, ez a fejlődés végleges, és nem csak véletlen.
Én is teljesen AMD gépet akarok venni még ebben az évben, de ehhez az kell, hogy ne legyenek a fentiekhez hasonló problémák. -
JColee
őstag
-
rocket
nagyúr
-
leviske
veterán
válasz
VinoRosso #2274 üzenetére
Az nV-nak már a Tegra piacán is szüksége lesz X86-ra egy kis idő múlva... És miután az Intel kijelentette, hogy Ők is eljátszottak a gondolattal, hogy a Mobil piacon is képviselni szeretnék magukat... Nem nehéz kitalálni, hogy a Transmeta-s X86 emuláció nem lesz elég örökre.
Vagy valamit félre értek?
-
janos666
nagyúr
válasz
VinoRosso #1469 üzenetére
Hááát őőő, izééé...
Emlékszel a Half-Life 2 E3-as techdemókra? Én már akkor azt kifogásoltam, hogy, fejből idézem saccra amit akkor írtam:Bazdmeg, kurva állat az a víz! Csaaak... Tényleg élethű, meg minden, de akkor már miért nem tudom megtenni, hogy mikor vízbe merítek egy vödröt a phsygunnal (arró beszélek mikor itthon szórakoztam a kilopott alpha verzióval...), akkor a vödör teljen meg vízzel, amit aztán szétlocsolhatok a betonon, ahol tócsát képez, illetve ha mindezt nagyobb vödörrel (hordóval) játszom, még a medence vízszintje is alább apadhatna (na nem rögtön úgy mint egy profi hidraulikai/hidrológia modell, csak úgy kornak és szórakoztatás igénynek megfelelő minőségben.
A rombolható falakat is vártam volna az után, mikor lenyomták a videót, amiben több falat szétrobbantanak a striderek.
És most a 2003-as vágyálmaimról beszélek...Valami ilyesmi felé vezető utat véltem sejteni a GPGPU-ra portolt, nvidia által pátyolgatott Physx mögött is akár pár generáción belül mikorra megszaladnak a Terraflopsok (mikor ott lesz a kompetitor intel havokja), stb...
Én nagyon élvezném a teljességében rombolható környezetet, már a mai grafikai szint mellett is, a mai teljesítmény melletti gyermeteg igényű megvalósításában.
Elindítanám az új GOTY reményes játékot, és nem azt kezdeném fürkészni hogy festenek a shaderek, milyenek a textúrák, hanem lövöldözném a padlót, falat, plafont, trancsírolnám kicsit a hullákat, vagy a bútorokat...
(Mert 20 éves fejel [de már 18-assal is ezzel kezdtem], és csak azt a pár játékot játszom végig az évben, ami ezalatt a tehdemókként való bejáratás alatt hangulatilag/történetileg is belopja magát a lelkembe...) -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1458 üzenetére
Picit félreértesz. Abban egyetértek, hogy modelleknek egyértelműen poli alapúnak kell lennie, de a terepre tökéletes alternatíva a voxel már jelenleg is. Persze most még olyan megoldások vannak, mint a Cryengine 2-ben ... Nem teljesen voxeles rendszer, hanem csak a kritikus részekhez használják. Ettől függetlenül a Larrabee sok magja elég jó kiindulási alap a full voxeles terephez, abban erő van bőven. A Carmack és Sweeney is ebbe az irányba mozdul következő generációs motorokkal.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1444 üzenetére
Ez így van annyi pontosítással, hogy a heightmap nem képes barlangra, vagy kiálló felületekre információt hordozni. A motorban viszont a mesh egyes részeihez voxel object van rendelve. Amint kész az voxeles objektum leképzése poligon alapúvá lesz konvertálva, mivel a raszterizálás csak így működik.
A voxel sokkal többet tud egyszerű tesszellálásnál. Nyilván egyelőre a tesszellátor lesz használva, de idővel áttérnek voxel alapú terepgenerálásra. Gondolj bele mekkora lehetőség egy teljesen rombolható környezet. És ami nagyon fontos, hogy a voxel erőforrásigénye messze kisebb, mint a poligon alapú felületé. Persze a poligonná konvertálás továbbra is probléma, mert a raszterizálás csak ezen a felületen működik.
Érdekes elgondolás lehet a voxeles terep poligonná konvertálása, és után az alacsony poligonszámú terep tesszellálása. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1415 üzenetére
Nyilván az RV870 az 220-230mm^2-re lesz belőve 40 nm-en. Ehhez kell kb. 1,6-1,7 milliárd tranyó. A SIMD tömbök maradnak 80 utasak, és ezekhez tartozik majd továbbra is egy textúrázó blokk. Kb. 24 ilyen tömb fér bele a tranyószámba. A ROP blokk-ok száma 8 lesz, 32 bites csatornákkal. Így a memóriabusz 256 bites lesz ... nyilván GDDR5-tel. A DX11-hez gyakorlatilag csak a textúrázókon kell dolgozni, ott is csak az új BC6, BC7 tömörítő algoritmusokat kell beépíteni. A tesszellátor ott van a rendszerben, csak a vezérlést kell átalakítani a Dispatch processzorban. A rendszer már eleve maximális hatékonysággal dolgozik a lebegőpontos számításokkal (már az R600 óta), ennél többet már nem lehet kihozni belőle. Persze kisebb útvonal optimalizálások beleférhetnek.
A G300 az szokás szerint GPGPU lesz, tehát az igények kvázi eltérőek. Mivel a rendszer nem statikus vezérlésű, így sok tranyót kell elverni az ütemezésre. Szerintem az NV az 512 stream processzort célozza meg. Ehhez 16 TPC kell blokkonként 4 shader processzorral (összesen 32 stream processzor). Ezekhez ideális lenne 128 textúrázó csatorna. Ez TPC-nként két textúrázó blokkot eredményez. DX11 támogatáshoz sok változás kell. A textúrázó csatornákat elégé át kell dolgozni, először is egy csatornába 4 mintavételező kell, az eddigi 1 helyet, továbbá növelni kell a rendszer hatékonyságát a lebegőpontos textúrázás esetén. A tesszellátort be kell építeni (ez nem komoly munka). A rendszernek teljesen DP kompatibilisnek kell lennie, tehát a jelenlegi 1/8-os DP teljesítményt fel kell hozni a Radeon szintjére, azaz a hatékonyság nem lehet rosszabb 1/2-nél. Nyilván ez eleve sokkal combosabb ütemezőt eredményez majd, így valamit ide is ki kell találni, mert ez kb. G200 alapokon 3,5 milliárd tranyó, ami nem járható út. A 2,8-3 milliárd tranyó 40 nm már jó eredmény, ... a gyorsítótárakat jelentősen átszervezésével, és az ütemező megnyirbálásával ez talán elérhető. Nyilván itt ne hasonlítsuk a tranyószámot az AMD-hez, mivel a Radeon az elsősorban grafikus feldogozáshoz készül, míg a GeForce nem. A ROP blokk az talány, de 12 kellene a rendszerbe, ezzel jó lenne egy 384 bit-es memóriavezérlő. Memóriából GDDR5 kell, de ez nem téma.
Kb. így jönnek ki az adatok.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1400 üzenetére
Azért DX10.1 az új aero, mert nem sok embernek lesz DX11-es karija egyhamar. NEm hiszem, hogy olcsó lesz az RV870. Az oké, hogy az elmúlt hónapokban szimpi volt az AMD stratégiája, de jelenleg akkora előnyük van, hogy pofátlan árat is kérhetnek a technikájukért. Ők is cégként működnek. Nyilván öröm nekik, ha mi felhasználók örülünk a vásárolt cuccnak, de még nagyobb örömmel vigyorognak az arcunkba, ha sokat fizetünk érte.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1397 üzenetére
Elvileg úgy lesz, hogy lesz az alap mód, nuku kinézettel. Ehhez gyakorlatilag nem kell komoly kari. Lesz egy normál aero DX9 amihez DX9-es hardver a minimum elvárás. És lesz egy nagyon gyors változata az aeronak, amihez minimum DX10.1-es kártya kell (ebbe beletartoznak a DX11-es karik is). A DX10.1-es felületnek a másik előnye, hogy feleannyi memóriát zabál, mint a sima DX9-es verzió.
DX11 az benne lesz. Erről annyit mondott az MS, hogy mérsékelten kompatibilis visszafelé. Ez azt jelenti, hogy ha egy DX11-es progit futtatunk, akkor ahhoz nyilván DX11-es kari kell. Ha DX10.1-es karink van, akkor picit butítja a grafikát. Azok az eljárások amiket nem támogat a kártya nem fognak lefutni. Ha DX10-es kari van a gépben, akkor még tovább butítja a grafikát, továbbá lassul a feldolgozás is a gyengébb mintavételezési eljárások miatt. -
Depression
veterán
válasz
VinoRosso #1311 üzenetére
Mint látod, nekem egy erős PhysX-et támogató karim van, és érdekel is a számítástechnika. Gőzöm sincs, elképzelni sem tudom, hogy melyik játék mikor használja. Összehasonlítási alapom meg egyáltalán nincs. Akkor mit vársz a mezei júzertől?
Egyszer már bebuktan egy FX-es karival, mert ugye az nV akkor is szemetet árúlt (mint ahogyan ezt teszi most az alsóbb kategóriákban), és pénzelte a FarCry-t. Most sokan nem fejlesztenek nV-re, mert ugye nincs DX10.1-es támogatás, ami a hírek szerint egyszerűbben programozható.
Az nV meg egyenesen a trenddel szembe megy. Ez miért jó?
Hozzáteszem, hogy a jelenlegi 8800GTX-emmel teljesen megvagyok elégedve, DE!!! Az sem állapot, hogy a lassan 3 éves kártyám veri a legtöbb nV karit. Egyáltalán nem tesz boldoggá, hogy fejlesztés helyett azt csinálja, amit. -
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1315 üzenetére
Semmi szükség a fokozatosság elvére. Ezeket a chipeket külön csapatok fejlesztik. Az RV870-nek azért reális a 2000 SP, mert ezzel kb. meglenne a 200 mm^2. Ha ennél kisebb a chip akkor, a wafer szélén sok lapkát kell eldobni. Például az Intel Atom eléggé kicsi, de ezt a mérnökök úgy kompenzálták, hogy hosszúkás chipet csináltak, így a kocka formához viszonyítva, kevesebb csonka chip lesz. A GPU-nél ezt nehéz megcsinálni ... valamennyire el lehet menni téglalap irányban, de nincs annyi egységes cache a rendszerben, hogy megfelelő legyen a kialakítás.
Pl.: az RV740 elég gáz lesz a méret szempontjából, mert a wafer szélén tuti sok csonka chip megy majd a kukába. Bár az árak még mindig jók lesznek ... -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1311 üzenetére
Először azt kellene elérni, hogy a Physx támogatás ne a pénztől valósuljon meg.
Ha ez megvalósul, akkor valószínüleg az AMD sem utasítja majd vissza a CUDA támogatást. Az OpenCL mellett, ennek nagyon kevés esélye van, így lényegében pár játékban ki is fog merülni a Physx ereje. Többekközt ezért nincs AMD-s támogatás, mert tudják, hogy nincs jelentősége a dolognak.
Nem kötelező támogatni, a DX-et. Az MS csak szívességet tesz azzal, hogy a szabványt fejleszti. A fejlesztőknek is ott van az OpenGL ... nem az MS monopolhelyzete miatt nem támogatják ezt hanem, mert a DX sokkal jobb alternatívává nőtte ki magát. A GPGPU-ra is lesz alternatíva: OpenCL és Compute Shader ... itt van esélye az OpenCL-nek alkotni, de a Compute Shader valszeg jobban fog kötődni a DX-hez.
-
rocket
nagyúr
válasz
VinoRosso #1306 üzenetére
A #1275-ben ezt irtad:
"Azonkívül a GT300 ellen kevés lesz az 1200sp, ugyanis az nv is meg fogja növelni a sp-k számát drasztikusan."
Jol ertelmezem akkor arrol irsz, ha most nem emelik az SP-k szamat az RV790-nel 1200-ra (mert ugye azt irtad szerinted legalabb 1200SP lesz az RV790-ben), akkor a a kovetkezo GPU (RV870) 1200SP-vel keves lesz majd a GT300 ellen, de mibol gondolod attol mert most esetleg marad a 800SP, hogy a kovetkezo lepes nem 2000SP+ lesz ?
Egyebkent nem lehet semmire kovetkeztetni az SP-k szamabol, raadasul a GT300 lehet egy uj architektura lesz, es pletyka szinten se volt meg szamszeru adat rola.
-
Gonosz15
aktív tag
-
rocket
nagyúr
válasz
VinoRosso #1275 üzenetére
"40nmen nem lesz vele gond a fogyasztással. Azonkívül a GT300 ellen kevés lesz az 1200sp, ugyanis az nv is meg fogja növelni a sp-k számát drasztikusan."
Nem igazan ertem amirol irsz, probaltam osszerakni a hozzaszolasaid abbol az jott le az RV790 eseteben varsz 1200SP-t, tehat akkor ez a resz amit felul kiemeltem egy kerdest vett fel, mikoze az RV790-nek a GT300-hoz?
"Kétlem hogy lenne idő r700 utcsó szériaáinak a fejlesztése mellett valami nagyobb léptékű változásra."
Az RV790 egy minor update, igy nem kellett tul sok resourcet pazarolni ra, tehat koncentralhattak az RV870-re.
"Azzal a pozicióval amit jelenleg a 4870 elfoglal, nem mennek semmire, két szék közül a pad alá esnének. max annyit tudok elképzelni még, hogy leljebb tolják a 4870 árát, mert mással nem tudnak vesenyezni, és akkor nem marad űr a helyén.
Csak kérdés mennyire tudják így vonzóvá tenni, mert már lesz G92b, ami lehet, h ár/teljesítményben jobb lesz."Jelenleg egy hosszu dominans idoszak utan van az RV770, igy a ra epulo termekekkel nem kell tul nagy trukkoket alkalmazni, ebben a helyzetben az arcsokkentes tokeletes lepes lesz, raadasul van hova lepni.
Hasonlo csikszelessegen ~10%-kal nagyobb a G92B mint az RV770, 9800GTX+ (marcius 3-tol uj neven GTS250) dual slot huteses kartya ugyanugy mint a HD4870, raadasul 9800GTX+ eseteben ha jol emlekszem 12 retegu PCB kell, es nem volt attervezett (koltseghatekonyabb) PCB meg, a HD4870-hez meg 8 retegu kell, fogyasztasban nincs nagy kulonbseg (~10% lehet a 9800GTX+ javara) igy PCB komplexitasat tekintve sincs nagyobb elteres, szoval itt jol all majd a helyzet az AMD oldalarol nezve.
Ha minden igaz akkor a GTS240 egy tuningolt 9800GT lesz, amivel a HD4830 szintjerol, kozel kerulhetnek a HD4850-hoz, de majdnem minden hasonlo lesz mint amit fentebb irtam. (egyebkent GTS240 a fentebb leirt valtozatban az RV740XT elol menekulo termeknek tunik)
Ar/teljesitmeny arannyal kapcsolatban attol fugg honnan nezzuk a dolgokat, ~30%-kal olcsobb a 9800GTX+ 512mb (ami ugye 92B-re is epul) mint a HD4870 512mb, szurok nelkul, es 4xAA/16xAF mellett ~15%-kal lassabb, tehat eddig nezve jobb ar/ertek aranyu, de 8xAA/16xAF mellett mar 35%-kal lassabb,es csak 1280x1024-ig birja a tempot, 1680x1050-ben mar ~70% a kulonbseg ami a 9800GTX+ 512mb eseteben a "kiutest" jelenti, mig a HD4870 512mb jopar jatekban 1680x1050-ben is produkal jatszhato atlag frameket. -
-
Depression
veterán
válasz
VinoRosso #1259 üzenetére
Nem értelek. Én, mint mezei felhasználó, nem tudok dönteni. Ha több közül kellene választanom, akkor az alapján fogok, hogy melyikkel megy a kedvenc játékom. Ez lenne a szabad választás? És lenne mellette egy csomó progi, ami nem működne a gépemen.
Hát ebből én nem kérnék.
Azt meg tegyük hozzá, hogy a piac még mindig előnyben részesíti a 1 és annál több giga memóriával rendelkező kártyákat. Szeretnéd, hogy ők döntsenek? -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1289 üzenetére
Az Xbox360 is támogat OpenGL-t. Csak nem biztos, hogy előnyös azt használni. Az egy dolog, hogy Carmack OGL mániás, de a 3.0 nem hozta azokat a változásokat amiket várt tőle. Sőt gyakorlatilag alig változott. Egyszerűen ha van lehetőség rá, akkor érdemes váltani, mert könnyebb és gyorsabb a munka a DX10-en.
Ez a DX elterjedtség nem MS féle nyomjuk le a torkukon dolog. Egyszerűen jobb a rendszer. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1278 üzenetére
Az a poén, hogy ez az "olcsó" gyári hűtés működik a legjobban.
Nem az a jó hűtés ami alacsonyan tartja a GPU hőmérsékletét, hanem az ami megfelelő üzemhőmérsékletet biztosít az összes alkatrésznek. Ez csak a referenciahűtésre jellemző.
schwartz: szerinted 32 ROP-pal gyorsabb lenne? Totál nem így működik az egész. Jelen pillanatban a Z-Sample az AMD-nél a szűk keresztmetszet ... azt elég ha megemelik 8 mintára órajelenként. Ez ilyen többet ésszel, mint erővel stratégia. Eddig bevált.
TTomax: A gazdasági válságnak ehhez semmi köze. Az AMD GPU-t akar csinálni, az NV meg GPGPU-t. Nyilvánvaló, hogy a stratégia nem változik egyik oldalon sem. Az RV870 és a GT300 is 40 nm-en jön.
Az AMD-nél úgy 1,6-1,8 milliárd tranyós chip lesz ... DX11-re felkészítve. Ebbe a jelenlegi rendszer szerint 2000 SP bőven belefér, sőt még tán kevés is ... de nyilván máshol is meg lesz toldva a fejlesztést, szóval kb. reális.
Az NV-ről azt mondják, hogy 3 milliárd fölé megy. Az átdolgozások miatt azonban nem lehet normálisan következtetni az SP számra, mert nagyon sok tranyó maga a DX11 beépítése ... főleg a Gather4 textúrázócsatornák viszik majd az anyagot. Valszeg spórolásból vissza is térnek a 384 bit-es memóriabuszra, ... 480 SP-vel minimum kell jönnie, de több nem igazán fér bele. Persze sok függ attól, hogy mennyire változik az ütemező. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1269 üzenetére
Most azt akarod mondani, hogy az AMD belemegy a CUDA támogatásba, amikor az OpenCL kint van és a Compute Shader is hamarosan megjelenik? Az AMD egész végig arra játszott, hogy a CUDA ne legyen életképes a PC-s VGA piacon. Ezt gyakorlatilag már el is érte.
Szerintem ha a fejlesztők annyira problémának éreznék a DX Windowshoz való kötődését, akkor nem használnák, de mivel a vásárlók 99%-a Windows alatt játszik (még az OpenGL játékkal is) így lényegében mindegy a dolog.
Amikor az OpenGL volt jobb, akkor sokan azt használták. A DX a 6.0-ás verzióval kezdte a hódító útját. A DX7 már pár esetben jobb volt az aktuális OpenGL-nél, míg a DX8 totálisan elverte azt. Innentől van teljes DX uralom. Az OpenGL azért nem fejlődik úgy, mint a DX, mert a CAD programokkal való kompatibilitás meggátolja ebben. Az MS egyszerűen bevállalta azt, hogy a DX10 nem kompatibilis a DX9-cel és így tudott nagyot lépni előre.
Carmack fejleszt DX-re, mert az Xbox360 játékokhoz ez az alap ideális. A Rage-ről nem sokat tudni, de nem elképzelhetetlen, hogy hagyja az OpenGL-es vonalat, miután azt nyilatkozta, hogy a 3.0-ás verzió hatalmas csalódás számára.
-
-
TTomax
félisten
válasz
VinoRosso #1275 üzenetére
Szerintem meg nem lesz itt ennyi SP,én ezt szakmailag nem tudom ilyen kereken alátámasztani.Viszont azt gyakorlatból tudom,hogy olyan hirtelen felizzik a RV770 hogy azt nagyon nehéz hűvösen tartani...én nem hiszem hogy ebből többet bele lehet pakolni.
Egyébként még nem tudni azt sem milyen erős lesz a GT300,söt hovatovább az ATI inkább az ár irányába mozdult el,nem látom én azt,hogy ök most minden áron a leggyorsabbak akarnak lenni... inkább úgy tűnik ez nekem,hogy a legolcsóbbak,és egy gazdasági válság idején ez sokkal jobb stratégia... -
TTomax
félisten
válasz
VinoRosso #1269 üzenetére
Sok mindenben igazad van,de az utolsó mondat szemet szúrt....
Én jóval többre tippelek, az 1200 már sokkal szimpatikusabb szám
Arra gondoltál már,hogy azt mivel lehet lehűteni?És ahhoz ez a nyák már kevés?És hogy ez mennyivel is dobná meg a költségeket?Ez nem fér bele az ATI stratégiájába...
-
leviske
veterán
válasz
VinoRosso #1269 üzenetére
"Én jóval többre tippelek, az 1200 már sokkal szimatikusabb szám."
Nem biztos, hogy volna egy ilyennek értelme, fél/negyed évvel az RV870 előtt. Arról nem is beszélve, hogy ehhez már 40nm kéne, hogy ne legyen túl méretes a GPU.Bár aztán még ki tudja... Mérges leszek a bit-techre, ha nem 55nm-es lesz és ők mégis beleültették a bogarat a fülembe.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1259 üzenetére
Eleve egy szabvány csak akkor fog elterjedni, ha a hardverek támogatják. Ezért lobbizik az NV a CUDA támogatásért az AMD-nél.
Ha már a hardveres támogatás is egyoldalú, akkor kb. lehet tudni a végeredményt. A nyílt független szabványokat nem a konkrét gyártók fejlesztik, tehát mindenkinek ugyanannyi beleszólása van a fejlesztésbe. A Physx az jó technika, de nem lesz elterjedt, mert a CUDA-t senki sem akarja támogatni. A fejlesztők esetében az Ubisoft az élő példa rá, hogy még pénz is fizetett vissza a TWIMTBP szerződésből csakhogy elkerülje a Physx használatát.
A Radeon Physx project is zátonyra fut hamarosan. Soha nem fogja az AMD odaadni a driver dokumentációit, sem az NV-nek sem az NGOHQ csapatnak.Amúgy én írtam, hogy mindenki dolgozhat bármin ... ezzel semmi gond, de a házi feladatot meg kell csinálni ... jelen esetben a házi feladat a DX10.1. Amíg ez nincs meg az NV-nél, addig nem képviselik a PC-s játékpiac érdekeit. Ennek megfelelően szép számmal csökken a TWIMTBP szerződések népszerűsége.
Egyébként most is van választása a fejlesztőknek ... Használhatnak DirectX-et, OpenGL-t, OpenCL-t, és CUDA-t, sőt még Stream SDK-t is. Ezek közül nyilván a támogatás hiányában a CUDA és a Stream SDK kiesik ... semmi szükség kétszer megírni a programot, ha az OpenCL-t mindenki támogatja.
A grafikára sem kötelező a DX-et használni ... ott az OpenGL is, persze nem véletlen a DX elterjedtsége, mert sokkal jobb már az OpenGL-nél.
-
rocket
nagyúr
válasz
VinoRosso #1253 üzenetére
Ha a "gyarto lennel" miert akarnal egy performance GPU-val a highendben versenyezni?
Annyira azert nem kicsi a kulonbseg teljesitmenyben a GTX285 es a HD4870 kozott, hogy csak ugy siman (orajel emeles) betudjak fogni valos alkalmazasok alatt az RV790XT-vel, raadasul hasonlo csikszelessegen kene mint az RV770-nel.
NV kiadott highend GPU-jabol egy "uj" verziot amibol krealt single GPU-ra epulo highend termeket, ez a termek ~10%-kal gyorsabb mint az elodje, miert nehez elkepzelni az ATi ugyanazt fogja lepni, csak a performance kategoriaban? amivel mar a NV altal highend aljat kepviselo GTX260-at megfogja elozni ujra, es minden eddigi pozitivum megmarad (meret, ar stb.), raadasul meg megvan az esely ra helyre teszik a kartya idle fogyasztasat (ami ugye az RV770XT legfelkapotabb hatranya a GTX260-nal szemben), plusz meg ha sikerul kordaban tartani a fogyasztast load alatt, akkor csinalhatnak egy X2 kartyat amivel minimum hozni tudjak a GTX295 szintjet, de arban a kedvukre tudnak majd jatszadozni."Most szintén ezt akarták valszeg az ATInál, szimpla gyártástechnológia váltás"
55nm-rol 40nm-re atallast nem neveznem szimpla gyartastechnologia valtasnak, sokszor meg a sima optikai kicsinyitesnel is igen sok problema merul fel.
Jo pelda a 40nm-es a mainstream GPU az RV740 amivel "aknara" futottak, ha nem igy lett volna mar az elso szallitmanyok hajoznanak eszak amerika/europa fele -
Abu85
HÁZIGAZDA
válasz
VinoRosso #1257 üzenetére
Továbbra sem értem, hogy miért jó nekem a zárt szabvány. Tehát az 97-ben normális volt, hogy három API-ra írták a játékokat, melyek különböző grafikai képességekre lettek felkészítve. Vettem egy gépet Voodoo-val és egy játék tök szép és jól futott, de a másik már a támogatás hiánya miatt szoftver renderingre volt képes ... ahhoz venni kellett egy Riva TnT-t. Lehet, hogy rosszul látom a dolgot, de ez szerintem messze nem a fogyasztó érdeke.
A DX10 XP-re képtelenség volt. A komplett driver alrendszer megváltozott ... Ha újraírták volna az XP alrendszerét, akkor meg a gyártók szoptak volna a támogatással, mert a driverekbe fektetett eddigi munkát kukázni kellett volna. Ezt a gyártók sem akarták ... senkinek nem volt érdeke a többéves munkát kukázni.
Több lenne az OpenGL-es játék ha a fejlesztők érdekeit tartanák szem előtt, de sajnos a CAD alkalmazások miatt nem férnek bele a rendszerbe olyan reformok, mint ami a DX9->DX10 váltásnál volt. Az MS a fejlesztők szavait issza, és ezért terjed a DX10. Az igényeket valóban fontolóra veszi és beépíti.Nem azt mondtam, hogy a CUDA el fog sorvadni, de a PC-s piacon egyszerűen nincs helye. Ugyanez a meccs egyszer már le lett játszva. A DX8-nál az nv hozta a cg-t. Aztán azt lemásolta az MS HLSL néven és egy hasonló került az OpenGL-be GLSL jelzéssel. A nyílt szabvány nyert. A CUDA esete is ilyen. Már kész az OpenCL és év végére itt a Compute Shader. Képtelenség elterjedni a jobban támogatott platformok között. Ezért megy az NV folyamatosan az AMD-hez támogatásért, de felesleges, mert úgyis elküldik. Az AMD is tudja, hogy a nyilt szabványok mellett, támogatás hiányában a CUDA el fog tűnni a PC-s piacról.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #1252 üzenetére
Én nem értem, hogy miért jó nekem, mint fogyasztónak egy zárt szabvány. Ezzel visszatér a 3dfx-es időszak, ahol a különböző effektek különböző kártyát igényeltek. A fogyasztónak a független szabvány az érdeke, azt pedig mindkét gyártónak támogatni kell. Amelyik gyártó nem így gondolja annak nincs helye a piacon ... a 3dfx sem tartotta szem előtt a szabványt el is tűntek.
Nem értem mi a baj a DirectX-el. A legjobb dolog amit az MS valaha letett az asztalra. Persze ha nem tetszik, akkor ott az OpenGL ...Egyébként felőlem csinálhatják a CUDA-t ... soha sem fog elterjedni. De a legfontosabb, az ipari szabványok támogatása ... ez a házi feladat kategória.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #855 üzenetére
Az igaz, hogy a DX az az MS fejlesztése, de fejlesztői szempontból ez lényegtelen. A GF és a Radeon (illetve az S3) is támogatja. Gyakorlatilag mindegy, hogy OpenGL-re, vagy DX-re írok egy progit. A CUDA az már más tészta, azt csak az NV támogatja. Radeonhoz használni kell a CAL-t. Vagy jobb megoldás megírni egyszer OpenCL-ben a kódot és fut GF illetve Radeon hardveren. Elvileg az S3 is beépíti a támogatást hamarosan.
Hát a STALKER CS-t nem a fejlesztők toszták el. A DX10 túl lassú azokhoz az eljárásokhoz amiket használ, a DX10.1-re pedig nem volt lehetőség az NV-s szerződés miatt. Az 1.5.07-es javítást csak a TWIMTBP program megszünésének idején kezdték el készíteni, nyilván még így is gyorsabb a kód jobb képminőség mellett, de egyszerűen nem volt lehetőség átírni a kritikus részeket.
A GTA4 meg lényegtelen, igénytelen konzolport ... el kell fogadni, hogy ilyen is van. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #852 üzenetére
Most őszintén a DX szabványt nem támogatja minden gyártó? Mert ott van még az S3 kártyáiban is a támogatás. Ezért független szabvány. Az tök mindegy, hogy ki fejleszti.
Nos kb. a Call Of Juarez az a program ami ténylegesen használ pár újgenerációs DX10 eljárást. De érdemes a DX10 SDK-val nézegetni a dolgokat, mert ott szépen használják a technikát. Bár azt aláírom, hogy az SDK az nem játék. Éppen ezért érdemes figyelni a Stormrise-ra ami full DX10 motor, ennek megfelelően még DX9 path-ot sem írtak a fejlesztők.
Sajnos a Stalker CS alatt az alpha-teszt objektumokra nincs elsimítás a DX10-ben az XRAY motor 1.5-ös verziójával. Ennek a TÉNYnek a fényében nehéz elhinni, hogy a GeForce szebb képet ad. De erről írtam anno hírt ... [link] - itt össze van vetve a DX10 és a DX10.1 képminőség 4x-es AA mellett.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #849 üzenetére
A kiadó adja a lóvét a fejlesztőknek. Az NV, vagy az AMD csak segíti a munkájukat. Tökéletesen látható, hogy az NV-nek sokkal több pénzt kell bevetnie, mert nyár óta egy csomó TWIMTBP szerződés járt le és senki! nem újította meg. A Mirror's Edge-ért is horror pnzt fizettek. Két éve ennek a zsetonnak a töredékéből megkaptak 10 játékot. Azért a fejlesztők és a kiadók is az aktuális hardvereket tartják célplatformnak, márpedig az RV770:G200 elterjedtségi arány átlagosan 25:1 fölött van még mindig. Jelenleg irgalmatlanul sok pénzt kérnek az NV-től, ha támogatást akarnak.
Kit érdekel az OpenCL és a CUDA viszonya? Egy független szabványt hasonlítasz egy zárt rendszerhez. Nem kérdés, hogy melyiket érdemes választani. Ezért dolgozik az NV azon, hogy a CUDA elterjedjen és a Radeonok is támogassák, mert másképp a fejlesztők rá sem bagóznak. Nincs a PC-s játékpiacba annyi pénz, hogy három, vagy négy interfészre megírják a fejlesztők ugyanazt. Mellesleg a Khronos Group neve eléggé jól cseng a piacon, az OpenCL-t használó stúdiók szerint nagyszerű munkát végeztek.
Most őszintén ... egy programozónak szerinted mennyi ideig tart megtanulni egy új nyelvet? Na ugye ...
Szerintem PC-s környezetben grafikus processzorként gondol mindenki a GT200-ra. Márpedig az világosan látszik, hogy nem legjobb chip a DX10-re. Erre majd a jövőhónapban megjelenő Stormrise példát is statuálhat, mivel ez lesz az első teljesen DX10-re írt játék.Nem vágom miről beszélsz. Az OpenGL és a DX is független szabvány. A .net is. Az Win NT és a Unix nem tom, hogy jön ide ... mindkét rendszert ott használják ahova való.
A DX10.1 a jövőhónapban beindul két címmel is. Azért fontos látni, hogy eddig a fejlesztők többsége az NV-hez volt kötve szerződéssel, most ez a szerződés már nem él, így ők is kezdhetik az ismerkedést az új technikával. -
leviske
veterán
válasz
VinoRosso #847 üzenetére
Igen, csak kérdés, hogy mennyire fogja megérni számukra... a játékfejlesztők (ahogy Abu már írta) nem túl olcsón adják be a derekukat. És amennyiben a CUDA-t nem kezdi el támogatni az AMD, abban az esetben egyre inkább többet vesztenének a fejlesztők azzal, hogy kevesen veszik meg a játékot, mint azzal, hogy az NV pénzeli őket. Ez nem egy tartható dolog.
De lehet, hogy nincs igazam...
Aktív témák
Hirdetés
- Okos Otthon / Smart Home
- Honor 200 - kétszázért pont jó lenne
- Kuponkunyeráló
- Fotók, videók mobillal
- sziku69: Fűzzük össze a szavakat :)
- bitpork: MOD Júni 28- Augusztus 2- szombat jelen állás szerint.
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Elite: Dangerous
- Wise (ex-TransferWise)
- Autós topik látogatók beszélgetős, offolós topikja
- További aktív témák...
- Telefon felvásárlás!! Samsung Galaxy A22/Samsung Galaxy A23/Samsung Galaxy A25/Samsung Galaxy A05s
- Samsung Galaxy S22 Ultra 512GB, Kártyafüggetlen, 1 Év Garanciával
- 0% THM részletfizetés, beszámítás! ÚJ 27% 3 év AMD RX 7900 XT / 7900 XTX készletről KAMATMENTESEN!
- Telefon felvásárlás!! Samsung Galaxy S25, Samsung Galaxy S25 Plus, Samsung Galaxy S25 Ultra
- Xiaomi Redmi Note 11 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest