Aktív témák
-
nekem már ez a DX11 is egy szörnyűséges öszvér - megértem, hogy a MS miért nem tér már most át a nem-fix futószalagra, de műszakilag állatira nem teccik...
mi fog 2 éven belül voxelkedni? Carmackról tudom konkrétan, hogy ilyesmiben töri a fejét, de az ő nyilatkozatai a Tech 6 motorra vonatkoztak, és 2 éven belül ki tudja, egyáltalán a Rage és a Tech 5 megjelenik-e
abban amúgy biztos vagy, hogy a Larrabee-nek elég lesz a textúrázókat fixed unitként megvalósítani? én sem a tesszelátort, sem a mostanra már ultramultifunkciós ROP-okat nem látom triviálisnak x86-tal kiváltani...
-
rocket
nagyúr
Nem neztem baleknak oket, tervezni egy dolog, kivetelezes meg egy masik, es ebben az esetben ugye ez nem is rajtuk mulik.
Az RV740-nel meg annyit se kellett alakitani mint az RV870-nel, es latod mitortent.Sokszor volt mar az ATi regebben is gondolt elonyben a megjelenes elott, aztan a vegen rosszul sult el a dolog, szoval ebbol kovetkeztetni felesleges legjobb esetben is 6 honappal a megjelenes elott
-
rocket
nagyúr
Kicsit korai meg ez a kijelentes, nehogy a vegen fel eves csuszas legyen az RV870 eseteben.
Ugytunt 2006 elejen, hogy az ATi fogja megjelentetni az elso unified shader architekturara epulo GPU-t a diszkret szegmensben amire a Xenos jo alapot nyujtott, aztan ugye megse igy lett, sot.... -
marcias
őstag
Biztosan volt már szó erről, és picit off is, de egy mondatban: mit vársz a G300-tól? Megismétlődhet a G80 sikere, vagy csak egy erőltlen próbálkozás lesz az RV870-nel szemben? Valóban egy merőben új architektúra készül, ami mindent verni fog? Ha igen, az AMD nem kapkodja magát túlzottan.
Most nagyon magabiztosnak tűnik, de a ráncfelvarrott G200-asokkal most sikerült egy pillanatra visszavenniük az élvonalbeli vezetést (GTX285-295). Elvárásaim szerint a 4890 (ha valóban ez lesz a neve) hasonlóan nehéz helyzetbe hozza majd a királykategóriás VGA-kat, mint anno tették a 4800-asok. Az RV740 pedig elképzelhető, hogy az átnevezett 9600GT-9800GT párost üti ki végképp a nyeregből. Ha így lesz, akkor a G300 lehet a megváltó? Vagy szerinted az nVidia már elvesztettnek látja ezt a csatát, és csak minél kisebb veszteségekkel akarja elhagyni a porondot?
-
-
rocket
nagyúr
-
VinoRosso
veterán
semmi gond nem lenne a physx-el, ha nem az nv vette volna meg az aegia-t, hanem a MS. Erre a nyakamat merném rátenni. Az a baj, h az nv vette meg, aki az ati riválisa, így értelemszerűen az ati nem fogja támogatni, csak abban az esetben, ha rá lesz kényszerítve.Dx meg nem kötelező, tegnap még az volt a házi feladat..
-
schwartz
addikt
A ph-s cikk is ezzel nyugtat.
Ugyanakkor...
Aha, ertem...hisz.eddig sem az volt lathato, hogy a "jovobemutato architektura" sorra elverezne kepjavitokkal magas felbontasban.
Biztos keves az SP es tul sok a ROP...
-
VinoRosso
veterán
Fejleszt kexboxra valóban dx-el mivel arra sincs más api, no miért? Csak nem azért mert MS termék az is...ez megint csak LOL. Egyébként a dx9ről mondta azt, hogy egy jól felépített api, az előtte levő szériakat szidta mint a bokrot. Amenyit én tudok a Rageről, az alapján kizártnak tartom, hogy dx-el jönne ki, mivel az id Tech 5 demója OGL-es, és szó volt róla, hogy macre és linuxra is jön. Csak a pista miatt nem fog dx-es win portot csinálni, kexboxra meg nem tud mást, de ha el futna azon is egy linux, akkor azon is OGL-t használna szvsz.
-
ja, azt egy szóval sem mondtam, hogy megérné
amúgy én nem is dupláznék, csak 1 vagy 2 további blokkot dobnék be.btw. van becslésed arra, hogy mekkora egy RBE-quad blokk (tranzisztorban)? egy ALU-TEX clusterre egész jó becslésnek tűnik a terjengő 40M (én is hasonlót számoltam a layouton látható pixelek számából
), de a backendeket marhára nem tudom körülhatárolni...
ezt a Call of Juarezt most már tényleg megnézem magamnak
-
szerinted 32 ROP-pal gyorsabb lenne? Totál nem így működik az egész. Jelen pillanatban a Z-Sample az AMD-nél a szűk keresztmetszet ... azt elég ha megemelik 8 mintára órajelenként. Ez ilyen többet ésszel, mint erővel stratégia. Eddig bevált.
Tehát akkor szerinted is gyorsabb lenne 32 ROP-pal, nem?
Amúgy teljesen jogos a mondás, hogy elég a szűk keresztmetszetet megdobni - viszont én több játékban is úgy látom, hogy a HD4800-asok a sima pixel fillrate-ből is kezdenek kifutni. Igaz, ezek többnyire régebbi játékok, amiknél tényleg mérsékelt jelentősége van, hogy 80 vagy 120 fps - viszont ha sokáig emelik az ALU-k számát, akkor előbb-utóbb az újabb game-eknél is jelentkezni fog ez a történet.
-
VinoRosso
veterán
És azt nem gondolod, hogy nem csak hardver oldalról kellene függetlennek lennie, hanem szoftveroldalról is? Mert annyira a dx annyira de annyira független szabvány, hogy közben csak win alól érhető el, de ott se mindegyik alól, mert dx10 csak Vistához van. Ez egy kicsit szvsz LOL
Az OGL meg nem csak hardver, hanem platformfüggetlen is, akkor a gondolatmeneted szerint ez nem lenne jobb a fogyasztóknak? Nameg anno a dx őskorában se volt hardver oldalról egységesen támogatott, miért kellene a CUDA-nak is egyből annak lennie?
Azt meg írod, hogy jobb a dx, és van benne igazság, mertt dx10-el már egyszerűbb a fejlesztés, szabadabb, és dx11-el meg aztán a határ a csillagos ég, de ez nem volt mindig így. Volt amikor az OGL volt jobb, a dx meg bonyolult, mégis 99%-ban dx-el fejlesztettek. Ha következetesen alkalmaznánk a logikádat, akkor anno fordított arányban kellett vna születnie a játékoknak. Mégsem így volt, egyszerűen azért, mert nem attól függ az eltejedés, hogy melyik a jobb api, hanem attól, hogy melyiknek van nagyobb piaci értéke. Szoftver oldalon az MS a monoppol helyzetét kihasználva az OS-ek piacán a saját érdekeltéségbe tartozó apit erőlteti, olyannyira hogy ez rányomja a bélyegét a hardverekre is.Ezért hülyeség szerintem függeltenségről osztani az észt, mert csak azért támogatják a gyártók, mert ez a kényszer. Ha a hardvergyártókon múlna, hogy milyen technológiát használjanak a játékfejlesztők, akkor természtesen ott is mindenki a saját eszközeit erőltetné. De ez csak annak adatik meg, aki van annyira tőkeerős, hogy szembemnejen a piacvezető szoftveróriással. Ha az AMDnek lenne erre anyagi fedezete és mersze, ők sem irkánának szorgalmasan házifeladatot. A hasonlat egyébként jó, tipikusan mint anno a sok hanagyaszorgalmú tanulók középsuliban, akik megcsináltak minden HF-t, de arra már nem futotta az idejüjkből, hogy saját ötleteik legyenek, kreativan gondolokodjanak, meg a lusta diák, aki lesz.rta, hogy mit diktál a tanár, és innkább megpróbált saját kútfőből gondolkodni...
Nagy valószínűséggel ha nem lett volna gazdaságilag annyira sikeres a MS, akor most nem NT-n, hanem valami Linux disztribúción vagy OSX-en játszanánk OGL alól, a dx meg eltűnt volna a süllyesztőben. Csak azért van dx mert mindenki win-t használt anno, nem azért mert jobb volt az OGL-nél, mivel szarabb volt. Az idők során az OGL meg elsorvadt, bár ez így nem is jó kifejezés, mivel nem sorvadt el, csak kevésbé fejlődött. Annak ellenére, hogy most a dxnek kedvez a helyzet, még lehetne jó motort csinálni OGL alapon is, pl ott a Rage, Carmack -nek eszébe se jut dxre fejelszteni, és nem lehet azt mondani rá, hogy egy looser, aki nem ért ahhoz amit csinál. Egyébként a win mint platform évek óta a saját sírját ássa, mert pont a széles körő elterjedtségének köszönhetően válik sebezhetővé. Meg is lehet nézni, hogy milyen játékok születnek mostanában, meg hogy milyen hardver kell alá, és hogy milye "szépen" futkorásznak ezeken pff. Nem véletlen az sem, hogy egyre több játkfejlesztő mondja azt, hogy tojnak a pcre, és az elsődleges szempont a konzolra való fejlesztés, ahol lehet normális eladásokat produkálni, és cserébe normális játékok is születnek.
(#1260) rocket: Azért mert az rv770 egy elég jó architektúra ahhoz, hogy erre alapozni lehessen. MEgeszem a kalapom, ha 800 sp-al jön ki az rv790!!! Én jóval többre tippelek, az 1200 már sokkal szimatikusabb szám.
-
VinoRosso
veterán
Nem a zárt szabvány a jó, hanem az hogy tudsz választani. Egyébként a zárt szabvány csak azért zárt, mert nem támogatják széles körben. Amint írtam ideális esetben nem úgy működik a szabánnyá válás folyamata, hogy élből széleskörű támogatása lesz a technológiának, hanem fokozatosan terjed, ahogy teret nyer. Egyéként érdekes módon a physx már régóta létezik(2002), eddig sem volt széles körű támogatása, külön kárya kellett hozzá, de amig fel nem vásárolta az nv, addig nem volt vele semmi bajod. Most meg így júj úgy júj senkinek nem lesz jó, mert kinek jó az, ha tud játszani fizika kártya nélkül a Mirrors Edge-el, a GRAW szériával, vagy az UT3-al. Mer kinek kellenek ezek a gagyi játékok júj fúj....pff
-
VinoRosso
veterán
Azért jó, mert van választási lehetőséged. Amig egy technológia nem terjed el, addig nem tud de facto szabvánnyá válni, és normál esetben ez úgy néz ki, hogy jönnek az innovációk, és a piac eldönti, hogy melyik életképes és melyik nem. Ha tetszik az embereknek, akkor elterjed, és szabvánnyá válik, ha meg nem akkor nem. A lényeg az, hogy Te döntsd el, mint fogyasztó, hogy hova teszed le a voksod, ne helyetted más, főleg ne a gyártó, aki ebből akar meggazdagodni. Nem rossz dolog a dx, de a MS undorító dolgokat művelt vele, pl a legutcsó eset, amikor a dx10-el adta ela Vistát, holott igazán nem is terjedt el a dx10, csak egy hülye marketingfogás lett belöle. A fogyasztók érdeke itt azt kívánta volna, hogy legyen támogatás Xphez is, viszont ekkor senki nem használt volna vistát. Ha meg valakinek nem tetszik az dx, akkor sem tud mit csinálni, mert 1 kezemen meg tudom számolni, hány AAA OGL gamma létezik. Akkor tudna választani, ha lenne OGL-el Crysis, Stalker, Bioshock, GRID, stb... de nincs, és ez leginkább a MS miatt van. A CUDA-t nincs értelme párhuzmaba állítani a dx-el, mert a grafika mellett még igen sokmindenre használhatóvá teszi az NV-s VGA-kat, úgyhogy nem fog elsorvadni.
-
VinoRosso
veterán
ha már a fogyasztók érdekeit nézzük, akkor szvsz a CUDA nem egy rossz dolog. Meg ha a fogyasztók érdekeit tartjuk szem előtt, akkor a MS nem éppen a ideális piac ideális résztvevője. Kellett nekünk a DOS, kellett nekünk az NT? Lóf.szt. Az volt és kész. Most legalább lehet(ne) választani. De ez csak az én véleményem.
-
leviske
veterán
"leviske: Az ubi-nak nem sok köze van a Mirror's Edge-hez ... az DICE+EA cucc"
Ááá!
Nem tudom, hogy miért kevertem. Elnézést.
(#1195) Gaboman: Egy kérdés: Ha 55nm-en maradnak és még a SP száma sem nő... Tehát csak órajel emelésre lehet számítani. Akkor mire is fel az RV790 megnevezés?
-
emmm
őstag
Aham, körülbelül erre számítottam én is, nemsokára ugrik a majom a vízbe és kiderül, hogy mindenki (?) derül...
Csak megérte megvenni azt a 4850-et! De az a Vista idegesít, sehogy nem tudok megbarátkozni vele, hogy folyton driverproblémám van. Jöjjön az az új szoprendszer, mert Xp legalább betonstabil... -
emmm
őstag
Nekem az lenne a kérdésem, hogy a márciusban kijövő új játék, ami teljesen DX10.1 (és majd a többi is később), amit ugye csak az Ati kártyák tudnak, miként fut majd egy GeForce kártyán? Nyilván menni fog, de mire lehet számítani? Teljesítménycsökkenés, pl. felére, vagy hogyan fog ez megjelenni? Esetleg lesz pl. egy Options\Video beállítás DX 10 és DX 10.1 között, és akkor simán megy majd a GF-eken is?
-
K21_overlord
tag
Abu pár szót mondanál arról, h hogy mennek ezek a dolgok.
Egy játékfejlesztő cég miért köt megállapodást vga gyártóval, mi az előnye neki és mit kényszerít rá a vga gyártó.
Ha játékfejlesztő elhagya az nvidiat akkor felkeresi az ati-t h támogassák ők? vagy csak beemeli az ati dokumentációit és segítségével fejleszti az enginjét? És végezetül: kb
mekkora pénzek forognak itt?
thx -
WesTM
őstag
Nyilván igaz, hogy ha nem lett volna megfelelő valami nem adták volna ki a kártyát.
Mondjuk ha azt vesszük, hogy mennyiből mennyi hibásodik meg, és hozzá vesszük, hogy mennyivel kevesebb g200 van, a meghibásodási arány kb. azonos, mert ott is elég sok hibás darabbal lehet találkozni. Ebből a szemszögből tekintve egyáltalán nem rossz az ati.Eltorzítva eddig igaz volt az aláírásod az atira illetve az nvidiára. Remélem ez megfordul.
-
WesTM
őstag
Akkor ennek is köszönhető a viszonylag gyakori meghibásodás? Általában a vrm-ek re szokott panasz lenni, tehát előfordulhat, hogy köze van ennek a meghibásodási rátához?
Lehet hogy a feszültség emelésével, bizonyos alkatrészek többlet terhelést kaptak.
Bár ez csak elmemenet.
Most ugye ilyen 1.2V körül mozognak, tehát 1V körüli magfesszel jöttek volna ki.
Ez amit írtál érdekes, és sok kérdést vet fel.
Remélem az rv790 majd választ fog adni.
Összegezve, amiket leírtál arra tudok következni, hogy tudtak volna még finomítani a chipeken. -
WesTM
őstag
Úgy legyen. Ennek a g92 tovább-tovább-tovább nevezésének sincs az ég világon semmi értelme. Már a megjelenésekor is lehetett tudni, hogy hamar el fog avulni, mert a g80ra épül.
Most hogy tudják hogy ténylegesen itt a dx10.1, még átnevezik 3.X a kártyát (8800gt-98gt-gts240) És azon kívül, hogy az órajellel játszanak, meg biost cserélgetnek nem fejlesztenek semmit.
Azt pedig nem akarom elhinni hogy az rv740xt csak annyit tudjon mint a 9800gt, ha annyit tud, akkor nagyon keveset kell fogyasztania, és nagggyon olcsónak kell lennie, arról nem is beszélve, hogy a dx10.1-nek is azt kell mutatnia amiről az előzetesben szó volt, tehát ati kártyákon vágtázni kell a dx10.1 api-nak.
A TWIMTBP ről pedig annyit, hogy nem lehet a fejlesztőket a végtelenségig arra ösztönözni, hogy a régi elavult technológiára próbáljanak ütős engineket írni, hizs így nem fejlődik az informatika. Élő példa erre a g80-nál megalkotott crysis, azóta az nvidia nyomása miatt nem történt fejlődés, amit szerintem egy idő után nem néznek jó szemmel a fejlesztők.A kártyák fogyasztásán remélem optimalizálnak, mert az rv770xt eléggé szépen zabál, a méretéhez képest.
Bár azt is nézni kell, hogy a g200 és rv7 teljesen más architectúra, így ahogy a sp-k között, valószínűleg a méret fogyasztás között sem szabad párhuzamot vonni.
Az más kérdés, hogy engem is marhára zavarna, ha a másik cég giga gpu-ja kevesebbet eszek a high-tech gpu-nál.
R600 jusson az eszünkbe, ott volt fogyasztás, ahhoz képest jelentős fejlődés történt e téren. Az atinak valószínűleg a szivárgással lehetnek gondjai, de ezt pontosan nem tudom. -
rocket
nagyúr
Ugytunik nem csak atnevezik a 9800GT-t, hanem majusban a ~18honapos G92-ben (ami a 100x elfoldelt 2 es fel eves architekturara epul) rejlo potencialt kihasznaljak, ciki lesz az AMD szemszogebol, hogy a Mars-rol szarmazo uber architekturara epulo RV740XT-t, osszesegeben valos alkalmazasok alatt elverheti majd a G92-re epulo GTS240
Persze ez csak az erem egyik oldala, uzletileg tovabbra is K.O. lesz az NV amig nem sikerul a G92-ot levaltani 40nm-en, de sikeres lesz az NV piaci reszesedest megtarto strategiaja ebben a szegmensben is, igy tovabb virulhat az ATi felhasznalok remalma a TWIMTBP
(Kepzelj el egy forditott esetet, az AMD-nek kene szinten tartania a piaci reszesedeset miutan uzletileg kiutottek a nyeregbol egy idore, es ehez az RV670 lenne a fegyveruk, ami mar megjeleneskor se sokat mutatott teljesitmenyben, potencial meg zero van benne, csikszelesseg valtasra nem lenne lehetoseg, jatekfejlesztoi supportjuk meg z-listas, remalommal felero helyzet lenne felhasznaloi oldalrol)
Dx10.1 strategiat majd hiszem ha latom, nem az AMD-rol lenne szo nem lennek ennyire pesszimista, dehat nem az erosseguk a marketing, kivancsi leszek hany nap alatt tunik el szem elol a Stormrise
-
rocket
nagyúr
Ev elejen volt valamikor, nem emlekszem mar ra pontosan mikor volt, meg beszeltunk is rola ev kozben nehanyszor valamelyik masik topicokban, persze az a best case scenario lett volna, ami nem jott ossze.
Valoban nem valtoztat a lenyegen, mert az mar a mult, de marciust elveteni nagy baki, dehat nem mondhatom varatlan esemeny volt, megis csak az ATi-rol van szo -
Az igazságtartalmával is tudnék vitatkozni, mert azt sugallja, hogy pontosan egyforma a két eset, holott nyilvánvalóan nem ez a helyzet. OK, 10-15% nem a világ, én is nagy előrelépésnek tartom a gDDR5-öt. De a származtatott effektív órajelet érvként használni egy ilyen magyarázatban - ohmywhatanidiot
rocket: szerintem a 30e FT-os 4830 már most is remek vétel - és akkor van VGA februártól május / júniusig. Ez vajon mennyit ér pénzben?
-
leviske
veterán
Most hogy így írod... a bit-tech írása elgondolkoztatott. vagyis az utolsó pár sor.
És Ők is HD4890-et írnak... Bár mondjuk közöltek már le híreket, hogy név szempontjából kacsa lett. (Pl: R650 x2 - HD2950XTX)
MOD: De szerencsémre azért még van esély arra, hogy a GTX280/GTX285-el egy szinten legyen az új kártya.
-
Bluegene
addikt
nem hivatalos forrás, amit átvett a tomshardware, ipon(lejjebb tekersz és ott vannak a linkek)
szomorú lennék ha 55nanós maradna
, mondjuk annyiból logikus h új chipet általában már meglévő gyártósoron szoktak kihozni, de az rv740 is többé-kevésbé új(ami a 4830-on van az rv770), az is 55nm marad ne idegesíts, brühühühü!!!!
-
Bluegene
addikt
nembaj a phenom2 és a rv790-nel ütőképesek lesznek, gondoljunk csak a kiváló chipset és egy phenom 720 X3 black edition milyen ütős
de ehhez tényleg az kell h az rv790 üssön, ne csak szánalmas +15%-ot hozzon, hanem sokkal többet(ha azt nézzük h korábban volt olyan h évente duplázódott a teljesítmény, érdekes lenne ha 9 hónap alatt csak +10%-ra lennének képesek, én ebben nem hiszek(rocket) )
én elképzelhetőnek tartok egy konkurrencia altatást, h +20%, azt kiderül h 1200sp-s és 850mhz-es lesz(ráadásul ha 960 helyett 1200-at raknak bele a 40nm miatt ez se túl nagy 200mm2 alatti lehet), ez kábé majdnem +70% ot jelentene, a 4850hez meg kb. +90%-ot(a magasabb órajel és a több sp kombinációja, meg 1GB GDDR5), na erre azt mondanám h 2009 ápr-2009 dec-ig az Ati egyeduralkodó lenne(míg az új monster nvidia megjön, azellen rv870), inkább akarnák ezt mint elvegetálni a GT200 árnyákában
de a +35% sztem reális, de nem tartom kizártnak az ennél nagyobb gyorsulást, mint mondtam a többség Volkswagent vesz és nem Maybach-ot(válságban ez hatványozottan igaz), míg pl a Toyota elad egy Lexust elad 25 sima toyotát, sok lúd disznót győz, sok rv770 Gt200-ast győz
mondjuk én max rv870est veszek mert akkor nagyobb gyorsulást tapasztalok, érezhetőt(rv870be pedig sztem 2000-2400sp lehet, inkább utóbbi, utóbbi azonos órajelen megfelel egy 480sp-s nvidia gpunak, de a radeonok magasabb órajelen jönnek)
szal optimista vagyok hajrá AMD!
-
tlac
nagyúr
most csak az irányra gondoltam, de linkelhetek még neked
[link], [link], [link]
Az a baj, hogy nem az NVIDIA támogatásától függ a dolog. Hiába ad meg a gyártó minden segítséget a srácnak, ha az AMD nem adja oda a szükséges dokumentációkat a driverről.na ezt nem értem, milyen dokumentáció kellhet még az amd-től, hogy a physx portolhatóvá váljon rá? (persze elméletben, mert nem hiszem, hogy meg lesz oldva)
vmi cuda-hoz hasonlót gondolom tud, tehát csak ehhez kellene átalakítani a physx-et
vagy lesz majd opencl, akkor arra -
belekukkantottam az AFR-Friendly mintaprogramba - ha nem is két sor, de valóban elég egyszerű lekezelni az esetleges multi-GPU összeakadásokat (bár arra továbbra is kíváncsi vagyok, hogy a frame-ek közötti perzisztens adatok hogyan lesznek kezelve
) sz'al big fuckyou a derék fejlesztőknek - persze mit lehet várni azoktól, akik arra verik a mellüket, hogy náluk külön thread számolja a fizikát
dare2live: kockázatkerülő vagyok ebben a témában, ha így világosabb, mit akarok mondani
a korábbi VGA-im tekintetében mind a 2600XT, mind a 9600GT problémás volt 90 fok felett - nehezemre esik ezután elhinni, hogy a 3850-től kezdve ezeknek a chipeknek ennyi a standard üzemi hőmérséklete. de 1-2 év, és belenyugszom, ha erre halad a világ tovább
amikor legközelebb 4850-et tesztelek, esküszöm megpróbálok egy referenciahűtőset keríteni - most már kíváncsi vagyok, mennyit ér a ventillátor-vezérlés (ami ugye a megjelenés után 1-2 hónapig nem működött...) -
Bluegene
addikt
A kártyák bírják ... a legminőségibb alkatrészek vannak engedélyezve a gyártásra ... ezt mindenkinek be kell tartani.igen amikor kézbe vettem a vadonatúj 4850-esem, teljesen high tech érzés fogott el, csillogott, új szaga volt, jól nézett ki, baromi minőséginek tűnt és 800 kis processor volt benne, olyan volt mint az emberi elme jelenlegi csúcstermékét fognám(nagyot nem is tévedtem sztem), igazából olyan érzés fogott el, h ami ilyen profi ilyen high tech, azzal nem lehet baj (ezért se félek a hőfokoktól)
de ez csak benyomás
[link]
-
rocket
nagyúr
Nincs tullihegve, nagyon sok kulfoldi forumon olvasni morcos usereket, akiknek eleguk van abbol, hogy a varva vart jatekuk "out of the box" az 500$-os VGA-val a 250$-os szintje alatt teljesit amig nem nevezgetnek .exe fileokat, vagy szamoljak a napokat a kovetkezo driverig.
Evekkel ezelott beigertek mar, hogy lesz profil szerkeszto, azota sincs.Gondolj bele egy egyszeru felhasznalo szemszogebe, megveszi az 500$-os termeket, nem koveti a dolgokat, aztan a fejet a falba veri mekkora sz@r a kartya, kozben csak nem mukodo CF tamogatas hianya miatt van az egesz, ami meg megint az AMD z-listas jatekfejlesztoi supportjara vezetheto vissza.
-
Igen, ismerem a történetet - végfelhasználóként nem igazán érdekel. A statisztikával nem tudok vitatkozni, a kártya indulásakor a topicjában nem kevés anyázás volt a témával kapcsolatban. de legyen igaz, hogy a refkártyák jól muzsikálnak - akkor még mindig marad az, hogy a partnereiket nem látták el megfelelő infoval a VRM-ek hűtésével kapcsolatban (vagy a partnereik csonthülyék? - ezt nem tudom).
Dare2Live: nem érzem magam kvalifikáltnak az átlaguser nevében nyilatkozni
a 9200-as működése pedig nem bizonyíték semmire, ld. a 9600-as példámat. a szomorú igazság az, hogy minden egyes esetben csak találgatunk, és pusztán hit alapon bízunk / nem bízunk valakinek a szavában
ezért maradok inkább óvatos duhaj.
rocket: CM-téma - agreed. összehasonlítás - miért ne? árban és teljesítményben is szoros versenyben lévő kártyákról van szó...
-
Bluegene
addikt
igen és a régi 9200-asok is állítólag ilyen hőmérsékleten mentek(nekem nem volt csak olvastam), tehát már ötéve csináltak forró chipeket, és mai napig mennek, ezért sem kell parázni h a gyárban így lőtték be a hűtést, inkább legyen halk szerintem, és a kártya egy pontja (a GPU) pedig forró, mint hogy zúgjon itt nekem(akárhogy is a hőtermelés az egy állandó dolog akármilyen hűtéssel és a chip hőmérséklete függ pl a ventillátor fordulatától, tehát egy 80% hűtőventifordulaton lévő GTx 280 hiába 40 fokos, sokkal jobban termeli a hőt mint egy 100 fokos passzív 9200 prüntyi)
Balika 911: jah az 55nanós egy fokkal jobb, és valóban a nem terhelt értékek a fontosak -
-
-
VinoRosso
veterán
Gyakorlatilag mindegy, hogy OpenGL-re, vagy DX-re írok egy progit.
Már hogy lenne mindegy??? Sem a fejlesztőknek sem a felhasználónak nem mindegy. Ha minden játék le lenne kódolva OGLre, mit gondolsz hányan játszanának NT-n? Na meg kódolj le egy Cryengine2-t sandboxostul OGL alapokon...ehh no mind1...
-
nem egészen. a shader alapú élsimítás mindegyik rendererben (FDL, EFDL, EFDL DX10) használható, az tényleg nem ér egy kalap sz*t sem, viszont nem is lesz lassabb tőle a játék. a DX10-es MSAA működik, csak éppen a memóriát úgy felzabálja, hogy a 9800GTX+-on is egyjegyű fps-ekkel ment a történet 12x10-ben. majd küldök screenshotot, ha újra Vista lesz bootolva
-
VinoRosso
veterán
hardver oldalról persze, hogy széles körű támogatása van a DX-nek, de szoftver oldalról egyetalán nem, ezért mondtam az összehasonlítást az OGL-el, mivel nem hardvereket hanem SW platformokat hasonlítunk egymáshoz, tehát a függetlenség(szerintem) így értelmezhető DX-OGL kontextusban. Úgyanúgy támogatva van az OGL hardver szinten mint a DX, ezért értelmetlen lenne összehasonlítani a kettőt így. Viszont játékmotort elég keveset írnak OGLre, és DX sincsen máson csak winfoson, sőt még azon se mindegyiken, mert 10-es ugye csak pistán. Ennek fényében kéne érteni, amit előbb írtam. A stormrisera én is kiváncsi leszek, pont a full dx10 engine miatt, de arra azért nem vállalkozok, higy kijelentsem, hgoy ilyen vagy olyan lesz, pláne most, amikor teljesen kiszámíthatatlan, hogy egy játékot milyen i"gány"ességgel fejlesztenek( gondolok a botrányos GTAIVre vagy az említett CS-ra).
-
VinoRosso
veterán
na amennyit a kiadó ad, abból nem fejlesztenének Crysisokat...
DX független szabvány??? Akkor miért csak MS termékeken van? Már csak azt kellett volna leírnod hogy nyílt, akkor még talán kacagtam is volna egy jót.
GT200 nem a legjobb dx10re? Mégis hány játékban marad alul a legjobb konkurrensével szemben, és hányban jobb nála? A jövőről meg mindenki azt mond amit akar, kizárólag arról lehet érdemben nyilatkozni, ami van. Nekem mondthatod hgoy ilyen játék jön meg olyan játék jön...emlékszem mikor mondtad nyáron, hogy CSra nem lesz dx10.1, mert ott virít az NV logo az elején, aztán mikor októberben kijött hozzá a dx10.1.-es patch, meg el voltál szállva hogy milyen jó lesz, aztán most néztem CS benchmarkkal nálam kerek 1 FPS különbség van a DX10-es és DX10.1-es mód közt, korábban meg kértem tesztet 4870X2 és GTX295 tulajoktól, és a GTX295 még dx10.1 ellenére képjavítókkal fullon magas felbontáson is leverte mint vak a poharat, kb ugyanolan koknfigban. Egy ideje figyelem az irományaidat, és meg kell h mondjam elég "érdekesek" a gondolataid. -
ulveczkii
tag
Én értem hogy az NV most arra megy hátha valaki vesz drága karit a PhysX miatt, dehát csak a Mirrors Edge kedvéjért? Az első nem az lenne hogy egy kis teret nyerjek a technológiához? Én biztos maglépném hogy csinálnék egy a lehető legkissebb magot tartalmazó kis nyákos lassú olcsó kevés (mondjuk 128mb) memóriát tartalmazó megjelenítőcsatlakozók nélküli PCIe 1xes csatlakozós külön PhysX kártyát és minimális haszonnal szornám kifele. Akkor talán énis elgondolkoztam volna egyen ha 6-8kér osztogatnák.
-
janos666
nagyúr
Ez mind rendben, de nem látom az indokot arra, hogy szánt szándékkal ellehetetlenítették a kétkártyás dolgot a drivereikkel. Korábbi driverrel ment, most nem. A kétkártyázás nem jó, de egyáltalán nem is okozna veszteséget sem. Szóval hagyni kellett volna ahogy van, nem időt szánni rá hogy ellehetetlenítik. (se nem támogatni, se nem ellenezni) A bevételt se csökkenti (kis kártyán kicsi a haszon, de valószínűleg emiatt már úgy se cserélt volna geforcera, akinek már volt radeonja, de most veszlegalább kis geforceot...), a physx elterjedését viszont segíti (felhasználói körökben).
-
DeckardCain
senior tag
-
janos666
nagyúr
Igen, de érdekelt volna, hogy a miután visszarakják megmaradnak-e a bugok. Vagyis hogy könnyű-e őket javítani, vagy komolyabb munka lett volna.
Nem is annyira a felszálló por érdekelt volna, hanem a HDR-tone elcsúszása, véletlenül a DX 10.1-ben épp olyan volt mint a DX9-ben, de DX 10.0-ban sokkal szebb volt, nem sárgított el minden színt.A WOW meg ez a amit mondtál nem csak a gyenge grafikai látvány miatt riaszt el, van benne valami mélyen, ami miatt ocsmány. Pl. ha ránézel egy ismeretlen nőre, elsőre a külseje alapján ítéled meg, de ha kinyitja a száját sok minden megváltozhat, na, a WOW kinézetre is szar, de mikor kinyitja a száját olyan mintha a tanyáról jönne és egy tehén lucskával lenne tele a pofája ami kikezdte a nyelvét és otthagyta a fogát is.
Jó, de mi a rövidítés kifelytése?
-
janos666
nagyúr
Hülye kérdés: Mi az az AAA?
A Mirrosr's Edge tényleg nem volt nagy durranás. Gondolkoztam megint berakok egy olcsó Geforceot hogy legyen Physx is (aztán majd eladom vételáron ha végigtoltam...), de jó hogy nem tettem, mert ezért a pár óra játékért kár lett volna (meg belenéztem CPU-n futtatott hardware móddal, és nem volt annyi értéke a physx-nek mint pl. az UT3 mapokon). Bár nekem kicsit fordítva volt. Az elején izgatottan vártam hogy jó játék lesz, az első pár10 perc letört, hogy nem, később a végefelé kezdett megint érdekelni, erre rögtön be is fejeződött.
Beírtam googlebe, hogy battleforge. Ha bízol az én ösztöneimben, akkor tényleg majdnem olyan népszerű lesz mint a WOW, mert nekem ugyan olyan ocsmánynak tűnik. (nem tudom leírni, olyan mint a hányinger, csak nem testileg, hanem szellemileg, ha WOW-t látok a szobatársam monitorján, attól is ugyan így rámtör a "spirituális rosszullét") Gondolom ennek az álomvilágát is is pszichológusok, és nem irodalmi végzettségű egyének teremtették, és nem látványos akart lenni, hanem olyan ami hátulról hat ugyan az elmére is, de közben elfut bármiféle gépen.
A Stormrise is egy viccnek tűnik a képekről, de azért elindítom majd.
A F.E.A.R. 2 pedig nem az első rész kipofozott motorjával szaladgál majd? Akkor nem sok esélye lesz a Terraflops-bajnok Radeonoknak.
Most ezek után beugrott még nekem az Assassins Creed. Azóta se jött újabb patch, ami visszarakhatta volna a javított DX 10.1-es renderpatchet.
-
rocket
nagyúr
Hivatalos forras nem garancia semmire, mibol gondolod az igazat mondjak, es nem azt amit akkor hallanod kell?
R600 megjelenese elott az AMD magas beosztasu alkalmazottja (neve nem ugrik be) felvazolta a ceg strategiajat az R600 kapcsan, utolag kiderult, hogy csak blabla volt az egesz.
Koltsegekkel kapcsolatos dolgok az uzlet reszet kepzik, amiket nem hiszem cel lenne nagy dobra verni mivel semmi koze hozza a cegen, partnereiken, es a befektetokon kivul senkinekBe nem jelentett, meg tavol levo (8+ het) termekre rakerdezel hivatalosan, akkor altalaban a "jo lesz, gyors lesz" valaszt fogod kapni, meg ha alairsz NDA-t akkor se biztos azt mondjak amit kene, hanem azt amit az adott helyzet kovetel.
Fogadj el egy jo tanacsot, minnel magasabbra maszol, annal nagyobbat lehet esni
Aktív témák
Hirdetés
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Léghűtés topik
- Milyen processzort vegyek?
- Bittorrent topik
- AliExpress tapasztalatok
- laskr99: Újrakezdem a processzor és videókártya szilícium magok fotózását
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Motorola Moto G56 - bátyja árnyékában
- Nyaralás topik
- Kertészet, mezőgazdaság topik
- További aktív témák...
- OLCSÓBB!!! DDR5 16GB 8GB 32GB 4800MHz 5600MHz RAM Több db
- Bomba ár! Fujitsu LifeBook U7310 - i5-10GEN I 16GB I 256SSD I 13,3" FHD I HDMI I Cam I W11 I Gari!
- Tablet felvásárlás!! Samsung Galaxy Tab A8, Samsung Galaxy Tab A9, Samsung Galaxy Tab S6 Lite
- Apple Watch SE 2 44mm, Újszerű, 1 Év Garanciával
- FSP RAIDER S 750W 80 PLUS Silver táp
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest