- Fotók, videók mobillal
- Nothing Phone (3a) és (3a) Pro - az ügyes meg sasszemű
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
- A holnap határán: itt van minden új Galaxy promóképe
- Android szakmai topik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Honor Magic V3 - mágikus realizmus
- Augusztusban jön a Honor Magic V Flip 2
- Netfone
Aktív témák
-
Dare2Live
félisten
"Az AMD-nek az NV mielőbbi kivéreztetése az érdeke."
Még a jelenlegi NV számára nem épp vonzó helyzetben is az NV nyereséges, az AMD meg veszteséges....
AMDnek ezeddig annyit sikerült elérni, hogy NVnek csúnyán visszaesett a nyeresége.
Ennyi.Amúgy meg az elmúlt ~15évben AMD kb 10évben volt csúnyán -os, NV ehez képest amióta van masszívan nyereséges...
Szóval az a kivéreztetés jóval odébb van.... ha marad a jelenlegi katasztrofális helyzet is mint 5-6év....
-
rocket
nagyúr
Ez nem valasz a kerdesre, attol mert valamit ugy kozolnek meg nem biztos az is, pl. az R600 "pleasant surprise" volt? nem, pedig azt az AMD-tol hangoztattak, RV770-rol meg nem mondtak semmit elore es az lett.
Ez a masik specialitasod olyan dolgokrol kezdesz irni amirol nem volt szo eppen, raadasul nem irtam az ellenkezojet semminek amit leirtal
-
rocket
nagyúr
Mi alapjan dontod el mi a teny es mi a pletyka?
Tenyekkel nem lehet vitatkozni, igy semmi bajom veluk.
Pl. teny jelenleg,hogy az AMD grafikus uzletaga 12 millio $-os veszteseggel zarta a 2009 2. negyedevet, innetol meg oda lehet kepzelni barmit pluszban, mint ahogy te mar szokasodhoz hiven megtetted.#4633: Masrol van szo mar
-
rocket
nagyúr
-
rocket
nagyúr
Ez lenne a dolgod pontosan, de elofordult nem ezt teszed hanem almodsz valamit, igy megszuletik az urban legenda amihez aztan PH-t maszknak hasznalva terjesztesz (raadasul meg mindig meno a copy/paster modszer), tobben is felhivtak a figyelmed mar erre, de ugytunik nem esett le
Vegulis nekem mind1, ez volt az utolso alkalom megprobaltam neked ravilagitani az erdore amit nem latsz a fatol, a sajat azsiodat rontod mert egyre tobben lesznek akik mar ha meg igaz is amirol irsz, nem akarjak majd elhinni amig mas forras nem irja ugyanazt. -
Med1on
aktív tag
Elég kemények az extra.hu szabályai mint kiderült. A wwroot mappán kívüli fájlok nem voltak a weboldalon belinkelve ezért törölték az egészet. Pár dokumentum volt (néhány száz kbyte) de úgy tűnik őket nagyon zavarta.
Mindenesetre most a hardver-teszt.hu oldaltól kaptam lehetőséget néhány cikk publikálására így annyira nem zavar a dolog.
Mélyvíz I.
Mit vegyek
HD 4890 vs GTX 275Nah reklám off!
-
rocket
nagyúr
Ezzel amit csinalnak sajat magukat vereztetik ki nem az NV-t.
Lathatoan nem mukodik a strategiajuk, az NV nincs azon a szinten amin az RV770 elotti evekben, de el es virul, az AMD-nek piaci reszesedest se nagyon sikerult szerezni toluk, tehat nem jott be ez a strategia igy felesleges ujra eljatszani, inkabb a lehetseges plusz profitra kellene koncentralniuk. -
rocket
nagyúr
Nem kell ehez kartelezni, amelyik kereskedonek van egy kis hozzaertese a piac mukodesehez tudja magatol mikent mukodnek ezek a dolgok, foleg a megjelenes elso 2-3 heteben.
Uj termekeknel Newegg-en is siman raraknak plusz hasznot es MSRP folott kinaljak.
Az Intel/NV ilyen lehetoseget biztos nem hagyna ki, ha meglesz a termekek megelelo sebessege akkor +10% felar siman elferne rajtuk az AMD reszerol a 200-300$-os zonaban.
HD4850/HD4870 eseteben is ha az elejen +50$ rajta lett volna a termekeken meg ugyis vastagon versenykepesek lettek volna ar/ertek aranyban a GTX260/GTX280 kartyakkal, raadasul akkoriban meg nagyon lassan reagalt az NV az arazasra, szoval jo ideig meglett volna kartyankent a +50$, ez egyertelmuen a managment hibaja volt. (ahogy elnezem a negyedeves jelenteseket, lett volna helye annak a nagyon sokszor 50$-nak)
Ra kellene jonnie a ceg vezetesenek, hogy ok nem a maltai szeretet szolgalat es a helyzetuk se engedi az ilyen dolgokat.Termesztesen felhasznaloi oldalrol mindenki orul az olcsobb araknak, de most az AMD erdekeit szem elott tartva irtam a velemenyem
-
zack
nagyúr
Értem. Köszi a véleményt!
Viszont ha így lesz, lehet megvárom míg kijön az új széria. Nincs értelme 1 kártyát megtartanom. Félek hogy el fog folyni az a 40-50k körüli összeg amit kapnék érte, a Crysis Wars-ban meg szívnék addig 1db Radeonnal 1920x1200-ban.
Ha meg elfolyik, akkor kizárt hogy R8xx legyen, mert annyit nem fogok tudni hozzápakolni.
De ha megjelenés után 70k-ért el fog menni a két kártyám, akkor egész jók lennének az esélyeim egy 110-120k kártya megvételét illetően.A nagy rákészülés se biztos hogy jó...sok nyűg lehet az elején az új szériával, mint ahogy idáig mindegyikkel volt gond hónapokig, ha más nem driver szinten. Ezt a szívást viszont kihagynám. Persze ha lesz ilyen. Kár hogy nem vagyok felvértezve Nostredamus-i képességekkel.
Most okosabbak lennénk.
Egyébként meg úgy gondolom, hogy a 4890 CF az új széria megjelenése után is bitang erős lesz, és max. az R8xx csúcsmodell fogja lelépni teljesítményben, ha saccolni kellene azt mondom 20-30% lesz erősebb a legerősebb R8xx mint a 4890 CF. Aztán ki tudja...lehet marhaság, és jóval több lesz, de az eddigi múlt az én feltételezésemet igazolja. -
zack
nagyúr
Abu!
Szted mit csináljak?
Tartsam meg a 4890 CF-et?
Vagy adjam el most, vegyek valami kaki 10-15k kártyát addig? Gőzöm sincs mit kellene tennem...a 4890 CF teljesítménye jó, és elégedett vagyok velük. Nekem 103k-ba van a 2 kártya, de fogalmam sincs mennyiért mennének el mostanában...gondolom 80k környékét azért megkapnám értük..
Azt se tudom milyen áruk lesz az R8xx kártyáknak, és nem akarok úgy járni hogy elteszem a 80k-t és ha úgy jön ki a lépés, nem fogok tudni venni X2-öt, vagy valami 4890 CF-nél jobb teljesítményű kártyát, mert mi van ha nem lesz pénzem hozzátenni a 80k-hoz?
Mert ugye ez is lehetséges variáció.Ebben az esetben meg leszek lőve és 2 szék közül a földre fogok huppanni, amit nem szeretnék....
Ha meg az eladás mellett döntök, meg kell hirdetnem minnél előbb, mert 2 hónapom van maximum, hogy normálisabb áron eladjam a 4890 CF-et.
Az is lehet, ha kijön az új csipp, akkor is elég lesz eladnom, mert arányaiban sokkal többet nem fogok bukni, ha megtartom még 3 hónapot ezeket. Minden attól függ mennyibe fog kerülni az új generáció...Keldor: Köszi a véleményt.
-
TTomax
félisten
Látod,most ez az a pillanat amikor egy szép nagy maszlagot próbálsz velem megrágatni... Cpu limit esetén nem kapcsol be a harmadik GPU ,ez egy marhaság...ha ez igaz lenne akkor itt ebben a játékban nem hogy a harmadik,de még a második GPU sem kapcsolna be...
[link]
Ha van valahol CPU limit akkor itt igazán akad 1024-ben... mégis mindhárom GPU hajlandó működni,és bizony 95kb a játék... -
Med1on
aktív tag
Minek egyáltalán ilyen szintű kártyákból 3 darabot összepakolni?
Három HD 4850 512 Mbyte-os kártyát egy gépbe rakok attól a VRam nem adódik össze (mindegyik kártya memóriájában ugyanazoknak a textúráknak be kell töltődnie) ami (főleg a GTA 4 alatt) bizony elég komoly cink.
2560x1600-as felbontást a fönti okból kifolyólag én nem mernék ajánlani 3db Hd 4850 512Mb mellé hisz ebben a felbontásban gyakorlatilag a crossfire ellenére is egy 512 MByte videómemóriából gazdálkodhatnak a játékok ami ilyen beállítás mellé öngyilkosság. Ez esetben nem a cpu limit vagy a gpu skálázódás a legnagyobb gond hanem a felgyorsuló lelassuló játékmenet az eltűnő textúrák stb...
A lényeg 3db HD 4850 512 helyett vagy inkább egy HD 4870x2 2048Mbyte (megjegyzem 2560ban már a GTX 295 fölött van) vagy egy tuningos HD 4890 1024Mbyte amely nagyjából képes kettő darab HD 4850 kártya teljesítményét hozni (mivel a harmadik 4850 az esetek nagy részében úgy is pihen nem bukunk sokat).
Mind a kettő opció elfogadható 2560*1600ban (ellenben a három HD 4850el) bár itt igazán elemében a HD 4870 x2 van.
A cpu limit valószínűleg ez esetben is megmarad azonban minél kevesebb GPU-t rakunk egy rendszerbe annál valószínűbb, hogy nem találkozunk vmi driveres anomáliával.Élsimítást egyre ritkábban lehet alkalmazni Dx9 alatt ez jogos de ha a Catalystban is bekapcsolható lenne az SSAO (mint a geforce driverben) akkor mindjárt ott lenne a lehetőség a 3. GPU munkára fogására.
-
egyre inkább az az érzésem, hogy két külön parallel univerzumban működünk
350ms késleltetés esetén megnyomom a fordulás gombot, várok egy kicsit, és utána a karakterem elkezd fordulni. aki ezt nem veszi észre, annak egész komoly percepciós zavarai lehetnek. másik példa: autóverseny 200km/h sebességgel. az 55m/s, azaz a 350ms késleltetés esetén az autó 19m-rel előrébb tart, mint amit látsz. szerinted mennyire lesz vezethető? 160ms esetén ez csak 9m...birka: Cagm^c kollégának brutálisak a reflexei (élsportolsz?), amúgy a 250 sztem teljesen normális, kevés gyakorlással le lehet vinni 200-ig. a program pontozása az egyszerűségre ment, 100 alatt gepárd, 200 alatt nyúl, ésígytovább.
-
Med1on
aktív tag
"egy átlagos ember 500-600 ms sem képes észrevenni, a 300 ms-os tudományos határt pedig csak az veszi észre, aki kifejezetten az alacsony reakcióidőre edz (versenysportolók)."
500 milliseconds = 0.5 seconds
További tudnivalók a számológépről.Sztem max ő nem venné észre
-
az előző válasz alapján már sejtettem, hogy nem egészen ugyanarról beszélünk. az észlelős-elemzős-reagálós sztoriban lehet, hogy megállnak a számaid, de a gyors reakciót igénylő játékokban a reflexeknek is nagy szerepük van, úgyhogy azokkal a számokkal kell kalkulálni. btw. ha igaz lenne a 160ms, akkor lehetne is elfelejteni az fps műfajt több GPU-val, mert rendszeresen azelőtt halnál meg, mielőtt meglátnád a támadót.
itt a birkás cucc
-
Ha két csipet raknak egy tokba MCM módszerrel, akkor is CF-el lesznek összekötve a magok? Nem lehet, hogy simán összeadódjon a két mag ereje, mintha egy erősebb GPU lenne - mármint a későbbiekben? Nem is tudom, mi kell ehhez, közös ütemező?
Visszaolvastam, de hirtelen nem találtam rá választ, csak, hogy AFR, meg az ojjektumos renderelés...(#4513) p87: Első próbálkozásra átlag 225ms, másodikra átlag 190ms jöt ki nekem, de itt már nagyon dülledt a szemem.
-
Cagm^c
tag
100m-es síkfutásban aki 0,1sec-en belül elindul a lövés után, az kiugrott. Azért mert a 0,1sec-et tartják az emberi határnak. Tehát, aki gyorsabban rajtol, az már a lövés előtt "megfogalmazta a gondolatat", hogy elindul.
Vagy valami ilyesmi.Találtam egyszer a neten egy báránylövögető reflexmérő játékot. Bal oldalt bárányok vannak. Ha az egyik elindul, le kell lőni. De néha csak beijesztenek, és ha akkor lőssz, akkor büntit kapsz. 5x kell lőni, és átlagolja. A legjobbam 0,1248sec-es ÁTLAG. Sprinter voltam (legalábbis kezdetben). Tehát lehetségesek az ilyen reflexek.
Mértem egyet az előttem szóló kolléga progijával:0,2029sec. Volt benne egy 0,104sec-es is.
-
p87
senior tag
Én se értem ezt a késleltetést meg a reakcióidőt.
Ezeket az átlag reakcióidőket, hogy érted vagy, hogy kell mérni?
Ezzel nézve: [link] átlag 215ms a reakcióidőm.
A 40ms várakozás / jelenet 4GPU nál 160ms lehet rosszul látom , de ez nem okozhat olyat, hogy mondjuk mozdítom az egeret és a képernyőn akkor 160ms múlva mozdul -el?
Vagy teljesen rosszul látom? -
nu warte bitte. tudtommal a jelenetgenerálás és a renderelés nincs így összekötve - ha össze lenne, akkor nem is menne semmi az említett 20-25 fps felett. ezért a késleltetést kétféleképpen számolhatod:
- ha az 1 GPU által elért fps felette van a jelenetgenerálás sebességének, akkor minden jelenetről 1 vagy több kép készül, és a késleltetés kb. egyenlő a jelenetgenerálás sebességével (ill. valamivel többel, de ebbe már nem másznék bele)
- ha az 1 GPU által elért fps alatta van a jelenetgenerálásnak, akkor nem minden jelenetből készül kép, és a késleltetést közelítőleg a megjelenítés sebessége fogja "szolgáltatni"hogy őszinte legyek, nem igazán értem a 300ms-es számot, még kevésbé az 500-600-at. nekem 200-250ms körül vannak a reflexeim (end-to-end, azaz az észlelés-felfogás-reagálás lépések mind benne vannak). ha erre a 25fps-es jelenetgenerálási lagot ráteszed, akkor 250-300ms körül járunk. most képzelj el egy olyan jelenetet, hogy az ellenség: a) kihajol a fa mögül b) lő c) visszabújik. mennyi idő ez? szerintem fél másodpercnél biztosan kevesebb. a fenti reflexesdi miatt 200-250ms időm marad arra, hogy célozzak - ha a négy (vagy pláne 8) GPU-s megoldáson megy a játék 60fps-sel, akkor ebből az időből elveszik további 26ms, azaz 10% (8 GPU esetén viszont már 83ms, azaz a harmada!). sztem már a 10% is gáz...
-
még mindig nem ugyanarról beszélünk
nekem nem a kép folyamatosságával kapcsolatban van aggályom (amiket írtál, azok gyerekbetegségek, amiket szisztematikusan ki kellett irtani, örülök, ha sikerült), hanem azzal, hogy ha a képen látható eseményre reagálok, akkor az mennyire a múlt (mert hogy közben van olyan GPU, ami 4 frame-mel előbbre jár). Ez a 60fps-es példa esetén 66ms, azaz a 200ms körüli reflexidőm megnő 33%-kal. Szerintem ez már baj...
objektum-alapú cucc királyság, de nem lesz nagyon nagy az overhead a lighting kalkulációkkor?
-
-
Petya2900XT
aktív tag
Akkor gondolom könnyebb lesz alá drivert írni,mint az R600 alá volt,mert ott sokan azt mondták,hogy összetett így nem sikerült egy jobb drivert alá "rakni"..
..mára azért tleg megoldódott az efajta probláma,de kissé későn..ettől félek,hogy az új kariknál nehogy az legyen,hogy akkor lesznek "100%" driverek amikor már a következő széria jön...
-
-
Ellenben a kisebb chipet MCM-be kötve a Triangle Setup is megduplázódik az AFR mód miatt és a tényleges sebesség is dupla lesz.
... ahol viszont meg kell oldani, hogy a két chip együtt dolgozzon a setupon. vszleg nem nagy ügy - feltéve, hogy közös memórián dolgoznak?
azt mondjuk még mindig nem értem, hogy miért nem lehet két setup blokkot tenni egy GPU-ba, de gondolom ezt a tranzisztorvarázslók már alaposan kiszámolták.
amúgy köszi a megosztott hinteket!
-
Ricco_hun
senior tag
Szóval most is szénné fogják feszelni a gpu-kat, mint az RV770 esetében, merthogy nagyon küszködnek TSMC-ék a 40nm-rel. Fasza.
Azért remélem, hogy az RV830-nak emberi lesz a fogyasztása. Arról már letettem, hogy a HD5xxx szériából is egy tápcsati nélkülit szerzek be
. Dehát ez mégis csak 40nm, akkor meg? Remélem rámcáfolnak AMD-ék, s megvalósul a kánaán.
-
WesTM
őstag
Valószínűleg igazad van, már csak abból kiindulva, hogy relatív kis méretű chipekből, alacsony fogyasztás mellett is ki lehet hozni nagy teljesítményt, és könnyebb ezek számát növelni, mint a gpu méretét... Pláne, ha még az alkalmazandó területen is gyorsabb a multigpu...
tzsolesz: Igen már átgondoltam.
-
WesTM
őstag
Hmm mindenképpen érdekes.
Ebből azt a következtetést tudom levonni, hogy még tartogatnak még az rv870-es elnevezést, amivel esetleg egy későbbi "visszavágó" kártyát tudnak kidobni. Lsd. 4890.
Ha a jelenlegi számozást nézem, az rv830 ill. 840. olyan mintha alsó kategóriás gpu-k neve lenne. Ergo. még valami ütőkártya maradhat a háttérben, ha nagyot domborít az nvidia a gt300-al.
-
tzsolesz
nagyúr
Az RV830 ugyan olyan erős lesz mint az RV790, csak DX11 támogatással fog jönni? Nekem nem kéne az biztos.
Az RV840 az már alakulóban van. Gondolom az SP számának növelésével egyéb részegységek száma is növekedni fog. vagy nem?
Az RV830 esetében kizárt hogy GDDR5 512bit-el jöjjön. Hiszen még sok is a sávszélesség a 4890 esetében is. Ez meg úgy látszik nem lesz erősebb attól.
WesTM Olvad el még egyszer Abu85 post-ját. Éppen az ellenkezőjét mondja. Csak a gpu-kat duplázzák, négyszerezik. Én ennek személy szerint annyira nem örülök. -
VinoRosso
veterán
Na így már világosabb kicsit, mert bennem még az a kép élt a tesszalálásról, hogy a GPU előtt folyik a procinb. és gondoltam így tolják majd be a GPUba az input assembler után, de ez elég jónak hangzik, hogy a vertex shader utánra kerül. Mondjuk még mindig ott van a többi fázis, de ha már nem kell vertexekkel foglakozni, akkor az negyedével felével csökkentheti a GPU loadot, és a memó használat is 10-20%al csökkenhet minimum. Viszont így nem tudom, hogy mi értelme marad a geometry shadernek?
-
DemonDani
addikt
A Qualcomm ellenfél...
1GHzen nagyjából tudja hozni, a fogyasztás lényegében már nagyságrendekkel több ugyan, és ne felejtsük el hogy a Tegra még 65nm.
(ha jól tudom) De az tuti hogy a Qualcommban nem lesz Flash 10 gyorsítás
meg dupla Mhzel elérhető az 1080p támogatás is
De más ellenfél kilátásban sincs.
Intelnek ez a piac érdekes dolog, a samsung meg inkább veszi már a hardvert egy ideje látszik ARM meg... -
DemonDani
addikt
Nincs is ezzel baj... a tegra nagyon jó, és a tegra piaca jelenleg a legjövedelmezőbb, ami a jövőben még inkább igaz lesz. És már eleve jó partnerek is megvannak (HTC, Microsoft).
Csak 1 valamitől félek kicsit. Sokat foglalkozik majd az nv egy halott gpu fejlesztésével és közben a tegra elgyengül (többiek erősödnek) de remélem ezt a hibát nem követik el. És hamarosan a Tegra is 40nmen gördül majd le a szalagokról. (amivel végkép a csúcsra állna jó időre)
-
VinoRosso
veterán
Hogyan lesz low poly modell a memóban? Mondjuk én nem vágom a tesszaláló eljárások lelkivilágát megmondom őszintén, de ha a mosani pipeline-t veszem alapul, akkor ott a meshel nem csak a pipe elején dolgoznak, hanem folymatosan használatban vannak. Addig oké, hogy csak a low poly modellek terhelik az operatív tárat, de valahgoy el kell érni az összes vertex adatot hogy lehessen világítani meg transzformálni őket, meg a textúra koordináták leképezéséhez sem árt, ha tudjuk mire van felfeszítve a textúra. Ezeket az adatokat kizárólag regiszterekben tárolni elég vicces lenne egy olyan képnél amit azon a bemutatón csináltak, bemegy egy 10 megás mesh és kijön egy kb 100x nagyobb felbontású, és közbe még ramot se használtunk
az új chip kódneve meg Uri Geller vs David Copperfield lesz.
-
-
schwartz
addikt
Szerinted az a par honap elony eleg lesz a kivegzeshez? Kar, hogy nem tudni semmit a GT300 felepiteserol de ha izmoz hardveres tessellator egyseg kerul bele, nagy valoszinuseggel megdol a "nincs kello eroforras ketiranyu fejlesztesre" elmelet(ed) is...
(kb a G80 piacra dobasakor mar el kellett kezdjek a Dx11-es vas hegeszteset)
-
VinoRosso
veterán
A sima tesszalációnál szerintem lesznek memória problémák, legalábbis ahogy néztem azt a képet, volt rajta pár százezer poly. Nem tudom, hogy mire akarják azt lfehasználbni, mert alapvetően a POM nem terrain displacementre készül, hanem egy kis felület anyagtulajdnoságainak a részletezésére. Egy kavicsos textúra helyettesítésére mint ami a képen van ez elképzelhetetlen, több tímillió polygont jelentene egy jelenetben ezt semmi nem bírja rammal, még ha csak wireframbe megy a render akkor se. Az adaptívnál látható, hogy drasztikusan csökkent a poligonszám, de itt mibe kerülhet az, hogy megtalálja a rendszer, hogy melyik élet ddobja el, és melyiket hagyja meg? Meg egyátalán hogy épül fel? Mert ha úgy csinálják, hogy egy teljes gráfból indulnak ki az sok ramot is zabál, esetleg még lassú is lehet, ha sok élet kell elhagyni. Ha meg az alap meshből indulnak ki, az lehet a gond, ha túl finom háló kell. Bár nyilván ha jól van megírva rá a progi, akkor el tudja dönteni, hogy melyik vezethet az optimumhoz. Aztán még ott van az is amit mondasz, hogy ezt még be kell világítani, textúrázni, pff...nem egyszerű dolgok ezek. Egy pár évbe bele fog telni szerintem, mire normális vas lesz dx11 alá, ami ki is tudja használni a pipeline-t teljes egészében.
-
rocket
nagyúr
VW?
Computex juniusban volt, az info amin szerepel meg majus elejei, tehat akkor ott vagyunk ahol elindultunk
Egyebkent Richard Huddy az AMD-nel dolgozik es nem programozo a Codemastersnel, igy o nem elso kez.Egyatalan nem igaz, hogy a jatekokat minden esetben akkor adjak ki amikor keszen van, renegeteg karacsonyi szezonra elkeszult jatekot toltak at regebben is a holtszezonra ahol ugyanugy muzsikal, igy a kiado a kevesbe jol sikerult, vagy kisebb nevu jatekokbol tobbet tud eladni a "nem nezzuk mit veszunk" szezonban.
"Bosszut" irtam nem veletlenul
A cegeknek a presztizs veszteseg az ha a felhasznalok atpartolnak masik ceg termekeire, de mint mindig az egyszeru felhasznalokrol van szo tobbsegeben, oket meg masok iranyitanak, pl. a bolti eladok, akik lustasagbol vagy a hozzanemertes miatt esetleg evekkel ezelott felepitett kepek alapjan adnak tanacsokat, ezen meg az AMD nem tud valtozatni akar mit is csinal, a hiradokban meg nem lesz hir soha, hogy pl. a DX10.1 milyen fontos amit az AMD mar 2 eve tamogat, az NV meg majd fog osszel -
rocket
nagyúr
Nyugodtan nezzel korbe forumokon a Battleforge kapcsan, Stormrise kategoria. (nem a jatek, hanem a korulotte levo erdeklodes.)
Lenne bizonyitekom ra, hogy egyszerre volt tervezve a megjelenes, csak nem publikus amiben benne van, igy akkor inkabb hagyjuk a temat
A listas jatekot nem kell a karacsonyi szezonra idoziteni, erre az idpontra inkabb a kevesbe jol sikerult jatekokat szoktak a kiadok idoziteni amik jobban fogynak ilyenkor, mig a DIRT2 ugyanugy fogyna a holtszezonban januarban is.
Akkor lehetne ez max. presztizs veszteseg ha eljutna mindenkihez, de nem jut el, forumokon is altalalban akik a leghangosabbak azok felejtenek a legkonyebben, szoval a felhasznalok "bosszuja" nem letezik csak a mesekben
-
rocket
nagyúr
Egyidoben volt tervezve a megjelenes minden platformra (emlekezzel a "sooner than you think" prezentacios kepre, december az nem a "sooner than you think" kategoria), az, hogy most mint mond az egy dolog es most se mondott konkret datumot, csak azt, hogy december, kivancsi leszek fog-e tovabb csuszni mert "meg nem keszultunk el"
A NV-nek a lehetosegei megvannak, azt gondolod nem fognak elni vele, akkor az elmult evekben nem nagyon figyeltel arra mik tortentek.
En nem emlekszem olyan cikkekre, amiben tul sok szot pazaroltak volna a jatekra, nem nalam C listas jatek, nem nagyon szerepel tesztekben, nincs hype korulotte forumokon (PH topik , mashol se jobb a helyzet) , igy majd ha kijon a DX11 patch nem lesz akkora erteke az AMD oldalarol nezve mint anno a Far Cry eseteben.Megint nem sikerult ertelmezned amit irtam
Nem a DX11 ellen vannak, hanem ha az AMD kijon DX11 termekekkel ok meg eppen a DX10.1-re ternek at akkor biztos lesz valami propaganda, meglepo lenne nem jonnenek elo valami FUD-dal a DX11 kapcsan ha az AMD megelozi oket es honapokkal kesobb tudnanak csak DX11 hardvert prezentalni. -
rocket
nagyúr
Elozo valaszod se ertettem mikoze ahoz amit a #4329-ben irtam
Mindig is DX11 verzionak volt tervezve a DIRT2 PC verzioja, ezert nem ertem minek keverted ide a tesszalaciot az NV kapcsan, nem az NV erolteti a DX11-et mert neki csak az lesz jo a tesszalacio miatt, amit irtam annak az a lenyege, hogy a termek megjeleneset befolyasoljak mert nem lesz idoben DX11 hardveruk.
Mind1 egyebkent, vannak dolgok amik valtoznak es vannak amik nem, a jatek szoftverek koruli kavaras ez utobbihoz tartozik, evek ota tortennek "veletlenek"Battleforge patchet nem valoszinu megtudjak majd allitani, de annak nem lesz nagy langja mert C listas jatek, ettol fuggetlenul kivancsi leszek az NV DX11 ellenes propagandajara
-
Tudom, már többször felmerült az igény, egy átfogó, részletes GPGPU / grafikus API cikk írásra, de most megint eszembe jutott a hsz-eddel kapcsolatban.
Most épp a "a Xenos alacsony nyelvi szintjén" mondatrész keltette fel az érdeklődésemet.
Jó lenne tisztán látni, hogy a Stream SDK, CUDA, OpenCL, C.S. stb. melyik magas szintű, melyik alacsony, melyik, milyen cuccon, milyen hatékonysággal fut, mik a szűk keresztmetszetek, milyen fejlesztő környezetek vannak, hogy műxik az egész a gyakorlatban, stb.
Nem is tudom, hogy mekkorát ugranék örömömben, egy ilyen írásért. -
rocket
nagyúr
Nem ertem minek kevered ide a tesszallaciot, EGO engine DX9-es, igy ha nem DX11-re leptek volna tovabb akkor maradt volna a DX9 es akkor a tesszallacio lenyegtelenne valt volna.
Mind1 egyebkent mi az ok a lenyegen nem valtoztat, tudtam fog valami "veletlen" tortenni ami megint annak a cegnek nem kedvez aki idejeben tud DX11 hardvert prezentalni, ez volt az egyetlen A+ kategorias DX11 jatek ami a DX11 hardverekhez idoben jott volna, ugyhogy megint az AMD jart "jol" kivancsi leszek csuszik-e majd meg esetleg 2010Q1-re -
janos666
nagyúr
Hát, ez a videó így, ahogy van, engem nem hozott lázba, sőt...
Ha nagyon erőltetni akarnám még én is összedobnék egy ilyen klippet, mondjuk akkor már stílusosan geforceokat emlegetve.De nem is emiatt.
A DX 8.1 nagy dobás volt a 7 után, és a 9.0c is a 8 után, de itt sem nagyon látszott, hogy a 10.0 és 10.1 mit hozott. Vagyis épp az látható, hogy eléggé degressszív ez a növekedés.(#4315) - Ja, aztán reggel még félig betépve ébredsz, kimész az újságért, meglátod a szomszédod, és végrehajtod amit tegnap 10x is begyakoroltál a monitor mellett flesselgetve. -> Jó, hülye poén, csak azoknak szól, akik már a GTA-t is be akarták tiltatni.
(#4304) - Részben igen, részben nem. Bár ezt csak arra fejtegettem, hogy kinek mikor esett le, és ki hiszi hogy renderelt az arc, és ki nem.
Azzal én is egyetértek, hogy nem poén beülni a gép elő, és a valóságot játszani. De itt filmrealisztikus megjelenítésről volt szó. Márpedig sok film van, amit kamerákkal vettek fel, mégis eléggé elüt a látványvilág a valóságtól. Nem is feltétlen a digitális post-process miatt, elég ha a díszletekre elég hangsúlyt fektettek.
Így kell visszagondolni, hogy mit is lehet kihozni egy olyan géppel és technológiával, ami képes megtévesztően visszadni a valóságot is. Attól még lehet tovább szinezni, de jobb mint egy négyzetes fejű ember, vagy egy maszatos szörny, hogy alig látod mi akart ott lenni. -
zuchy
őstag
Aztamindenit!!!
Nézem a videót nézem, mondom hol van már az a videó, ez a csaj csak pofázik, meg pofázik. Aztán végén tudatosult bennem, hogy a csaj nem igazi.
Ha nem lenne a végén, ahol megmutatják, hogy renderelt, akkor el is hiszem, hogy valós.
Na ilyet kéne a játékokba! -
keIdor
titán
Áhh, látom új munkahelyet talált.
(#4251) Gonosz15: Kérdés, hogy a 4790-nél megmarad-e az a tuningpotenciál... mert azon vagy alapból gyenge GPU-k lesznek mondjuk max (hasraütésre mondom) 700MHz-el fognak tudni, vagy low-voltage lesz alapból... persze majd lehet manuálisan emelgetni, aki akarja... de nem mindig segít az sem.
-
zack
nagyúr
Ha tényleg októberben jön....lesznek itt nálunk olyan árak, hogy csak úgy gülleszthetjük majd a szemünket. Valahogy így:
Eleve októbertől-karácsonyig szoktak az árak elszállni, majd jan-feb. ismét kicsit mérséklődni. Persze a tavasz és a nyár az igazi, akkor célszerű hardvert venni.
Szóval ha októberben fog debütálni az R8xx,és úgy néz ki hogy a G300 is, horror árak lesznek nálunk.
Persze biztos lesz valami lim-lom DX11 játék, amire épülni fog a kampány, a Win7 mellett, de az idei DX11-re való átállástól mindenkit óva intenék. A Win7 sem lesz a helyzet magaslatán még, max. SP1 után, az új DX11 kártyákról, és a meghajtóikról meg nem is beszélve. Lesz itt annyi anomália, nem győzzük majd kapkodni a fejünket.
Ebben semmi meglepő nincs, minden kiforratlan új fejlesztés, döcögősen startol. Ezt már megszokhattuk. Azt sem tartom kizártnak, hogy októberben kiadják a lim-lom első példányokat, amik valahogy mennek, majd a júzereken letesztelik, és tavasszal kiadnak belőle egy javított Ver2.0 frissítést.
Így 8-10 év távlatából amióta képben vagyok a PC-s piac változásaival kapcsolatban, meglepődnék ha nem így lenne ahogy leírtam. -
VinoRosso
veterán
nem hiszem hogy a legmenőbb, csak relatíve jól fogy abban a szegmensben. Az összképet tekintve marginális mennyiség fogy belőle, ha jól emlékszem. Egyébként PS-nál, illetve pár CUDA-s alkalmazásnál jól jön a +512, aki erre vesz VGA-t annak ez tökéltes( bár úk is nagyon kevesen vannak ) játékra meg teljesen alkalmatlan, illetve a 9500GT még valamennyire,
-
Bluegene
addikt
schwartz: A Larrabee-ről már sokat beszél az Intel. Az első generáció csak szárnypróbálgatás, nem várnak tőle nagy eredményt. A második generáció az amivel már akarnak is versenyezni, míg a harmadik generáció lesz a nagy dobás, ami majd megfelelően felveszi a versenyt a konkurens chipekkel (bár itt konkrétan csak az AMD-t említették). a legújabb nehalem X8-as processorja osztott, szorzott és kiszámolta h kicsinálják az nvidiát
meg sem említik
biztosan van piacelemző és előrejelző csoportjuk
-
schwartz
addikt
Ahogy pihenget 2 mag a nativ 4-bol (de megis legyartjak mert ez kell a nepnek), ugy a DX11-et igenylo plusz tranyok is megfernek egy GPGPU-ban. Kulonben az Intel is ket legyet szeretne a szoros nyelvere, ezzel az x86-os szoftver render-el. (egy chip a VGA es GPGPU piacra egyarant) Akkor miert rossz az NV-s elgondolas?
[ Módosította: 7 ]
-
janos666
nagyúr
De egy jó terepjáróval kicsapathatsz a sárba (nem rallira, de a termőföldre esőben, elakadás nélküli lendülettel...), és ha elereszted a lábad kitolhatsz belőle ~150-160-at autópályán, attól többel meg semminek se kell nyomni közúton (főleg tartósan, nem beszélve a kamerákról...).
-
TTomax
félisten
Na hát ez az ami nem,és ha kell le is mérem... ugye akkor a GTX280at meg a 4850 hozza simán ugye??Mert még 2db sem képes rá...
Ja és mielőtt jönne az,hogy az élsimitás miatt 1680X-ban elfogy a VRAM.... simítás nélkül sem...Mindez WIN7 alatt...és nem kell "lebétázni" ... RC, WHQL stb stb stb... -
Departed
őstag
Pedig már kezdtem megörülni a cikk alapján, hogy mégis lesz viszonylag normális élsimítás, hiába a Deferred Rendering+DX9 kombó. Mondjuk a GTA4-es széthomályosító "élsimításánál" azért remélem szebb lesz és nem zavaró
Az FPS értékek szívderítőek, főleg hogy azt írják hogy gépigényes helyen méregettek.
-
TTomax
félisten
Hm,köszi az infót ez így elég rosszul hangzik... a GTX-em vinnék nagyon.Érdekes azért mert "errefelé" valahogy ódzkodnak az ATI-tol itt sok embereb belevésődött az Nv marketing,no meg ugye a G80-G92 hengerlés maradt meg mindenkiben,jellemzően a 8800Ultra-t emlegetik sokan,pedig hol van már az...
Aktív témák
Hirdetés
- Milyen egeret válasszak?
- Éjszakai műszak
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Okos Otthon / Smart Home
- Fotók, videók mobillal
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Luck Dragon: Asszociációs játék. :)
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Starlink
- További aktív témák...
- Telefon felvásárlás!! Honor Magic6 Lite, Honor Magic6 Pro, Honor Magic7 Lite, Honor Magic7 Pro
- ÁRGARANCIA!Épített KomPhone i5 13400F 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Lenovo ThinkPad X270 (16) - i5-7300U, 16GB, 512GB SSD, 12" FULL HD
- Lenovo ThinkPad 40AF docking station (DisplayLink)
- LENOVO ThinkSystem NVIDIA Quadro RTX 6000 24GB PCIe Passive GPU
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest