- Fotók, videók mobillal
- Yettel topik
- Google Pixel 8 Pro - mestersége(s) az intelligencia
- 200 megapixeles zoomkamerát sem kap az S26 Ultra?
- Magisk
- Honor 200 Pro - mobilportré
- Vivo X200 Pro - a kétszázát!
- Android alkalmazások - szoftver kibeszélő topik
- iPhone topik
- Motorola Edge 60 és Edge 60 Pro - és a vas?
Aktív témák
-
leviske
veterán
válasz
Bluegene #7368 üzenetére
A Fermiben lesz tudás, csak nem desktopra, DX11 alá. Pont emiatt tartom reálisnak Keldor gondolatmenetét, miszerint ki sem hozzák desktopra...
Ha megint olyan kihozatali aránnyal jön, mint a GT200 (már pedig az eddigi infók alapján az tűnik talán a maximumnak), akkor többet érnek vele, ha a Tesla termékcsalád tagjaként több százezrekért eladják, minthogy az AMD-vel versengjenek és megint szinte mínuszig tornásszák a hasznot. (Ezt a gondolatmenetet fejtegetted nekem nem rég a HD5800-asok árazásával kapcsolatban is.)
És akkor még arról nem is beszéltünk, hogy ilyen kilátások mellett (bár már többször felhoztam ezt) nem nagyon találnak majd partnert, aki kiadná.
-
Chalez
őstag
válasz
Bluegene #7419 üzenetére
Elfogadom persze, de attól független amit érzek.
A lényeg, hogy ha 30fps-el menne a game, akkor a büdös életbe nem ülnék le elé. És az is faszság, hogy pl Crysis-be mindegy, hogy 30 v. 45 v. esetleg 60 az fps.
Lehet, hogy én egy alien vagyok?
Na mind1, a kövi videókarim az lesz, ami fps-be többet tud. Érdekel is engem a csillogás meg az AA... -
Chalez
őstag
válasz
Bluegene #7409 üzenetére
Naponta nyomom az rFactort, és naponta találkozom a problémával, és mindenfélét állítok, hogy az én érzékeimnek tökéletes legyen a kép. Kipróbáltam full lowon: átlag 400-450fps és full max minden 160-250FPS és simán szebben folyik a grafika low részletességen. Amikor online leeseik az fps 100 alá, sőt ha megközelíti a 60-at, szívem szerint a gépet törném össze annyira szarul érint a nem folymatos képmegjelenítés...
Na de ennyi. Sohavégetnemérőérvelések.... -
Pala
veterán
válasz
Bluegene #7399 üzenetére
Fölötte már engem sem érdekel, hogy 61 vagy 1000.
Én azt tudom, hogy a 30fps-t általában kicsit szaggatónak érzem. Direkt nem azt írom, hogy látom, mert igazából csak úgy érzem, hogy pl. ha körbemozgatom az egeret (legyen szó FPS-ről), akkor ehhez képest a monitoron nem ugyanolyan sima a karakter körbenézése (kicsit receg, de pont annyira, hogy engem még zavar), míg 60fps felé közelítve ez az érzés egyre inkább megszűnik. Itt pusztán a saját reflexeimről van szó szerintem, ebbe felesleges lenne bármilyen technikai magyarázatot beleerőltetni. Ezeket a dolgokat a motion blur és a smooth mouse többnyire segít kiküszöbölni, úgy vettem észre. -
attiLANte
tag
válasz
Bluegene #7386 üzenetére
"nekem negyed másodperc a reakcióidőm, 120 FPS-nél ez 30 képkockát jelentene ha tudná a monitorom(75 hz-es), szal ezalatt elszáguld 75/4=18,75 képkocka fel sem fogod
, egy szemvillanás alatt közel 20 képkocka, és kábé csak arra van időd hogy leüsd az egérgombot"
Ezen logika szerint neked elég a 4 fps is, mert többre úgysem tudsz reagálni...
Egyébként nekem meg 0,2s körül van az átlag, és akkor mi van?
Attól még, hogy adott a reakcióidőd, nem azt jelenti, hogy nem tudsz akár századmásodperc pontos választ adni, csak azt, hogy annyival előbb kell megtenni a válaszlépést.
Gyakorlatilag az agy felméri a mozgó tárgyak röppályáját, sebességét, és kiszámítja - figyelembe véve a saját megszokott válaszidejét - azt a helyet, ahová pl. célozni kell, hogy eltaláljuk, vagy azt a pontot, ahol el kell kezdeni fékezni, hogy be tudjunk venni egy kanyart.
Egy másik példa: hiába 0,2 másodperces a reakcióidőd, kellő gyakorlás után mégis meg tudsz állítani egy század- vagy ezredmásodperc pontosságú stoppert pl. 1,00(0)s környékén majdnem tetszőleges pontossággal, mert az agyad figyelembe veszi az "output lag"-odat, és "időzít".
Persze ehhez az kell, hogy ne 0,2 másodpercenként láss egy képkockát, hanem legyen megfelelő számú minta, ami alapján döntést lehet hozni.
Gyakorlással fejleszthető, valszeg ezért van az, hogy a rendszeresen FPS-rel vagy autószimulátorral játszók előbb észreveszik (nem látják, érzik!) az alacsony képkockaszámot: sokkal feszesebb visszacsatoláshoz szoktak hozzá.Bocs az ultraOFF-ért - ne is válaszoljon senki, de Bluegene még mindig képes kihozni belőlem az állatot
(#7379) rocket:
ezek szerint igazak voltak a pletykák az új anizotrop szűrésről...
-
Ricco_hun
senior tag
válasz
Bluegene #7391 üzenetére
"mert az emberi látszervek korlátozva vannak, ahogy 3 km-ről se szúrja ki senki a pockot, de egy vándorsólyom pl képes rá, az emberi szervezetnek korlátjai vannak,"
Lexarom az emberi szemet fogd már fel? Egyszerűen úgy van megírva a motor vagy mittomén, nem is érdekel, hogy ha több fps-ed van, akkor jobban célzol, más játékokban meg egyéb kunsztok lehetségesek. Tipikusan ilyen fps-vadász játékok a cod-ok, meg más említette, hogy online autóversenynél is előnye van a több fps-nek. És akkor ott vannak az olyan játékok, mint a crysis, hogy nyugodtan le lehet korlátozni 30fps-re, mert fölötte már nem történik semmi. -
keIdor
titán
-
Ricco_hun
senior tag
válasz
Bluegene #7381 üzenetére
"már elmondtam online játékoknál azért jobb a több FPS, mert gyorsabb géped van, gyorsabban küldi az adatokat a szervergépnek mint akinek lassú gépe van, valami ilyesmi"
Aha és a videókártya küldi el az adatokat a szervernek?
Lényegtelen a technikai háttere, lényegtelen, hogy az emberi szem mire képes, lényegtelen, hogy a monitor milyen korlátokat szab, az egyszerűen tény, hogy sok (általában online) játékban előnyre tesz szert az, akinek több fps-e van. Ennyi, pont. -
emmm
őstag
válasz
Bluegene #7381 üzenetére
COD-ban nem kell fraps, mert be lehet kapcsolni, hogy kiírja az fps-t, de ez csak mellékes. Az hogy azért van több fps-em, mert gyorsabb a gépem...ki gondolta volna.
Amúgy még csak netre sem kell felmennem, ha indítok egymagam egy zombit, vagy kampányt, az érzés mindegyik esetben ugyanaz, azaz, hogy jobban teljesítek, könnyebb a célzás, több a fejlövés, tehát valami igenis változik. A kérdéseimre viszont nem válaszoltál... -
DigitXT
félisten
válasz
Bluegene #7374 üzenetére
biológiailag nem láthatná az ember
Honnan tudod, hogy milyen kis változást lát "az emberi szem"?
(Ez egyébként a legjobb, azért tettem idézőjelbe, mert marhára
nem vagyunk egyformák: valamiféle átlagról lehet kijelentéseket
tenni, de ha pl. egy átlag alatti meg akarja magyarázni az átlag
felettinek, hogy ő miért nem lehet olyan, amilyen, az elég gáz.)
elismerem hogy egyes online játékoban származhat előny a sok fps-ből
Nade miért? Mert másképp reagál a játék? Igen. Ezek szerint
létezik valamilyen különbség, aminek hatását az adott játékos
érezheti.(Nem feltétlen azért, mert konkrétan is "látja" a
különbséget a 80 és 300 FPS között, hanem mert érzi, mert
mást tapasztal...) De ez persze játékfüggő: szó volt elbaszott
motorokról, ill. mindenféle feltételezésekről a lassú hardverről,
minek következtében bugok léphetnek fel, ha a feltételezések
megdőlnek az idő előrehaladtával.Debuggolni néha drága.
Ez a cikk nem említi, de úgy tudom, hogy a vezérlőszoftver egy
bizonyos feltételezéssel élt az elérhető maximális gyorsulással
kapcsolatban, amiért egy adott kivételt nem kezeltek (mert nem
kerülhet rá sor, felkiáltással: Ariane-4-en nem is került, de az 5
egy picit erősebb vas volt). Most nincs időm utánakeresni, de
"mókás" a történet, bár sajnos tökéletesen OFFtopik.Btw. abban egyetértek veled, hogy ha 60 képkockát jelenít
meg a monitor, akkor annak alapvetően elégnek kell lennie,
és általában elég is (nekem ha Vsync mellett stabil a 60, az
tökéletes). "Extrém esetekben" viszont a Vsync input laget
okoz, ami miatt más lehet az irányítás érzése: más lehet a
játékélmény. Nem (csak) a frissítésekről van itt szó, hanem
a virtuális világgal való interakcióról. Részemről téma lezárva.
Győzködni másokat nem érdemes, mert ha meg is értik, hogy
van különbség 30 és 60 közt, attól még nem fogják azt látni... -
dokar
addikt
válasz
Bluegene #7374 üzenetére
A szem folyamatosan lát, nincs benne analóg/digitális jelátalakító
, de amikor szakaszos a beérkező információ, akkor azt kiegészíti a legjobban megfelelő tárolt adattal. Legjobb példa erre, hogy nem veszed észre, amikor pislogsz. Furán hangzik, de a látáshoz hozzátartozik a tárolt emlékekkel való összevetés. Minél folyamatosabb a beérkező információ, annál kevésbé szükséges a kiegészítés/összemosás. A legfolyamatosabb dolog pedig egy állókép.
-
-
leviske
veterán
válasz
Bluegene #7363 üzenetére
Az alsó és középkategória rövid időn belül le lesz zárva az nVIDIA számára, miután jön 2011-ben a Fusion és az első komolyabb Larrabee. Az ION valószínűleg ezzel meg is szűnik, hacsak nem fog össze az nVIDIA és a ViA. (Bár mondjuk a ViA-ék helyében bemutatnék a zöldeknek és maradnék a saját chipset/CPU/GPU párosaimnál, ha már vannak és az nV egyszer már cserbenhagyott)
Az meg eddig is világos volt és egyben beszédtéma, hogy az nVIDIA ezzel még nem megy csődbe, csak átcsoportosítja az erőforrásait a Tegra és Tesla irányába.
Az X2 nem létére meg emellett az árazás mellett lett volna realitás, de az AMD már prezentálta az ütemtervét és az alapján jönni fog az X2... (Fura mód úgy lehetett kivenni, hogy $500 alá)
-
Drizzt
nagyúr
válasz
Bluegene #7093 üzenetére
Miért? Az R600 idején is túlélt az ATI, pedig az aztán lassabb, melegebb, nagyobb fogyasztású volt, mint a konkurens.
Az Nv tuti nem lép le a piacról még jó ideig, már csak preztízsből sem. Innen a nevük, ezzel vannak azonosítva, kell még idő, mielőtt videokártya gyártása nélkül meg tudnának élni(nem mellesleg nagyon valószínű, hogy nem is akarnak.).
Meg ez az 512 SP se mond sokat. Ki tudja mennyire lesznek más Sp-k azok. Majd kiderül. Én kivárok, max. novemberig, Dragon Age Originre új kártyát akarok.
-
TTomax
félisten
-
leviske
veterán
válasz
Bluegene #6899 üzenetére
Jaj, már el is felejtettem, hogy veled milyen frankó vitázni. Csak, hogy prezentáljam, hogy mennyire ragadtad meg a mondanivalóm az első idézettel:
"most"
Még meg sem jelentek.Jó lenne, ha a HD4800 részt is meglátnád a két szép kis szemeddel.
Az RV770-nél volt egy igen erős fordulat. Semmi értelme nem volt olyan alul árazott kártyákat kiadni.
Jobb helyzetben meg most sincs az AMD. A HD4800-asok idején a DX10.1 volt technológiai előny, most a DX11 lesz. Ettől a technológiai előnytől nem tűntek el a GeForce-ok. Márpedig az AMD-nek még mindig az a lényege, hogy kitúrja az nVIDIA-t.
Amúgy,meg az i7-es példa eléggé sántít. Attól a 8ezer forinttól szerintem távol van egy i7. Arról nem is beszélve, hogy nem a processzorok, hanem a körítésük van túlárazva. Erre a 100 vs 1 vevő témára meg annyira ráizgultál.. hihetetlen. Tudnám, hogy akkor hogy a frászba érte meg az AMD-nek olcsón adni a cuccait, hiszen akár milliárdos árat is kérhetett volna egy-egy Agena-ért és R600-ért. Erre ez az idióta inkább olcsóbban adta és még rá tett egy lapáttal a 2-3 magos CPU-k árával és a PRO-val.
Mind1, a továbbiakban tényleg lezártnak tekintem a dolgot, mert nincs kedvem a hozzászólásaim részleteit külön megmagyarázni...
-
WesTM
őstag
válasz
Bluegene #6897 üzenetére
Én más oldalról közelíteném meg a problémát.
Az addig oké, hogy a kártyák teljesítménye rohamosan nő, évente duplázódik. Természetes fejlődés. De nézzük meg a másik oldalt.
Játékfejlesztő részről viszont úgy veszem észre semmi nem történik, erőforráspazarláson kívül. A silány minőségű konzolportok kedvéért szvsz. teljesen felesleges a gépet fejleszteni, mert azt a színvonalat egy normális átírással töredéknyi hardware-el el lehetne érni.
Ideje lenne a játékfejlesztőknek kiaknázni a vga-ban levő lehetőségeket, és nem egyre pocsékabb kódokat írni...
Mintha a crysis óta megállt volna az idő. Úgy gondoltuk grafikai forradalommal állunk szemben, amiből végül semmi nem lett, 1 évben megkapunk 2-3 TÉNYLEGESEN JÓ játékot, és 20-30 pocsék, sablonos, OPTIMALIZÁLATLAN vacakot. Fájó valóság de ez van.
Nagyon jó dolog, hogy az ATi végre magára talált, és ütőképes dolgokkal tud előállni, ez dicséretes, de akkor elvárható lenne a játékfejlesztői oldalról is ennek viszonzása.
Ne azért fejlesszen már a felhasználói közönség vga-t, cpu-t, hogy nekik még annyit se kelljen foglalkozni az optimalizálással... Port--->jóvanez--->forgalmazás-->felhasználó fizet az új hardwareért. Ennek nagyon nem így kéne lenni.remélem a dx11 el változás fog jönni, de a dx10 utáni kellemetlen tapasztalatokból kiindulva nem vagyok ebben sem teljesen biztos.
-
leviske
veterán
válasz
Bluegene #6897 üzenetére
Hagyjuk a témát. Nem vagyok annyira idióta, hogy a magyar viszonyokhoz mérjek bármit. Az eddigi Radeon politikára alapoztam a mondanivalómat és nem tudsz meggyőzni a humbugoddal.
Megjegyzem, gazdagabb országokról úgy felesleges beszélni, hogy millióan kerültek utcára a 2008-ban és 2009-ben a válság miatt. Nem hiszem, hogy pont most akarnak majd az emberek drágább videokártyákat venni.
Azt meg külön elmagyarázhatnád, hogy a HD3800-asokkal megkezdett árpolitikát akkor kik javasolták az AMD-nek, ha nem a témában jártas szakemberek?
Mind1, mi ketten aztán főként hagyjuk egymást, mert semelyikőnk sem egy könnyen meggyőzhető típus. Várjuk meg a tényeket, azoknak már mindketten hinni fogunk.
-
Fidel76
tag
válasz
Bluegene #6742 üzenetére
Árakról nem nagyon érdemes vitázni, főleg nem az itthoniakról mert amit pld itt megkapsz 100kért azt már lehet megkapod UK-ba feléért(vám sincs, mondjuk gari is problémás) és 1 kis 10esért lehozzák neked házhoz.[link](Én még nem probáltam, nekem is ajánlották. Gondolom telefonon mindent elmondanak)
kb azon az áron megtudod venni ami nálunk lesz fél év múlva.
Lehet, hogy csak nekem tünt fel de pld LG most jelentette be a káva nélküli 200hz-es tvjét ugye ami jó 3d-hez is elméletileg. AMD/ati meg a több kijelző felé probálja terelni a dolgokat az új szériával.Samsung,sony,pana is rendelkezik hasonló cuccokkal vagy ilyeneket fognak piacra dobni hamarosan. Lehet nem is 30"-os monitorba kelle gondolkozni hanem 3x 32" full hd káva nélküli tv-be amik szerintem jó fél év múlva 100kért vagy olcsobban megvehetőek(ha nem is nálnuk.
1 monitorhoz most kb felesleges az 5ös széria, ahogy írtad, de ha már akarsz 1 kis + élényt 2-3 kijelzővel ami valjuk be nálunk olyan "nagy" dolog máshol nem. Van 1 gyanum, hogy atiéknál nem Mo. és az itt élők volt a célterület amikor kitalálták a több kijelzős dolgot 5ös szériánál -
#72042496
törölt tag
válasz
Bluegene #6726 üzenetére
Lehet nekem van valami ficamom, de a minőségi játékhoz nálam hozzá tartozik a kussban levő gép, a full grafika, a normális térhang és egy 30-40" körüli kijelző. Illetve egy frankó kormány, mert leginkább autóversenyzem. Az a baj, hogy az első kettőt jelenleg nem lehet összeegyeztetni, s úgy látszik ez az 58xx szériával sem változik. Külön szerverszoba kellett volna a lakásba, de akkoriban még nem gondoltam ilyenre.
-
luw2win
őstag
válasz
Bluegene #6726 üzenetére
Engem is anno 5 évig kiszolgált a 6800GT, és anno 120k-ért vettem, és mire fejleszteni kellett vna addigra el tudtam volna adni 5-6k-ért, olyat meg nem teszek...
És megfogadtam h minden évben veszek egy középkategóriát, mire mérséklődik az ára, azt eladom rádobok egy 10-15k-t és van egy 2x jobb kártyám.
Természetesen lehet így is bukni.Amúgy egyetértek teljesen, mert engem is teljesen kiszolgál egy 4850, felesleges újítani, csak pl már 1 év mulva nem tudom olyan jó pénzért eladni mint most.
Ez az én véleményem -
Ricco_hun
senior tag
válasz
Bluegene #6726 üzenetére
Senki nem mondta, hogy váltsál egy HD4850-ről, csak te hangoztatod itt, hogy így meg úgy kihagyod ezt a szériát, sőt a következőt is.
"a mostani gépem mindent visz az 19-es 1280as monitoromon, mindent ultra high-on"
Crytek fórumtárs erről másképp vélekedne. Neki egy HD4870X2 is kevés erre a felbontásra. -
gyiku
nagyúr
válasz
Bluegene #6704 üzenetére
marciusban adtam el a 2600xt-t, vartam a 4770-re. vettem egy 4850-et, de gari, es money back, igy kihagytam kihagytam a 4es szeriat. most mar akarok vmit, szal nem hagyok ki semmit. ide az 5770emet
TTomax-al es Westlake-vel nem erdemes vitatkozni, zold ver folyik az ereikben
-
keIdor
titán
-
Departed
őstag
válasz
Bluegene #6577 üzenetére
Pontosan, jók ezek a 4850-esek FullHD alatt.
Hát igen, a süvítés jó kérdés, én amúgy azt nem igazán tudom megérteni, hogy miért nem tesznek lehető legnagyobb elférő ventit a kártyákra. Ennek a ref-ventinek is könnyen lehet, hogy hangosan kell pörögnie, nem létezik hogy fizikai oka van (esetleg van körülötte hőcső vagy borda), hogy ilyen kicsit tesznek rá.
Vagy kötelező a refhűtőnek gyengének, cserélendőnek, újratervezendőnek lennie? -
M@trixfan
addikt
válasz
Bluegene #6545 üzenetére
Még mindig 1080p projektor egységes képpel. Nade egy 5870 meghajt 6 monitort natív felbontásban? Nem natívan meg már megint nem sok értelme van.
Apple már megint tudta előre a DisplayPort-ot. Ment a WTF, hogy mi a rák ez, közben szépen lassan kijött vele a többi gyártó is.
-
csatahajós
senior tag
válasz
Bluegene #6072 üzenetére
Azt mondod ez csak a prototípus álcája?
Különben a hátlapi takarólemez elég masszív, szóval az Nv féltéglák után mostmár jönnek az Ati féltéglák is.
Más, újabb info a Trilian-ről is.
25-40% pluszról írnak, kérdés, hogy mit értenek jelenlegi generáció alatt
(ha az X2-t akkor nemrossz, ha egy rv 770-et akkor elég gyenge).
-
janos666
nagyúr
válasz
Bluegene #5659 üzenetére
Lejárt a szerkesztés: Nem, az kizárt, hogy telefonnal fényképezték, ahhoz túl kontrasztos, túl jó a fekete, és túl éles is. Ha egy monitort, vagy egy vetítővásznat fényképeztek volna, még az is rögtön lerína róla, rendes fényképezőgéppel is, nem hogy mobillal...
Ez inkább egy PDF-ből lehet kivágva, az eltérő színű pixelek pedig nem az eredetiséget igazolják, hanem azt, hogy többször újrakonvertált, veszteségesen tömörített kép. (megrajzolták, átméretezték, konvertálták, kivágták, megint konvertálták...) Ez a JPEG-artifact.
Ha eredeti, akkor az eredeti forrásanyagban egyforma színüek az egyforma SP-k pixelei. -
zuchy
őstag
válasz
Bluegene #5654 üzenetére
A GT300, vagy a Fremi kb GTX295 szint lesz szerintem. Annyit meg tudnak csinálni.
Na de, ha jönnek a valódi DX11-s kódok, akkor az ATi előnyben lesz az Nvidiával szemben.
Az ATis srácok már régen nem a DX9-re gyúrnak, szóval lehet hogy egy régebbi kód alatt hoz, tegyük fel az RV770-re 40%-ot. De egy modern DX11-s render alatt meg hoz teszem azt 100%-ot.Ez a topik még a megjelenés előtt is találgatós, hihtetlen, hogy semmi konkrétum nincsen. Talán az az 1600 SP-s AMD-s prezentáció. szvsz. Az elég korrektnek tűnt, bár én nem vizsgáltam meg közelebbről, de gbors megtette, és nem nagyon talált hasonlóságot az RV770-hez képest...Csak úgy meg összerittyenteni nem egyszerű egy ilyet jól. Mert nem akadt semmin meg a szeme gbors-nak.
(#5655) gbors: Legyen úgy.
-
Ricco_hun
senior tag
válasz
Bluegene #5654 üzenetére
Hát, ha a +60% és a 299$-os (valaki még 399-et is említett) (ami tudjuk, hogy magyarisztánban inkább 299 ojró) ár realizálódik, akkor nemhogy agresszív lesz az árazása, hanem kifejezetten drága lesz. A középkategóriát megint felviszik a 80-90 ezer forintos ársávba, fasza
. Ez legyen a legrosszabb forgatókönyv, de van egy olyan érzésem, hogy nagyobb a füstje, mint a lángja, ez most nem fog akkorát durranni.
Úgyhogy sniperelite tessék megnyugodni, elég sokáig még a 2db HD4870X2 lesz a csúcs. Egyébként nem is értem, miért nem Evga classifield-ben és 2db GTX295-ben nyomulsz, vagy annyira rosszul skálázódik (janos666, itt mit használjak a skálázódás szó helyett?) a quad-sli, hogy gyorsabb a 2db X2? -
leviske
veterán
válasz
Bluegene #5619 üzenetére
Miután a DX10-en alapú játékokat elvileg könnyű DX11-essé skálázni, ezért inkább mondjuk azt, hogy a DX10/.1 dömping szépen kimarad és a DX9/10 játékok után jönnek a DX11-esek.
A DX11 esetén szvsz felesleges 2-3 éves elterjedést prognosztizálni, miután a DX10-es kártyákon is butítva, de elszaladgál... És jó eséllyel elterjedtek már a DX10-es kártyák annyira, hogy ebből a szempontból ne hátráltasság a fejlődést.
A DX10 elterjedését pont az lassította, hogy a DX9-el nem volt kompatibilis. Ilyen helyzet most nem áll fenn.
(#5614) Abu85: Tehát akkor azt nagyon benéztem, hogy perfomance (és fölött) kategóriában megmaradnak a diszkrét GPU-k?
Bár régebben már beszéltél erről... A szoftver render előtt gondolom ez azért nem nagyon fog bekövetkezni, nem? Mikorra várhatók felsőkategóriára méltó Larrabee szerű megoldások? 2015? Később/hamarabb?
-
válasz
Bluegene #5619 üzenetére
Háát, laikusként azt mondom, hogy azért, mert minden, ami fix egységekkel műxik, az behatárolja a fejlesztőket. Persze, ettől valószínűleg könnyebb is kezelni, de ha van elég fejlesztési powa, akkor már jól jön a nagyobb szabadság pl. ray-tracing, a voxel-es cucc, de szerintem tuti, hogy a későbbiek folyamán előjön ezeken kívül még jópár eljárás, amik után nem szaladhat folyton a DX. Szélesebb paletta, több lehetőség.
Szerintem: Aki nem akar majd saját felépítésű render motort írni, az még tuti használhat majd OpenGL, vagy DX motort is. Szerintem lesznek hatékony megoldások - jól optimalizált DX/OGL emulátor, vagy előre legyártott, olcsón használható sw render motorok (ID Tech, UE, stb.).
-
cowboy_bebop
őstag
válasz
Bluegene #5463 üzenetére
"bármimkor fordíthat, ha akar, hisz tehetséges emberek vannak ott"
Nem értem, mire gondolsz. A pletykák szerint a 40nm-es GPU-juk is G80 alapú lesz. Nagy chip, nagy fogyasztás, nagy ár. Az AMD megszorongatásához árat kell csökkenteni, de már nincs miből, már most is csak minimális hasznuk van egy-egy GeForce-on.
-
cowboy_bebop
őstag
válasz
Bluegene #5461 üzenetére
A "minél gyorsabb" szvsz. nem egyelő a "most"-tal.
Szerintem senki sem beszélt itt arról h. az NV 64%-kal fog kivonulni a piacról.
Az RV870 után lesz ez 50%, a köv. gen. után 40%, utána 30%, végül 20% környékén biztos belátják h. ez nem való nekik.De ki tudja, lehet h. a mélyben egy titkos NV GPU készül, és fordulni fog a kocka.
-
Mackósajt
senior tag
válasz
Bluegene #5433 üzenetére
Tény, hogy az idézett statisztika darabszám alapú. Lehet, hogy a drágább kártyákban jobban áll az AMD, és az nVidia eladások főleg a csillió GByte DDR2-t tartalmazó olcsó kártyákból állnak, de nem hinném, hogy a felsőbb szegmensben fordított arányok lennének, legfeljebb kiegyensúlyozottabbak. De a lényeg, hogy a részesedés még mindig túl kevés a technológiai trendek keresztültaposásához, amit szeretnének.
Valamint az elmúlt 2 évben rengeteg hurráoptimista piaci jóslat szállt el itt a levegőbe. Csak remélni tudom, hogy az 5000-es széria színrelépésekor tényleg nem fogunk hinni a szemünknek.
-
leviske
veterán
válasz
Bluegene #5195 üzenetére
Attól függ, hogy nézed. Ha RV870 = 2x RV840, akkor csak egy darab egyszerűbb chipet kell megtervezni és legyártani. Teljesítményben sem veszítenének sokat, ha egyáltalán veszítenének. És így legalább megvolna a komolyabb teljesítménykülönbség és nem lenne akkora kavarodás, mint a HD4700 és 4800-asok közt.
Amúgy a nevezéktanról már szivárgott ki valami? Mert ha jól rémlik, valaki írta, hogy a CPU-k számozását veszik át.
-
TESCO-Zsömle
titán
válasz
Bluegene #5179 üzenetére
Igen, olvastam. Azt se több egy akármilyen hűtőről készült képnél, amire rányomtak egy bepasztázott akármekkora négyzet alapú valamit. Ilyet akár krumlival is tudok csinálni, csak mond meg mekkora chipet szeretnél, akkorát faragok.
Nem hivatalos infóra nem illik támaszkodni, mert nagyot eshet az ember...
Aktív témák
Hirdetés
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Mibe tegyem a megtakarításaimat?
- Eredeti játékok OFF topik
- Nvidia GPU-k jövője - amit tudni vélünk
- Spórolós topik
- exHWSW - Értünk mindenhez IS
- Linux kezdőknek
- Elden Ring
- Megjelent a The Last of Us Part 1 PC-s kiadása
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- További aktív témák...
- Samsung Galaxy S23PLUS 256GB Kártyafüggetlen 1Év Garanciával
- BESZÁMÍTÁS! MSI B460M i5 10400F 32GB DDR4 512GB SSD RTX 2060 Super 8GB Zalman S4 Plus TT 500W
- Huawei P20 Lite 64GB, Kártyafüggetlen, 1 Év Garanciával
- Bomba ár! Dell Latitude 7280 - i7-7GEN I 16GB I 256SSD I 12,5" FHD Touch I Cam I W11 I Garancia!
- Fém, összecsukható és kihúzható fotó állvány eladó
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest