-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
#85552128 #12085 üzenetére
Valószínű. A DX12 támogatása a Frostbite alatt nem nagy költség.
A Vulkan base specifikációja augusztusban le lesz zárva. A kiterjesztések még nem, de azokat a DX12-ben sem zárják le nyáron. Nem véglegesített kiterjesztesek nélkül is lehet programot szállítani. Azok amúgy is nagyon extrák.
Ha nem használják a Mantle extráit, akkor azt nincs értelme szállítani Vulkan mellett.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #12071 üzenetére
A low-level az Vulkan, Mantle és DX12.
A Frostbite-ról jelen pillanatban úgy tudom, hogy nem rendelkezik DX12 porttal, de Mantle-lel és Vulkánnak már igen. Azt nem tudom, hogy DX12-t valaha is beépítik. Igazából a Vulkan mellett számukra nem szükséges, de persze lehetséges. Igazából ők még az Apple Metálra is lőnek, szóval a DX12 többletköltsége három low-level API alapvető támogatása mellett nem tényező.
Az 2016H1 belefér az MS által vizsgált időkeretbe.
2016 Q4-re akarnak minimum szinten WDDM 2.0-t. Azt a GPUMMU és az IOMMU miatt akarják és nem az API miatt. Főleg az IOMMU kell nekik, hogy az IGP-ket tudják dolgoztatni. -
stratova
veterán
válasz
#85552128 #12071 üzenetére
Újfent megjegyezném, hogy változatlanul nyitva áll ilyen vitára az NV vs. AMD topik. De ha kimondottan a nyelvköszörülés esik jól egyeseknek, vélhetően a konkurens gyártó OFF topikja is megfelel erre.
Az ilyen vitáknál még a konkurens kártya megjelenési idejének és árának OFF megjegyzése is SOKKAL jobb, mert iránymutató lehet az árazásra nézve (ha már találgatós).Magához a kártyához esetleg a palettához ugyan kapcsolódhat a téma, de éppen az API-król és driverekről ment a diskurzus a vs.topikban, így oda sokkal jobban illik ez a vita.
-
-
Bigemperor
senior tag
válasz
#85552128 #11987 üzenetére
Nem, a magasabb zaj sem jobb megoldás, de nem morgolódok tovább. Tudom, vízhűtés, etc.
Részemről nem ragozom tovább.
Ami ON: Már nagyon kíváncsi vagyok azért az új 3xx és csúcskártyára, na meg az áraikra főleg.
Nemrég egy 7970 GHZ Ed-t eladtam, addig bizti nem veszek másikat, amíg ezeket nem láttam. -
Bandi79
aktív tag
válasz
#85552128 #11985 üzenetére
Erre a mondatra reagáltam: "a hőfokok nekem még mindig kicsit magasabbak, mint ami ma elvárható lenne."
Arra akartam rávilágítani, hogy a TDP-hez illő hűtésekkel (Vapor-X, Lightning, PCS) a 290X is hűvösen tartható.
A DC2, MSI Gaming (ref
) viszont max elégséges osztályzatot kaphatnak. Tri-X egy jó 4-es
-
Bigemperor
senior tag
válasz
#85552128 #11983 üzenetére
Ez lehet csak az én véleményem, de számomra hihetetlen, hogy 80+ fokokon kell mennie egy kártyának komolyabb terhelés alatt. Nanehogymá. Értem én, hogy bírja, meg minden, de szerintem lehetne ez azért alacsonyabb is a mai technikai szinten. Engem jobban zavar, mint hogy 3,28W-al többet fogyaszt valami.
Őszintén szólva sosem értettem, miért jó az, hogy elbírja a 90 fokot is, stb. Nem gondolnám, hogy ez korrekt, üzemszerű működésre vall és biztosan nem tesz jót az élettartamnak, de tudom, tervezett avultatás és hasonló összeesküvés-elméletek.
Ezzel be is fejeztem, csak hihetetlen, hogy egyre magasabb hőtermelést egyre furább (6 km hosszú, sokventis) megoldásokkal "orvosolnak".
-
Crytek
nagyúr
-
Malibutomi
nagyúr
válasz
#85552128 #11971 üzenetére
Magyarul meg mindig csak talalgatas van.
AMD is expected to unveil its "Fiji" based high-end graphics card at E3 (mid-June, 2015)
Expected.....
A lenyeg egyebkent azon volt hogy mar reg lehetett tudni hogy nem a computexen startol a 300 szeria, miert olyan nagy huha hogy most ez az uj hir hogy nem ott mutatjak be? Csak errol szepen atterelodott a tema fijire.
-
stratova
veterán
válasz
#85552128 #11957 üzenetére
Legfeljebb léghűtőre most nem egyetlen pörgettyűt tesznek, hanem az OC kártyákhoz hasonlóan 2-3-at.
Sapphire R9 290X Tri-X OC: 8+6pin 253 peak 316 max
PowerColor R9 290X PCS+: 8+6 pin 274 peak 317 max
MSI R9 290X Lightning: 8+8+6pin 293 peak 386 max
ASUS R9 290X DCU2 OC: 8+6pin 251 peak 412 maxVolt már AMD-nek is 3 ventis ref. hűtése, igaz a 2 GPU-s 7990-en
AMD HD 7990 6 GB: 8+8 pin 313 peak 347 max
Powercolor HD 7990 6 GB: 8+8+8 pin 304 peak 551 max -
stratova
veterán
válasz
#85552128 #11935 üzenetére
Egyébként a jelenlegi asztali Tongát a fene sem érti:
HD 7950 (800 MHz 28 CU) peak 149 W (TDP 200 W)
R9 285 OC (965 MHz 28 CU) peak 207 W (TDP ? ~200, 190 lenne 918 MHz-en)
R9 M295X (800 MHz 32 CU) TDP 125 W
[ez még akkor is komoly eltérés ha a mobil lapkát válogatják és alacsonyabb órajelen jár]Szaby59: Szép lista látom adtatok neki rendesen.
Bár a bios tweaker-es móka, már bőven kívül esik a gyári konfiguráción.
Hogy képzeli ez az Asus, hogy a 148 W TDP-s Strix kártyát gyárilag nem engedi 225 W-ig bios-mod nélkül. -
stratova
veterán
-
Abu85
HÁZIGAZDA
válasz
#85552128 #11895 üzenetére
Szerinted számít? Egy csomó élőlény LOD-határon kívül van.
A TressFX-nél érthető a teljesítményigény. Ott a forráskód az AMD oldalán. Benne van az OIT PPLL adatstruktúrával, ami baromira nem olcsó, de ez adja a minőséget. Az ilyen vékony geometriák gondja, hogy baromira nehéz a sorrendjét meghatározni a hajszálaknak. A normál átlátszóság nem is működik, ezért alkalmaz a TressFX sorrendtől független átlátszóságot, és az effekten belül ez viszi el a teljesítményigény 60-70%-át. Viszont a HairWorks a példa rá, hogy enélkül az eredmény gyenge.
Senkit sem érdekel a hardverek sorrendje. Az érdekel mindenkit, hogy miért 20-30% a HairWorks teljesítményigénye, amikor 5-10% deficitből megcsinálható ugyanez.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #11890 üzenetére
Nem érted. A HairWorks minőségi szintjének valós teljesítményigénye nem több 5-10% veszteségnél. Nincs benne OIT, látszatra önárnyék sem, rossz az AA, stb. Egy szót nem szólna senki, ha úgy nézne ki, mint a TressFX, de nagyon messze van tőle. Viszont mesterségesen fel van tolva a geometriai munka, amely átmegy a teljes pipeline-on. Semmi különbség nincs a 16x és a 64x tesszellálás között, és előbbivel az egész effekt csupán -5-10%-ba kerülne. Mi értelme a 64x módnak, ha semmit sem ad hozzá a minőséghez, de a teljesítményigényt -20-30%-ra növeli? Ez az amire senki nem ad választ. A CD Projekt csak azt mondja, hogy nem tudják befolyásolni a működést. Ezt még el is hiszem nekik, így az általános kérdést inkább az, hogy mi értelme van mesterségesen növelni a gépigényt?
-
Abu85
HÁZIGAZDA
válasz
#85552128 #11882 üzenetére
Az a baj, hogy ha leveszed 16x-re a tesszellálást ugyanazt kapod, és a teljesítményvesztés nincs 10% sem. Ha olvasod a Redditet, akkor ez zavarja leginkább az NV tulajokat, hogy ők rá vannak kényszerítve az eredeti 20-25% körüli deficitre valójában a semmiért. Engem is zavarna, ha csak egy gyártó önkényessége miatt egy effekt 5-10% helyett 20-30%-ba kerülne, miközben ennek azon kívül semmi értelme, hogy jól lezabálja a teljesítményt. Borzalmasan rossz irányba viszik ezzel a PC Gaminget.
A számok senkit sem érdekelnek. Az a fontos, hogy egy alapvetően -5-10%-ba kerülő effekt teljesítményigényét -20-30% közé tolták mesterségesen. Ez a mélypont a rossz ötletek tárházában. Nagyobb arculcsapás a PC-s piacot nem is érheti.
-
Yllgrim
őstag
válasz
#85552128 #11882 üzenetére
Igen, kb +- 0.5 FPS-el oda vissz, ne nevettesd ki magad kora reggel, ~44 FPS magassagaban 1-2 FPS nem szamit, ha 100 FPS magassagaban vitatkoznank 20 FPS kulonbsegrol akkor azt mondanam jogos
Ne linkelj semmilyen oldalt, nekem 290X-em van, havernak 970-e uh osszehasonlitottuk rendesen
A lenyeg hogy el lett b'szva, mint a 3XX-es sorozat a jelenlegi informacio morzsak alapjan, ha az egesz egy rebrand (ujra) akkor lenyegeben nem sikerult meggyozni hogy onnan vegyek kartyat, meg van par hetuk bizonyitani, bar ahogy elnezem...
-
TESCO-Zsömle
titán
válasz
#85552128 #11848 üzenetére
Ezt is meg lehet fordítani. Akkor az jó volt az nV-seknek, most ugyanez miért baj a vörösöknél?
Ha a 20nm nem ből be, már idén kihozták volna azon. Az egész lineup-nak az lett volna szvsz a motorja, az lett volna hivatott a kötelező -alap- 10-20%-ot hozni. Most ez nincs és marad a csiszolgatás/órajelnövelés...
-
Malibutomi
nagyúr
válasz
#85552128 #11834 üzenetére
Orajellel nem tudom mit akarnak csinalni, max a kiforrottabb gyartast tudom elkepzelni, esetleg apro fesuleseket a gpu-n ha nem lesz GCN 1.2. Vagy ha atvittek a GloFo-hoz a gyartast, de nem hiszem hogy ezt megtettek. A 980Ti leakben csak 5% orajel emelest irnak ezekhez, de a gyosrulas nagyobb aranyu ennel.
A hutes nem gond, 1150-en is meg siman le lehet huteni. egy 290X-et...ha a gyartok nem szorakozzak el megint a huteseket. -
Malibutomi
nagyúr
válasz
#85552128 #11820 üzenetére
"Az nV is szépen készül a Pascallal csendben a háttérből és közben kiszolgálja a jelenlegi tömeget is és szinte már most garancia, hogy az új architektúra+gyártástech+hbm2 megint legalább úgy fog ütni mint tavaly a Maxwell..."
Csak ott nem lesznek elonyben, mivel a 14nm-re az amd is hoz egy teljesen uj sorozatot, sot hbm teren az amd-nel lesz az elony. Az a tippem hogy mivel mindket gyarto erre keszul, nem lesz nagy elteres idopontban, mire felfut a gyartas mindjetten keszen lesznek a startra. A hosszu 28nm idoszak utan most jon egy reset kb.
-
-
Abu85
HÁZIGAZDA
válasz
#85552128 #11791 üzenetére
Nem feltétlenül szükséges számukra új GPU. Azok a technológiák, amelyekre szükség lesz low-level API-val, már 2012 elején bekerültek és ott vannak a hardverekben. Valószínű, hogy a tervezésnél az AMD eldöntötte, hogy a telefonpiac úgy sem érdekli őket, így előre kitömték a rendszert, hogy 2015-ben is működjön. Ezért van benne sok regiszter, skalár processzor, nagy LDS, gyors belső busz, stb.
A többiek nem gondolkodtak ennyire előre, mert fontos volt valami más piac is, vagy nem számítottak rá, hogy szoftveresen ennyi újítás lesz három év alatt. -
TESCO-Zsömle
titán
válasz
#85552128 #11777 üzenetére
Azért rossz az összehasonlítás, mert a 2xx-ek valójában a 7xx-ek ellenfelei. A 970-es igazi ellenfele a 380-as vagy mifene lesz, mert már nem igazodok ki a számozáson... Durva is lenne, ha a 970-es nem verné így a 290-et, tekintve hogy 1 év van köztük. De általánosságában az a tapasztalat, hogy a piac elfogult az nVidia javára és ezt a negyedéves értékek is mutatják, mert akkor is a zöldeknek áll a zászló, ha nincs számottevő előny egyik oldalon se, vagy ha épp még hátrányban is vannak.
Fiji XT a Titan X ellen, a PRO meg gondolom a 980Ti-re, de nyilván teljesítmény dönt majd, illetve nem lehet a Radeon-októl komoly előrelépést várni a 20nm befuccsulása miatt.
(#11781) Szaby59: Az nVidia meg az utóbbi 10+ évben... Mekkora lódításaik voltak, gyakran még a saját befektetőiknek is a szemükbe hazudtak...
(#11784) geresics: Mea Culpa, de amit írtam, az attól sajnos még eléggé igaz. A 3xx-től a korábban már ecsetelt okokból sok jót nem várnék azon túl, hogy kicsit lenyomja az előző szériák árait.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #11771 üzenetére
Abból a szempontból a fejlesztők hibája, hogy egy ilyen konstrukciót választottak. Nem véletlen, hogy a top fejlesztők szerint ez az egész GameWorks úgy ahogy van bullshit. De persze nyilván nem pisztollyal kényszeríti az NV az adott céget, hogy írják alá a szerződést, tehát valahol ez az aláíró hibája.
Már megint ez az AMD vs. NV. Itt nem erről van szó, hanem arról, hogy a HairWorks minden hardveren több sebességet igényel, mint amennyi kellene ugyanehhez a minőséghez. Kit érdekel a hardverpárosítás, ez a gépigény mesterséges növelése, ami rendkívül káros az iparágra.
Meglepődnél mennyi. Az Intelnél és az AMD-nél bevett szokás az is, hogy mérnököket küldenek a stúdiókhoz, hogy helyben megmondják mi a gond.
-
válasz
#85552128 #11771 üzenetére
meg tudják tenni, viszonylag könnyen. az nvidia itt mint 3rd party supplier működik a hairwokrsszel, leszállít a cdprnek egy új verziót, azt a cdpr felküldi a repójába, és elindítják a fordítást. aztán ha nem hasal el, kiadnak belőle egy új relanzát, és becopypastezik a relanza notesbe a saját javításaik mellé amit az nvidia küldött. nem rakétatudomány.
@TESCO-Zsömle: és ha ez mind igaz, még akkor is: szar a driver. meg béta.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #11767 üzenetére
A probléma forrása az, hogy sok felesleges munkát végez a HairWorks. Nincs semmi különbség 64x és 16x tesszellálás között, de közben minden hardveren jelentősen lassít a 64x mód. Miért van rajta? Tök ugyanaz fog lejátszódni, mint a Far Cry 4-nél. Az AMD megváltoztatja a tesszellálási faktort és a formátumot, amivel gyorsabb lesz az effekt a Radeonon, mint GeForce-on. Erre az NV is megcsinálja ugyanezt, mert az effekt minőségére ennek nincs hatása. Egyszerűbb lenne optimalizáltan kiadni, nem széthackolni a driverben a kész effektet. Aztán az is kérdés, hogy a módosítást csak a Maxwell kapja meg, mint az FC4-nél vagy most a Kepler és a Fermi is.
Ez gyakorlatilag a saját felhasználóid nagyfokú szopatása végeredményben a semmiért. Ez nagyon árt a PC gamingnek. -
válasz
#85552128 #11767 üzenetére
Az való igaz hogy a radeonok tesszelációs sebessége nem valami jó (ezt mondtam mindig is a hairworks kapcsán is), de akkor miért is kell sok olyat 64-128x tesszelációnak alávetni, aminek semmi látszólagos előnye sincs mondjuk 16x felett? Mert kész, itt máris lenne optimalizáció, nem csak radeonon, hanem nvidia-n is. És nem először vannak ilyen véletlenek olyan játékokban, ahol az nvidia "spent a lot of artist and engineering resources to help make xxx better" És mindig csak ezzel a tesszelációval.
ráadásul az az infó hogy csak limitálni kell, nem jut el mindenkihez, így marad az a userek fejében, hogy "szarazamd"
-
Malibutomi
nagyúr
válasz
#85552128 #11748 üzenetére
A fiji dragasaga relativ, ha hozza a teljesitmenyt, akkor a piachoz arazzak, ez normalis.
Az amd-nek meg annyit kellene csiszolni a GE-n hogy az is zart legyen az nv kartyakkal szemben, es akkor egyenlo talajon lennenek ilyen szempontbol az nv-vel. Szerintem hulyek hogy ha az nv ugy jatszik a zart gameworksel ok nem.
-
-Solt-
veterán
válasz
#85552128 #11709 üzenetére
Megkérdezték, meg is mondtam... annyi történt, hogy nem értettük miért szar a kontraszt arány... amikor megjött a magic driver, akkor már értettem. Fel sem merült bennem, hogy ennyire alap dolog nem alapértelmezett. Lehet, hogy ez neked nem zavaró, de nekem az volt, és nem csak a kidobott ezrek miatt, hanem a macera miatt... szétszedni, odavinni, idő, stb...
Látod megint ott vagyunk, hogy egyiken ez szar, a másikon az, a kérdés csak az, kinek mi a zavaróbb, kit milyen hiba érint személyesen.
Nálam működött a kártya sztárolt funkciója...
Ja és most derült ki, hogy nálam hardver hiba a BS... a TrueAuido driver felrakása után jön a BS, ami azért van, mert a gyári órajelet így már nem bírja az a blokk, ergo mehet is vissza garanciába.
(#11710) schawo: A GTX780-hoz kellet kétszer kalibráltatnom, mert amikor kijött a teljes RGB támogatás, teljesen mások lettek a színek...
-
-Solt-
veterán
válasz
#85552128 #11707 üzenetére
Eltúlzom?
Kalibráltathattam újra a monitort... fel sem merült benne, hogy egy ennyire alap dolog szépen sunyiban el van kussolva!
Most ezt a ZeroCore dolgot nem vágom... emlékeim szerint a fórumon azt írták, hogy ha kikapcsolod az alvó módot, hibernálást, monitor kikapcsolás időzítését, akkor nem jön elő. Elég sokáig volt 7970-m, semmi ilyen gondom nem volt vele.
Ha valami nem bírja a gyári órajelet, vissza kell vinni, ennyi.
-
-Solt-
veterán
válasz
#85552128 #11700 üzenetére
Ez most megint olyan kérdés, hogy honnan nézem. A Zerocore engem nem érint, én alapból kikapcsolok minden ilyen energiagazdálkodás funkciót... pont annyiból tart, mint külsős megoldást keresni az RGB nyűgre, amire hiába van már megoldás fél éve, akkor is buktam rajta egy kalibrálás árát.
Biztos nem vagyunk egyidősek, így a hozzáállásunk is más ezekhez a kérdésekhez, de az, hogy 1.5 hónapja nem működik valami tökéletesen egy játékban, az nekem nem probléma... Nekem az a probléma, amikor befejezik egy játék fejlesztését, és benne marad olyan hiba, ami egyértelműen a gyártó sara, és mégis az AMD-re van kenve.
Az, hogy az R200 nem bírja az OC-t, megint egy olyan dolog ami nézőpont kérdése... van amelyik bírja, van amelyik nem. Az tény, hogy az NV kártyák erősebbek ebben, és azt sem értem, hogy ezt ellensúlyozandó az AMD miért nem állt elő olyan húzással ami a 6950@70 volt...
-
Laja333
őstag
válasz
#85552128 #11700 üzenetére
A Zerocore is egy elég elszigetelt hiba. Kevés embernél jön csak elő, és rendre ugyan az a GPU más gépben nem okoz problémát. Inkább kompatibilitási hiba, mint hardver, és nem is biztos, hogy az AMD sara.
Nálam is tökéletesen működik, pedig elég gyakran megy el 10 perc után a képernyő. -
-Solt-
veterán
válasz
#85552128 #11698 üzenetére
Ja, ha így állunk hozzá...
A Zerocore sem akadályoz, ha kikapcsolod a hibernálást, alvó módot...
A BS-be belefutottam én is, nálam a EZ okozza, de még nem jöttem rá, hogy ez az app mihez kell. Azt mondják a TrueAudio-hoz köthető, de hogy ez most szoftveres vagy hardveres gond, egyelőre nem tudom. Szerintem nem kizárt, hogy hardveres...
A grafikai hibák esetében én egyetlen olyan játékot tudok csak, amin idővel nem oldódtak meg a gondok... hogy eleinte miért jellemző főleg az AMD-re a grafikai hiba játékokban, az megint külön parázs vitatéma lehetne.
-
-Solt-
veterán
válasz
#85552128 #11678 üzenetére
Ilyet én is tudok mondani... a teljes RGB támogatás vajon mióta hiányzik az NV driverből? Sokaknak ez biztos nem gond a TN panel előtt, de én konkrétan egy kalibrálást buktam vele, tehát nem csak kellemetlenség, hanem anyagi kár ért miatta... Ezen kívül a zsír új 780 fél évig szívatott azzal, hogy DP kábel használata esetén hidegen nem volt hajlandó elindulni a monitor... áramtalanítani kellett az egész gépet, és csak utána adott képet. Aztán ki tudja melyik driver megoldotta... egyszer csak azt vettem észre, most már jó.
Ilyen példákat pro és kontra reggelig lehetne sorolni, de ezek még mindig nem indokolják, hogy az egyiket vagy a másikat felül értékeljük, illetve, hogy a másikról kijelentsük, hogy szar. Főleg annak fényében,
A grafikai hibák jelensége megint több napos vitatéma lehetne, ezért bele sem kezdek itt. A BS valószínűleg hardver hiba, ami ennél a szériánál sajnos bizony nem ritka, ez tény, viszont ez garanciában orvosolható. Ez ugye elég sűrűn hangsúlyozva van, de az már elfelejtődik, hogy például a 6950-ből simán lehetett teljes értékű 6970-t varázsolni, és így az ember jóval olcsóbban jutott az aktuális 1 GPU-s csúcshoz.
Mint ahogy elfelejtődik sokaknál, hogy az 580 milyen kazán volt... akkor az nem volt gond, most hirtelen a maxvell megjelenésével már ciki lett a nagyobb fogyasztás meg a magasabb hőmérséklet. Mint ahogy anno ciki volt, hogy az AMD havonta (NV több havonta) adott ki drivert... akkor ugye az ment, hogy azért, mert olyan szarok. Most, hogy az NV is szinte havonta jön driverekkel, ez a menő, mert hát így kell ezt... természetesen nem azért mert szarok, hanem mert kellenek az új játékokhoz.
Ha már a drivereknél tartunk. Nem tudom az NV mit bűvészkedik a háttérben a több FPS érdekében, de a 780-m az ETS2-ben több FPS-t hozott mint a 290X. Ez szép és jó, csak amíg a 780 kb 60%-s GPU kihasználtság felett nem bírta a forgó mozgás esetén tartani a fix 60 FPS-t, (fordultál, beesett 55-re, majd 1 másodperc után visszaállt) addig a 290X 90% feletti kihasználtság esetén is stabilan tartja, bárhogy rángatom a fejem (trackir), vagy forgatom az egeret!
Szóval megint ott tartunk, hogy lényegi különbség nincs... egyik ebben jobb, a másik abban, egyik itt szar, a másik ott, és egyáltalán semmi nem indokolja az "NV-t vegyél az a biztos" mentalitást...
(#11684) Asbee: Igen, én is úgy látom, hogy az NV oldalán nagyobb az elégedettség, csak azt nem értem a saját tapasztalataim alapján, hogy miért!
Bárhogy is van, ezzel nagyon-nagyon nehéz lesz bármit is kezdenie az AMD-nek, főleg, ha kitalálják, hogy nem akarnak többet olcsók lenni...
Na a DELL... én nagyot csalódtam bennük is, de ez most nem ide tartozik!
Privátban leírhatnád, ha van kedved, hogy mi az ami annyira tetszik abban a gsync-s monitorban.
-
Malibutomi
nagyúr
válasz
#85552128 #11672 üzenetére
csak ha valaki egyszer már átváltott és elégedett az aktuális termékkel/gyártóval akkor nem nagyon fog visszamenni ha nincs oka rá.
Ez meg nem lenne baj, csak ehhez jonnek meg a beidegzodesek, ami miatt az AMD (latszolag) soha nem fog nagyobb teret nyerni. Itt a: "ha az amd tenyleg erosebb kartyat hoz ki, es ugyanolyan huvos es minosegi is lesz, es olcsobb is lesz sokkal, akor talan visszavaltok" mondatokra gondolok.
-
-Solt-
veterán
válasz
#85552128 #11670 üzenetére
Csak ismételni tudom magam, én a 3870 óta ingázók a két gyártó között, semmi olyat nem tapasztaltam, ami indokolná ezt a kialakult mentalitást. Az egyik itt jobb, a másik ott, az egyiknek X driver hibája van, a másiknak Y.
Senki ne mondja nekem, hogy az normális dolog, hogy, ha AMD-vel van valami nyűg akkor szemét az AMD, ha NV-vel, akkor szemét a játékfejlesztő. Márpedig többségében ez a hozzáállás uralkodik a fórumokon...
-
-
-
válasz
#85552128 #11308 üzenetére
Annyiféle árat hallani, hogy én kivárom a megjelenést, és akkor majd kiderül mennyi is az annyi....
SZvsz. 250-300k árral számolva kár is kiadniuk, bukják a partit...Az egy dolog, hogy én nem engedhetem meg magamnak(meg nem is adnék érte annyit), de sok potenciális vevő jelöltet elveszítenek, ha nagyon elszállnak az árral..
Ha lesz jóféle vaporos hűtés, akkor beérem én azzal is, nem ragaszkodom a vízhez....
-
válasz
#85552128 #11254 üzenetére
Mégis mi lenne? Ami eddig...
Vagy az "...ugye én megmondtam....", vagy pedig a " de az csak azért van, mert..." kezdetű mondatok fognak elszaporodni az új széria sikerének függvényében....Mindig lesz valaki, aki megmagyarázza vagy zöld üvegen, vagy piros üvegen át a dolgokat....
Itt ez divat, azt elismerni hogy valami jól sikerült a konkurenciának, na az nem megy egyik oldalról sem...
-
-
hugo chávez
aktív tag
válasz
#85552128 #11117 üzenetére
Ja, PC-n? Van ugye a GCN, erre lőtték be az új API-kat konzolon és ez (lesz) az alap PC-n is (pláne a konzolportoknál). Némi optimalizációt meg minden GCN generációnál külön meg kell csinálni. Más gyártóknál ez bonyolultabb lesz. Ugye valamilyen mértékben le kell másolniuk a GCN funkcióit, különben az NV és Intel GPU-kon csak DX11.2 szinten fog futni a DX12-es (konzol low level-ről áthozott) játék, ami könnyen lehet teljesítmény, vagy minőségbünti is akár. A komolyabb multiplatform játékmotorokat meg úgy is meg fogják csinálni előbb-utóbb low levelre (kivéve a Ubisoftosakat
), onnantól kezdve meg már konzolról nem nehéz áthozni DX12-re/Vulkanra (vagy fordítva), de minden gyártó minden GPU generációjára külön kell még optimalizálni, ha megfelelő kihasználtságot akarnak mindegyiknél.
-
hugo chávez
aktív tag
válasz
#85552128 #11117 üzenetére
Mert nem könnyű alacsony szintű API-ra dolgozni. Ha pedig valóban ki akarják használni, akkor már a játékmotort is alapjaiban az API-hoz/hardverhez kell tervezni. Ehhez másfél év (vagy a devkiteket is belevéve 2-2.5 év) még nem feltétlenül elég. Tanulni kell az API-t és vele együtt a hardvert is. Ugyan nagyon sokat ki lehet hozni az új API-kkal (és megfelelő tudású hardverrel), de kell hozzá komoly hozzáértés is, jóval több, mint pl. a DX11-hez.
-
hugo chávez
aktív tag
válasz
#85552128 #11097 üzenetére
"Miért eddig DX11 volt PS4-en XO-n is ?
"
Majdnem. Az XBO API-ja a Direct3D 11.x, melynek van "magas szintű" és "alacsony szintű" kiterjesztése is. A magas szintű kb. a DX11.2-nek felel meg.
"A konzolok API-ja eddig is low-level volt, ráadásul a két HW nagyon hasonló mégsem sikerült normális teljesítményt kisajtolni belőle."
Nem. Mindkét konzolon elérhető "low level" és "high level" API is (PS4-en GNM és GNMX). És, tudomásom szerint jelenleg még a két új konzolon is nagyon kevés olyan játék/motor van, ami tényleg "low level" API-t használ. Ergo, még rengeteg tartalék van az új konzolokban.
-
válasz
#85552128 #11093 üzenetére
Nono, azért a gta-val óvatosan példálózni, iszonyat nehéz (sőt szinte lehetetlen) kétszer ugyanolyan körülményeket elérni. Feltűnt hogy az nvidia a blogjában mennyire élesnek mutatja az AMD CHS-ét (pláne a sajátjához képest), de megközelíteni nem tudtam azokat a körülményeket, amikor a felhőzet és az időjárás pont olyan hogy ennyire éles legyen az árnyék (az más dolog hogy szerintem az nv kamuzott a téren, de más területen sem sikerült azt az eredményt kihozni amit ők mutattak képen, pedig én is fullra kitolt windowsos verzióban próbáltam)
"jobb a minőség/teljesítmény mint PC-n DX11 alatt ?"
Nos van amiben igen. Pl az új infamous részecske effektjeit ilyen szinten pc-n elég drága mulatság lett volna kivitelezni (az más dolog hogy nem tudjuk kipróbálni mert nem jelent meg pc-re, de a szaksajtó ezt írja, én meg hajlamos vagyok hinni nekik). No meg pl a Tomorrows Childrenben látható cascaded voxel cone ray tracing-et sem lehet perpill még hatékonyan pc-re áthozni."még mindig jobb egy újrairt, de szebb effekt, mint egy átporlott rondább..."
Csak itt sokszor nem átportolt de rondábbról van szó, hanem simán csak máshogy paraméterezettet. Pl a mellékelt gta ábrán, nem a shading effekt miatt kisebb a látótáv, hanem mert úgy van paraméterezve a játék, hogy pc-n láthassunk messzebb, több lehessen a polygon, az effekt, stb. Ettől függetlenül maga az algoritmus könnyen lehet ugyanaz (sőt pl a gta-ban az árnyékokra tudtommal az amd chs-éhez hasonló megoldás van használva, ami messze nem szórja szét feltétlen annyira az árnyékot mint az nvidia megoldása)"Egy szimpla prev-gen port is jobban néz ki PC-n mint a next-gen konzolokon, jóval nagyobb látótér, szebb fényeffektek:"
jah perszeMellesleg a gta 5 egy 1,5+ éves játék, akárki akármit is mond. A motorjába be lett túrva egy halom szépítő effekt, de ez csak csicsa. Nem egy modern motorról van szó, amiben modern fények, feladatkiosztás, PBS és hasonlók lennének mindenhol.
Televan: én úgy tudom, az új apival a one képes lesz most már normálisabban kihasználni az ESRAM-ját. Persze nem kell ettől csodákat várni, de eddig pl ezt is nehezen tudták használni, mert a fejlesztői alrendszer nem volt képes normálisan kezelni. Ilyenek simán lehetnek a ps4-ben is, ne felejtsük el hogy attól hogy kiadták az új generációs konzolokat és bejelentették milyen feature-ökre képes a hardver, még a fejlesztői szoftver nem biztos hogy ott járt. Az is fejlődik, ahogy a dx11 is tette a 11.1, 11.2 és majd a 11.3 kapcsán.
-
7time
senior tag
válasz
#85552128 #11091 üzenetére
Nem a konzol felhasználók igényeiről volt szó, hanem arról ,hogy új API-val sem lehet szarból várat építeni.
Nem is kell, ha minden játék 60+ FPS fog futni 1080p akkor az pont elég, hogy PC -re ez kevés az nem a konzolok problémája, az a probléma hogy még ezek az állítólagosan "gyenge" címek sem futnak csak I7-GTX 980, R9-290X erőgépeken.
-
válasz
#85552128 #11091 üzenetére
nem tudom milyen a dx11-hez képest butítottnak lenni, mert ugye butítás terén leginkább a watch dogsot szokták felhozni, ami az E3-as videójához képest konzolon és dx11-ben is butított. Ezért mondtam hogy kitenyésztett E3 videókhoz képest egy dolog butítva lennie. Marad az, hogy az összes példa, ami a fejemben a butítást juttatja eszembe elképesztően gány minőségű progi konzolon és pc-n egyaránt (dying light, AC unity, stb)
"még ennyit sem kell foglalkozniuk a PC-s porttal mint eddig"
Más dolog "ennyit sem foglalkozni" a pc porttal, és megint más hogy nem kell az effektek 90%-át újraírni a pc számára. Jelenleg az az egyik nagy gond, hogy a dx11 kevés batch-el képes operálni, míg a konzolok sokkal. Éppen ezért a konzolos progik jelentős része úgy van felépítve hogy render parancs render hátán van, mikor mire van szükség, ha 10 ezer lövedéket kell kirajzolni azt lehet 10 ezer darab utasításban is kiadni (persze ez sarkított példa most). Ha valaki dx11-re is portol, akkor annak figyelembe kell vennie, hogy a dx maga nem szereti a sok batch-et, úgyhogy annak kötegelve kell odaadni egy-egy tucatot mondjuk, hogy ne omoljon össze a teljesítménye. Erre átírni vagy módosítani egy programot problémás tud lenni.Szóval a programozástechnikai különbségekből fakadó dolgokkal kapcsolatban igen, kevesebbet kell foglalkozniuk a fejlesztőknek. A felszabadult időt pedig felhasználhatják másra. Jó esetben másra fogják használni (több optimalizálás, hibák javítása, stb), rosszabb esetben semmire, de ez megint a fejlesztőkön és főnökeiken múlik, nem az apin. Az sem lenne ugyanis megoldás, hogy maradjunk akkor dx11-en, mindenki szívjon tovább heteket, hónapokat hogy megtalálja hogy hol van a probléma a programjában, írjon át sok dolgot platformok közötti átjárás közben, mert az eddig milyen f*szajól bejött mindenkinek.
A helyzet egyszerű, a JELENLEGINÉL jobb megoldást akarnak elérni. Nem mondja senki hogy ez a mindenható szent grál amitől mostantól pezsgő hullik az égből és minden problémánk megoldódik az életben. A programozási problémák egy részét oldja meg, ami sok jó fejlesztőnek fájó volt. A kontárok pedig ezentúl is kontárok maradnak.
-
válasz
#85552128 #11088 üzenetére
Mihez képest butítottat? Egy kitenyésztett E3 trailer bemutatóhoz képest igen. A butított viszont mindig relatív, pl egy Uncharted 4 vagy egy The Order 1886 ha butítva ilyen kinézetű, akkor bánja a fene
"mi lesz később"
Fejlődnek a szoftveres részek, javulnak az algoritmusok, jobban ki lesznek használva az olyan dolgok mint az esram, a HSA sőt az async shaders is, már ha konzolon eddig ne lett volna. Ez egy ideig fenntartja a fejlődést, aztán majd lelassul. Az előző gen. konzoloknál is ez volt, csak ott kíméletlenül sokáig húzták is és piacon tartották őket. Ebben ugyanúgy nem látom én sem a nagyon sok éves élettartamot, ennek ellenére persze kinn tarthatják őket szintén. Viszont egy dolog arra mutat inkább hogy most nem ismétlődik az meg mint az előző generációsnál: A mostani kódot nagyságrendekkel könnyebb low level apira portolni, mint a régieket. Egész egyszerűen olcsóbb. mint itt
konzolról mantle/vulkan/dx12-re low effort. A fejlesztők pedig szeretnek új, jobb, szebb effekteket csinálni, mégha a konzolokon lehet nem is fog menni. -
7time
senior tag
válasz
#85552128 #11088 üzenetére
Viszont a konzol felhasználót nem érdekli hogy "csak" 60FPS FullHD -ban mert az stabilan megvan (kivéve ugye pár Ubisoftos retket ahol 30 FPS) és nem benchmarkozásra veszik, azt sem tudják hogy 160 FPS simábban megy a játék meg nem is érdekli őket, innentől kezdve PC-n sem lehet azt várni hogy majd nekünk külön gyártani fognak játékot ami szebb, gyorsabb, ez nem jelenti azt hogy DX12 a konzolok nem lesznek sokkal gyorsabbak mivel ott is a CPU az elsőrendű limitáló tényező amin a DX12 Vulkan valószínű segíteni fog.
-
válasz
#85552128 #11082 üzenetére
Ez megint arról szól hogy mit mennyire használnak ki. Szerintem sok konzolos fejlesztő nem végzett még teljesen a motorjuk átírásával az új lehetőségekhez. Nem gondolom azt hogy az 1152/768 gcn mag olyan hű de sok lenne meg a 8 gyenguska jaguár mag, pláne a következő évekre számítva, de azért nem gondolnám hogy már most a végén járnánk annak, amire az új konzolok képesek lesznek.
"A fejlesztőnek eddig is volt lehetősége, hogy jobb DX11-es portokat készítsenek mégsem éltek vele, "
Azért ez nem teljesen így van. Nagyon sok fejlesztő panaszkodott a blogjában hogy kiszámíthatatlan a kódjuk hogy mennyire gyorsan jut el a vga-ig. Mint egy nagy fekete doboz, amibe beszórják az utasításokat és majd valamikor lesz valami. Erre szinkronizálást írni nem igazán lehet, ergo marad hogy csak egymástól független dolgok mehetnek külön szálban. Egyszerűen nem tudják normálisan, normális időn belül profilozni hogy mit is kellene csinálni, hogy a dx11 szeresse a kódjukat. Persze ehhez jön számos olyan balf*szág, ami egyértelműen a programozók hibája, és azt az amd és az nvidia driverből próbálja szanaszét if-elni, mert az biztosan milyen jó lesz majd. Működni működik, némi tempót lehet vele nyerni, de a driver rész maga csak hízik és lassul.
Most már nem lesz kibúvó a fejlesztőknek. Ha jók, övék minden babér, ha bénák, mindenért ők lesznek szinte a felelősek. Nem gondolom hogy mindenki csak profitálni fog ebből a helyzetből. Szerintem nagyon pofán fogja csapni az inkompetens csapatokat ez az egész (csapat alatt pedig magát a kiadót is értem, mert ha nem adnak időt a normális fejlesztésre, akkor bizony az ő nevük fogja bánni). De bízok benne hogy több olyan van, aki vagy ért hozzá, vagy most már végre megtanul normálisan programozni -
Malibutomi
nagyúr
válasz
#85552128 #11070 üzenetére
Lehet 150+ ezer a sima 390 4gb, pontosabban lehet kb annyi mint a 980 4gb, mert ha minden igaz annál gyorsabb lesz, szóval abba a szegmensbe simán jó.
Jóeséllyel a felállás 970-380x-980-390-980ti~390x~TX lesz szerintem.Söt szerintem a 4gb 390x-re is böven lesz vevö. Nem mindenki szakértö, ha jól lövik be az árát, akkor sokan azt nézik hogy csúcskártyát vehetnek jó áron.
-
válasz
#85552128 #11070 üzenetére
Low level apik mellett mondjuk várhatóan nem kell ennyi, mert most jelenleg mivel drága utasítás betenni és törölni textúrát a vramba, így egyszerre igyekeznek minden szükségeset feltenni, és limitált a textúra streaming lehetősége. Low level api esetén viszont olcsóvá válik, így gond nélkül lehet ki-be rakosgatni a textúrákat, nem kell fenntartani egy nagyobb "raktárnyit" a vramban.
regener: no igen... fel lehet zabáltatni sok játéknál a vramot, ha valaki nagyon akarja
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Csere-Beszámítás! Olcsó RTX Gamer Laptop játékra! I5 11400H / RTX 3050Ti / 16GB DDR4 / 512GB SSD
- Beszámítás! Sony PlayStation 5 825GB SSD lemezeskonzol extra játékokkal garanciával hibátlan működés
- Új! HP 230 Vezetéknélküli USB-s Billentyűzet
- Samsung Galaxy A40 64GB, Kártyafüggetlen, 1 Év Garanciával
- T Phone Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: Promenade Publishing House Kft.
Város: Budapest