- Csíkszélességben verné az Exynos 2600 a Snapdragon 8 Elite 2-t
- iPhone topik
- Magyarországon is kapható a Moto G85 5G
- Xiaomi 15 - kicsi telefon nagy energiával
- Keretmentesít a Galaxy S25 FE
- Redmi Watch 5 - formás, de egyszerű
- 45 wattos vezeték nélküli töltés jön az új iPhone-ba
- Google Pixel topik
- Apple iPhone 13 Pro Max - őnagysága
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
Új hozzászólás Aktív témák
-
válasz
#85552128 #13450 üzenetére
Nincs fél év lemaradás... ott van a decemberi oszlop.
(Tőlem is december végén volt pl épp survey, ami szépen összegyűjtött mindent a gépről ami kell).Szerintem szimplán nem nyilatkozott annyi ember, hogy mérhető legyen a számuk. Mert ez önkéntes és beleegyezéssel megy. Magától nem gyűjti az adatokat be.
Illetve maga Steam nem ismeri ezeket fel és beteszi az "Other" kategóriába, ami ugy ~15%... szóval nem kevés "azonosítatlan" kártya van.
-
Sir Ny
senior tag
válasz
#85552128 #13313 üzenetére
1001 esetben láttuk már, hogy bug esetén az elsõ 'hivatalos' reakció a letagadása. Én nem alapoznék erre sokat.
(off: lassan rá kéne gyúrni az OS-eknek a grafikus blokkok biztonságára is, a teljesítmény helyett. A monitoron megjelenõ kép meglehetõsen érzékeny adat, minden bejövõ leveled, a kimenõk, ios-en a képernyõbill miatt a jelszavak, stb.
(Részben ezért szoktam téríteni itt a PH!-n is a webgl-t istenítõ cikkek alatt, hogy nem árt kikapcsolni, legalább otthon. (egy olyan buggal ami 5 éve ismert és majd' minden oprendszert restartol böngészõbõl))) -
válasz
#85552128 #13276 üzenetére
Az, hogy gondok vannak, színtiszta spekuláció a "történelmi" párhuzam miatt. Ettől még persze lehetnek, de Jensen féltéglája mindössze annyit jelent, hogy egy bizonyos dátumra nem készült prototípus a végleges chipekkel. Lehet, hogy két nappal később lett kész, lehet, hogy 3 hónappal, ki tudja. A lényeg annyi, hogy valóban most érdemes az AMD-nek meghajtani a biciklit, és kitolni egy 960-killer kártyát minél előbb. Azzal rosszat nem tesznek akkor sem, ha mégis a terv szerint halad a Pascal, ha meg nem, akkor lehet kaszálni és / vagy market share-t visszanyerni.
-
Malibutomi
nagyúr
válasz
#85552128 #13276 üzenetére
Tessek
The enthusiast version of AMD's next-gen Polaris spotted at CES 2016
Bar en meg mindig nem hiszek ebben hogy baj lenne a pascallal, az hogy a maxwellel mutattak a PX2-t nem sokat jelent, normal MXM lapka, kicserelik es kesz.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #13267 üzenetére
A Feature levelt furcsamód a D3D12 legacy funkcióként specifikálja. Ergo egyetlen program sem írható meg aszerint, hogy a Feature level szintet lekérdezi a fejlesztő. Helyette egyenként kell lekérdezni az egyes funkciók meglétét. Ilyen formában ez egy szükségtelen paraméter, mert semmit sem definiál a program számára.
-
Areturus
tag
válasz
#85552128 #13231 üzenetére
D3D12-vel kapcsolatban az egyik fejlesztő nyilatkozata: [link]
Igaz custom, OC-s Hawaii (290/X) kártyákkal de nálam sem futott jól. Sokat kellett legózni a beállításokon mire lehetett vele érdemben játszani. Viszont remekül skálázható, (lsd. GTAV) ami dícséretes. AMD kártyákon alapból lassabb az UE4 mivel az Epic NV partner, s a motor struktúrája is jobban fekszik a Maxwellnek, így mérföldekkel gyorsabb.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #13231 üzenetére
Az ARK nehéz ügy, mert Unreal Engine 4-es. Az Epic nagyon kevés erőforrást fektet a komolyabb leképezőbe, mert a motort zömében mobilhoz használják. Az Android a célpiac, és az ahhoz készült leképező nagyon jól optimalizált, de nem ezt használja az ARM. Xbox One-on egyébként már DX12-ben fut a program, de csak azért, mert oda elérhető a Microsoft optimalizálása az Unreal Engine 4-re. Ezt elég sokára fogják visszaírni a főverzióba. Ergo vagy megoldják maguk az Xbox One kód alapján, vagy várnak az Epicre, amíg hajlandó ránézni a PC-re. Az a baj, hogy az Epic számára ez nem fontos. A multi-GPU-t is csak IGP+dGPU-ra írják meg, míg hagyományos formára nem. Azt is elmondta Sweeney, hogy nem éri meg pénzt költeni rá.
-
#45185024
törölt tag
válasz
#85552128 #13224 üzenetére
Az ARK talán nem ?
De ha ez enniyre egyszerű hogy átírnak pár sort akkor hogy hogy nem jönnek ki tömegével Xbox One programok Directx 12 alatt?
De ez nekem továbbra is olyan mintha egy PSP ről áthoznál PC re mondjuk egy Final fantasyt emulátorral.
Működni működik csak nem használja ki a PC nyújtotta előnyöket. -
Abu85
HÁZIGAZDA
-
-
Firestormhun
senior tag
válasz
#85552128 #13197 üzenetére
XO verzióban TressFX-en kívül (ami egyébként közös fejlesztés Square Enix-xel, nem kizárólagos AMD tech) nincsen semmilyen más AMD-hez köthető dolog.
Ambient Occlusion technikának Microsoft által fejlesztett broad temporal ambient obscurance-et, árnyékokhoz pedig Intel sample distribution shadows map (SDSM) technológiáját használják.VXAO érdekesen hangzik, igazából halálra fogom magamat röhögni ha egy Maxwell exkluzív FL12_1 feature-rel indul meg DX12-es játékok sora.
-
-
Abu85
HÁZIGAZDA
válasz
#85552128 #13197 üzenetére
De nem olyan dolog ez, hogy odamész és azt mondod, hogy légyszi cseréld ki. Azon a minőségi szinten, amit a Microsoft elvár ez legalább úgy egy éves procedúrával járna, amíg az odavitt middleware-khez úgy módosítják a leképezőt, hogy jó legyen. Egy hónappal a megjelenés előtt ilyet nem fog bevállalni senki.
(#13198) Gertrius: Az a Voxel-based Ambient Occlusion. Még az eredeti VXGI effektnek egy mellékága lett, mert a VXGI nem támogatja az animációt, de VXAO-val nem kötelező a dinamikus objektumokat számításba venni, így lehet csak a statikus geometriára dolgozni. Több cégnél is elindult ez a kutatás csak aztán leállt, mert az obscurance fields jobb eredményt ad, de csak töredéke a hardverre kifejtett terhelése és mozgást is támogat.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #13195 üzenetére
Mire cserélnék a TressFX-et? Nem lehet csak úgy kicserélni ezeket az effekteket egy hónap alatt. Vagy marad minden, ami a konzolverzióban volt, vagy szimplán letiltásra kerülnek a PC-s verzióban. Az biztos, hogy az Xbox One-on van számos korábbról használt AMD-s effekt, mint a TressFX, a HDAO és a CHS, illetve van még egy mozaikos gyorsítással dolgozó részecskeszimuláció is, ami szintén az AMD-é, és a Dirt Rally már használta.
-
nonsen5e
veterán
válasz
#85552128 #13181 üzenetére
Az önmagában nem, de valószínűnek, hogyha csak Win10-re jön ki akkor az a DX12 miatt lesz. Aztán lehet, hogy csak másodjára is előhúzza a pénzes exkluzivitás kártyáját az Microsoft, és szimplán azért lesz Win 10 only, mert csak. (ha egyáltalán az lesz)
A Winstore a másik eshetőség amire gondolok, majd meglátjuk hamarosan. Kéne már egy épkézláb DX12 játék.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #13097 üzenetére
Pont az a lényege a multi-draw indirectnek, hogy ezt lecsökkentse. Az nagyon fontos még a Frostbite motorokban, hogy a pre-render egy natív motorbeállítás és nagyon eltérő a gyártók között. Az AMD csak egyet számol előre, míg az NV ötöt. Az Intel háromra van kalibrálva. Emiatt az AMD-t másképp kell kezelni a DX11-ben, mint a többi gyártót, mert jóval alacsonyabb az input lag. A DX12 és a Vulkan ezt is megváltoztatja. Ott mindenkinek egy lesz a pre-render. Ez nagyrészt egyébként meghajtókonfiguráció eredménye. Az AMD az elmúlt években sokat költött arra, hogy az input lag rohadt alacsony legyen, és a Crimson drivertől kezdve minden esetben alapértelmezetten 1 a pre-render. A többi gyártó az egyet nem kockáztatja meg, mert nem fektettek be ide szinte semmi pénzt. Inkább 3-5 közötti a pre-render.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #13093 üzenetére
Olvasd el a többi részét is a hsz-nek. Ezek a funkciók már működnek benne, de csak az AMD szervizkönyvtárán keresztül. A többi hardverre a DX12 és a Vulkan a megoldás, mert a DX11 nem támogatja szabványos formában a multi-draw indirectet. Az egészet azért fejlesztette ki a Frostbite Team, mert az AMD csinált hozzá egy kiterjesztést, és erre a kiterjesztésre építették a mainline kódot, mondván a DX12 és a Vulkan úgyis támogatni fogja a GPU-driven pipeline-t. Ennek a fő célja egyébként az overhead kezelése úgy, hogy ne essen le tartósan a sebesség az egyes helyeken, de ezt csak az AMD-re tudják "ma" megcsinálni. "Holnap" már másra is.
-
odorgg
addikt
válasz
#85552128 #13086 üzenetére
Valami magyarázat kell az usernek, hogy meghozta a legjobb döntést a világon, amikor kártyát cserélt. No ekkor jönnek az ilyen érzésre bemondott, mérésekkel nem alátámasztott, pozitív tapasztalatok.
Persze ugyan ez történik abban az esetben is, ha jobban szeretjük, kedveljük valamelyik gyártó termékét.
Az általunk preferált lesz a világ legjobb cucca ha hiszünk benne, ha nem az, akkor is.
Sok embernek kell az önigazolás, mindenki szeret valahova tartozni, ha csak egy videókártyáról van szó, akkor is.Néhány éve, szinte napi szintem együtt élek a frostbiteal, én csak akkor szeretem (nem mikrolaggol), ha 100FPS feletti képkocka számmal üzemel, az tökmindegy hogy NV, vagy AMD van alatta.
-
guftabi96
addikt
válasz
#85552128 #13074 üzenetére
Én most BF4-ről tudok nyilatkozni.
Egy évig használtam R9 280-at, most egy GTX 960-am van.
Gépem többi része: i5 3570, 10gb ram.
Mediumon játszok BF4-gyel , utolsó három beállítás pedig off. (csak multiplayerrel játszom, single-ről nem tudok nyilatkozni)
A következő a tapasztalatom:
R9 280-nál érezhető volt, amikor az fps olyan 70 környékére esett le. Nem szaggatott ,de mégis olyan furcsa, "darabos" volt. Nem tudom leírni.
Most a 960-nál még semmi ilyen nem jelentkezik 70 fps környékén, de azt is hozzáteszem, hogy azért még nem játszottam 960-nal olyan sokat BF4-et, szerintem max olyan 10 órát. Ez alatt viszont ez a tapasztalatom.
Más játékban nem igazán érzek változást. Assetto Corsa fut kb ugyan úgy, szépen, simán.
Cs:go is. Mással meg nem próbáltam. Már az utóbbival sem kellett volna, nem jó semmire csak arra, hogy felb@sszam magam
Ettől függetlenül én teljesen elégedett voltam az R9 280-ammal, baromi jó kis kártya volt. Eddig ez a 960 is hozza azt, amit elvárok, bár tény, hogy nincsenek olyan nagy igényeim, és így utólag azt mondom, hogy lehet inkább egy 950-et kellett volna vennem, több maradt volna a zsebemben. BF4 ugyan úgy futott volna azzal is ilyen beállítások mellett, Assetto Corsa sem hiszem, hogy sokkal rosszabbul futott volna vele, de ez van, ezen már kár gondolkozni. -
FLATRONW
őstag
válasz
#85552128 #12953 üzenetére
Az tudnivaló, hogy ennek a két kiadónak csak teher a PC.
Más fórumban én is pont azt írtam amit te, ha nem pénzelnék őket, akkor sok játék meg sem jelenne PC-re.
Ezek szerint még meg is lehet köszönni az NV-nek hogy ezek a játékok megjelennek.
Én úgy vagyok vele, hogy inkább legyen optimalizálatlan egy játék, mint hogy meg se jelenjen, mert nekem nem alternatíva a konzol. Ha pedig rosszul optimalizált, akkor nem veszem meg, csak "kipróbálom". Lelkiismeret furdalásom pedig nem lesz emiatt, mert az NV már jó pénzel támogatta őket, én pedig jó pénzel támogattam az NV-t. -
Abu85
HÁZIGAZDA
válasz
#85552128 #12946 üzenetére
A Radeon SDK régebbi, mint a GameWorks. A GPUOpen sem más, csak megváltozott a licenc, így mostantól, ha az AMD-től visz valaki egy effektet, akkor arról nem kell az AMD-nek szólnia, illetve a módosításokat közzéteheti a GPUOpen portálon.
A fejlesztők régóta segítik egymást azzal, hogy bizonyos dolgokat a különböző rendezvényeken megosztanak. A GPUOpen célja, hogy ezt magasabb szintre vigyék.
A régi Radeon SDK-val az is gond volt, hogy a létező kutatások mikor kerültek visszaírásra. Például az Intel az optimalizációkat mindig gyorsan elkészítette, de volt olyan, hogy az csak egy év múlva került bele a Radeon SDK-ba. A GPUOpennel az Intel az optimalizálásait rögtön publikálhatja. -
oliba
őstag
válasz
#85552128 #12886 üzenetére
Abu tény, hogy légből kapott mendemondákkal gyűjti itt a híveket, de azért sayinpeti eléggé gyakorlatiasan írja le, hogy mi a probléma. Nem hiszem, hogy nagy AMD fanságból. Mi sem bizonyítja jobban, hogy az összes GW cím egy hulladék, ahogy fut és ugye nem is olyan szép emellé, míg GE címek mind gyönyörűek és kellőképpen optimalizáltak. Csak kár, hogy ilyen kevés van belőlük.
Battlefronthoz nem szólok hozzá, de AMD teljesítményén nem kell meglepődni. Ezt eljátszották már BF3 és BF4-nél is, pedig mindkettő AMD cím
-
Depression
veterán
válasz
#85552128 #12931 üzenetére
Mindegy, pont most váltottam vissza nvidiára röpke 13 év után. Elegem lett az ati-s szívásokból. Folyton csak azt olvastam, hogy az ati/amd mennyire előremutató. Persze az is volt, csak mire tényleg bejött az új technológia, addigra édeskevés lett a megvásárolt kari teljesítménye.
Ráadásul már nem is olcsóbb. -
-
válasz
#85552128 #12877 üzenetére
Az aszinkron compute egy kitűnő ingyen sebességnyerési lehetőség - elméletben. Gyakorlatilag kell hozzá pár dolog:
- Stateless végrehajtási mód a VGA-n (ugye ekörül van gond a Maxwellben)
- Ütemező, ami komplex feladatcsomagok esetén is hatékonyan bepakolja az üres helyekre a compute feladatokat - anélkül, hogy a következő grafikai feladatokat hátráltatná
- Olyan szoftver, ami úgy "lövi el" a grafikai és compute programokat (itt már neccesnek érzem shaderről beszélni), hogy ténylegesen lehessen őket párhuzamosítani
- És végül, csak akkor van értelme az egésznek, ha a futási sebességben az ALU-limitáció dominánsAz 1. pontról van némi információ, a 2-esről nem tudunk semmit egyik gyártó esetében sem, a 3-asra és a 4-esre a válasz pedig az Oxide-nál van.
Szóval csak az látszik, ami szokott - új dolgokhoz hosszú tanulási folyamat tartozik. Ettől még az a-c lehet baromi jó.
-
rocket
nagyúr
válasz
#85552128 #12883 üzenetére
Mivel eddig nem tettek meg (idejuk volt boven), mar biztosan nem fogjak rendbe tenni a CPU overheadet DX11 alatt, mert a low level API-nal mar nem lesz ilyen gondjuk.
Most, hogy az ev vegi jatekdomping lecsengett egyertelmuen latszik nem ugy haladnak a dolgok a low level API-val ahogy azt ok gondoltak/szeretnek, es meg sokaig fognak jonni DX11 jatekok, nem csak ZS kategoriaban.Az AMD-nel termektamogatas oldalon egyre jobban meglatszik a ceg pocsek helyzete, amit teljesitmenyben mutattak az elmult masfel honapban megjelent jatekok nagy reszeben az katasztrofalis, jelenleg nagyon hinni kell valamiben, hogy az ember rabeszelje AMD VGA-ra magat az uj jatekokhoz.
-
nonsen5e
veterán
válasz
#85552128 #12879 üzenetére
Az egy dolog, hogy az AMD retardáltakkal van tele, akik nem tudnak drivert írni, de ennek ellenére a Gameworks effektek sem segítik a teljesítményt, és csak tetézik a problémát.
Szóval az, hogy az AMD nyomorék driver írásban nem jár automatikusan azzal, hogy a GW effektíve fel van jogosítva arra, hogy tönkrevágja a teljesítményt még jobban.Lehet ezt ragozni tovább, csak nem érdemes. A tényállás az az, hogy mindkét oldallal vannak problémák (más szempontokból), csak egyesek hibátlan dolognak akarják titulálni a GW effekteket és az NV által "szponzorált" programokat.
Mellékesen nekem GTX 950M mellett bármilyen drivert használok, bármilyen Win verzió mellett (friss telepítés), naponta összeomlik átlag 1x a csodadriver. Havernak meg a Witcher 3 lép ki magától 980 mellett 1-2 naponta.
-
nonsen5e
veterán
válasz
#85552128 #12877 üzenetére
Csak akkora a terelgetés, ahogy az máshol is szokott lenni.
Ha az AMD ígérete nem jön be (és ugye nem tudhatjuk miért nem) akkor biztosan az AMD csinált valamit rosszul, és nem a szegény fejlesztő volt a barom.
Ha pedig a GameWorks játékban van rossz teljesítmény, akkor meg 23 indokot talál mindenki arra, hogy igazából a fejlesztők rontották el, és bizonyosan nem a GameWorks meg az Nvidia miatt van a katasztrofális teljesítmény.Én mint mezei játékos ezt látom a játékokban és a fórumokon is. Lehet, hogy ártatlan a szegény GameWorks (nem), de ha 10-ből 9 GW játéktól hangos a net hónapokig, mert kritikán alul fut, ha nincs az embernek 2 milliós gépe, az AMD-s címek meg pazarul futnak az NV kártyákon is, akkor ott van valami probléma.
VendorID-s kódokat azért nem tesznek bele, mert a hülye is kiszúrná, hogy két teljesen azonos kártya közül miért megy mondjuk a MSI 40%-kal jobban az Asus-nál az esetleges alacsonyabb órajelek ellenére is.
Viszont ha Nvidia és AMD között lenne ez a dolog, akkor mindenki csak betudná annak, hogy a rosszabbul teljesítő kártya a rosszabb, bármi is legyen a háttérbe, amit nem reklámoznak olyan hangosan. -
Valdez
őstag
válasz
#85552128 #12866 üzenetére
Az msi mégis mivel tudná biztosítani előnyét a mezőnnyel szemben, akármennyit is fizet?
Ha még Galaxyt írsz, még annak sincs értelme, mert az igaz, hogy csak nvidiá-t gyárt, de akkor sem fog kitűnni a mezőnyből a terméke az ugyanolyan gpu-val ellátott pl msi kártyával szemben.
-
nonsen5e
veterán
válasz
#85552128 #12857 üzenetére
Az, hogy Nvidia rendezvényen demózták az sok mindent jelenthet, mert általában nem az új Battlefieldet vagy Sniper Elitet (vagy hatalmas Gaming Evolved logós) címet szoktak demózni az Nvidia eseményeken.
Az API overhead tesztbe pedig került be dx12 is (de volt dx11 is), így mindenki meg tudta állapítani, hogy mennyi a különbség. Az a teszt pont az egyes API-k közti különbségre épült, elsődleges célja nem a kártyák egymáshoz hasonlítgatása volt.
Egy "rendes" benchmarknál, mint amilyen lesz, és amit minden tesztoldal le fog közölni minden egyes kártyával (az API overhead teszt nem éppen ilyen dolog volt) senki sem azzal fog törődni, hogy na most kapcsoljuk ki szépen egyesével lassító effekteket / benchmarkoljuk az AMD kártyát nélkülük (teljesítményben megelőzné az Nvidiát kikapcsolt effektekkel, amennyiben nem tesznek bele kikapcsolhatatlan kódokat is) hanem mindenki bekapcsolja az extreme presetet, aztán sokadjára is elkönyvelik, hogy az AMD "szar".
Lehet az AotS-nál és egyéb AMD oldali játékoknál is más lenne a helyzet, ha teljesen zárt forráskódú a konkurencia lassításán kívül másra nem jó effektekkel tömnék tele, a mostani nyílt és korrekt hozzáállás helyett.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #12766 üzenetére
Az nem nagy üzlet, mert a HBM1 fenntartása nekik nagyon hátrányos. Nekik az volna a jó, ha mindenki HBM2-t rendelne. De ha nem sikerül implementálni, akkor meg rendelés sem lesz. És ez nem csak a Hynix problémája, hanem azé a vállalaté is, aki nem tudja implementálni. Ezért jobb a Hynix ajánlásait követni.
Csak két GPU-gyártó létezik, és az AMD a HBM1 után biztosan HBM2-re lép tovább. Az NV pedig a két új Teslához HBM2-t használ.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #12764 üzenetére
A HBM1-et használják majd mások. A Hynix továbbra is kiáll amellett, hogy nulláról senki se lépjen HBM2-re, így előbb a HBM1-re építsen. Túl nagy a kockázata, hogy a HBM2-es terméket törölni kell, ha nincs tapasztalat a HBM1-ről. Több FPGA dizájn használ majd HBM1-et.
-
-
Abu85
HÁZIGAZDA
-
Malibutomi
nagyúr
válasz
#85552128 #12752 üzenetére
Csak logika, lasd HBM-es amd kartyak vs GDDR5 kartyak.
Sokkal nagyobb chipek ugyanannyi vagy kevesebb fogyasztassal.De ez csak tipp, nem tudom a GDDR5X mit mutat majd fogyasztas teren.
Csak furan jonne ki hogyha teljes uj sorozatot hoznak ki, hogy a kozepkategoria (kozel)ugyanannyit fogyaszt mint a csucs. -
-
Abu85
HÁZIGAZDA
válasz
#85552128 #12646 üzenetére
AAA nem biztos. Nagyon sokan csak úgy építenek low-level támogatást a játékba, hogy lefrissítik az új motorverziót. Az új Unity-ben és UE-ben a DX12 csak egy checkbox. A fejlesztőnek be kell pipálnia és köpi a kódot az SDK. Így készült el a Caffeine is. Bárki aki UE4-re épít, az innentől leszedheti az UE 4.9 DX12-es verzióját. Pipa be a DX12 elé és DX12-es a program. Eddig tart a portolás.
-
do3om
addikt
válasz
#85552128 #12571 üzenetére
Sokszor van innen teszt berakva, de engem zavar hogy hiányos az AMD felhozatal (nem is kicsit).
Tele van SLI-vel ami biztosítja hogy sok zöld csík legyen a csúcson.Így rápillantva hatalmas NV fölény van minden játékban náluk.Bár most itt nem működik sem az SLI sem a CF ezért külön grat a készítőknek
-
-
huskydog17
addikt
válasz
#85552128 #12476 üzenetére
Én néhány hete kezdtem el, a jelenlegi legfrissebb verzió az 1.7, nem tudom milyen volt az 1.0 verzió, de az 1.7 kiváló.
Abu (#12477): Azért nem minden middleware rossz. Ott a Speedtree, ami talán a legjobb, egyrészt nagyon gyors, jól néz ki és a fejlesztő megkapja a kódot is, amit módosíthat. Még a Frostbite Engine is használja (pl.: Dragon Age Inquisition vagy BF4). Szóval ha Johan Andersson csapata is használja, akkor annyira rossz nem lehet.
Amúgy nem láttam még olyan játékot, ahol szebb fák vannak, mint amit a Speedtree kínál.imi123 (#12478): Elhiszem, nálam valamiért megmakacsolta magát a Mantle, de DX11 mód szerencsére nagyon jó lett.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #12439 üzenetére
Nem fog mindenhol jelentkezni. Ha jelentkezne, akkor rossz lenne az egyedi séma. Tipikusan akkor jelentkezik, amikor a VGA jóval újabb az alaplapnál, mert azt még laborszinten sem valószínű, hogy ellenőrizték az éppen elérhető BIOS kiadása előtt. Az viszont vitathatatlanul gáz, hogy ha van szabvány és az alaplapok nem követik. Nem véletlen, hogy arányaiban a "szupergamer" alaplapokra van messze a legtöbb panasz, míg az olcsókra a legkevesebb, annak ellenére, hogy sokkal több olcsót adnak el.
A javítás egyébként elméletben egyszerű. Összeírni a problémás alaplapok listáját és kérni rájuk egy új BIOS-t. Ha nem lesz, akkor pedig a driverbe kell egy rutin, hogy xyz alaplapról érkező nem szabályos parancsot ne hajtsa végre, de ettől romlik a PCI Express energiagazdálkodás. -
Abu85
HÁZIGAZDA
válasz
#85552128 #12430 üzenetére
Az ilyen csíkozások/képremegések nagyrészt kompatibilitási hibák. Én is belefutottam egy képremegésbe az októberi gépváltásnál. Eredetileg ASUS A88X-GAMER alaplapot vettem, de azzal a 285 idle-ben remegtette a képet. Ritkán, de akkor kellett egy újraindítás. Kértem egy másik alaplapot, és azzal is rossz volt. Aztán egy foxconnos kontakt javaslatára váltottam egy tök alap MSI-re. Ő azt mondta, hogy a legtöbb gyártó -3-5 wattért ma már úgy dönt, hogy nem követi a szabványos PCI Express energiagazdálkodást, és ez okozza a problémák zömét. Szerinte legjobb módszer nagyon olcsó alaplapokat venni, amelyekből ezeket a "szeretetcsomagokat" kihagyják, így szabvány szerint működnek.
-
válasz
#85552128 #12430 üzenetére
megvolt az amd-s poszt, csak az nem világos mi alapján történt a kijelentés. volt nála egyáltalán olyan hardver, ami ilyen tünetet produkált, vagy a teszteléshez használt referenciakártyákra tette fel a biosokat?
a bios hibákról pedig annyit, hogy volt egy printer (!) hibánk, amit több ezer mérnök munkaóra, és kb. 50 las vegas-budapest repülőjegy után sikerült izolálnunk. a kötbérről nem is beszélve. nagyon aranyos kis bug volt, a printer firmware bizonyos csillagállásoknál "3" helyett "5"öt nyomtatott.
-
jacint78
addikt
válasz
#85552128 #12413 üzenetére
Igen, amikor kihúzod a kábelt, akkor leállítja a kimenetet, ha digitális a kimenet analógnál nem. Elég vicces probléma egy többszázezres kártyánál.
Arról nem is beszélve, hogy a gépet sem hagyhatom úgy mert kitudja nem e tesz kárt magában a kártya
Hagyd úgy.
fules
Mondjuk én azért nem fogom az NV-t választani mert nem fogom ölbetett kézzel nézni hogy átb@sznak.
Mégis miért ******nának át?
-
jacint78
addikt
válasz
#85552128 #12404 üzenetére
Lehet, hogy a HBM féle szendvics megbosszúlja önmagát és már előjönnek a kontakthibák hidegen. Melegen nem, mert akkor összedagadnak a kontaktok. Vagy a tápellátás nem az igazi, nincs rendesen hidegítve a táp és megőrülnek a ramok, a klassz8ikus megoldásban a nyákon mindjárt a ramok alatt a túloldalon vannak a kondenzátorok ugye.
Szaby59
ÓRajel csökkentést, vagy akár növelést, ha üresjáratbanc sinálja nem próbáltál amikor szétesik a kép?
-
Ghoula
senior tag
válasz
#85552128 #12406 üzenetére
Na, ha a Battlefront miatt kapják a savat,akkor azt meg is érdemlik,legalább rosszabb ne legyen...
A huszárokat hagyjuk, az pont az amit,gbors kért,hogy mellőzzünk.
Az meg hogy, legyen akkor bios hiba, azt nem driverben kezelik, szerintem az rendjén van, adjanak ki bios frissítést hozzá. Hogy miért nem adnak, az megint savazásra alkalmas téma.
Valószínű akkor én nem vagyok mérvadó a problémamentességemmel, mert én ennyire friss programokat nem használok, még csak most jutottam el az Alien Isolation-ig.Daveoff, ha csak az első linked lenne ott, azt mondom ok, de a másodikat bedobni mint "Crimsonnal kapcsolatban tapasztalatok". Mintha előtte nem ezzel küzdött volna...
Az meg hogy milyen kártyád van, érdekli a fenét, csak ezt ferdítésnek gondolom,mert nem az új driver annak a hibának a forrása,ennyi. Ha azt írod, és Szaby csíkozós problémája sem szűnt meg vele, akkor megint korrekt lett volna szerintem.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Garis ZOTAC GeForce RTX 4070 Ti Trinity 12GB GDDR6X videokártya
- Csere-Beszámítás! Sapphire Nitro+ RX 7800 XT 16GB GDDR6 Videokártya! Bemutató Darab!
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming Elite Eladó!
- Eladó használt Gigabyte AMD Radeon HD 6750 videókártya
- Eladó ASUS Phoenix GTX 1660 OC 6GB (PH-GTX1660-O6G)
- Telefon felvásárlás!! Samsung Galaxy A50/Samsung Galaxy A51/Samsung Galaxy A52/Samsung Galaxy A53
- ÁRGARANCIA!Épített KomPhone i5 14600KF 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! Apple MacBook Pro 14 M4 MAX 36GB RAM 1TB SSD garanciával hibátlan működéssel
- Azonnali készpénzes Sony Playstation 5 lemezes és digitális felvásárlás személyesen/csomagküldéssel
- LG 45GR95QE - 45" Ívelt OLED / 2K WQHD / 240Hz 0.03ms / NVIDIA G-Sync / FreeSync Premium / HDMI 2.1
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest