- Milyen okostelefont vegyek?
- Android alkalmazások - szoftver kibeszélő topik
- Xiaomi 15 - kicsi telefon nagy energiával
- Apple Watch
- Motorola Edge 50 Neo - az egyensúly gyengesége
- VoLTE/VoWiFi
- Realme GT Master Edition - mestermunka
- One mobilszolgáltatások
- Motorola Razr 60 Ultra - ez a kagyló könnyen megfő
- iPhone topik
Új hozzászólás Aktív témák
-
#85552128
törölt tag
válasz
Malibutomi #14433 üzenetére
"Ne irjam le neked is ujra, hogy a GW cimek nem a grafika kinezete miatt vannak altalaban ekezve."
Ne írjam már le még egyszer, hogy nem elég, hogy szarul/ugyanúgy fut mint egy GW-s cím ÉS a grafika is ronda mellé.
Ha még mellette nézne is ki valahogy legalább "csak" az optimalizálással lenne gond, de nem..."A szarul fut ugyanugy igaz a hitmanre is, lehet kopkodni nyugodtan, de az hogy a fejleszto ronda embereket rajzol ne mar az AMD sara legyen."
Ja, de azért lehet ha mellette még optimalizálatlan is az már csak "extra", hogy kritikán aluli a játék kinézete és ez jön majd DX12+meg aszink kompjútevel... Bár lehet akkor direkt van elcseszve a DX11-es mód mint annó az AOTS-nél utána meg majd lehet óriási "gyorsulásokat" demonstrálni.
-
TTomax
félisten
válasz
Malibutomi #14433 üzenetére
Mert szerinted nincsenek amd effektek benne,és az nem a grafika része...aha...tökvéletlen promozza az amd a termékeihez.
-
#85552128
törölt tag
válasz
Malibutomi #14427 üzenetére
Mert ehhez a grafikához szerinted ilyen teljesítmény oké ?
Ugyanolyan szarul fut mint pár másik AAA cím, de legalább még azoktól rosszabbul is néz ki. És azért van felhozva az AMD mert más játékoknál ugyanúgy felhozzátok az nV-t meg a Gameoworksot itt meg ugye AMD meg GPUOpen van ami sokkal "jobb"... -
Egon
nagyúr
válasz
Malibutomi #14427 üzenetére
Mert a teljesítmény az nem a fejlesztőn múlik, csak a grafika, LOL...
Még szerencse, hogy nincs kettős mérce - oh wait... -
bombibmw
veterán
válasz
Malibutomi #14425 üzenetére
Ez igaz, de a FHD-s fps-ek is gázak, főleg annak fényében, hogyan néz ki a játék.
És, ha ennél a felbontásnál le kell venni a simítást egy csúcskarival, nem éppen next gen grafikával, az már szájhúzós.
Még mindig a FHD a legelterjedtebb felbontás, vagy még ez alatt is és mégis 980Ti-re, meg Fury-ra vannak optimalizálva a gémek.
Hááát... -
TTomax
félisten
válasz
Malibutomi #14427 üzenetére
Mert itt rendbe van a teljesitmény ugye? Csak legalább jó randa is...
-
TTomax
félisten
válasz
Malibutomi #14425 üzenetére
Pont annyi mint a batmenhez az nVidianak,ott persze ez nem jutott az eszedbe.
-
Egon
nagyúr
válasz
Malibutomi #14425 üzenetére
Még szerencse, hogy a Batman-nál meg az Assassin Creed-nél a fejlesztő, és nem az nVidia lett fikázva - oh wait...
-
#85552128
törölt tag
válasz
Malibutomi #14405 üzenetére
Főleg ahogy mellette kinéz...
-
imi123
őstag
válasz
Malibutomi #14386 üzenetére
A SEGA is osztogat most ingyen játékot.
1 nap átfutással adnak STEAM kódot a kiválasztott játékhoz.Ha volt már akkor SRY.
-
#85552128
törölt tag
válasz
Malibutomi #14379 üzenetére
"Your manfucaturer is not valid"
Mindezt a #1 AMD gyártóra (Sapphire). Miért is működne valami elsőre...
-
guftabi96
addikt
válasz
Malibutomi #14379 üzenetére
Pont olvastam én is délelőtt.
Anyámék gépében A8 7600 van, egy Dirt Rallyt be is húzok.
Mennyi idő, amíg lezajlik?
Mert most valamit ellenőrizni fog, ami 48 óra lesz.
Siettem nagyon, szóval nem olvastam végig. -
daveoff
veterán
válasz
Malibutomi #14368 üzenetére
Ja a szemeteszsák az gáz nagyon, de sok olyan részlet van, amivel még nem nagyon találkoztunk játékokban...
-
#85552128
törölt tag
válasz
Malibutomi #14334 üzenetére
Ott a 2015-ös év, a többi csupán előrejelezés, tudod ők még számítanak bevételre...
-
#Morcosmedve
veterán
válasz
Malibutomi #14294 üzenetére
Árazásban mindenképp
Teljesítményben nem jöttek be az újítások.
-
imi123
őstag
válasz
Malibutomi #14218 üzenetére
Kb ennyi.
Amíg nincs jobb veszik ezt.
Sajnos a Nintendo sem fog ezen változtatni,mert szerintem Ők még a Xone-t és Ps4-et is alul fogják múlni teljesítményben az új konzoljukkal.
Nekem egyébként semmi bajom ezzel.Tőlem kettesével is vehetik.
Az én magánvéleményem hogy ezek a konzolok nem méltók Sony és Xbox névhez.Az viszont érdekelne hogy mennyiért fogják az only MS Store játékokat vesztegetni.
A Quantum Break miatt nyilván feltöröm a malac perselyt,vagy megyek locsolkodni. -
imi123
őstag
válasz
Malibutomi #14213 üzenetére
Ha a Clió 500 méterenként 100-ról lelassul 50-re akkor szerinted ugyanekkora lenne e az elégedettség?
-
válasz
Malibutomi #14210 üzenetére
A gangnam style két és fél milliárd letöltésnél jár. Értsd, ahogy akarod
-
válasz
Malibutomi #14207 üzenetére
Mindennel így van ez. Csak a hangoskodók lázadnak. Ha pármilió pc-s játékvásárló közül 10000 nekimenne a fórumnak, és mindenki írna 10 hozzászólást, az azonnal 100ezer hozzászólás volna, és felrobbanna bármelyik fórum. De már 1000 panaszos üzenet (kb 100 elégedetlen user) is világraszóló esemény a mai világban, amikor minden újság a hírekből él. Ettől még lehet tényleg szar az eredmény, ha csak kevesen kiabálnak, de azok hangosan.
-
mlinus
őstag
válasz
Malibutomi #14124 üzenetére
közben finomítottak a követelményeken.
-
kovsol
titán
válasz
Malibutomi #13965 üzenetére
Annyi értelme van, hogy egy GTX970 legtöbb esetben gyárilag dobozból kivéve is 1400Mhz körül nyomja a boost2 -t. A referencia értékekkel max a mini kártyák rendelkeznek. Teljesen megtévesztő ezért a ref órajeles mérés. Addig a 390 mekkora gyári OC-t szokott kapni? 25-50Mhz?
-
TTomax
félisten
válasz
Malibutomi #13967 üzenetére
Elég ritka a custom 970 ami nem tudja az 1500Mhz-et stabilan...az 1250 meg 1300 kb dobozból kivéve...
-
#85552128
törölt tag
válasz
Malibutomi #13967 üzenetére
Azért nem egy képkockát kell figyelni hanem azt a részt, a 390 szinte egész idő alatt 50-60 körül tanyázik főleg amikor akció van, 70-80-tól messze van.
Nyilván nem 100%-os összehasonlítás, de nagyon is látni a különbséget, a 390 meg a stock 970-hez viszonyítva is.
A custom Maxwell esetében 1300 kb "alap" 1450 MHz-től kezdünk OC-t tesztelni, ehhez jön még a memória ami szintén hoz picit és még csak a feszültséget sem kell emelni. -
#85552128
törölt tag
válasz
Malibutomi #13965 üzenetére
Mert miért is lenne 0 értelme ? Ez pont olyan játékok egyike ahol a legjobban kimérhető és nem "ha" meg "szerintem" hanem a kártya a legfrissebb teszt szerint 10%-ot gyorsul 13% GPU és 19% memória OC mellet. A videón meg nagyon nem 10% a különbség a 970 OC és a 390 között, tegnap még azzal foglalkoztatok mennyivel gyorsabbak az AMD kártyák ebben a játékban, szóval máshol még nagyobb különbség lenne a 970 javára, főleg 1080p-n.
A "szerintem" az a "1100-1150-en megint ugyanugy pariban lennenek" és hasonló indoklás/alátámasztás nélküli kijelentések...
-
#85552128
törölt tag
válasz
Malibutomi #13959 üzenetére
Van ahol több mint 15%-kal gyorsabb mint a 390 annyit nem húzol rajta és nem is fog ilyen szintre gyorsulni.
Még az 1175-re húzott 390 is csak 10%-ot gyorsul BF3-ban ami elég jól szokott reagálni az OC-re: [link] Más játékokban a GPU OC ennyit nem fog hozni. Tehát egy jó 10% különbség mindenképp megmarad.
És ugye nem tudjuk mennyi van még a tesztben szereplő 970-ben... Az egyetlen ok amiért a 390/X jobb lehet (akár még a házon belüli drágább kártyáktól is) az a +VRAM, ahogy az a TR benchekben látszik.Nem véletlen, hogy a 380/X-en kívül minden más szegmensbe elsősorban nV kártyát ajánlanak: [link]
-
imi123
őstag
válasz
Malibutomi #13938 üzenetére
Hát el kell keserítselek.
Én már csak a szememnek hiszek.
És úgy látom egyre többen vannak így. -
válasz
Malibutomi #13932 üzenetére
ne viccelj, pár napja adták ki a gameready drivert. az slijük is működik már, én viszont nem tudtam ráműteni a cfet.
-
#85552128
törölt tag
válasz
Malibutomi #13930 üzenetére
Battlefrontnál is jó volt a béta a megjelenésre meg tele volt grafikai buggal a játék az "optimalizált" AMD driverrel szóval nem kell oda GW, elég ha bármi változik ami egy bétához képest eléggé valószínű...
-
#85552128
törölt tag
válasz
Malibutomi #13849 üzenetére
Guru3D is a final verzióval tesztelt mert nem kaptak korait és teljesen más jött ki a Fiji kártyákra. Mivel nincs még beépített bench így lehet, hogy ezért van TPU-s eltérés, de a 980 és a Ti kb. ugyanolyan eredménnyel szerepel minden tesztben. Amúgy a ROP-limit tényleg megmagyarázná miért nem gyorsul a 290/390-hez képest.
(#13857) daveoff: Majd ha lesz időd/kedved futtass már egy AOTS DX12 tesztet a legújabb 80-as (Béta 1) builddel - állítólag "sokat" gyorsult, de AMD kártyán még nem látszik
Viszont a GPU limitet mutató sáv most vagy hülyeséget mutat, vagy CPU/más limit (?) van. Build 71, Build 80
Márciusban egyébként jön a final verzió, majd bizonyíthatnak az AMD kártyák...
-
válasz
Malibutomi #13849 üzenetére
a tegnapi teszteket a német sajtó a square enix számukra kiadott verzióján futtatta le, ezt le is írták. a tpu a steames verzióval tesztelt, ebben már benne van az a patch is, amivel már nvidia kártyákon is esik a hó lara hajára, valamint egy haramdik smaa élsimítást is beletettek (megmég amit nem írtak bele a release notesbe).
-
daveoff
veterán
válasz
Malibutomi #13830 üzenetére
Szerintem Ő is a Furykra gondolt. Egyébként marketing, és az AMD tulajok szempontjából nagyon is nagy jelentősége van, hogy egy teljesítményjavító, optimalizált "game ready" driver a 0. napon, vagy előtte érkezik, vagy akár 2-3 nappal később. Szerintem hatalmas a különbség, aki megvette a játékot, AMD kártyája van az a 0. naptól szeretne problémamentesen, kártyájához mért teljesítménnyel játszani, ez szerintem érthető. Persze nem sok az a pár nap, de ez az egész olyan hullámokat kelt a felhasználókban, aminek ez lesz a vége, ami itt is megy. Ha 2 nap múlva jön egy driver, azt miért nem tudták 2 nappal ezelőtt kiadni, ne mondjátok már, hogy ez normális, hogy mindig csúsznak a fontos, játékokhoz köthető driverekkel.
NV nem csinál mást, mint kiszolgálja a felhasználói igényeket, hogy ezt milyen módszerrel, milyen marketinggel teszik, és milyen rizsával körítve az teljesen mindegy. AMD meg elvan a maga kis világában, és nem bírnak elszakadni ezektől a dolgoktól...en utalom a lakodalmas zenet, megsem rohangalok lagzikra uvoltozni, hogy "mi ez a szar halgassatok jobb zenet"
Miért? Az tök buli lenne! Mondjuk lehet nem érnél épségben haza...
-
#Morcosmedve
veterán
válasz
Malibutomi #13830 üzenetére
"Mi lesz mikor kijon a driver? Ha akkor az amd kartyak lesznek gyorsabbak ugyanigy fogod szidni az NV-t"
Ez nem fog előfordulni, a tapasztalatok alapján (hiába van "beharangozva"). De szidnám ugyan úgy, mint mikor az utolsó hitvány Batman játék kijött, pedig az sem az nV hibája, hanem a kiadó hibája.
"Azt mar nem is kerdezem mit erdekli az NV tulajokat az AMD driver annyira, hogy tobbet foglalkoznak vele mint az AMD tulajok"
Segítek: (#13784) darkflamy - ezen kívül nem foglalkozok vele, kivéve, hogy nézegettem a Nano-t, bocsánat, többet nem fenyeget ez a veszély.
Szerk.:
(#13831) Kolbi_30:
nem tudom kinek lettek az óvodás hozzászólásai törölveés nem hiszem, hogy volt bármilyen Maxwell kártyád...
-
#Morcosmedve
veterán
válasz
Malibutomi #13826 üzenetére
Ácsi! En intel tulaj vagyok
ettol eltekintve volt AMD-m is, nem is olyan régen.
Na de: számomra újfent nem arrol van szó, hogy nincs, akarmilyen cinkusan is altalad megfogalmazott "X" day driver, hanem, hogy nincs megfelelo teljesitmeny, pedig papiron tudjak a piros kartyak. Az a masik kerdes, hogy arra nem meltatnak, hogy driverrel megprobaljak ezt a dolgot kicsit enyhiteni - ez lett az "nV" tulajoknal ismèt a szánalmas kategoria - ami valljuk be igaz (le kell venni a piros szemuveget).
Egon: vegyél prémiumot és rejts el, kár ezen kattogni.
-
Kolbi_30
őstag
válasz
Malibutomi #13791 üzenetére
én úgy vettem észre, ha amd csinal egy kartyat, az a baj..ha nem akkor az..ha nem ad kidrivert csak evente 4 darabot az a baj..ha havonta akkor az..ha van kartya 970 mellet olcsobban vagy ugyan annyiert akkor az szar..ha sokkal jobb lenne akkor is szar lenne..a lényeg, hogy rinyáljon mert neki ez jó..kicsit mar unalmas a sok faszt olvasni..
Ha meg nem javul a furyk teljesitmenye akkor a tulajok megszivtak, vagy játszanak mással.. -
daveoff
veterán
válasz
Malibutomi #13690 üzenetére
Ezek elvileg PC-s képek, azért nem csúnya.
Rise of the Tomb Raider PC(#13691) cain69: Jogos, akkor a SuperSamplingAntiAliasing lényegében ugyanaz, mint a resolution scale? Vagy a két különböző eljárás?
(#13695) Szaby59: A tejcsárdára gondolsz?
-
#85552128
törölt tag
válasz
Malibutomi #13682 üzenetére
Egy driver volt nV-nél augusztus-szeptember környékén ami nálam is rendszeresen crashelt, de előtte és utána semmi gond nem volt a W10-es driverekkel még a preview fázisban sem amikor az AMD-sek épp azzal küszködtek miért tiszta fekete a start menü...
Az AMD-nél viszont annál inkább (elég csak a nagyszerű 15.9-re gondolni, vagy a Crimsonra...)Most is kíváncsi leszek hogyan fog gyorsulni a Fury X 30-50%-ot, mert ennyivel van lemaradva a TitanX/Ref980Ti és a custom 980 Ti-hez képest egy olyan játékban ami ugyan nV promós, de nem feltétlen azt preferálja.
Az utolsó driver 3 hete jött ki és van benne RoTR profil, csak milyen... -
Abu85
HÁZIGAZDA
válasz
Malibutomi #13635 üzenetére
Nem valamiért, egészen pontosan azért, mert egyszerre 10 wavefront futhat. Minél nagyobb lesz egy hardver, annál fontosabb, hogy a skálázás érdekében egyszerre több wavefront fusson, hogy ha ezeknek nincs elérhető adat, akkor legyen elég tartalék wavefront, ami beugorhat a helyére. A GCN-t az AMD legalább öt generációra tervezte, annak érdekében, hogy a konzolpiacra vonatkozó győzelmet ki tudják használni a PC-n, tehát már az elején úgy kellett tervezniük a hardvert, hogy az elskálázódjon 40 TFLOPS-ig anélkül, hogy a CU főbb jellemzőit megváltoztatnák.
Az NV például már a Maxwellt sem viszi tovább, mert elérte a limitet, amit beleterveztek, így a következő körben meg kell változtatni az ütemezést és a kihasználtságra vonatkozó jellemzőket. Ez több párhuzamosan futó WARP-ot jelent. -
Milka 78
nagyúr
válasz
Malibutomi #13632 üzenetére
Különben az a röhej az a h.sz-einknek és nézőpontjaink kb. megegyeznek csak elbeszélünk egymás mellett és nem érted a lényeget
.Oliba fórumtárs vérét szívtam (hátha megtér
),lévén nagyjából sűrűn találkozunk más topickokba,ilyen egyszerű.A többiek mind vágták és röhögtek is
-
Petykemano
veterán
válasz
Malibutomi #13632 üzenetére
Az "overclocker's dream"-ről olvastam egy olyan amúgy hihetőnek tűnő véleményt, hogy eredetileg 850Mhz-en akarták kiadni. Úgy is szép teljesítményt nyújtott volna (lásd Nano), nagyon kellemes fogyasztással. Csak meglepetésként érte őket a 980Ti, ami a Titan-hoz képest versenyképes áron a 980-hoz képest jóval magasabbra tette a lécet, ezért kénytelen kelletlen gyárilag elvégezték az álom OC-t.
-
válasz
Malibutomi #13632 üzenetére
Nem úgy tűnik, hogy a GCN kártyáknak nagyon hatékony lenne a sávszélesség-utilizációja, úgyhogy ha ezt a következő generációban nem alakítják át, akkor továbbra is kell nekik a minél nagyobb BW.
A 980Ti-t is visszafogja a sávszélessége, csak nem annyira, hogy érdemes legyen egy sokkal drágább és kísérleti memóriatípussal felszerelni. Ha a GP100 tényleg duplaakkora lesz, akkor ott a dupla BW is csak a jelenlegi ALU:MEM arányt tartja fenn, ami legalábbis kockázat a jövőre nézve. De már a duplát is nehézkes kihozni akár gDDR5X-szel is. -
Abu85
HÁZIGAZDA
válasz
Malibutomi #13632 üzenetére
A Fiji. Az eléggé sávszéllimites bizonyos motorokban.
Ha nem kellene nekik ekkora sávszél, akkor nem raknának rájuk HBM-et. -
Milka 78
nagyúr
válasz
Malibutomi #13610 üzenetére
Én oliba fórumtátsal beszélgettem,hogy te mit látsz bele az a te dolgod.Megjegyzem megint a sértett amd-s beszél belőled,ez nem az első eset.
Szólj pl gbors-nak ha nem tetszik.Mellesleg ő szerintem felfogta elsőre😉
Hogy mit hoz a hbm2 egy szóval sem vitatom,hisz ez a jövő.Ugyan akkor ahoz hogy csúcskártyát alkoss nem kötelező.Akár az 5x-el is elérhető,nem is olyan rosz motyó mint aminek be volt állítva. -
Milka 78
nagyúr
válasz
Malibutomi #13589 üzenetére
Ugye azért megvan,hogy hbm1 Fury vs 980ti gddr5-ről volt szó?
Ne keverjük bele megint a jósgömböt ez olyan amd-s😉 -
válasz
Malibutomi #13597 üzenetére
Akkor még egyszerűbb a dolog. A HBM jelenleg egy olyan technológia, aminek még nincs releváns implementációja (ami van, az egy szűk niche-ben piacképes, és alulteljesíti az elvárásokat). Ettől még mindenki hisz a technológiában - az nVidia is, és 2016H2-ben látja azt az időpontot, amikor kommerciális terméket lehet rá építeni. Happy?
-
válasz
Malibutomi #13592 üzenetére
Hogy lenne mindegy? Egy új technológia akkor válik relevánssá, ha a gyakorlatban is bizonyít. A HBM-nek ez nem igazán sikerült - bízzunk benne, hogy a HBM2-vel nem lesz semmi komoly gond, és akkor 12-18 hónappal a "pilot" után beszélhetünk arról, hogy a HBM sikeres, mint technológia.
-
válasz
Malibutomi #13589 üzenetére
Nem hiszem, hogy HBM-mel adnának ki kártyát. HBM2-vel inkább. A HBM pilotnak jó volt, és az AMD-nél szerencsés (balszerencsés?) módon volt is rá valós műszaki igény, a másik oldalon nem lett volna semmi értelme.
-
kovsol
titán
válasz
Malibutomi #13580 üzenetére
Gddr5 esetén tudtommal a java részt a hosszú busz etetese fogyasztott sokat. Ezt meg csak a hbm esetén küszöbölték ki.
-
oliba
őstag
válasz
Malibutomi #13580 üzenetére
A Tonga GPU valamelyik Apple cuccban szerepel és sokkal alacsonyabb TDP-vel, mint ami van nekünk asztali fronton. Emellett még tovább csiszolhattak a gpu-n is, hogy jobb legyen a fogyasztás.
290x pedig más architektúra, így összehasonlítani nem igen érdemes. Fury X pedig annyit fogyaszt, mint a 290X. Az a pici eltérés ami van, az bárminek betudható. Itt egy friss mérés, ahol nem is olyan rossz a fogyasztás.
Nem fikázom a HBM-et, nem akarok én rosszat neki, de az egész téma abból kezdődött, hogy hogyan állnak bizonyos hírportálok a GDDR5x-hez.
A másik, hogy kb minden legyártott Fruy/Nano cucc csíkoz, mert ilyen jól sikerült implementálni a HBM-et. A végén kiderül, hogy nem is lehet épkézláb terméket gyártani ezzel a memóriatípussal.
-
oliba
őstag
válasz
Malibutomi #13573 üzenetére
Én azért bíztam benne, hogy 980/280x szerinti új termékskálán is HBM2 lesz, de ilyen értékek mellett szinte már a csúcskártyán sincs olyan sok értelme. X2 megoldásokon jó lehet a helytakarékosság miatt.
-
Petykemano
veterán
válasz
Malibutomi #13511 üzenetére
Szerintem a csíkok hossza a min + avg értékek összege alapján jön ki.
-
#85552128
törölt tag
válasz
Malibutomi #13513 üzenetére
Min FPS alapján van sorba rakva, úgy jó is. Az már más dolog, hogy a program/grafikontípus az átlagot így rajzolja ki...
Szerk.: aha ott nem külön átlagot vesz, hanem a teljes min+avg hosszát, ezért lehet majdnem annyi/hosszabb mert az AMD min értékei lerontják az egészet, mystery solved
-
#85552128
törölt tag
válasz
Malibutomi #13511 üzenetére
Ezért nem a "csíkok" hosszát és színét kell nézni, hanem ami oda van írva...
Minimum FPS-ben pl. már a 780 Ti (!) is veri a Fury X-et.Szerk.: Az összes AMD kártyának rosszabb a min. FPS értéke, mint a hasonló szintű vagy esetenként erősebb, néhol még gyengébb nV kártyának, szóval max AMD-n akadhat be...
-
válasz
Malibutomi #13447 üzenetére
Én nagyon remélem, hogy nem az R9 200 szériába sorolja az R9 300-at, mert akkor az azt jelentené, hogy az R9 270/270X/280/280X/285/290/290X/380/380X/390/390X-ből harmadannyi van a Steam usereknél, mint a GTX970-ből.
Az OEM gyártók erejét mutatja, hogy a csak nekik szállított HD8800 széria AMD-n belül a második helyen van.
-
válasz
Malibutomi #13445 üzenetére
A 300 volt a lényeg, a Fury csak érdekesség. Vagy te csak a Furyt láttad, a 300-at nem?
-
válasz
Malibutomi #13408 üzenetére
Ennél egy kicsit komplikáltabb a dolog. A DirectX 11 jól láthatóan zsákutca, túl sok előrelépési lehetőség nem látszik benne, ugyanakkor olyan komplikált lett, hogy egyes IHV-k már alig tudnak hozzá drivert írni
Mindenki tisztában volt vele, hogy ennek előbb-utóbb változnia kell, de az erősebb szereplőknek ez nem állt érdekében, mert a Microsoftnak kényelmes volt, hogy a versenyképtelen OpenGL-lel szemben mindenkinek Windows + DX-et tud eladni, az nVidia meg szívesen elad mindenkinek évente egy új kártyát DX11-re optimalizált architektúrákkal.
Ezzel szemben az AMD-nek 2012. március óta folyamatosan termelte a felesleges extra költséget a post-DX11 architektúra, ezért nekik fontos volt az elmozdulás, és szerencséjükre a fejlesztők irányából is érkeztek jelzések (fene tudja, mennyire erősek, de érkeztek), hogy erre lenne igény. Jött a Mantle. Erre lépni kellett az MS-nek a DX12-vel, amire meg válaszul a Khronos egy elegáns mozdulattal megpróbálta átugrani a konkurenciát a Vulkannal. Eddig a pillanatig a cselekmény nagy része pofázásból állt, utána jött volna az, hogy a fejlesztőcégek dollártízmilliókat öntenek az új API-kra való átállásra. Ez utóbbinak a közepén vagyunk most, és mint azt tudjuk, júniusig 20-25 low-level API-t használó játéknak kell érkeznieHa ez nem történik meg, akkor levonhatjuk a következtetést, hogy a dollártízmilliók öntése helyett csak jelentősen szerényebb összegek csepegtetése valósult meg, és akkor ott tartunk, amit kettővel ezelőtt írtam.
-
imi123
őstag
válasz
Malibutomi #13406 üzenetére
Ebben igazad van.Egyből haszonnal értékesítik.
Ha így is viszik akkor miért kockáztassanak.Most kellene egy negyedik versenyző aki kicsit kibillentené a kényelmes helyzetből a három nagyot.
Egy SEGA konzolt szívesen látnék.Tudom,álmodik a nyomor. -
válasz
Malibutomi #13404 üzenetére
Tehát a platformról van szó, nem a játékokról. Erre két jó okuk is van:
- Win10 iránti igény gerjesztése - erre csak kapóra jött, nem ez a mozgatórugó
- Lépés tartása a konkurenciával. Nyilván nekik is eszükbe jutott 2013. őszén, hogy mi van, ha az OpenGL átveszi az AMD Mantle-jét, és lesz egy grafikus API, ami egy jó nagy lépéssel előttük jár, ráadásul cross-platform. Muszáj volt ezt csinálniuk, nagyon sok múlik az ökoszisztéma lock-in-en. -
válasz
Malibutomi #13395 üzenetére
No de pontosan mit értünk az alatt, hogy ráfeküdt?
@Crytek: Dehogy. A drága innováció lassan terjed, ennyi az egész.
-
Firestormhun
senior tag
válasz
Malibutomi #13379 üzenetére
Tudom, csak olyan Abusan dramatikus/csúsztatós akartam lenni a másik oldalról nézve.
-
Auron69
csendes tag
válasz
Malibutomi #13302 üzenetére
Köszi!
-
Egon
nagyúr
válasz
Malibutomi #13298 üzenetére
Namost két eset lehetséges: vagy te értetted félre az infókat, vagy Abu téved/fogalmaz pontatlanul itt:
A specifikáció kiegészíti a 3D-s tokozást is. Eddig a HBM szabvány a 4Hi kategóriás memóriákat specifikálta, ami azt jelentette, hogy négy darab memórialapkát lehetett vertikálisan egymásra tokozni. Az új, frissített szabvány bevezeti a 2Hi és a 8Hi kategóriát is, amelyekkel rendre kettő, illetve nyolc darab memórialapka tokozható vertikálisan egymásra. Egy 1024 bites HBM memória az aktuális technológiai fejlettség mellett így 1, 2, 4, illetve 8 GB-os kapacitást kínálhat, amivel jól lefedhetők a különböző piaci igények. A későbbiekben az elérhető kapacitás nőhet, és a frissített szabvány kellően rugalmas ahhoz, hogy a következő év során a memóriagyártók 16 GB-os HBM memóriákat is bevezethessenek.
32 GB, jah...
-
#45185024
törölt tag
válasz
Malibutomi #13296 üzenetére
Nem hát 4 réteg van egymáson a HBM1-ben 256*4 =1gb
és a négy sarkán van 4 ilyen. ez 4 Giga.
HBM2 8 réteg *256 =2 giga és ebből is 4 lesz az 8 Giga -
Valdez
őstag
válasz
Malibutomi #13277 üzenetére
Alapjában véve csak egy megtévesztés, hiszen beharangozta a specifikációkat, amiben pascal volt írva, erre meg bemutatja a maxwellt.
Ez kb olyan mintha, egy autógyártó leleplezné a legújabb modellt, csak a kifutón épp a korábbi modell áll. -
#85552128
törölt tag
válasz
Malibutomi #13277 üzenetére
Az, hogy "spotted egy CES" még nem jelenti azt, hogy hamarabb is jön. A demózás meg a kész boltokban lévő és megvásárolható termékek nem ugyanazok. Ezért sem kell annyira félteni a Pascalt, mert ettől még simán jöhet Q2-Q3-ban.
Főleg, hogy már ilyen pletyka is van: Nvidia GP104 Pascal GPU Spotted on Zauba – Roughly ~350mm^2 Die Size, Will Match or Exceed the GM200 in PerformanceDe ha bármi igaz a feltételezésekből akkor most kéne ütni a vasat.
-
Sir Ny
senior tag
válasz
Malibutomi #13272 üzenetére
Jogos. Nem az én kiváltságom osztályozni a vicceket.
(Legközelebb szebben, jobban fogalmaz) -
#85552128
törölt tag
válasz
Malibutomi #13082 üzenetére
Jó, hogy a 8 magos 4.4 GHz-re húzott Hashwell i7-tel 30 másodperc alatt nincs semmi gond survivor módban. MP, 40 vs. 40 Walker Assaultról volt szó (többek között) benchmarkokban meg single playert mérnek - ami kb. lófüttynyi terhelést jelent az "igazi" MP játékmódokhoz képest...
Ebből kiindulva egy 2.7-es Celeron is elég az 1080p@60-hoz [link]
50 órám volt a játékban mikor átraktam a másik kártyát és rögtön szembetűnő volt a különbség, főleg Endoron.
Érdekes módon amikor a Mantle kijött BF4-hez maguk az akkori AMD userek is tanúsították, hogy ha óriási gyorsulás nem is volt, de a játék láthatóan folyamatosabb lett.Addig nem tudtak róla, hogy lehetne ez jobb is
Csak Battlefrontnál ez ugye nem játszik... -
#85552128
törölt tag
válasz
Malibutomi #12767 üzenetére
6 GB/384 bit mint 980 utód sem elképzelhetetlen, sőt... ez most az eggyel feljebb lévő 980 Ti szint.
A 8 GB/512 bit sem mérvadó mivel régebbi arch. a fejlettebb tömörítő algoritmus nélkül (ami a GCN 1.2 és Maxwell2-ben is van) eleve jól jön a több sávszél. -
jacint78
addikt
válasz
Malibutomi #12767 üzenetére
Mitől lenne az? Az áemdénél 3 generáció óta ugyanazok a kategóriák. Ráadásul az AMD feleslegesen rak egy halom memóriát azokra a kártyákra, hogy vegyék az idióták mert nyócigáááás.
-
#85552128
törölt tag
válasz
Malibutomi #12762 üzenetére
De honnan veszed, hogy ugyanannyit fog fogyasztani ?
Az lesz a lényeges, hogy az ellene lévő AMD kártya hogy fog állni ilyen téren, mert házon belül ugyan lehet, hogy jobb perf/wattja lesz valamivel a csúcs-HBM2-es GPU-nak, de annak meg is kérik majd az árát. De ha az AMD meglépi azt mint most, hogy csak azért kb. +100$ a valós értékhez képest "mert HBM(2)" akkor a kutyát nem fogja érdekelni, hogy egy hajszálnyival jobb a perf/wattja (mint most) vagy hogy HBM2...Amúgy a HBM1-el mi lesz ? Jó volt béta tesztnek és megy a süllyesztőbe vagy épül majd még rá kártya ?
-
jacint78
addikt
válasz
Malibutomi #12762 üzenetére
A középkategóriában nem lesz sem 8GB, sem 512bit, sem 12GHz, így nem lesz ugyanannyi a fogyasztása.
-
#85552128
törölt tag
válasz
Malibutomi #12751 üzenetére
Erről konkrét infó, hogy ez így lesz ?
Mert az, hogy a HBM2 valamivel kevesebbett fogyaszt mint a GDDR5X az még ok, de nem hiszem, hogy 100-150 W különbség lenne, mint a 290X/390X esete úgy meg pár (?) W nem fog számítani, ha olcsóbb lesz.
Arról nem is beszélve, hogy sok múlik még a gyártástechnológián/architektúrán.
Főleg, hogy egyik sincs megerősítve, simán lehet, hogy mindkét gyártó csak a csúcsra rak. -
Egon
nagyúr
válasz
Malibutomi #12742 üzenetére
Így van, és hangsúlyozottan optimista forgatókönyv szerint jöhetnek ilyen hamar.
Realistaként inkább 2016Q3-at tippelnék. -
xAcidx
tag
válasz
Malibutomi #12679 üzenetére
Az a baj, hogy sokszor az AMD által támogatott címekben is bugosabbak/lasabbak az AMD kártyái. Elég csak benézni a Fiji topikba. Külföldi oldalakat/fórumokat nézve is sokkal több AMD-s panaszkodást találni.
És kétlem, hogy azért lenne mert nem támogatják/segítik a fejlesztőket eléggé.
Inkább az van a háttérbe, hogy annyira nem éri meg AMD-re fejleszteni. Ilyen piaci részesedéssel nem is csodálom. Nem kell ide semmilyen nV pénz, meg össze-vissza zárt rendszer.
Na meg a driver támogatottságuk is szörnyű az utóbbi időkben. Az utolsóra is (ami hozta a sok fejlesztést) rengeteg panasz érkezett.
-
jacint78
addikt
válasz
Malibutomi #12674 üzenetére
Mivel rengeteg jatek van ahol ki vannak hasznalva a kartyak, es ott latszik a sorrend: 980Ti-Fury X-Fury-980-390X-390-970..................
Egyszeru logika jozan esszel megaldott embereknek.
Azért ez nem ilyen fekete-fehér, vannak játékok amik bizonyos erőforrásokat jobban használnak ki, ebből ered a különbség és ez az ami logikus, nem az, hogy a másik gonosz és direkt szopatják egymást..
Te írtad, hogy az AMD szimpatizáns játékok meg mindenen jól futnak, és tudjuk, hogy olykor ennek ellenére NVIDIA kártyán futnak jól. Ez is azért van, mert az NVIDIA gonosz?Szaby
Azért vicc, hogy egy nV kártya+AMD proci jobban teljesít, mint AMD+AMD
A processzor az processzor, ha erősebb a kártya, jobban megy a játék, tehát továbbra is tartom, hogy csak hülye elméletekről van szó, az AMD annyit tud amennyit a játékok pedig nem egyformán használják ki a kártyák képességeit, valamelyik shaderben erősebb, van amelyik textúrázásban és így tovább, ennyi. Az NVIDIA a mában él, mai igényekhez/játékokhoz tervezik a kártyákat és "megdöbbentő" módon ma ez beválik, míg az AMD a "nagy jövőt" vizualizálja, és csodálkoznak, hogy az nem kifizetődő a mában...
Már mikor megjelent a GCN (2012, lassan 2016 van!) és már akkor is megmondták, hogy majd az mit fog menni és máig nem jött el az az idő, miközben már kétszer átnevezték ugyanazt az architektúrát és tulajdonképpen egy helyben toporognak
-
MiklosSaS
nagyúr
válasz
Malibutomi #12676 üzenetére
Minek optimizáljon? Azért a 18 %-ért?
-
válasz
Malibutomi #12671 üzenetére
Ez főleg annak tudható be hogy a gépek 70-80%-ában nvidia GPU van... elég egyértelmű melyikkel tesztelik ki a játékokat először a kiadás előtt (és ezért nincs vagy sokkal kevesebb a gond velük, főleg a rajtnál).
Persze az nVidia is rájátszik erre + ugye a game ready program stb stb..
-
jacint78
addikt
válasz
Malibutomi #12671 üzenetére
Ezzel egyre nagyobb teret nyernek mig az AMD meg szepen elassa magat a fene nagy nyiltsagaval hogy az o altaluk tamogatott jatekok meg mindenen jol futnak.
Komolyan eszetekbe sem jut, hogy azért futnak gyengében AMD-n a játékok mert gyengébbek a kártyák? Miért kell mindenbe összeesküvés elméleteket belelátni?
-
válasz
Malibutomi #12665 üzenetére
Jogos, így is szoktam. Most csak simán leakadtam az eltérésnél.
-
oliba
őstag
válasz
Malibutomi #12667 üzenetére
55-60? Háát.... Ha vsync-et be kell kapcsolni, akkor nem. Ugyanis ez az érték jött ki PCHG-n és PCLab-on is.
Igen, van némely játék, ahol nem zavaró az 50. Ez nem azok közé tartozik, sőőt...éppen az ellenkezője.
-
oliba
őstag
válasz
Malibutomi #12660 üzenetére
Ez mind szép és jó, csak én nem tudok 40-50FPS-el játszani
-
válasz
Malibutomi #12663 üzenetére
Köszi, így már világos!
Ahogy nézem, fenti tesztben a gyengébb AMD kártyák elég szépen szerepelnek a zöld párjukkal szemben, 1080p-n.
R9 380 vs GTX960
R7 360 vs GTX750Ti (ez az igazán meglepő, mert az R7 360 csak egy csonkolt 7790) -
válasz
Malibutomi #12660 üzenetére
PClab-nál veri a 970 a Fury X-et is 1080p-n, ebben meg a 390X is a 970 felett szerepel ugyan ezen a felbontáson. Mi okozhatja ezt az eltérést?
-
Kolbi_30
őstag
válasz
Malibutomi #12568 üzenetére
Ránézek valamikor hátha megtetszik
-
#85552128
törölt tag
válasz
Malibutomi #12337 üzenetére
Mondjuk amíg AMD kártyával a játéktér egy része meg sem jelenik tárgytalan, hogy megy... Még akár az eredményeket is befolyásolhatja.
-
válasz
Malibutomi #12320 üzenetére
Star Wars: Battlefront im Technik-Test - Benchmark-Liveticker (jetzt mit 15 GPUs)
970/290 és felette minden oké... ahogy az ajánlásban is van.
-
TTomax
félisten
válasz
Malibutomi #12320 üzenetére
SLI and AMD CrossFireX are supported by the game. However, AMD CrossFireX have revealed some problems - on certain configurations, some texture level can be black, that a few can spoil the impression of the game
Ühüm...
-
válasz
Malibutomi #12276 üzenetére
A legfrissebb végleges jelenleg 3 és fél hónapos.
(#12277) TTomax
Inkább sajnos csak 5 az a tíz, de ezt mindkét cég rendszeresen meg szokta találni driverből. -
TTomax
félisten
válasz
Malibutomi #12276 üzenetére
Egyáltalán nem erről van szó,sajnos nem érted amit leírtam.Profil volt előtte is,miért is nem volt jó az?Azért mert semmire való volt... kettős mérce a köbön...
(#12278) schawo
51/56,vagy a 42/46 az majdnem 10%,és az a minfpsben igen igen jelentős,ez több annál a pár %-nál mint amit találni szoktak.
-
#85552128
törölt tag
válasz
Malibutomi #12139 üzenetére
A régi builddel esetleg... [link]
Azóta már nincs olyan sok különbség AMD-nél sem, nyilván először kellett a hype, hogy "óriási" gyorsulás van a DX11-hez képest mostanra meg sikerült kicsit arra is optimalizálni, nV-nél meg eleve jól futott a DX11-es mód (ugyanez játszódott le Star Swarmnál is).
A héten is jött egy update ami 15 FPS-t vesz le avg. pedig a játék nem lett szebb...Mondjuk továbbra is nevetséges, hogy ilyen grafika mellett egy 980Ti/Fury X nem tud 60 FPS-t 1080p-n...
-
#85552128
törölt tag
válasz
Malibutomi #12058 üzenetére
Bethesda játékok mindig is bugosak voltak megjelenéskor, már a fórumon is ment előre a "viccelődés", hogy érdemesebb várni pár bugfixig... Ezért sem izgat (annyira), hogy teljesítményproblémák vannak AMD-vel, addigra mire rendbe jön/lesz driver a játék is kap majd pár patchet...
Ráadásul alapból olyan a játék műfaja, hogy jóval több dolog okozhat gondot. Az FPS dolog érdekes, mert PC-n 60 FPS-en fut, konzolon meg 30-on szóval előbb utóbb biztos lesz rá megoldás a 120 lehet most is működik. Skyrim motor szóval nem csoda ha áthoztak pár dolgot, COD/BF-et sem írják újra 0-ról már évek óta itt meg azért kicsit többet csináltak
A Godrayst meg le lehet venni lowra/OFF-ra (utóbbit van, hogy nem menti el a launcher, de iniből teljesen kikapcsolható).
A Skyrim launch amúgy ettől sokkal rosszabban sikerült nem csak technikai problémák voltak, de a játék is komolyabb bugokkal volt tele (bár itt is kiderülhet még pár ilyen...). -
#85552128
törölt tag
válasz
Malibutomi #12052 üzenetére
Vannak olyan játékok ahol a játékost egyáltalán nem érdekli ez, mert minden másban 110%-osan kárpótolni fog a produktum.
A Fallout 4 egy ilyen játék és ezért sem érdekel gyakorlatilag senkit sem ha egy picit csúnyább mint kellene. Nem hiába az egyik legnagyobb GOTY esélyes volt már a megjelenés előtt is...Btw. ez a motor már a Skyrim megjelenésekor sem volt a legszebb, most sem kell csodát várni tőle.
Ellenben a technikai megváltónak, a DX12 éllovasának hype-olt Ashes of The Singularity esetében elég ciki ahogy kinéz a játék még akkor is ha a végleges a jelenlegitől "jóval" szebb lesz -
Abu85
HÁZIGAZDA
válasz
Malibutomi #11786 üzenetére
Nem játszhatatlan az Ultra magas shader szint. Radeon 285/380-on 1080p-ben AA nélkül 40-45 fps-sel megy Ultrában. Nagyon magas beállítással 50 fps környékén fut. Egyértelműen megéri bekapcsolni. Ez a különbség a kettő között: Nagyon magas és Ultramagas.
-
#45185024
törölt tag
válasz
Malibutomi #11786 üzenetére
Én is pont ezen gondolkoztam.
Ez is azt támassza alá hogy nincs rossz meg jobb videókártya.
A teszt eredmények csupán attól függnek mire akarnak a programozók optimalizálni.
Ezért értelmetlen hogy itt 5%-okon kardoztok (majdnem modtam mivel) , nap mint nap.
De hogy nincs nekik egy Fury X ük meg egy 980Ti jük hogy így meglepődnek hogy jajj ezen rosszul fut ?
Ez most olyan verzió ami mind a kettőnek kicsit nem jó.
Az miért nem oldható meg hogy legyen mindkét félre optimalizált kód és a gépemből kiolvassa milyen kártyám van és az arra optimalizáltat futtatja az exe -
Petykemano
veterán
válasz
Malibutomi #11786 üzenetére
Végigfuttattam:
×××××××××× => alacsony
×××××××××× => közepes
Alacsony => Magas
×××××××××× => Nagyon magas (Maxwell +)
Közepes (GCN +) => /dev/null
Magas (GCN +) => /dev/null
Nagyon magas (GCN +) => Ultra magas (GCN +)Az új nagyon magas szintet direktben maxwellre optimalizálták.
A régi közepes, magas, nagyon magas szintek direkt GCN-re optimalizáltak voltak, vagy csak önhibájukon kívül azokon jól futott, máson meg elhasalt?Ez csak nekem olyan óceán alatti tesszelálás (vagymi) szagú?
-
#85552128
törölt tag
válasz
Malibutomi #11669 üzenetére
Az az átnevezett kártya az akkori szériában csúcs volt az adott gyártónál, míg a másiknál a '80-as nem az, hanem a Ti. + ugye az egyik elég jól megvan húzva, a másik meg legalább 10-15% tartalékkal bír.
A 780Ti is mai napig hozza a 970/290X(+ pár%) szintjét ettől még nem tartom kiemelkedőnek.
A tuningpotenciál és a boost között sok különbség van, a gyári boostnak nem az a célja, hogy a max stabil GPU órajelre boostoljon, mint minden OC-nél neked kell kitapasztalni hogy az mennyi és manuálisan beállítani, de a legtöbb esetben 1400-1500 között van, esetleg néha több. -
#85552128
törölt tag
válasz
Malibutomi #11662 üzenetére
Mert az egyik kártya teljes mértékben (pcb, hűtő, beállítások, bios) ref. volt míg a másik egyáltalán nem. Out of the box pedig egy custom hűtős kártya jobban fog teljesíteni így egy 390X a tesztekben behozta a 980-at, a valóságban egy custom 980 viszont gyorsabb kb. 5-10%-kal még OC nélkül is, OC-vel meg...
Arról nem is beszélve, hogy az egyes custom kártyák között is lehetnek különbségek, elég csak az MSI a customokétól is jóval nagyobb power limitjére gondolni a ref nV biosban meg jóval alacsonyabb van mint egy custom verzióéban. Tehát sehogy sem fair, viszont az a szép benne, hogy még így is csak alig sikerült utolérni a kiszemelt kártyákat. -
Vityaa
tag
válasz
Malibutomi #11474 üzenetére
csak ful HD-ban játszok, the crew, mad max,f1 kb. ilyen játékokkal játszanék. Azt hogy az ATI többet fogyaszt azt tudtam, teljesítménybeli különbségre voltam kiváncsi, illetve hogy ár érték arányban melyik a jobb. Köszi a választ. Gyors volt
-
Locutus
veterán
válasz
Malibutomi #11437 üzenetére
Gratulálok, kiválóan félremagyaráztad amit írtam.
Nyilván a hírt nem ők adják ki, ők csak felfújják némi hatásvadász címmel és tartalommal.Megjelent ez a hír ugye máshol is, ahol a helyén van kezelve a tartalma, és a többi új funkciója sem csak egy széljegyzetben szerepel.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Bomba ár! Dell Inspiron 15 3511 - i5-11GEN I 8GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Gari
- Csere-Beszámítás! Intel Core I9 14900KS 24Mag-32Szál processzor!
- ÁRGARANCIA! Épített KomPhone i5 12400F 16/32/64GB RAM RTX 5060Ti 8GB GAMER PC termékbeszámítással
- PlayStation Network Card (PSN) ajándékkártyák, egyenesen a Sony-tól!
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged