- Apple Watch Ultra - első nekifutás
- iPhone topik
- Mobilinternet EU-n kívül, eSIM adatcsomagok használata
- MG4 menetpróba
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Xiaomi 13 - felnőni nehéz
- Samsung Galaxy A54 - türelemjáték
- Poco X6 Pro - ötös alá
- iOS alkalmazások
Hirdetés
-
Érkezőben a Poco M6 4G
ma 5G-s és 4G-s Pro modell már van, hamarosan lesz Poco M6 4G-s alapváltozat is.
-
Robotkart irányított a majom a kínai Neuralink agyi chipjével
it A mindezt lehetővé tévő Neucybert a Neuralink kínai riválisa, a Beijing Xinzhida Neurotechnology fejlesztette ki.
-
Mozgásban az Arena Breakout: Infinite (PC)
gp A korábban csak mobilokra/tabletekre megjelent FPS hamarosan PC-n is elérhető lesz.
Új hozzászólás Aktív témák
-
Bjørgersson
félisten
és Winne, lehet monitorfüggő is a dolog, mert én mediumon is észreveszek mindenkit, ha a kártyám bírná talán még highon is játszanék.
As if all this was something more than another footnote on a postcard from nowhere, another chapter in the handbook for exercises in futility...
-
nagyúr
kicsit pontosítsunk: a Titánban +2.7 Mrd tranzisztor lesz a 7970-hez képest, ebből szerintem 1-1.5 Mrd helyből kuka, tehát még mindig 1.5 Mrd-dal több az "effektív". a chip mérete is jóval nagyobb lesz, tehát azért ez a direkt összehasonlítás nem fair. a fogyasztásról pedig egyelőre érdemes óvatosan nyilatkozni, mert az elméletileg 230W és 300W között bárhol lehet.
nekem meggyőződésem amúgy, hogy a GTX600-as sorozat hatékonyságának az egyik titka, hogy a textúrázók 16-bites színcsatornák esetében is teljes sebességel mennek, míg a HD7000-esekben ez felezett. miután a 680-ban és a 7970-ben ugyanannyi unit van, clock2clock a 680 ebben 2x gyorsabb. annyira nem prominens a textúrázók szerepe, hogy ez drámai előnyöket hozzon, de ultranagy méretű textúrák és 16xAF mellett elhanyagolni sem lehet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Van egy pár százmillió nem használt tranyó a GCN-ben a grafikus API-k szempontjából. Nyilván a natív C++ támogatás, az AMD64-es címzés, különböző DX/OpenGL-ben be nem vezetett technológiák támogatása nem olcsó dolog. Persze a másik oldalról vizsgálva ez konzoldizájnokat hozott az AMD-nek.
A GCN koncepciója meg eleve eléggé másolja a Larrabee-t, amit az Inteltől VGA-ként még nem láttunk, de kétségtelen, hogy marha jó ötletek vannak benne. Persze a Larrabee időzített bomba is, de biztos vagyok benne, hogy az vezetőség erőlteti az x86-ot, és nem a mérnökök.
Majd a Maxwellre leszek kíváncsi, hogy az NV milyen Larrabee/GCN klónt csinál. Az ARM Midgardot látva a mély integráció koncepciója egészen egyszerű alapokra is helyezhető.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daneeeeee
aktív tag
Nem az a lényeg, hogy mennyi tranyó, hanem az,hogy egy 7970 annyiba kerül mint egy 670 és annyit tud mint egy 680 (van pár szituáció ahol többet is). Mennyibe is fog kerülni a Titan? Na abból a pénzből kettő 7970-re is futja ami minden bizonnyal erőseb lesz mint a Titan.
Jah és a fogyira kitérve: Ha valaki már azt latolgatja, hogy Titan-t vegyen-e vagy 7970cf-t, hidd el le fogja sz@rni, hogy mennyit fogyasztanak. -
BeLucZ
addikt
ez tényleg elég érdekes összehasonlitás, 4,3 Mrd vs 7,1 Mrd tranzisztor, illetve a gk110 jóval nagyobb chip mint a Tahiti, előállítása is nagyságrendekkel többe kerül
ez kb olyan mintha a bugatti veyront összehasonlitanád egy 599 GTB-vel
jah és a titan árából szerintem 3 db 7970-est is lehet venni, legalábbis startkor amennyi lesz itt az ára magyarországon, az kegyetlen sok lesz, sztem 3 kilo biztos
Abutól kérdezem, hogy ez már computeban felveszi a Tahitivel a versenyt? vagy ugyanolyan gyengécske lesz benne mint a gk104?
[ Szerkesztve ]
-
BeLucZ
addikt
hát pedig a 7970es egy piszok jól sikerült vga, én még nem voltam ennyire elégedett vgaval teljesitményügyileg, nem hasonlitanám össze a hd2900al
ugye az akkor egy félresikerült "előremutató" megoldás volt, ez most pedig telitalálat ilyen szempontból, lásd computeshaderes játékok egyre növekvőben pl, nagyon erős kari és van benne tartalék is, sztem ez jó architektúra, jó irány
[ Szerkesztve ]
-
nagyúr
ezt nem nagyon értem, hogy őszinte legyek. nézd meg a számokat a két relációban:
- 680 -> 7970 GHz: +20% tranzisztor, +10% teljesítmény
- 7970 Ghz -> Titan: +60% tranzisztor, nem tudom mennyi + teljesítmény, de biztos, hogy messze nem 60%azaz átlagos workloadok esetén a 680 10%-kal "tranzisztorhatékonyabb". ez a 10% kényelmesen jöhet abból, hogy a GCN architektúra lépett egyet CPU irányba.
a Titán meg jóval gyengébb lesz ilyen téren a 7970 GHz-nél - pontosan azért, mert tele van pakolva játékokban nem használt cuccokkal.én nem látok itt nagy rejtélyt.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Az input lag az az egérgomb lenyomásától a képernyőn megjelenő tüzelésig tart. A frame számításának ideje nem változik, csak a képkocka kirakását késlelteti a smoothing. Ez nem mérhető szoftveresen. Esetlen burtálnagysebességű kamerával manuálisan mérhető lehet, hogy hány ms telt el az parancs kiadása és a látható hatása között.
(#501) gbors: Ezek hardcore játékosok a 60 vs 120 fps különbségét észreveszik 60 Hz-es kijelzőn.
Mindig növeli, mert mindig késleltetni kell minden második képkocka kirakását. A növekedés mértéke az aktuális fps-től függ. Alacsony ~30 fps mellett tényleg észrevehető lehet.
Igazából pár hét múlva ez nem lesz dilemma. Mindkét cég beépíti mindkét módot a driverbe. Tényleg nehéz eldönteni, hogy melyik a jobb. Valójában egyik sem elég jó.(#502) daneeeeee: Ez nem ilyen egyszerű. Az Epic is ezt mondja, hogy van UE3, csak azért elfelejtik, hogy a cégek nem így működnek. Ha van egy projekt, ami elkészül az aktuális konzolokra, a nextgen gépekre, PC-re, illetve esetleg a Nintendo Wii U-ra, akkor az Unreal Engine 4 kiesett. Hiába jó a motor egyszerűen a megcélzott gépek felén működésképtelen. Nézd meg az alternatívákat. Az előbbi igényeket a Frostbite 3 és a CryEngine 3.5 megoldja. És mindkettő sokkal jobb minőségű grafikát tesz lehetővé az aktuális konzolokon, mintha az UE4 játékot átdizájnolnák UE3-ra. Sem anyagilag, sem minőségben nem éri meg. Az UE4 jelenleg csak azoknak a fejlesztőknek lehet alternatíva, akik csak PS4-re, PC-re és új Xbox-ra dolgoznak. Látható, hogy az eddig bejelentett projektekből kimaradnak a régi rendszerek. Valami csak PC-re jön.
Az UE4 egyébként egész jó, legalábbis az előrelépés tényleg nagy. Ennek viszont azért komoly hátrányai is vannak. Úgy gondold el a motor felépítését, hogy a megvilágítási fázishoz olyan rendszert használ, amit eddig soha senki. Ez az ami nem fut a régi hardvereken, vagyis, ha ezt kikapcsolják, akkor konkrétan nem lesz a pályán megvilágítás. Ergo nem kikapcsolható technika. A másik gond vele, hogy nagyon számításigényes. Ezért van compute shaderben írva. Alapvetően a VCT-hez fel kell építeni egy sparse adatstruktúrát. Ezt nem minden képkockára kell, de a jelenet változásával nyilván tartania kell a lépést a voxelizációnak Na most ezt a jelenlegi motor szoftveresen építi fel a GPU-val, de ez nem mondható annyira gyorsnak. Lehet persze hardveres implementációt is használni, és az új konzolokon nyilván az AMD PRT-jével fog működni (ez lehozható PC-re is), mivel számottevően gyorsabb. Itt mákolt az Epic, hogy GCN-t kap az új Box és PS.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Whit3Rav3n
senior tag
Biztos hogy az is úgy jött ki a használt beállítások meg stb mellett. Azért nem hiszem hogy a pcgames-nél a ram lenne a probléma hiszen csak full hd felbontás és csk fxaa-t tettek rá. De ezt úgysem lehet így kideríteni mert nem tudjuk hogy pontosan hogy tesztelt a 2 oldal.
-
Abu85
HÁZIGAZDA
Mármint a Bioshock finomhangolása? Én láttam a neten ilyen leírásokat. Az eredményét nem tudom, mert most nincs nálam GeForce, de valószínű, hogy van hatása.
Abban igazad van, hogy a fejlesztőknek nem így kellett volna hozzáállni, hanem egy köztes értéket keresni, ami mindkét hardvercsaládon jól működik. Jellemzően így szokás paraméterezni az UE3-as játékokat. A Bioshock-ot is illett volna így beállítani.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A következő generáció ugyanaz a GCN lesz, mint a mai. A lényegi különbség annyi lesz, hogy ugyanazokat a pointereket kezeli majd, amelyeket egy AMD64-es processzor. Ez reálisan PC-n egy VGA-val nem lesz kihasználható, ahogy a multi queue compite támogatás sem. Ezeknek a funkcióknak a lényege az új generációs konzolokban lesz, illetve a konzolportok butítását megelőzendő az AMD minden konzolba tervezett funkciót belerak a Kaveri APU-ba. Ebben a lapkában lesz értelme az új GCN fícsőröknek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
igen, fehér holló üzemmódban csak 375W - az is több, mint a szabvány.
... és SzlobiG: erre kíváncsi leszek - én nem tartom kizártnak, hogy sz**ni fognak rá.
@664: na, akkor visszaírom, hogy szóba hoztam a 2900Pro-t a 8 pin kapcsán
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
Ha a refi hűtő rossz házba épített részére gondolsz, akkor nem. Nekem 7970 refim van csak, amin viszont ugyanez a hűtés van, és semmit sem romlott a hőfoka, vagy a teljesítménye, vagy a venti fordulata, amikor átraktam egy másik gépbe, amiben az összes szellőzés egy leszabályzott 12cm-es venti volt.... 4-5 fokkal lettek rosszabbak a VRM hőfokok, hogy semmi nem hűtötte hátulról a PCB-t, és kb. ennyi. A GPU-nak teljesen mindegy volt.
Azt se felejtsük el, hogy asztalon összeépítve rosszabb is lehet a helyzet, mert lehet, tud szellőzni, és nem áll be a meleg, de ugyanakkor semmi aktív légáramlat nem éri a kari PCB-jét, ami segíthetne a hűtésben.
[ Szerkesztve ]
-
-
HSM
félisten
Abból a szempontból teljesen releváns a 7970, hogy ugyanaz a hűtő van rajta. Illetve annyiból is releváns, hogy ha a 7970 nem lesz melegebb rosszul szellőző házban, akkor az ugyanezen hűtővel szerelt 290-es kártya sem lesz melegebb. Márpedig ha nem melegebb, nem fogja jobban visszavenni az új powertune attól, hogy házba szerelted.
Amúgy lehet, azt is le kéne ide írni, milyen eredményeket is várnánk pontosan. Bár lehet, csak nekem nem teljesen világos a dolog.
De mondjuk ha eredmények kellenek, nyitnék egy Sapphire R9 280X Vapor-X eredménnyel.
Alulfeszelve, kicsit alulórajelezve, maxra húzott power limittel, néma csöndben, 86K-ért véve két hete.
Szívesen tesztelgetnék 290-ekkel is, de sajnos nekem csak Tahitire futotta.
Ami halkan jegyzem meg, még így is sokkal gyorsabb, mint amire feltétlen szükségem lenne, hogy fülig érjen a szám.[ Szerkesztve ]
-
HSM
félisten
Ön nyert! Szépen skálázódik a CF itt, meg kell hagyni. Már csak a kedves 290(X)/780(ti) tulajok eredményeit várjuk. Végülis szerencse, hogy épp arról nem jönnek eredmények, amiről a beszélgetés elindult....
(#755) ST05: Hoppá, gondolhattam volna, hogy a fű jobban fekszik a zöldeknek....
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ebből a fórumból szűrted le?
Ez olyan dolog, hogy a google-on beírod az egyik VGA-t és keresel screen hibát. Mindegyikre milliós nagyságrendű találatot kapsz. A legnagyobb gond a black screen hibával, hogy a megfogalmazás teljesen általános. Gyakorlatilag minden hiba fekete képernyőt eredménye, függetlenül attól, hogy mi a hiba forrása. Ezért van minden hardverre milliós találat.
Egyébként maga a gond az UEFI. A gyártók nem garantálják, hogy a fastboot eredményes lesz, csak akkor, ha azonos az alaplap és a kártya gyártója. Legacy módban megy, akinek ez a problémája.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Írtam a másik topikban, hogy a Steamre már felkerült a StarSwarm demó. Az arra vár, hogy a Valve átmenjen rajta a szokásos tesztekkel és aktiválják. Ennek lesz egy full kész DX11 és egy leginkább alpha fázisú, de stabil Mantle kódja. Ehhez lesz egy driver a héten. Ez ugyanaz a driver lesz (13.35-ös iteráció), ami nekünk van január 12-e óta.
A BF4 patch az EA-től függ. Kész van december közepe óta. Működik, játszanak rajta. Repi gépén 180 fps-sel megy, de nem adja ki addig az EA, amíg a DX kód ledobja magáról a hardvert. Nem akarja, hogy a játékosok mutogassanak rájuk, hogy a Mantle-re koncentráltak és azért nem stabil a DX kód.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MrM94
őstag
Nalam jelentkezik a problema,hogy ha vsyncelek akkor beesik konstans 30 ra,utana felugrik konstans 60 ra.
Mindezekutan vsync nelkul 3 ba torik a kep.egyszoval jatszhatatlan...
Azert eleg ratyi dolog hogy mas jatekban brutal fps eim vannak ebbe pedig alig 60 es meg be is esik rendesen..
Es nem csak nekem,[link] nem tudom itt mennyire jatszik de eleg nagy cumi..Meg mi az hogy egy ilyen kartyanal ovatosan banni az elsimitassal?!Az alvástól megéhezek,az evéstől elálmosodok.Így Macskasztikus az élet.
-
MrM94
őstag
Vegyel brutal kartyat h 60 fps el jatsszal?Ciki.
Engem mar ugy felhuzott hogy le is toroltem.Nem nem nyomtam,semmit elegem lett.
Igen a 3 as is ilyen volt.Ciki.Azert az AMD jatekok nem mennek szarul az nV-n legalabbis nalam eddig minden jatek okes volt..@ABU "Főleg hogy az AMD-re optimalizálják, és az Nvidián meg bugus lesz az új javításoktól.
Jól csinálják..." nV se csinalja jobban.Erre szerettem volna valaszolni.Ha meg mar keretprogramba beveszik akkor illik megirni hogy legalabb a sajat kartyajukon fusson rendesen![ Szerkesztve ]
Az alvástól megéhezek,az evéstől elálmosodok.Így Macskasztikus az élet.
-
Malibutomi
nagyúr
Bocs úgy hangzott mintha nem hinnéd a höfokot, fáradt voltam már.
Egyébként +200-at tud a kártyám, 3dm13-ban ott az 1220-as eredmény.
Az hogya alapon hüvösaz jó hütést mutat, és leheta adni nekia feszt, de ugyanúgy kifinghat +50mhz-töl ha nincs szerencséd a szilikon lottón. -
KAMELOT
titán
Ja ez az! Érdekes módon én a számításaimmal ugyan azt az eredményt kaptam mint a 290X a tesztben! Erre még nem válaszolt senki sem, hogy miért is van ez így! Pedig a GT/s az a kártya teljesítményét mutatja. GigaTexel / másodperc és abból kapjuk meg az FPS számot is.
V1200 - 18CORE - SUPRIMX
-
MiklosSaS
nagyúr
........Ja hogy semmi,köszönjük,itt vered a mellkasod közben ezek ketten meg vastagon kartelloznak...Az ............ - pont ezen gondolkodok mar miota. Kicsit fura az hogy :
7970<680<7970 ghz <770 . ... 780 < 290 < Titan < 290X < 780Ti .
Ha megfigyelitek a kartyak kozott sohasem volt 7-8 %-nal nagyobb kulonbseg, es sohasem jelentek meg egyszerre.....~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
miresz
veterán
"Egyik cég sem jobb a másiknál"
Az Nvidiát is megkeresték,a game engine fejlesztők,hogy csináljanak egy API-t a DX helyett,amivel kezdeni is lehet valamit. Az NV magasról tett rá! Az AMD megcsinálta. Ingyenbe lett nem kevés többlet a GCN-es kártyákban,és nem csak az újakban,de még a 7-es sorozatban is. Mondj még egy ilyen céget,aki ennyire innovatív!
-
miresz
veterán
Ez mind szép és jó,de nem a kérdésemre a válasz. Mikor hozott nektek Nvidia usereknek az Nvidia az alsó szegmenstől a felső szegmensig átlagban ~ +30%-ot? Ráadásul visszamenőleg a régebbi kártyákra is. Az Nvivdia nagy ívbe tesz most is a "gamer" VGA piacra,mikor épp a mobil fronton próbálkoznak több kevesebb sikerrel,oda megy a fejlesztés,és a pénz.
Arról nem is beszélve,hogy a Mantle nyílt,tehát az Nvidia előtt is ott a lehetőség,hogy hardvert készítsen rá.
FX-ek fulladoznak 8 szálon? Te tudod egyátalán mit írsz? Gondolom nagy FX user vagy,több darabot is volt alkalmad tesztelni!
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Attól, hogy kijön egy SDK még nem változik semmi. Ahhoz, hogy egy konkurens cég támogassa a Mantle-t az kell, hogy egy független alapítvány átvegye a fejlesztését. Az SDK csak annyit jelent, hogy nem kell többet nevezni az AMD partnerfelvételére, hanem csak beütöd az oldalt és töltöd le az SDK-t. Ez a gyártói hozzáálláson nem fog változtatni.
De egyébként nem vagyok meggyőződve arról, hogy a világnak szüksége van egy publikus SDK-ra. A Mantle kontrolláltan lehet hasznára a piacnak. Nemsokára meghirdetik a harmadik felvételit, oda jelentkezhetnek majd a fejlesztők.Szerk.: [link] - már ki is posztolták. Szépen kontrollált környezetben lehet fejleszteni rá.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Laja333
őstag
Hát nem tudom... most így randomban megnéztem pár összehasonlító videót, 3770 vs 8350, mindegyik ugyan azt az eredményt hozta: fej-fej mellett, néhol fx erősebb. De lehet nálad másak az eredmények. ^^
szerk:
Máshol már összegyűjtöttek egy kis ízelítőt:
"http://www.techspot.com/review/591-medal-of-honor-warfighter-benchmarks/page6.html (MOH warfighter fx 8350 performs as well as i7-3960x)
http://www.techspot.com/review/601-black-ops-2-performance/page5.html (call of duty black ops 2 fx 8350 performs as well as i7-3960x)
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578 (crysis 3- fx 8350 better than i7 3770k and just below i7-3950x)
http://www.hardwareheaven.com/reviews/1598/pg6/amd-fx-8350-processor-review-battlefield-3.html (BF3 )
http://www.hardwarepal.com/call-duty-ghosts-benchmark-cpu-gpu-performance/5/ (COD ghost Identical performance)
http://www.hardwarepal.com/battlefield-4-benchmark-mp-cpu-gpu-w7-vs-w8-1/4/ ( battlefield 4 ultra HD FX 8350 equal to i7-4770k)
http://www.hardwarepal.com/battlefield-4-benchmark-mp-cpu-gpu-w7-vs-w8-1/8/ ( battlefield4 full HD the same scenario)
http://www.hardwarepal.com/batman-arkham-origins-benchmark/8/ (batman Arkham Origins fx 8350= i7 4770k after AMD's catalyst release)"[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Eladó több mint 2 év garanciával - LG OLED48C21LA / 4K/UHD/2160P/120Hz/OLED
- Razer Blade 16 2023 (i9 13950HX,RTX 4090 16Gb, 32GB DDR5 5600Mhz, 2x 1TB, 16" Dual UHD+FHD+ MiniLED)
- S23 Ultra 4 hónapos tokkal, garanciával eladó!!
- Üzletből,DELL garanciával, Dell XPS 9310 2in1 ultrabook, i7-1165G7/32RAM/1TBSSD/13,4"UHD TOCH
- Üzletből, gyártói garanciával, Lenovo Yoga Slim 7 Pro, i5/16GBRAM/512GBSSD/14,1" 2,8K OLED