- Google Pixel topik
- Samsung Galaxy A35 5G - fordulópont
- One mobilszolgáltatások
- Bemutatkozott a Poco X7 és X7 Pro
- Telekom mobilszolgáltatások
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Magisk
- Redmi Note 13 Pro+ - a fejlődés íve
- Poco X3 Pro - hardverfrissítés
- Xiaomi 15 - kicsi telefon nagy energiával
Aktív témák
-
Dare2Live
félisten
válasz
VinoRosso #5861 üzenetére
pénteken jött ki.... kinek van 4850je? Alvinnak aki nem modol biost.... és még? És olyannak aki modol? Senkinek?
egy hét jellemzően kell a bios modhoz, potizáshoz és én azután még mindig várok +1hetet mert hátha elkurták és az ne nálam derüljön ki, addig ahogy látom 720nál többet a mag jellemzően nem fog menni.
Meg 4870ben nem csak a mg lesz a lényeg hanem a gddr5. Avval megszünik/nem lesz memo limit. Akkora a sávszélessége a 4870nek mint egy GT280nak.A másik meg, hogy még mindig nincs hivatalos driver támogatás hozzá... Tudom ettöl még királyul megy de ez jól jelzi azt, hogy a 4850 még sok-sok +fpst fog kapni.
-
#65755648
törölt tag
válasz
VinoRosso #4503 üzenetére
Kicsit olvasgattam én is a GT200 topikban és megtaláltam a választ: Beteg XP-t használ, továbbá azt sem tudja hogy milyen felbontásban futott a cucc, ezt éppen Te kérdezted tőle.
Így elég sanszos, hogy inkább az Ő eredményei nem stimmelnek és nem a többi 10 teszt hazudik... -
laci06
senior tag
válasz
VinoRosso #4518 üzenetére
Biztos nektek van igazatok, és véletlenül sem nekik. Nah mindegy, mint hálaisten kiderült a HD4850 nagyon jó kari, nagyon jó áron, és még egy két NV-re irt programban is remekül teljesit...
Ha lesz majd emberi áron itt is lehet, hogy benevezek egyre, esetleg egy CF-re... -
#65755648
törölt tag
válasz
VinoRosso #4509 üzenetére
Valószínűleg ott már memórisávszéllel van baja a GX2-nek. Valaki nagyon szidta itt a GX2-t nagyobb felbontás/szűrők mellett, talán neki volt igaza.
Egyébként tényleg kevés a hiteles teszt, de mit tehet az ember? Valamelyiknek csak hinni kell, különben felesleges nézegetni őket... -
laci06
senior tag
válasz
VinoRosso #4509 üzenetére
Pedig ezek szerint az AA jobban fekszik az atinak...
Még a GTX 280 tesztjénél csináltak egy grafikont, ahol összehasonlitották, hogy az egyes kari hogyan esnek vissza AA, AF és a felbontás hatására...
Ott is kijött, hogy az Ati AA-nál annyira nem, de AF-nál már elég nagy hátrányba volt...
Gondolom csiszoltak rajta kicsit és kész... -
Dare2Live
félisten
-
leviske
veterán
válasz
VinoRosso #3226 üzenetére
Én ezt nem értem teljesen...
Akkor elvileg, ha pl a CrosshairII drivere fenn lesz rendesen (ami magában foglalja az igp driverét is), akkor el fog halálozgatni a gép folyamatosan, mert ATi kari van a gépben?
És ha mégis működhet két kari egyszerre (vagyis mind két driver fent lehet), akkor elvileg befoghatom a beépített kis 8200-ast számolni?
-
janos666
nagyúr
válasz
VinoRosso #3226 üzenetére
Próbáltad már? (ha igen akkor nem fárasztom vele magam, de ha nem akkor szeretném a saját szememmel látni ; mindegy 1 héttel később vagy előbb adom el a geforcom, sokat nincs már hova zihannia az árának). Csak onnan gondolkodtam hogy mikor SLI-t, vagy Crossfiret csinálsz akkor is minden GPU-t külön is lát a windows, mégsincs baj, most is ez lenne, csak a 2 GPU nem egyforma
(#3228) - Szerintem a forceware-be lesz integrálva, de ha külön WDM dirvere lesz hogy külön PhysX eszköznek látszódjon akkor az is valószinűleg a forcewaren keresztül keresi meg a kártyát, vagyis a VGA river részét is fel kell majd rakni. De szerintem akár ez is működhet.
Na mindegy, ne offoljunk tovább, majd meglátjuk ha beizzítom. (de ha előbb kijün a PhysX driver abból is okosabbak leszünk...)
-
janos666
nagyúr
válasz
VinoRosso #2856 üzenetére
Pl. fele annyi munkát osztanak ki egy stream unitra mint eddig? Mondjuk megfelezték a cachek méretét is, több streamproci van egy blokkban, stb. és ezért nem lett sokkal nagyobb a mag mert ez így kb olyan mintha ~420db R670 féle procijuk lenne, csak valamiért így jobb nekik...
De ez úgyis kamu. -
tzsolesz
nagyúr
válasz
VinoRosso #2656 üzenetére
Nem értettél meg úgy látom, de tudod mit gyerünk át egy kicsit a GTX-es topicba, mindjárt belinkelek neki hülye garfikonokat, meg elkezdem isteni az ATI-t, utána majd belikeljük a hozzászólásokat, amit ott kapok utána. Kezd már érdekesebb lenni a történet amit írtam, ugye így már világos, itt befejeztem a témát és kész, beszéljünk másról.
Nem vagyok teljesen ATI párti, de ATI-s topic-ban szeretnék inkább ATI-król több infót megtudni, ittt meg már az összes Nvidiás Youtube-os videó, meg az összes létező NV-és előzetes, meg teszt, meg fogysztás, meg istentudja mennyi szar be van linkelve, miközben a HD4650-es régebbi kérdésemre sem válaszolt senki, mert az nem olyan fontos, mint a 8800GT. CSÁ!!!
-
Bundás22
őstag
válasz
VinoRosso #2650 üzenetére
örvendetes hogy egyeseknek van humorérzékük!
egyébként elég manipulatív a grafikon, az Y tengelyen lévő számokat kell kuksizni, mert futó pillantásra azt hihetné az ember h 5X gyorsabb közbe "csak" 2X, kábé olyan mint a választási plakátok és közvélemény kuatások, szal 0,8-nál kezdődik a grafikon nem 0-nál(az ati teljesítménye=1)
-
kisfurko
senior tag
válasz
VinoRosso #2610 üzenetére
Még mindig nem értem, hogy a HT mitől lenne más. Értsd már meg, hogy egy CPU-ban sem egy végrehajtó egység van! Azokat is külön-külön ütemezik, és pont azért out-of-order a végrehajtás, hogy sokkal nagyobb eséllyel legyenek foglaltak. A HT is pont arra való, hogy ha még OOO-val sem sikerül jól kihasználni, akkor legyen még plusz munka. Nem szekvenciálisan hajtódnak végre az utasítások már a Pentium Pro/Cyrix 6x86 óta. Semmi köze a szálaknak a végrehajtáshoz, pláne nem azoknak a processzor szálakhoz!
Ez abból adódik, hogy hogy a processzorok képesek egy blokkolt szál helyett egy másik szál végrehajtására átkapcsolni.Ez ennek szükséges feltétele.
De ezt csak te állítod, a tesztek is mást mutatnak. Olvasd el. Meg fussad át megint a G80-as architektúrát.
Részemről ennyi, a válaszaid alapján nem látom értelmét a további "vitának".
-
PepeDon
tag
válasz
VinoRosso #2610 üzenetére
Tesókám az ilyen hozzászólást legközelebb privátban. Engem teljesen hidegen hagy, hogy ki az okosabb te, vagy vitapartnereid. Sőt a processzor lélektana sem érdekel.
Én itt csak a zsírújmindentverő
HD 4000 szériáról akarok olvasni. Lehetőleg tesztet, lehetőleg minél hamarabb.
Pedig már majdnem elcsábultam egy 3870-es felé, de a teszteket és az árakat mindenképpen megvárom. Lehet utána is 'csak' egy 3870-est veszek, de remélem jóval olcsóbban.
Remélem itt senki nem akar rábeszélni egy nvidiára.Mikor megvették a 3Dfx-et és egyik napról a másikra leállítottak mindenféle terméktámogatást, akkor fogadtam meg, hogy sose veszek nvidiát. Pont akkor volt egy Voodoo Banshee-m. Utána egyszer elcsábultam egy 6600gt-re, de rövid idő múlva becseréltem egy x800gto-ra. Na de elég a történelemből jöjjenek az új kártyák.
-
kisfurko
senior tag
válasz
VinoRosso #2573 üzenetére
Jajj...
Nem értem, minek a kioktató hangnem. Az, hogy most egyes embereknek a lebegőpontos ALU nem ALU, az engem nem érdekel.Az sem érdekel, hogy blokk vagy klaszter
Képzeld, én is jártam egyetemre, a jelek szerint talán hamarabb, mint te, de ettől még nem képzelem magam májerebbnek. Raymond csak ki akart javítani, tény, hogy láthatóan elszakadt a cérna nála
Nem kell triviális dolgokat leírni, pláne nem hiányosan.
Arra már nem emlékszem, hogy 8*16-os vagy 16*8-as a 8800, de nem is lényeg. Te is leírtad, hogy max. 8 különböző utasítást hajthat végre. Hát akkor nem 8 db processzor?
Kit érdekel, hogy hány szál állapota van lementve? Az csak a megcélzott kihasználtságtól és a rendelkezésre álló helytől függ.
A gondolatmeneted alapján akkor a hyperthreadinget használó processzormagok már egyből kettőnek számítanak?
Ki mondta, hogy minden stream processzornak külön mentődik az állapota? Mentődhet az blokk (vagy klaszter, ami neked jó) szinten is, nem? Sőt, biztosan gazdaságosabb. Nem tud pixelenként váltani kontextust, csak nxn-es blokkonként (ezt tesztekkel is kimutatták, keress rá a "branch granularity"-re, mert nem emlékszem, hol írták, beyond3d-n biztos volt róla szó), ami szintén alátámasztja a tényt, hogy nem függetlenek a "stream processzorok", ergo nem külön processzorok.
A nagyobb lebegőpontos teljesítmény sem a szervezésnek köszönhető, hanem a puszta ténynek, hogy sokkal több FP ALU van benne. Természetesen ez a felépítés fekszik a stream jellegű feladatokra. De ami nem stream jellegű, az nem feltétlenül profitál ebből a nyers erőből. -
kisfurko
senior tag
válasz
VinoRosso #2555 üzenetére
De a feladatok "ALU-kra osztását" csak blokkonként tudod megmondani. Épp ezt magyarázta Raymond, hogy 16 db blokk (processzor) van benne. Ennyi erővel, állításod szerint a Core2-ben sem 2-4 mag van, hanem több, mert egyszerre nem egy ALU meg vektor utasítást tud végrehajtani.
Egyébként, teljesen igaza volt Raymondnak abban, amit írt. Idővel megérted. -
-
Raymond
titán
válasz
VinoRosso #2548 üzenetére
Lehet kicsit kemeny volt az a beszolas, csak bennem maradtak amiket az elozoleg irkaltal es ez nagy valoszinusegel befolyasolta a hangnemet
Nem az altalanossagokkal volt problemam amiket leirtal mondjuk az elso par mondatban. Valakinek valaszoltal aki kerdezett megertem miert van ott. Itt van par dolog ami azert (a 24 oldalas tanulmany elkeszitese utan is
) nem az igazi:
"A 3d pipeline folyamatai(vagy inkább szálai) pedig masszívan párhuzamosítható, adatintenzív számításokból állnak. Ez azt jelenti konyhanyelven, hogy könnyen párhuzamosíthatóak, és így jóval nagyobb csökkenést lehet elérni a végrehajtási időben mint pusztán az órajel emelésével."
Ez igy korites nelkul nem allja meg a helyet. Pl. ha van X shader egyseget amely Y flops teljesitmenyt nyujt Z orajelen akkor Y*2 teljesitmenyt elerhetsz X*2 shader egyseg hasznalataval ugyanugy mint Z*2 orajelen. A teljesitmeny nem lesz nagyobb az egysegek szamanak duplazasaval mint az orajel duplazasaval. Persz ha azt irod hogy konyebb X*8 shader egyseget odarakni mint Z*8 orajelet elerni az mas. Szinten nem egyszeru (gyartastechnologiai limitacio ugyanugy mint az orajel emelesenel) de mar azert kicsit pontosabb
"Ez nem egy mai tendencia, tulajdonképpen a kezdetek óta így van, kb 2000 2001 óta a GPU-k legebőpontos műveletkeben elhagyták a CPU-k teljesítményét, és azóta jóval több tranyót is tartalmaznak."
Az hogy valamiben tobb tranzisztor van nem mond semmit a teljesitmenyrol. Ugyanugy ahogy az orajel mindefele mas informacio nelkul nem. Az elso ugy-ahogy GPU-nak nevezheto chip az R300 volt 2002 oszen es utana az NV30 2003 tavaszan. Csak a problema az, hogy ez a lebegopontos szamitasi teljesitmeny nem hasznalhato semmi masra a limitalt pixel manipulacion kivul azokon a chipeken. A komolyabban (es nagyobb teljesitmneyt nyujto) hasznalhato chip nem jott el az R520-ig (2005Q4) vagy ha gondolod az NV40-ig 2007Q2-ben. Az igaz hogy ezek az elso chipek is mar tobb tranzisztort tartalmaztak (kb. 2x annyit az akkor Northwood-hoz kepest) de itt lathato hogy ez nem jelent sokat a hasznalhatosag szempontjabol. Arrol nem is beszelve hogy ezt a tr. mannyiseget 5x alacsonyabb orajelen hajtottak mar akkor is.
"Azóta a magméret egyre csak nő, tehát egy lassan 7-8 éves tendenciáról van szó. A mag tehát nem most lett "b@szott nagy" hanem már eddig is az volt, és mindig is szörnyeket dobtak piacra,"
Igen a magmeret no de nem volt mindig "baszott nagy". Elegge elszaladt a lo a chipekkel ami a meretet es a fogyasztast illeti. Foleg ugy hogy mondjuk egy R360 is megette a maga 50+ W-at az akkor Northwood 65 W-hoz kepest. Es azert ami a hirekbol eddig lejon az az hogy egy GT200 kb. annyit eszik majd mint 3 darab 3Ghz 4 magos Penryn. Szoval nem dobtak mindig szornyeket a piacra, a helyzet kimutathatoan romlott az evek soran. Az RV670 es a G92-vel leptek egyet a jo iranyba, de ugy latszik ez most megint lenullazodik juniusban.
"Amig egy prociban van 4 mag, addig egy GPU-ban van 96-128-320 streamproci. Ezek tuljadonképpen önálló processzoroknak foghatóak fel,"
Na ez mondjuk a manapsag emlegetett egyik legnagyobb baromsag es kizarolag az NV marketing osztalyanak koszonheto. Nem artana megnezni nekik mit is jelent valojaban az hogy "processzor". A valosag az, hogy egy kis joindulattal ugy lehet leirni a ket mostani chipet hogy 4 darab processzor (16 wide SIMD) az RV670-nel es 16 darab a G80/G92-nel. Az a 96-128-320 darab csak sima ALU egyseg. Egy TI DSP-re se mondod azt hogy 8 magos peldaul.
"Igaz ezek a procik jóval butábbak az asztali CPU-knál, de mivel céleszkközről van szó,"
Csak mert ezek nem processzorok. ALU egysegek.
"Ezért is gyorsabbak sokkal(10x-100x) a masszívan párhuzamosítható számításokban."
Nem azert gyorsabbak mert egyszerubbek hanem azert mert sok van beloluk. Peldaul ott van a CELL. Annak a hasznalhato SP float teljesitmenye kb. 204 Gflops az SPU-kbol (25.6 Gflop darabonkent 3.2Ghz-nel) pedig csak 8 van beloluk nem 320 mint mondjuk a 475Gflop-os R600-ban. Es az a kb. 200 GFlops el is erheto hasznalhato applikaciokkal (nem egy pelda van ra mostanra) nem ugy mint az R600 teoretikus 475-je.
"A nagy integráltsági fok miatt ugyanis nem lehet könnyen emelni az órajelet, és csökkenteni a fogyasztást."
A kettot nem lehet egyszerre. Es ennek az oka egyszeru. Mindig a maximumot fogja a gyarto kihozni az eppen elerheto folyamatbol. Tehat hiaba von 2 node-al kisebb csikszelesseku gyartas, egyszeruen megnovelik az egysegek szamat addig ameddig a gazdasagossag engedi. Ugyanaz van itt is mint mondjuk a vizualis effektek vilagaban. Hiaba van ma 100x gyorsabb CPU mint par eve, az atlag renderelesi ido kepenkent ugyanugy 90 perc mint eddig. Mert egyszeruen tobb effektet es jobb minosegben celoznak meg.
"A dologhoz azonban az is hozzátartozik, hogy ezzel a koncepcióval van egy kis problem, mégpedig az, hogy a végrehajtási egységek számának növelésével azok elériési ideje is növekszik, ami teljesítmény veszteséget okoz, és ezt bele kell kalkulálni, amikor arra vagyunk kiváncsiak, hogy mekkora teljesítménynövekedést hozhat a többszörözés."
Ha a (listabol itelve) CUDA-t tanulmanyoztad akkor tudod hogy milyen eszmeletlen mennyisegu thread van mar most is on-the-fly egy chip-en belul. Meg mondjuk a paralelizalasrol szolo megjegyzesedbol azt gondoltam tudod hogy az gyakorlatilag lenyegtelen. A problema inkabb az hogy legyen eleg munka az egysegek szamara. Nem problema peldaul hogy a memoriaban levo adatok tobb szaz ciklusra vannak a feldolgozo egysegektol. Ha olyan feladatra akarod hasznalni a GPU-t ahol a random memoria eleres a legofntosabb akkor bocs, de "you`re doing it wrong". Stream feldolgozasnal epp az a szep hogy az adatok formalya a lenyeg hogy adagolod oket az egysegeknek. Ezen all vagy bukik a kihasznaltsag. De lehet hogy itt felreertettem amit mondani akartal.
"Ezért elengedhetetlenül fontos az alapos tervezés, tesztelés, mert hibá lesz nagyon jó az r700 architektúrálisan, ha egyszerűen gyenge lesz grafikában."
Ez jo volt. Ha egy grafikus chip nem jo grafikaban akkor eleve nem lehet jo architekturalisan
Ez olyan hogy az eke nagyon jo van megtervezve, csak nem lehet vele szantani.
-
Raymond
titán
válasz
VinoRosso #2530 üzenetére
Holy wheelspin, Batman!
Ennyi marhasagot osszehordani megint. Egy dologban biztos vagyok. Ha par ev mulva ragad rad valami es mar erteni is fogod ezeket a dolgokat nagyon szegyellni fogod ezt es a tobbi itteni hozzaszolasodat.
Elnezest de nincs kedvem darabokra szedni es valaszolni ra mert gyakorlatilag majdnem minden mondatra lehetne irni valamit. Ha gbors-nak vagy Abu85-nek vagy masnak van kedve elszorakozni vele akkor en rajuk hagyom. Ha nincs akkor marad igy ahogy van
-
laci666
senior tag
válasz
VinoRosso #2530 üzenetére
Na ez elég hosszú volt,és elég tanulságos.
Nem akarok ebbe bele menni hogy melyik architektúra jobb ezt ABU-tol kell megkérdezni.
Én a fogyasztáson akadtam ki, 250W az nagyon sok, legyen bármilyen erős egy vga ez akkor is sok.Most akárki akármit mond,hogy ezt kit érdekel,hogy mennyit eszik.Szerintem vannak egy páran akiket érdekel, és odafigyelnek a környezetükre és jó messziről elkerülik az ilyen energia zabálókat. -
laci666
senior tag
válasz
VinoRosso #2499 üzenetére
Honnan veszed hogy ebbe az irányba mennek el,hogy b@sz@tt nagy lesz és k@rv@ra melegedni fognak és fogyasztásról nem is beszélve.Elég szégyen az Nvidiára nézve hogy ekkora dögöt csinált.Meg rád is,hogy nem látsz semmi kivetni valót ebben.
Az Amd is befaragott a 2900XT-vel bár nem feltétlen nekem a 2900Pro-mmal a konfigom üresen 95W-ott eszik, terhelve meg 230-240W.(egy kis volt mod)De azért AMd is átállt 55nm-re és kurva jó kártyákat csinált és csinálni is fog.A most megjelenő 48xx szériának nagyobb a magmérete de még igy is elfogadható a fogyasztása 55nm-ren.
Ennek függvényében,hogy az AMD mit alkot 55nm-en nemtom miért nem 55nm-en dobja ki az Nvidia ezt a karit. -
Tomate
veterán
válasz
VinoRosso #2497 üzenetére
Nem játszottál, csak crysissal bencseltél?
Mért olyan nagy szám egy a crysis bencs mikor mindenki tudja, hogy az nvidia jobb benne. (köszönjük nvidia) Aztmondod a saját szemednek hiszel? Ne hogy már egy crysis bencs határozza meg mit tud a kártya. Nem lehet mérvadónak tekinteni. Attól hogy még crysisban az egyik kártya 5fps-el többet ad, lehet, hogy a 3870CF a játékok zömében jobb... Szerintem ezt a beépített bencset a crysisba az nvidia eröltette bele, hogy a Jani meg a Béla ezzel nézzék mit bír a nyócezernyócázgtxük, ami persze szépen elveri az ATI-t és verhetik a mellüket, hogy ez bizony jobb... Mért pont a crysissal kell bencselni nem értem
-
Dare2Live
félisten
válasz
VinoRosso #2475 üzenetére
vitatkozz vele, hogy mennyit dob a 4mag
[link]és mondjuk gborsal, hogy mennyire kevés az a 2.66ghzes core2 egy GTS mellé. [link]
De ha neked pl PH! nem elég hiteles linkelhetek máshonnan is.
Crysisnál meg jól tudom milyen az, ha szürőket VeryHighon 16*ra huzzuk GTXel kijön egy csodaszép 16fps: Játszhatatlan. Ha nem muszály nem támasztom minden szavam alá tesztek sorozatával.
-
Dare2Live
félisten
válasz
VinoRosso #2470 üzenetére
akkora felbontásban amiröl te beszélsz lényegében mindegy, hogy húzott quad vagy 6700 ugyis VGA limit lesz.
nagyobb felbonttásban(1600*,1920*1200..) meg dx10+16xAA+16xAF értelmetlen Crysist tesztelni. Tudom ott már durván kijön a memo limit de tök8, hogy 7 vagy 10fps mindkettő játszhatatlan.
-
janos666
nagyúr
válasz
VinoRosso #2464 üzenetére
Nem volt nálam sokáig és frrisen összerakott gépben még nem volt kihúzva a CPU. Csak összeraktam a gépet, csuklóból 3gigára dobtam a CPU-t és néztem mit megy játékokba. Kb 3, 4 nap telt el mire felfegyeltem rá hogy egy idő után egyre több textúra vibrál. (elúször azt hittem driverhiba) Néztem, de nem volt meleg se kézre, se rivatuner szerint. Akkor kezdtem szórakozni az órajelekkel, megnéztem hogy ha visszaveszem a gyári tuningot ref órajelre akkor is hibázik-e és így tett. Akkor gondoltam menézem mit tud, és a végén ilyen 790/shaderbug-maxig elment a GPU, de a RAM-ot semeddig se lehetett már emelni, egyre durvább dolgokat cisnált még ref alatti órajelen is, úgyhogy visszavittem, de pechemre nem volt gainward csak mai OC, de nem akartam további heteket várni mert ígyis tovább volt már boltban kártya mint nálam.
Amúgy a 3DMark mág végigfutott tök hibátlanul, meg régebbi, kissebb memóriaigényes játékok is futottak, cask új játékokban AA mellett ~10 perc után gyarapodtak a hibák.
De ez már csak így szokott lenni, a legfaszább GPU-k hibás nyákra vagy hibás RAM mellé kerülnek. -
-
Raymond
titán
válasz
VinoRosso #2310 üzenetére
Az hogy miben renderel es hogy milyen a vegso upscale felbontas nem mindegy.
A jatek 1152x640 felbontasban megy. Itt van meg par jatekrol info milyen valos felbontasban az AA-val (vagy anelkul) mennek: [link]
GTA4 PS3 es Xbox360 FPS eredmenyek pedig itt: [link]
Kicsit azert erteni is kene ahoz amirol ilyen boszen diskuralsz nem csak a sok f@szsagot osszehordani esznelkul.
-
-
eXodus
őstag
válasz
VinoRosso #2310 üzenetére
Valahogyan meghackelve. Nem véletlen h 640ben van gyárilag. Így is néha low fps.
Vagy 1080pben szétnyújta elmossa.
youtubeos link: 10*15 pixelnyi videóval mit akarsz mutatni? talán 1080 -t ?
Persze elméletben szép dolgok ezek.
Nem azt mondtam h lehetetlen, bár ki tudja mit trükköztek a felbontással gt-nél.
Szétnyújta, elmossa => ingyen AA bármikor jól jön. -
tzsolesz
nagyúr
válasz
VinoRosso #2311 üzenetére
Miből gondolod, hogy csak az ATI-nak lesz vetélytársa az intel, az Nvidiának szerinted nem?
Akkor lesz csak nemulass, ha az intel belép a VGA piacra is, amibe eddig belevágott, ott kő kövön nem maradt, nem hogy Nvidia.....szvsz.
Ha valakinek több pénze van mint az NV-nek, az az INTEL, ebből talán lehet következtetni, hogy nem tántorodik vissza semmilyen eszköztől. Fosson ott az Nvidia is rendesen. -
Dare2Live
félisten
válasz
VinoRosso #2292 üzenetére
"OpenGL java2me játékprogram(3D!!) simán elfut egy 400Mhz -es procin, 128K-s memórialimittel, miközben ugyanez a program PC-n..."
node jsr239el nem is csinálsz konzol/pc szintü grafikát...Másik peddig, hogy még csak nem is most kell nézni, most még nem nagy a difi. PS2 is sokáig jól tartotta magát, aztán tessék összehasonlítani pár PS2n grafikailag etalonnak tartott gamet 2003-2004-2005ben a PCs társaikkal. PS2 akárhogy is nézük addigra már egy szánalom volt és lehet most még tartja magát ps3/x de már látni, hogy ez már nincs sokáig így. Tessék csak belerakni egy Crysis texturat 1080Pben 256ramba. Ja és crysis egy tavalyi játék....
hiretlenjében pár gondolat...
-
-
Bundás22
őstag
válasz
VinoRosso #2161 üzenetére
sztem amilyen cuccok vannak a ps3-ban és az xboxban, azok mai szemmel elavultak
amikor ezek kijöttek/tervezték(2006-ban), na akkor mi volt a csúcs kábé a 7800GTX kábé
sztem valami hasonló lapul ezekben, ps3-ban nvidia, xboxban ati, ezekkel kell a játékfejlesztőknek gazdálkodniuk
csodálkozol hát h egy 8800-as karinak vagy 3800-nak meg se kottyannak ezek a konzolos játékok, nem hinném h az FC2-t olyan gépzabálóra csinálnák, mert az xbox meghalna alatta
nézd meg a turokot szaggat a gépeden? az is konzolos játék, tele fákkal, dzsungellel, AC száguld szvsz.FC2 se fog logikátlan amit mondasz. Egy konzolos gém se akasztja meg a gépemet, majd a PS4a crysis az más, a németek nem kötnek kompromisszumot, nem is jelenik meg konzolra mert azon a hardveren nem futna megfelelően, az FC2 talán picit csúnyább lesz de sokkal gyorsabb, vagy agyonoptimalizált mint a FC1
-
HSM
félisten
válasz
VinoRosso #2184 üzenetére
kicsit nézegettem a késleltetéseket.... Nekem ddr2 667Mhz-en, 266mhz cpu fsb-vel, 4-4-412-es időzítéssel a késleltetése 80ns. Ugyanaz a gép, ugyanaz a memória/fsb arány, 360mhz fsb, ddr2 900Mhz, langyos időzítéssel: 6-7-7-25 késleltetés: 79.9ns. Még mindig ugyanott, ugyanúgy ddr2 900Mhz, 5-5-5-18 (normál) időzítéssel a késleltetés: 67.1ns. Szval inkább fontos az órajel, mint az alacsony késleltetés.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #2191 üzenetére
Azért a Cuda és a CTM eléggé más úton közelítik meg a dolgokat. A CTM egyik hátránya, hogy nem teljesen publikus. Az is fontos eltérés, hogy a CTM alapvetően alacsony szintű programozást helyezi előtérbe. Ez némileg előny, mert sokkal jobban ki lehet aknázni a hardver képességeit, viszont eléggé pro programozónak kell lenned. Ezért közelíti az AMD a FireStream kártyákkal a hardcore részleget, mert kisebb projectek fejlesztői nem biztos, hogy elbánnak a CTM-mel. Van a CTM-nek is magas szinten programozható verziója Brook néven, de ez még nem túl kidolgozott.
A CUDA előnye, hogy valamennyivel egyszerűbb a használata a CTM-nél és teljesen publikus. Ám korlátozottabb a hardver közeli "mahinálás" lehetősége. Ellenben rengeteg kártyát támogat, így kisebb projectekhez ideálisabb ez a rendszer. -
leviske
veterán
válasz
VinoRosso #2200 üzenetére
A HD4870 és a GTX280 közt van ugy 17GB/s különbség...ezt belátom, de érdemes elgondolkodni azon, hogy melyiknek lesz nagyobb szüksége erre a sávszélességre...
A 70-es azért csak egy közel fele akkora tudású kártya lesz, mint a GTX280... onnantól szerintem felesleges attól félni, hogy pont az ATi fut ki a sávszélességből.
Az X2-nél pedig, mivel marad az eddigi felépítés, ezért 256+256...tehát a sávszélesség dupláját kell venni.
-
HSM
félisten
-
IreN!CuS
addikt
válasz
VinoRosso #2186 üzenetére
"viszont az ati nem veszi fel a versenyt általánosságban 3d-ben az nvidiával"
miért?! anno volt nem kicsi bortány h 3dmark meghaxolta a cuccait h nv ne maradjon le atitól olyan nagyon,után a nagy nyomás miatt jött az update és kijött az ati elönye!Nem szeretem azt h az nv párti emberek mindig olyan játékokkal jönnek amit az nv pénzelt kiváncsi lennék mi lenne forditott helyzetben! -
HSM
félisten
válasz
VinoRosso #2184 üzenetére
Hiába van 512-es buszod, a memóriának ugyanannyi idő előkeresni az adatot, mint ha csak 128 bited lenne... Ami más, hogy mennyi idő alatt ér át. És igenis tartom a késleltetéses véleményem, bár kéne keresni egy ddr2 800 vs ddr3 1600 tesztet késleltetéssel....
Nézd meg nyugodtan mit tudott egy elsőszériás ddr2.... -
leviske
veterán
válasz
VinoRosso #2169 üzenetére
A Phenomot azért ugy írd le, hogy az Intel előre akarta volna hozni a Nehalem debüt. napját, ha ugy sikerül az AMD-nek, ahogy akarták.
A gond a Phenommal, hogy nem 45nm-en kezdtek neki...magasabb órajeleken, alacsonyabb fogyasztással sok esetben vonzóbb alternatíva lehetne, mint a Core 2 Quadok..Az új atikat pedig felesleges leírni... a GDDR5 valószinűleg hoz akkora sávszélesség növekedést, hogy a 70-es magas felbontásokon is tudja tartani a szintet... a HD4850-ért mondjuk ebből a szempontból aggódom. Bár egy 35-40k-s kártyát nem hiszem, hogy sokan 1650x1050 felbontás fölött akarnának használni.
-
janos666
nagyúr
válasz
VinoRosso #2172 üzenetére
Nem feltétlen, én régen elvakult nv fan voltam, FX korszakban is 5800-assal toltam, ma is őket pártolom, sose volt még radonom.
Viszont a GT-200ban én tényleg csak egy lineárisan duplájára hízott G92-es látok. Goyrs lesz, gyorsabb mint a radeon, a piac befolyásolása miatt nem lesz gond a DX10.1 hiánya se, de mégis, most már elvártam volna hogy legyen benne DX10.1, legalább papíron, ha nem is olyan módon használnák ahogy az ATInak lenne jó hanem úgy ahogy az nvnek.
És ránézek a 4870-es képeire, leírásaira (amit ma dobott ki a tomshardware) és erre azt mondom hogy na igen, tetszik, épp azon a téren igérnek nekem javulást ahol várom (AA, AF, Full-HD felbontású játék tolerálása + HD videózás élvezetesebbé tétele...), papíron ottvan a DX10.1 is amit talán a kártya életciklusa alatt most már használ majd valami. (pl. Bad Campany)
Szóval az én szemszögemből most pont eljött az az idő mikor megveszem életem első radeonját. (Bár nem vagyok benne biztos hogy nem esek hasra és szidom majd a döntésem mikor áron alul megszabadulok tőle hogy GTX-260ast vehessek...)Őőő, nem kezdek el hidraulikával offolni, de ez a szívószálas példa ebben a formában elég szőrszálhasogató. D nem akarok grippen repülő stílusban hidraulikázni...
-
HSM
félisten
válasz
VinoRosso #2172 üzenetére
Hát épp ez az...
Ugyanazok a gpu-k, csak a körítés más... Amúgy sztem technológiailag most az NV-nek kéne lépnie, ugyanis ők nem voltak képesek a mai napig dx10.1-es hardvert gyártani. Azt amúgy még nem jelentheted ki, hogy nekik volt igazuk, majd kb 2 év múlva fog ez kiderülni....
És ne felejtsd el, hogy a gddr5 órajele irgalmatlan magas a gddr3-hoz képest... simán lehet a késleltetése másfélszer annyi, mint a gddr3-nak, még akkor is hamarabb kerül a GPU-hoz az adat....
(Nekem pl rendszermemóriám 4-5ns-el kisebb késleltetésű 1100Mhz-en 5-6-6-21 mellett, mint 800-on 4-4-4-12-n) -
HERR Z
veterán
válasz
VinoRosso #2172 üzenetére
értem mindekettejük érvelését, és annak az oka, hogy én az NV ötletei mellett teszem le a voksom csupán annyi, hogy az elmúlt években bebizonyosodott hogy nekik van igazuk
ez a muhaha kategória már bocs, az nV kurvára nem ötletekből él meg hanem a lefizetéseiből, amit a játékfejlesztőknek ad...amd nincs ilyen helyzetben hogy megtehesse, ők csak fasza gpu-kat gyártanak -amik nV miatt ugye nem mutathatják meg a foguk feketéjét
Kicsit nV szemcsin keresztül látod a világot, ami nem baj.....csak gyurcsányra is sokan szavaztak annó... -
HSM
félisten
válasz
VinoRosso #2169 üzenetére
Sztem az AMD mindent megtesz a vevőiért.... Nekem egy 3870-em van, nem mondom hogy egy szál problémám nem volt vele (bios venti vezérléssel volt pici szívás+ memória melegedés) de összességében maximálisan elégedett vagyok vele.... Halk, elvisz bármit, ürejáratban alig fogyaszt, a ventivezérlés kis beállítással remek.... És úgy gondolom, aki r600-t vett, az se járt rosszul anno... Ráadásul a Phenom se egy rossz processzor, bár tény, hogy nem valami versenyképes a desktop szegmensben a core2quadokkal. De én még proci szinten sem írnám le az AMD-t....
-
tzsolesz
nagyúr
válasz
VinoRosso #2167 üzenetére
Lehet, hogy topic-ot tévesztettél, minimum 3 egymást követő hozzászólásban isteníted az NV-t, és gyalázod az ATI-t, ezért engem már rég kivágtak volna egy Nvidiás topicból, de ne haragudj meg ezért.
Kit érdekel a g80?
Meg mi köze van a 4870-hez?
Tudom, hogy értessz hozzá, meg ilyenek, de azért nem kellene elkedvetleníteni senkit, mert nem lesz olyan mint a te NV-d.Bocs az OFF-ért.
Ja, és én nem pártolom egyiket sem, mert a következő alternatívám lehet, hogy egy 9600GT. Ennyi, csak érdekel ngyon ez a kari, lehet hogy te sokat csalódtál az AMD-ben, de ez még is csak ATI.
-
HSM
félisten
válasz
VinoRosso #2160 üzenetére
Igen, de ha a szívószálon elég nagy nyomással küldöd a vizet (értsd: magasabb órajel) lehet, hogy több megy át rajta, mintha egy 2X olyan vastag szívószálon küldöd kisebb nyomással. Nyilván AMD elkezdett osztani/szorozni és úgy látta, hogy olcsóbb a 256 bites busz+gddr5 mint a kb azonos teljesítményű 512bites busz +gddr3, amihez sokkal többrétegű nyák kell, + komplexebb memóriavezérlő. Az AMD-nek az 512bites technológia már rég adott (R600), biztosan nem véletlen, hogy nem erőltetik.... Amit még elképzelhetőnek tartok, hogy kisebb a gddr5 késleltetési ideje ilyen magas órajelen, mint a ggdr3-nak.
-
Bundás22
őstag
válasz
VinoRosso #2148 üzenetére
a tapasztalat azt mutatja h ami konzolra lett írva azt vígan viszi egy 8600GT(AC, COD4, NFS, TUROK...a sort még lehet folytatni, stb), ami pedig csak PC-re van, pl.: crysis, az egy csúcsgépen csak-csak de egy konzol összefosná magát tőle nem is bírják ps3-ra írni pedig az lenne az üzlet nekik
azért a ps3 erősen felveszi a versenyt a mai csúcsgépekkel beveszed ezt a marketingrizsát
, a ps3 jó esetben egy 7900-es szériájú kártya tudását tudja(asszem hasonló gpu-ra épül), tehát egy crysis-t nem lenne képes futtattni
ebből kiindulva FC2 -nek nem lesz magas gépigénye ahogy az AC-nek sincs pedig az is gyönyörűszép
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #2130 üzenetére
Az MS elkúrta a Vista Multi GPU támogatásához az SP1 előtt három Hotfix update kellett, hogy normálisan működjön a dolog.
Ezen ment a vita annó a gyártóknál az AMD és az nV éjjel nappal dolgozott, hogy megtalálják a bajt, de nem ment nekik. Aztán egyszer az MS kiadta a közleményt, hogy mégis ők rontották el. Ezért maradt le a Vista támogatás Multi-GPU tekintetében méig, mert a gyártók azt hitték, hogy a saját algoritmusaik rosszak és folyamatosan írták át a drivereket. Most, hogy megjött az SP1 mindkét gyártó rendszere begyorsult, most más bajok gyötrik őket. A DX10 logikai futószalagja AFR-nél nagy szopás, mondjuk ezen az MS tényleg nem tud segíteni. -
Bundás22
őstag
válasz
VinoRosso #2118 üzenetére
mondj már egy olyan játékot ami xbox/ps3-ra jó és mai modern közepes PC-n(8600GTS+)
sz@rul futturok, ac, cod4, NFS, EZEK MIND jól FUTNAK A gépemen, nézd a konzol hardvere adott, szvsz ami azokon jól fut egy jobb mai pc-n száguld a far cry2 is elsősorban conzolra lesz írva
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #2118 üzenetére
Alapvetően van abban valami amit Bundás22 mond.
A Dunia motort a Yeti motor alapjaira építették fel. Lesznek benne nagyon problémás részek (pl. az alkalmazott eljárások miatt nem lehet majd használni AA-t és AF szűrést sem), de lényegében alég jól összarakott motor. Nem lesz pokolian magas a gépigénye. A Yeti motor alapjait elég sok játékhoz és azok módosított motorjához felhasználta az Ubisoft. Ezek alapján nagyon testreszabható rendszer lehet, az igényeknek megfelelően.
Aktív témák
Hirdetés
- PlayStation 5
- Milyen autót vegyek?
- Kormányok / autós szimulátorok topikja
- Milyen videókártyát?
- Fájdalmasan gyenge kijelzőt válaszott a Switch 2-höz a Nintendo
- PROHARDVER! feedback: bugok, problémák, ötletek
- Google Pixel topik
- Milyen billentyűzetet vegyek?
- Sütés, főzés és konyhai praktikák
- Synology NAS
- További aktív témák...
- Honor 400 Lite 256GB Kártyafüggetlen 1Év Garanciával
- AKCIÓ! Apple Mac Studio M1 MAX 2022 32GB 512GB számítógép garanciával, hibátlan működéssel
- BESZÁMÍTÁS! ASROCK H310CM i5 8400 16GB DDR4 240GB SSD 1TB HDD GTX 980 4GB Aio Corp Croma CM 600W
- Xiaomi Redmi 13128GB Kártyafüggetlen 1Év Garanciával
- LG 65C3 - 65" OLED evo - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox!
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: Promenade Publishing House Kft.
Város: Budapest