- Nothing Phone 2a - semmi nem drága
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Poco X6 Pro - ötös alá
- Véroxigénszintet is mér a Honor Band 5
- Vodafone-ra áttért Digi Mobilosok
- Google szolgáltatás (GMS) Huawei telefonokra
- Alcor e-Pad - van még remény
- Ennyibe kerülnek a Huawei Pura modellek Európában
- Telekom mobilszolgáltatások
- Samsung Galaxy S24 - nos, Exynos
Hirdetés
-
Free Play Days 2024 - 18. hét: Headbangers: Rythm Royale
gp Extraként a Star Wars Jedi: Survort is kipróbálhatjuk 5 óra erejéig.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
iPaden is vége az App Store monopóliumának
ma Ősztől lehet alternatív alkalmazásboltból telepíteni az EU tagállamaiban.
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A Cop esetében próbálkozzatok 2 GB-os VGA-val.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Persze. 1 GB GPU-nként. A másik GB-ot a másik GPU használja.
Nyem. Maxon zabálja a GB-okat a VRAM-ból. Segítség az 1,5 GB, de nem elég. A motornak egyébként elég jó a streaming rendszere, így ezért lehet jól játszani egy 1 GB-os kártyán. Ellenben az apró akadások csak 2 GB felett tűnnek el.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz mindfreak #385 üzenetére
A Furmark-hoz a GTX 570 és 580-nál kell egy kapcsoló, különben a fogyasztásuk a felére esik. Ez egy szoftveresen vezérelt fojtás, hogy a program ne tegye tönkre a kártyát (persze a kártya teljesítménye is a töredékére esik). [link]
Innentől kezdve nem releváns a program, hiszen a kártyák többsége szoftveresen fojtva van, így a valós fogyasztás a közelében sincs a tényleges értéknek. A másik oldalról sem releváns, ha kikapcsolod a védelmet, mivel a Radeon HD 5000-eket és a 6800-on nem lehet kikapcsolni. A 6900 ebből a szempontból más, ott egy valós idejű hardveres alapú védelem van, azt technikailag is lehetetlen programmal tönkretenni, mert a kártya visszaveszi az órajelét, ha kell.
A bit-tech és az Anand játékprogrammal mért fogyasztást. Itt kicsi a valószínűsége, hogy a védelmek működnek, mert releváns a teljesítmény. Nyilván a Furmark alatt senkit sem érdekel, hogy a HD 6970 megy 90 FPS-t, míg a GTX 580 40-re képes. Ezért játszik ott a védelem ennyire agresszíven.(#387) TTomax:
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Térjünk egy kicsit onba, különben viszketni fog a banhammerem. és ha az lecsap ...
Ez elsősorban DJ Dekko!-nak szól.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szerintem addig jó eséllyel megjelenik.
A 2 GB memóriára most is tudok neked válaszolni. Az általad érdekelt felbontásban kicsi a valószínűsége, hogy hatalmas előnyt hoz. Persze itt nagy kérdés a tesszellálás, mert olvastam már egy publikációt, miszerint az AMD kidolgozott egy előtesszelláló algoritmust, ami kétpofára eszi a VRAM-ot, de nem látom értelmét az alkalmazásának. A miértre lesz válasz a tesztben, mert egy oldal van szentelve a tesszellálásnak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz tthomasso #613 üzenetére
Az alapprobléma nem tűnt el, de a gyártók visszajelzései szerint jóval kevesebb a panasz és a hiba a végrehajtott hardveres módosításokkal. Mivel neked már előjött a gond, így úgy beszéld meg a bolttal, hogy ha újra baj lesz, akkor cseréljék egy Radeonra.
Sajnos az ilyen kompatibilitási hibáknál a puding próbája mindig az evés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A mai alaplapok többsége olyan energiagazdálkodási funkciókat használ, amelyek nincsenek szabványosítva. Főleg a PCI Express csatoló nem szabványos extra funkcióival van gond, amelyek alaplapgyártónként, sőt alaplaponként másképp működnek. A kártyákat a tesztelés folyamán az egyes lapkakészletekhez tartozó referenciaterméken ellenőrzik, mivel azokat az előírásokat mindenkinek kötelező követni. Ebből nagy valószínűséggel állítható, hogy ha a refboardon nem volt probléma, akkor a többi termékkel sem lesz. Itt jön a képbe az, hogy a többi terméken olyan energiagazdálkodási szarságokat használnak a gyártók, amelyek problémát jelenthetnek a VGA-k működésében.
Emlékezetes dolog volt az AMD szürkehalálja, ami pontosan ezért következett be, de a gond nem volt jelentős, így a BIOS frissítésével lehetett javítani. Gyakorlatilag ugyanebbe esett bele az NVIDIA, csak a GTX 400-as kártyákon sokkal eltérőbbek a gondok, így még behatárolni is nagyon nehéz őket. Érthetetlen órajelzárások, fagyás a bejelentkező képernyőn, rossz órajelvezérlés egyes játékoknál, ami alacsony teljesítményhez, és akadásokhoz vezet. Ezek tipikus kompatibilítási problémák, és mindegyik gyártók a PCI Express csatolónál alkalmazott egyéni energiagazdálkodási szolgáltatásokra vezethető vissza. Az NV ebben azért esett ennyire csúnyán bele, mert az AMD-vel ellentétben már lassan másfél éve nem fejlesztenek új chipsetet, és a kvalifikációt végző csapatnak fogalma sincs, hogy az alaplapgyártók milyen extra szarságokat engedélyeznek a termékeken. Az AMD-nek egyszerűbb a dolga, mert ők tudják, hogy mire figyeljenek, mivel a partnerek technológiáit szintén ellenőrzik. Ezért van az, hogy aki beleesett ebbe a gondba, annak Radeonnal nem volt hasonló hibája. Pl.: tthomasso vagy LaraxiorNyilván a hiba elég sokrétű lehet. Valami javítható szoftveresen, vagy BIOS-sal, de többnyire hardveres módosítás kell. A GTX 500 sorozatnál, és számos új tervezésű GeForce kártyánál már kevesebb a probléma, de az egész hiba csak a cégen belül van jelen, vagyis semmilyen jelentés nincs írva, hogy mely termékekkel fordul elő a gond. Van pár fórum ahol gyűjtik a nem kompatibilis termékek listáját, de az sem irányadó. Mivel az NVIDIA egyelőre nem tud szoftveres megoldást a problémára, így jobb hallgatni róla. Bár a megoldás marhára egyszerű. Az alaplapgyártóknak ki kell adni egy BIOS-t a problémás termékekhez, amiben a nem szabványos energiagazdálkodási funkciók kikapcsolhatók. Persze ezt könnyű mondani, csak senki sem cselekszik. Az alaplapgyártóknak persze könnyű. A gondokkal küzdő júzer lecseréli Radeonra a GeForce-ot, és látja, hogy azzal jó. Mégis ki hibáztatná az alaplapot vagy az alaplapgyártót?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Naná a 16xQCSAA az már 8xMSAA szintjén van a színminták terén, míg a 16xCSAA lényegében négy színmintát vesz, tehát annyit amennyit a 4xMSAA. Az az extra Q betű jelentős erőforrásigényt jelent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azért ne éltesd bele a többieket, mert a 266.44-ben csak a GTX 470/480/570/580 kártyákon működik, de szokás szerint maradnak recés felületek. Mondjuk az kényszerített MSAA-nál ez már megszokott.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem a Crossbar miatt nem mehet az órajel 4 GHz fölé. A Crossbar egyetlen problémája a partícióalapú memóriakezelés, vagyis egy dolog többször is benne lehet a memóriában, de ez nem tűnik már súlyosnak, mert a mai streaming algoritmusok mellett kezelhető. Lehet, hogy a GeForce 100 MB-ot elveszít ezzel, de ez nem lényeges 1 GB+ fedélzeti tárakkal. Más gond nincs. Persze komplexebb a dolog egy Ring vagy egy Hub vezérlőnél, de egyéb technikai hátránya a tranzisztorigényen kívül nincs. Azzal meg az NV elszámol.
Az MSI-től tudom, hogy a GDDR5 órajele két dologtól függ. A memóriavezérlőtől, és a nyomtatott áramkörtől. Kvalifikáltak már GeForce GTX 580-at 4,6 GHz-en 6gbps-os GDDR5-tel, de az a nyomtatott áramköri lap majd 4 cm-re hosszabb volt, mint a mostani ... csak tesztelés volt a dolog.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #1004 üzenetére
De a HD 5870 mióta ellenfele a GTX 570-580-nak? Az a GTX 470 ellenfele volt, ha a termékek árát nézzük. Ahhoz hasonlítsd az sebességet. Ott már más a leányzó fekvése.
Ha a GTX 570 ellenfelét keresed, akkor ár szerint a Radeon HD 6970 a te terméked. [link][ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #1007 üzenetére
Mit értesz 5xxx-es alatt, mert ha a HD 5870-et, akkor megnézheted a tesztet, hogy ezt mennyire nem érdemes így kijelenteni.
(#1008) Lauda: Mert nem WHQL. Ha meg már béta, akkor ott a 266.44 is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz adamssss #1038 üzenetére
Az iZ3D és a TriDef egy keretprogram. Nem az felel a minőségért. Használjon gyári iZ3D monitort, az ahhoz van fejlesztve, duplapaneles polarizáció. Szellemkép kizárva.
Egyébként a tartalom még mindig nagyon hiányzik. Nézd meg például a GRID-et. Excellent minőségre van írva, de az árnyékok kivágják a kép azon szeletét a 3D-ből, amin megjelennek. Ez mondjuk nem csak az NV-nél van így. Az viszont finoman szólva is vitatott, hogy ez Excellent minősítést érdemel.Tényleg hibátlanul megjelenő 3D-s játékok:
Battlefield: Bad Company 2 (patch-csel)
Trine (patch-csel)
Medal Of Honor (multiplayer)
Batman: Arkham Asylum
Dead Rising 2
Mafia II
Metro 2033: The Last Refuge
Resident Evil 5
Tom Clancy’s H.A.W.X. 2
Just Cause 2
Biohazard 5A többi programnál kisebb nagyobb hibákba lehet belefutni. Ezek orvosolhatók a problémás effekt, vagy effektek kikapcsolásával (pl Gridben az árnyékok). Lényegében a legtöbb platformon ezt jelenti az Excellent minősítés. A többiről nem is érdemes beszélni, ott nagyon szar az élmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #1042 üzenetére
A 120 Hz az aktív zárás miatt kötelező. Másképp nincs meg a frissítés, így nem láthatod a 3D-t. Az iZ3D más technológiát használ, így ott nem kell a 120 Hz, viszont két panel kell, hogy ne feleződjön a függőleges felbontás.
Minden 3D drága. Új technológia, kiforratlan, és tartalom hiányában eléggé nyűg eladni. Ha lesz hozzá megfelelő mennyiségű tartalom, akkor beindulhat az üzlet, és akkor jöhetnek az életképes fejlesztések, olcsón.(#1043) Cybertrone: Az alapprobléma minden új generációnál fenn fog állni. A gyártónál kell kérdezni, hogy kipróbálták-e a te alaplapoddal. Erre csak ők tudják a választ.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az NV-nek nem az az érdeke, hogy egy GTX 580-nal simán futtasd a játékot. Legalább vegyél kettőt. Ezt már a Mafia 2-ben is eljátszották. Szándékosan CPU-n fut a PhysX cloth, ha nincs legalább két GeForce-od.
(#1220) Laraxior: A GTX 595 (már ha megjelenik valaha), akkor biztos nem két darab teljes értékű GF110-et fog használni. Egy ilyen lapka elvisz 300 wattot. Kicsit visszafeszelik, akkor be tudják húzni 280 alá, de a másik lapka nem fog 20 wattból működni.
Amíg 300 wattba be kell férni, addig a nullánál is kisebb az esélye egy két GF110-es GPU-s GeForce-nak. Az NVIDIA sem hülye. Tudják, hogy a HD 6990 ellen esélytelenek, így a marketingre kell építeni. Azt kell csinálni, amit a GTX 400-nál. Ott is nyilatkozták, hogy a GTX 295-öt is lehetetlennek tartották mégis lett. Most is el kell mondani ugyanezt, és kész. A remény hal meg utoljára.
Az EVGA Gemini megoldása valószínűleg tényleg megjelenik, de az is két darab GF104-et használ, és így is 300 watt fölött vannak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Miféle többi adattal?
Elhiszem, hogy szeretnéd, ha lenne GTX 595, de két GF100-as lapkával ezt 300 watton belül ezt lehetetlen megcsinálni. Ezenk még egy olyan PowerTune technológia sem segítene, amit az AMD használ.
Két GF104-ből lehet megcsinálni. Csak kérdés, hogy van-e értelme a Radeon HD 6990-nél lassabb termékkel kijönni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Csak egy adat. A HD 5970 70%-a az OEM csatornákon keresztül lett értékesítve. Ezek alapján minimum meggondolandó a dolog. Nem mellesleg a szabvány is 300 wattot enged meg. A házakat és az alaplapokat is erre a hőmennyiségre tervezik.
Én személy szerint a 200 wattban húznám meg a határt, mert az is borzasztóan sok, de nem én döntök.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nulla esélye van, hogy belátható időn belül megváltozzon az aktuális specifikáció. Egyrészt erre a PCI-SIG nem hajlandó, másrészt a fejlesztések minden cégnél az integráció irányában zajlanak.
(#1249) Cybertrone: A limit csökkentése csak problémákat okozna. Azt nem lépik meg.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #1251 üzenetére
Jelenleg minden gyártó ezt vizionálja. Már idén is kisebb szerepük lesz a tégláknak. Növekszik az igény a nettopra és az LCD-PC-re, míg a hagyományos ATX vagy microATX méretű termékek piaca csökken.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hidd el nekem be lehet állítani.
Az AMD és az NV AF-je 2-16x-ig megy. Ez tök ugyanaz. Lehet, hogy az NV-nél nem csúszka van, de az opció ott van. Legördül a menü és kiválasztod a beállítást.AA esetén sok különbség van.
Az AMD-nél van MSAA-t, ami az NV-nél CSAA néven fut. MSAA-t nem is tudsz állítani a panelben. Ez annyit jelent, hogy ha 4x MSAA-t akarsz, akkor a 16xCSAA beállítást kell választanod. Ha 8x MSAA-t, akkor 16xQ beállítás kell. Az AMD-nél extra, hogy van Edge Detect szűrés, ez az NV-nél nincs.
Az átlátszó objektumokhoz az AMD-nek és az NV-nek is van MSAA algoritmusa. Különböző néven futnak, de ugyanazt csinálják. Az NV-nél még van TrSSAA, ami az MSAA mellé alkalmazható, és az átlátszó objektumokra dolgozik.
Az AMD-nél van autolod-RGSSAA. Ilyen az NV-nél nincs, de van SGSSAA. Ez nem tolja a LOD-ot, és a mintavételezés is rosszabb eredményt ad.
Szintén van az AMD-nél MLAA. Egyelőre ennek nincs NV-s párja.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azt a jelenséget nem az SSAA küszöböli ki, hanem az AMD autolod funkciója. Az állítja a LOD-ot. Az NV SGSSAA-ja ilyet nem csinál.
Összeomlott az alkalmazás. Ezzel az NV sem tud majd mit tenni. A program kiadójának kell írni. A VGA az csak a megjelenítésért felel, de nem javítja a programkód hibáit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ismerem a shimmering jelenséget. Nem az SSAA oldja meg, hanem az autolod algoritmus. Igazából az sem oldja meg, csak kevésbé lesz látható.
Az NV-nél van negative LOD BIAS clamp szűrés. Ez valamennyire szintén eltünteti a shimmeringet, de cserébe rontja a textúrák minőségét, mivel 0-ra állítja a negatív LOD-ot.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egyik megoldás sem jó. Ne ez alapján dönts. De ha csak ez érdekel, akkor az autolod algoritmus többet ér, illetve mondjuk úgy, hogy kevesebb a hátránya (nyilván a sebességből levesz, ami az egyetlen, és számottevő hátrány). Szerintem nem éri meg a HD6970. Az 50-es alig lassabb, és cserébe jóval kevesebbet fogyaszt, és nem kazán. Ugyanez igaz a GTX 580-ra, csak ott a GTX 570 a jobb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Már mutattam egy képet a kártya hőelvezetéséről. Tipikus 300 wattos termék. Véleményem szerint minden termék kazán, ami 200 watt fölött fogyaszt. A HD 6970 is az, bár kevesebbet fogyaszt, mint a GTX 580, de így is sok.
A Mafia 2 fizikáját magadnak kell helyrerakni. Nyilván nem szép dolog mesterségesen a CPU-ra korlátozni a megterhelő számításokat. Valaki elfogadja, hogy így járt, valakinek azonban nem tetszik, hogy egy GeForce-szal már nem kapnak teljes élményt. Ezt neked kell tudni, hogy hol a határ nálad.
200 watt fölött nem lehet kulturáltan hűteni. Ez minden VGA-ra vonatkozik.Mi a probléma a DX10.1-gyel? 20 játék támogatja. A tesszelláció meg olyan hibák mellett, amiket tartalmaz, még szép, hogy nem terjed, persze a karakterekre alkalmazható.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mint írtam számomra minden kazán 200 watt felett. A HD 5970 is az.
Kb. 20 játék fut DX10.1-es módban.
Igen a Maffia 2-ben a bekapcsolt PhysX-ben fut így. Kikapcsolt PhysX mellett mindent a CPU számít. Nekem ezzel semmi gondom. Azoknak van, akik vettek egy terméket és mesterségesen korlátozva van a futás. Nem lenne jobb, ha egy GTX 580 számolhatná a ruhaszimulációt? Miért kell ezt CPU-ra bízni? Lehetett volna egy olyan opció is, hogy a felhasználó döntsön a fizikáról, hogy hol számoltatja. De az, hogy a legmegterhelőbb számítás CPU-ra van kényszerítve, hát messze nem jó neked.
Megoldható minden DX9-ben. Kérdés, hogy mennyire éri meg. Azért alkalmazunk DX11-et, mert ugyanaz az effekt gyorsabban csinálható meg alatta. Ez kimutatott tény. Örülj neki, hogy nem kell gyorsabb VGA-t venned, mert kétségeim vannak, hogy DX9-ben egy HDAO-t kiszámol-e időre a leggyorsabb kártya. DX11-ben ugyanaz az algoritmus hétszer gyorsabban fut. Lemérheted a DX11 SDK-ban.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Lehetne mesélni, hogy mi van. Kérdezz rá Laraxiornál.
Minden nézőpont kérdése, ha jónak nevezzük, hogy a Fermivel két főpartnert vesztett az NVIDIA, akkor sikeres a Fermi.
Nézzük csak. Az AMD 11 DirectX 11-es címet hozott. Az NV ezzel szemben hármat. Arról az AMD nem tehet, hogy az NV egy játékot csinál meg négy játék árából. Ha már a tényeket nézzük.
Ha hidegen hagy, akkor miért veszel ilyen kártyát? Másra ez nem jó, csak ezeket az effekteket tudod velük bekapcsolni.
Nem hiszem, hogy kartelleznek. Egyszerűen csak a partnereket akarják életben tartani. Egyelőre az AMD még jól tartja magát. Az NV már kettőt vesztett.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz SSJPeter #1358 üzenetére
Csak megjegyeztem, hogy nem a kartell miatt ilyenek az árak. A partnerek túlélése a tét.
(#1359) YencYke: A Gainward sosem volt főpartnere az AMD-nek. Ahhoz tízszer többet kellett volna rendelni, legalább.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz SSJPeter #1363 üzenetére
Nekünk az nyilván nem volt jó, ők szerették. Azóta nekünk jó és nekik rossz. Ez persze hosszútávon nekünk is rossz lesz. Érdemes felkészülni rá, hogy idén elrugaszkodnak a VGA árak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz SSJPeter #1366 üzenetére
Nyilván nem fogják ingyen adni.
Azért fontos észrevenni, hogy az AMD és az NV valamennyire bírja ezeket a strapákat, de egy gyártó azért nincs ilyen jó helyzetben, mert jóval kisebb pénzmag áll rendelkezésükre. Lásd BFG ... későn kezdték az egyeztetést az AMD-vel, és még a Radeonok hivatalos forgalmazása előtt tönkrementek. A BFG problémája az volt, hogy ők voltak a Best Buy legnagyobb beszállítója, de oda hivatalos engedély nélkül nem lehetett csak GeForce-ot eladni. A szürkepiacon jelentek meg BFG HD 5750-ek, de ezek az OEM gyártók kiszórt készletei voltak.
Most sincs minden rendben. A Palit csoportból a Gainward például nem áll túl jól, de a Galaxy valszeg egyenesbe jön, mert SSD-t fognak forgalmazni. A Point of View Tegra 2-es tabletet csinál majd, szóval ők is rendben lesznek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #1369 üzenetére
Ha nem bizniszelnek valamit, akkor sok esélyük nincs. Gondolom már előkésztették az új üzletágat, illetve remélem. Sokan mennek mindenfelé. Több gyártó alaplapot fog forgalmazni, de lesznek olyanok is, akik tápegységre, SSD-re vagy házra szavaznak. Lehetőség van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Fermi tulajoktól kérnék segítséget.
[link] - van ez a program, ami egy sample a Conservative depth outputra. Benne van a DX SDK-ban, de ne töltsetek le 1 gigát, elég ez a 16 MB-os fájl. Futtatni egyszerű, valahova ki kell csomagolni. Windows 7 kell hozzá DX11-gyel, és a rendszernek megfelelően a 32 vagy a 64 bites exét indítsátok.
Az FPS-t a felső sarokban írja. Van négy opció, amit True-ra kell rakni (alsó sarok), Gyakoralatilag indítás után nyomni kell egy K-t és egy L-t.
A kérdés, hogy mennyire gyorsan fut. A wasd-vel és az egér jobb gombját nyomva lehet irányítani a kamerát. A tűz közelében mennyi az FPS, és úgy általában?Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Köszi az eredményeket/beszámolókat. Sokat segítettek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Persze. Van egy fejlesztő a DX-es csapatban, akivel szoktam levelezni. Őt kérdeztem meg arról, hogy az OpenGL-ben miért nincs általános kiterjesztés a Conservative depth outputra (egyedül a GL_AMD_conservative_depth van). Ez egy terjedő fícsőr, például az F1 2010-ben használják, így értetlenül álltam azelőtt, hogy az OpenGL-ből hogyan maradhatott ki. Erre írta a srác, hogy a DX11-ben csak a Radeonok képesek hardveresen kezelni az összes funkciót és a GeForce az egyes eljárásokat egy emulált környezetben támogatja. Erre a DX10.1 óta lehetőség van, de csak bizonyos fícsőrökre, mint például a Conservative depth output. Itt az emuláció önmagában nem jelent komoly problémát, de a GeForce driverének ki kell kapcsolnia az early-Z checket, ami már jelentősebb teljesítménybe kerülhet. Arra voltam kíváncsi, hogy ez mennyire gond, erre adott a srác egy programot, amit ugye lehet tesztelni. Lényegében az early-Z hiánya miatti sebességvesztés érdekelt. A HD 5850-en a tűz közelében nekem 58-60 fps-em van, szóval úgy ítélem meg nem komoly a hátrány. Kb. akkora, mint amennyit az F1 2010-ben elszenved a rendszer esős versenyeken.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A tűzbe nézz bele, ne mellé nézz. Muszáj lennie sebességvesztésnek, nem mehet az emulálás miatt az early-Z. Persze a legjobb lenne, ha az AMD-nél valahogy ki tudnám kapcsolni az early-Z-t, akkor lényegében azonosak lennének a körülmények.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mert nincs sok különbség. A Heaven mindegyik faktorszintre ugyanazt a Displacement Mapot használja. Ezt pedig a moderate szintre tervezték.
A fejlesztői doksikban is meg van említve, hogy Full HD-s szinthez mérve minimum 16 pixel/háromszög alkalmazása ajánlott, a kisebb háromszög viszi a teljesítményt, de összességében nem javul tőle a grafika. Ezért baromság tranzisztorok százmillióit erre költeni egy chipben. A DX11-es API nem alkalmas a micropoligon renderre.(#1773) Cyberpunk: Azért a konzoloktól való függés az elmúlt évben jelentősen javult. Nyilván nagyon sok fejlesztő nem fog DX11-es kódot írni, de az AMD csinált egy Gaming Evolved programot, ami főleg azt a célt szolgálja, hogy ha a fejlesztő nem akar vesződni a DX11-es kóddal, akkor az AMD programozókat küld, és megírja helyettük (így született a BattleForge, Dirt 2, LotR online, D&D Online). Ez egyelőre működik, mert sokkal több DX11-es játék van a piacon, mint amennyi DX10-es volt anno, hasonló idővel a DX10 megjelenése után. Március-május időtartamban is kapunk legalább egy tucatot.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azokon a helyeken nem is kapunk többet 15-20 fps-nél. A mai kártyák egyáltalán nem felelnek meg arra, hogy így tesszelláljanak. Már ott megbukik a dolog, hogy quadpixelekre dolgoznak. Ez a leghátrányosabb tényező.
Ez a 20% jól mutatja a problémát. Az a motor, amit az NVIDIA csinál nagyon tranzisztorigényes. Azokat a tranyókat máshova is el lehetett volna költeni, és akkor a GF110 annyival erősebb lenne a Caymannél, mint amennyivel nagyobb a kiterjedése. Persze tudom, hogy az NV nem pont a játékokra tervezte a chipet, csak elméleti alapon mondtam ezt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Elemlámpa, zseblámpa
- Anglia - élmények, tapasztalatok
- exHWSW - Értünk mindenhez IS
- Nothing Phone 2a - semmi nem drága
- Gyúrósok ide!
- Medence topik
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Milyen TV-t vegyek?
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen