Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10125 üzenetére

    Korlátozza a képkockák számát a monitor frissítéséhez. Természetes, hogy ha nagyobb a sebesség, mint a frissítés, akkor esik az fps, de ettől a valóban megjelenített képkockák száma nem változik. A v-sync lényege, viszont, hogy tartsa a szinkront, és erre jó. Képtörés kizárva. Persze itt tényleg v-syncet kell használni, mert az ilyen világmegváltónak beharangozott adaptív v-synccel újra lesz képtörés, vagyis pont arra nem jó, amire elvileg jónak kellene lennie.

    (#10129) Löncsi: Egy objektum és kész. Ennyi a titka. Azon dolgoznak a shaderek, mint az állat. Nem tudom, hogy melyik Furmarkot nézed. Lehet, hogy a legújabbra nincs még az NVIDIA-nak fojtása. Szvsz nem használd, mert a te kártyád nem rendelkezik túlterhelés elleni védelemmel. Tönkreteheti a Furmark.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10131 üzenetére

    Mindenki első akar lenni, de vannak helyzetek, amikor az elsőségnél fontosabb szempontok is vannak. Néha érdemes beáldozni egy jelentéktelenebb csatát, hogy megnyerj egy nagyobbat. Most, hogy a piac már nem olyan, mint régen, ez hatványozottan igaz.

    Nem hiszem, hogy az NV annyira mérlegelt itt a VGA-piacra. Nekik a Fermivel volt egy jövőképük. Erős compute irány, a bonyolult számításokra erős shared memory teljesítmény és legyen gyors context switch. Ebből a Keplerben tulajdonképpen nem sok maradt. De nem azért, mert megváltozott az NV véleménye a jövővel kapcsolatban. Továbbra is tartják az álláspontjukat, mert hosszútávon ez az ideális fejlődés, de el kellett gondolkodni azon, hogy a Tegrában a GeForce 7 foltozott alapjai most sem megfelelőek. Kell egy új rendszer, amire lehet építeni, de se a Fermi, se a G80 nem alkalmas ide. A megoldás a Kepler, amit most látsz. Azt jól le lehet skálázni, és előtérbe került a pJ/FLOP érték növelése is. Persze ehhez kellettek áldozatok, mint a shared memory és a context switch sebességének erős megkurtítása, de egyelőre fontosabb a Tegra. Abba kell egy jól működő alap, aztán az egész továbbfejleszthető minden irányba. Ha a skálázhatóságot nézzük, akkor a Kepler jelen kiépítésében jobban skálázható lefelé, mint az AMD GCN architektúrája. A másik oldalt az AMD rendszere sokkal okosabb, és sokkal jobban kezeli a bonyolult számításokat, amelyik utat a Fermi és a megboldogult Larrabee indított el. Volt olyan blog, ahol a GCN-re "Larrabee done right" volt írva. Cinikus beszólás, de van benne igazság. Cserébe persze, amikor a lefelé skálázásra kerül a sor, akkor jönnek a problémák a tranyóigény szempontjából. Persze meg lehet tartani a VLIWx-et, ami szintén egy jól skálázható rendszer, csak annál a Kepler már jobb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10135 üzenetére

    Múltkor mondták, hogy 2012Q3 végére mindenki elégedett lesz. Dolgoznak ők úgy ahogy tudnak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10141 üzenetére

    A GK110-et nem fogják lehozni GeForce-ba. Csak a legdrágább Tesla és Quadro épül majd rá úgy 6000-8000 dollárért.
    Természetes, hogy az NVIDIA jövőképe nem változott meg, csak jelenleg fontosabb a Tegra felfuttatása mert ez a cég jövője a konzumer vonalon. Majd ha eljut az NV a Maxwellig, ami a saját APU-juk, akkor újra előtérbe kerül az erős compute, és a GPU-k helyett a platformra helyeződik a hangsúly is. A Maxwell viszont 2014-ben jön. Addig a Tegra az első, amibe fejleszteni kellett egy tranyókímélő, jól skálázható, alacsony fogyasztású rendszert (a mostani GeForce 7 alapokra épülő ULV GeForce már nem versenyképes, és a jövőben ez rosszabb lenne). Ezek az igények azzal jártak, hogy az NVIDIA beáldozta a komplex kódok gyors futtatásának lehetőségét, de ennek a Tegra esetében nincs túl nagy jelentősége. Persze nem jó, hogy a GK104-et számos komplex OpenCL programban elintézi a GF110, illetve messze lehagyja a compute irányt vett Radeon, de bevállalható, ha ez kell a Tegra sikeréhez. Konzumer szinten a Tegránál most semmi sem fontosabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #10143 üzenetére

    A GK110-et eléggé speciálisan a CUDA-ra szabták. Erre volt most igény. Voltak a Fermiben problémák, amiket orvosolni kellett. Ezzel van ahol jobb a GK110 és van ahol jobb marad a GCN. Ez most tényleg csak attól függ, hogy mi a jövőben a terv. Az NV még nem épít annyira az integrációra, mert a szoftveres oldal még nem áll készen. Az AMD már nagyon épít erre az architektúrával, mert náluk a szoftveres alapok 2013-ra meglesznek. Természetesen az NVIDIA is arra készül, hogy csak APU-kat csinál a HPC szerverekbe, de ehhez még idő kell, és nem mellesleg a Porject Denver elkészülése. Az látszik, hogy különböző ARM-os tesztplatformokkal már elkezdték építeni a szoftveres alapokat. Tehát ezen dolgoznak egy ideje. A Tegrából összehegesztett hardver itt nem annyira jó, de arra pont elég, hogy az alapokat lerakják.

    (#10144) fatallerror: Persze, hogy gyúrnak a Maxwellre. Ez a jövőjük. Az lenne a kockázatos, ha nem erre gyúrnának, mert ha nem lesz jó a fejlesztés, akkor elvesztették a háborút. Be kell törni a piacra egy saját platformmal. Ez mindennél fontosabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10145 üzenetére

    Maximum, azok utalnak rá, akik nem értik, hogy abban a rendszerben legalább 1,5-2 milliárd tranzisztor felesleges játékra. Totál értelmetlen kiadni egy olyan GPU-t, amiben dedikált DP feldolgozók vannak. Egyszerűen rengeteg helyet foglal, és haszna nulla. Van még benne egy elég komoly ütemező is, aminek haszna a HPC-piacon kívül teljesen lényegtelen. Szóval ilyen formában ezt GeForce-ba nem fogják kiadni.

    Másra nem éri meg gyúrni. A Tegra a legfontosabb most a cég életében, mert az az egyetlen konzumer termékvonaluk, mely értékes és növekvő piacra nevez. A Fermi azért volt gáz, mert nem volt skálázható. Volt egy ideális szint, amit a GF104 és 114 képviselt. Ez nagyjából jól működött, de felette túl nagy volt, alatta pedig túl lassú. Ez skálázhatósági probléma. Ezért is változtatták meg az ütemezést a Keplerben, hogy ezt a gondot áthidalják.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10148 üzenetére

    Teljesen mindegy, hogy mire veszi, ha a piac 70%-ának max. 100 dollárja van egy VGA-ra. Ez a réteg adja a piac legnagyobb nyereségét. Nyilvánvaló, hogy egy-egy olcsó kártya eladásán kevesebb a haszon, mint egy-egy csúcskártyáén, de az eladási volumen különbsége óriási, és ha ezt beleszámolod, akkor összességében az olcsó termékekből lesz több nyereség. Ahogy esik ki ez a nagy volumen úgy fog nőni generációról-generációra a VGA-k árazása, mert az üzletágon belül a kicsikből kieső nyereséget a még eladható termékeken kell kompenzálni. Ez persze oda vezet, hogy még kevesebb VGA kerül eladásra, ami további áremelkedést is hoz. Természetesen az IGP ki tudja váltani ezt a részt, de az NV-nek pont az a problémája, hogy nincs IGP-je, amivel a piac nagy részébe nevezni tudnának. Ez majd megváltozik, mert tervezik a saját processzorukat, és arra építik a Maxwellt.
    Ennek az egész platformosításnak lesz majd egy jó hozománya is, ami a VGA-k árában meg fog látszani. A VGA-piac továbbra is alacsony hasznot termel majd, de azzal, hogy platformként tekintenek a cégek a fejlesztésekre előtérbe kerül a nagy haszonnal kecsegtető APU eladása is. Az aktuális tervek is erről szólnak. Az NV célja, hogy GeForce mellé NV APU-t vegyél, az AMD-é pedig, hogy Radeon mellé AMD APU-t. Ezt direkt termékkapcsolással nem tehetik meg, mert az törvénytelen, illetve az alapvetően nem baj, ha Intel holmi mellé is veszel VGA-t. Ellenben a cél egyértelműen a platform erősítése, éppen ezért ha platformot raksz össze NV APU+GeForce vagy AMD APU+Radeon, akkor extrákat kapsz. Például olyat, hogy AMD mellett teljes lesz a HSA, míg GeForce mellett a PTX funkcionalítás. Az NV-nek még ott a PhysX is. Egyszerűen nem tart semeddig platformhoz kötni. Csak akkor lesz elérhető, ha teljesen NV-s a rendszered. Ugyanezt már láthatod az AMD-nél, ahol teljesen AMD-s géppel más vezérlőpultot kapsz. Ugyan itt még csak a Steady Video az extra és a CPU paraméterezése, de ezek a jövőben sokkal szigorúbbak lesznek. Ezzel a VGA-k ára csökkenhet, mert teljes funkcionalításhoz úgyis platform kell, vagyis nem baj, ha alacsony rajtuk a nyeres, a platformon már összességében magas lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10150 üzenetére

    Először is kezdjük ott, hogy a GK110 tömeggyártása 2012Q4-ben kezdődik meg. Addig a kihozatalról semmit sem tudunk. A másik az, hogy két darab GK104-nél semmi esetre sem gyorsabb, ellenben a gyártása drágább lenne. Lehet csinálni a GK104-nél nagyobb GPU-val GeForce-ot, de biztos nem a GK110 lesz az, mert annak semmi értelme.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10156 üzenetére

    Nem csak hardcore gamer van, hanem casual is. Sőt, a casual többet ér, mert sokkal többen vannak. Irodába senki sem vesz már dGPU-t.

    Az architektúra csak egy eleme a rendszernek. Win RT lesz ARM-ra. Nyilván mire itt a Maxwell már lesz új Win is, vagy ha nem is új, akkor egy jobban kigyúrt. Nem marad a Win RT örökké a kezdeti szinten. Az biztos, hogy az NVIDIA-nak nincs x86/AMD64 licence, vagyis csak olyan cGPU-t képes készíteni, ami az ARM-hoz köthető architekturálisan, erre van licencük.

    Az APU-t nagyon rosszul látod. A skálázhatóság hívta életre a koncepciót, mert semmi esélyed skálázni a homogén többmagos rendszert, csak ha kiheréled az egy szálú teljesítményt. Ha csak az AMD érdeke lenne ez az egész, akkor az Intel nem állt volna elő az Ivy Bridge-dzsel és az NV sem tervezne APU-t. A valóság az, hogy a heterogén többmagos rendszerekben az összes cég hisz, és nem csak az AMD. Hozzájuk csak azért kötik az APU-kat, mert az AMD látta meg először a skálázhatóság problémáját, és elsőként is reagáltak rá.

    Hihetsz elméletekben, hogy az NV eredetileg így meg úgy tervezte, de ebben az esetben megvalósíthatatlan dolgokban hiszel. Nincs értelme egy ekkora lapkát lehozni erre a piacra, mert tranzisztorok milliárdjai állnának benne kihasználatlanul a gyártás pedig vinné a pénzt. Jobban megéri tervezni ide egy másik lapkát, mert a GK110 alkalmatlan a versenyre. Ezt a HPC-re tervezték és ennyi. Többet nem is akarnak, mert a mérnökök látják, hogy az extrák a GeForce piacán korlátokat is jelentenek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10158 üzenetére

    Ez egyáltalán nem így van. Pont, hogy fordítva mondják a gyártók. Egyre több a Casual gamer PC-n, és ezt hivatott alátámasztani, hogy egyre több a budget kategóriába szánt játék is. Pont, hogy a hardcore réteg kezd kikopni.

    Valóban nem, de valahol el kell kezdeni. Ha itt az ARM, akkor az új programokat arra is lefordítják. Ezzel nem mondanám teljesen esélytelennek. Az NVIDIA mindent meg fog tenni ezért, mert a jövőjük függ ettől a rendszertől. A Microsoftra biztos számíthatnak.

    Az Intel az arról híres, hogy az AMD-t szokta követni. :)) Nem, itt senki nem követ senkit. A cél, hogy a gyártástechnológia problémák mellett is megőrizzék a gyártók a lapkák skálázhatóságát. Erre van a heterogén módon programozható lapkák koncepciója. Ezt nem az AMD találta ki, ez egy logikus evolúciós lépcső. Olyan amilyen a többmagos processzorok lépcsője volt pár éve.
    Szerinted a Larrabee projektbe beleölt dollármilliárdok mire szolgáltak? Az Intel sem gondolta az elején, hogy két implementációból kettő a kukában végzi. Nem olyan egyszerű egy GPU-t összerakni, azért haladnak lassan.
    Az NV-nek rengeteg választása van/volt, de akarják a PC-s piacot, így ők is integrálnak. Ez egyébként logikus. És ez nem a HPC-piacnak szól, hanem a konzumer szintnek is.

    A pletykákra ne építs, mert az gyártók mindig is azt mondták, hogy a GK104 lesz a GeForce csúcslapkája. Márciusban még nem számoltunk be róla, de az NV elmondta nekünk, hogy lesz ennél nagyobb lapka a Teslába, de nem GeForce-ba. A GK110 GeForce-ban hit kérdése. A valóságban az NVIDIA nem fog egy ilyen hibát elkövetni elég volt nekik a GF100/110.

    A GTX 560 Ti 448 eleve egy limitált sorozat volt. Csak azért született meg, mert volt pár lapka, amit meg kellett venni, de nem volt eladható GTX 570-be és 580-ba. Ezzel vagy kiadják egy termékbe és eladják, vagy kidobják őket a kukába, világos, hogy ha már benne áll a pénz, akkor legalább egy részét hozzák vissza. Emellett érdekes infó, ami nincs megerősítve, de állítólag 40 nm-en a GF100/GF110 kihozatala sosem lépte át a 30%-ot. Nyilván nem véletlenül ragaszkodott az NV a jó lapkánkénti fizetéshez, miközben a 40 nm 2011-ben már elég olcsó volt, és jó kihozatal mellett olcsóbb lett volna a waferenkénti fizetés. A 28 nm teljesen más. Más a fizetési modell, és más a gyártástechnológia. Minden egyes tranyó számít, amit meg lehet spórolni a tervezéssel. Mint mondtam lehet a GK104-nél nagyobb lapkát csinálni, de pont a GK110-et kiadni nagy hiba, mert abban rengeteg felesleges dolog van. Emellett a Teslába nagyjából 600 MHz-es lesz a termék. GeForce-ban 300 wattban tudnának hozni egy 750 MHz-et. Ezzel kb. gyorsabb lenne a GK104-nél úgy 25-30%-kal. Egyszerűen nem éri meg, nincs egy üzleti szempont sem a kiadás mellett, ellenben a kiadás elleni szempontokat lehetne sorolni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10161 üzenetére

    Nem veszek kötekedésnek, de nézd meg a waferárakat helyzetét. A 28 nm teljesen más kategória. [link]
    Emellett ez még egy fontos grafikon. [link] - Moore törvénye láthatóan él, de a többi szempont szerint megállt a skálázódás. Igaz, ez az Intelre van levetítve, de a fizika törvényei egységesek.
    Ezeket az NVIDIA is látja, sőt mindenki. Egyszerűen már nem lehet úgy tervezni egy lapkát, hogy majd az új gyártástechnológia meghozza a skálázást. Ennek a kényelmes helyzetnek vége, és a Dennard Scaling ami ezt biztosította megfeneklett. Ezek azért elég komoly érvek szerintem.
    A GT200 és a GF100 pedig nem volt nagy durranás ... egyáltalán nem hozták azt, amire a méretükből számítani lehetett. Zömében a második linkelt kép ennek az oka, csak akkor még ez nem volt annyira jelentős probléma, mint 28 nm-en. Ne feledd azt sem, hogy a GK110 ~600 MHz-en fog működni (a Tesla K20 esetében erre vannak utalások, és mínusz két SMX blokk, ha ez az órajel marad ... természetesen több SMX mellett a magórajel csökkenni fog). Nem fogadnék arra, hogy minden esetben gyorsabb, mint a GK104 egy játékban. HPC-ben tuti. Arra fogadnék, de a játék az más.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10163 üzenetére

    Nem, ezen a grafikonon négy adat van. Tranyók, órajel, energiafelvétel és IPC. Azt mutatja, hogy Moore trövénye és a Dennard Scaling hogyan változik. Moore törvénye láthatóan él, de a többi az erős skálázhatósága megfeneklett. Ez napjaink legnagyobb problémája, hogy azok a szabályok már nem használhatók, amelyekre a 2000-es évek elején, illetve azelőtt a chipek tervezése épült. Ez hozta el a többmagos processzorokat is, de minél közelebb kerülünk a CMOS határaihoz, annál erősebbek a fizika törvényeiből eredő limitációk. Pontosan ezért megy mindenki a heterogén többmagos fejlesztések irányába. Most, hogy a Dennard Scaling ennyire lapos grafikont mutat új elvek szükségesek a chiptervezésben. A teljesítmény növelésének egyetlen módja az maradt, ha a lapka átlagos pJ/FLOP aránya egyre kisebb.

    Olyan nincs, hogy 3D-s tranyóelhelyezés. Már a planáris tranzisztorok is 3D-sek. Ez csak egy marketingszöveg. Ennek a neve valójában FinFET. Az Intel azért vezette be, mert el akarják kerülni a SOI használatát. Idővel persze elkerülhetetlen lesz, de egyelőre jóval több cég készít bulk wafert, így addig kell húzni ezt, ameddig lehet. A fenti problémát nem oldja meg a FinFET sem, sőt még az FD-SOI melletti FinFET sem fogja. Az egyetlen út az adott lapka pJ/FLOP arányának a csökkentése. Ezt jelenleg két módon lehet. Követni Pollack szabályát, ami a jóval egyszerűbb processzormagokra való tervezést próbálja előtérbe helyezni. Ilyenkor az adott processzormag kisebb lesz, így több fér bele egy adott tranyóbudgetbe, és azzal, hogy a különböző bonyolult feldolgozó logikákat (pl.: out-of-order helyett in-order rendszer) egyszerűsítik csökken a pJ/FLOP érték. Ezzel a teljes lapka throughput teljesítménye növelhető, cserébe viszont drasztikusan esik az egy szálon elérhető teljesítmény. A másik opció a heterogén többmagos felépítés, vagyis a lapkában két célirányos megközelítés lesz a magokra, azaz LOC és TOC dizájn. Az előbbi magok a hagyományos értelemben vett processzormagok, vagyis továbbra is a késleltetésre érzékeny feldolgozás az elsődleges feladatuk, így alapvetően gyúrnak az egyszálú teljesítményre, míg az utóbbi magok lényegében megfelelnek a lapka IGP részének, vagyis kifejezetten a throughput terhelést igényeit tartják szem előtt. Ezzel a módszerrel a processzormagok pJ/FLOP értéke nem csökken jelentősen, de az IGP ezt kompenzálja, így az átlagolt érték már csökken, ezenkívül megmarad a magas egyszálú teljesítmény is. A hátrányok a LOC és TOC dizájnnal ott keletkeznek, hogy eléggé meg kell változtatni a programozási szokásokat, illetve úgy kell tervezni az IGP-t, hogy az a rendszer szerves része legyen, és ne csak egy kiegészítője. Ez az oka annak, hogy az AMD a GCN-t már úgy tervezte, hogy ugyanazokat a 64 bites pointereket kezelje, amelyeket az AMD64-es processzormagok. Ugyanez lesz a Larrabee integrálásával is, illetve az NV Maxwell is erre tart, csak nyilván ARM alapokra építkezve.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10164 üzenetére

    Én értem, hogy a véleményed megvan, de ugyanerről van véleménye a gyártóknak is. Az övéké pedig fontosabb, mert ők fizetik ki a waferek árát.

    Arról is. Valójában azonban inkább arról szól, hogy kezdenek elhatalmasodni a CMOS fizikai korlátai. Ezek a gyártástechnológiai váltásokkal egyre rosszabbak lesznek.

    Nem így van. A 300 wattot elsőként és máig egyedül a GeForce GTX 590 szarta le. A HD 6990-et úgy tervezte az AMD, hogy az OEM-ek alkalmazhatták hozzá a -20%-os PowerTune beállítást, hogy szabványos legyen a termék. A GeForce GTX 590 startjakor az elfüstölt teszttermékekből pedig látszik, hogy miért fontos ez a szempont. 300 wattot megfelelően védett hardveren lehet csak túllépni (pl.: PowerTune vagy hasonló nagy hatásfokú hardveres rendszer mellett). A GTX 590 nem volt ilyen. A megjelenés után a driverben korrigáltak az eredeti paramétereken, hogy biztonságos legyen használni. Ezzel elő is állt az, hogy ha tuningoltad a GTX 590-et, akkor nem gyorsult, hanem lassult. A 300 watt pedig állandóan figyelve lesz. Ha a dobozos termékekben nem is, de az OEM-eknek készítenek olyan BIOS-t, mely 300 wattra limitál.

    A Tesla órajelek eléggé fontosak, mert ezek kapják a legjobb lapkákat, amelyek csak léteznek. Itt 225 watt a határ, ezért ide csak a legjobb chipekkel lehet beférni.
    Rosszul elemzed a helyzetet. Nem a GK104-hez kell hasonlítani a GK110-et, hanem két GK104-hez. Utóbbi konfigurációval mindig gazdaságosabb lesz a megcélzott piac, így ez a GK110-et teljesen lényegtelenné teszi egy GeForce-ban. 300 wattban a legjobb esetben fér bele 700 MHz-es órajellel a GK110. Ha nem butítanak rajta semmit, akkor nagyjából 10-30%-kal lehet gyorsabb a GeForce GTX 680-nál. Ezzel kapsz egy olyan terméket, melyet drágább gyártani, mint a GeForce GTX 690-et és jóval lassabb is. Üzletileg semmi sem indokolja ezt. Akkor inkább egy új lapka, amit az aktuális architektúra birtokában egy év alatt össze lehet rakni. Persze ott is figyelembe kell venni, hogy a dual-GPU-s koncepciónál ez sem lesz hatékonyabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10170 üzenetére

    A saját véleményem más. Szerintem jöhetne a GK110, mert a GCN architektúra nagyon elhúzott a compute-ban. Amit mondok az csak az NV-nek az üzleti szempontjai. A cég számára mindig a profit lesz az első.

    A 300+ wattos kártyából egy precedens van. Az is csak azért, mert képtelenség volt megcsinálni 300 watt alá. Emellett az a termék megmutatta, hogy miért is ragaszkodnak az OEM-ek a szabványokhoz. Biztos emlékszel arra, hogy hány teszttermék pusztult meg. A Lab501 még alapórajelen is megölt egyet.

    Egy-két játék nem jelent értéket a piacon. Ha azoknak problémás a Multi-GPU, akkor az lesz és kész. A többi játékon meg lesz az átlagos előny. A többi probléma meg a velejárója a multi-GPU-nak. Van opció egy GPU-t venni.

    Teljesen mindegy a GK104 fogyasztása, mert a GK110-ben más az SMX szervezése és a globális ütemezés is sokkal bonyolultabb. Abból a legjobb kiindulni, hogy a 225 wattos Teslára az NV utalása szerint ~600 MHz és 13 darab SMX lesz, vagy ~560 MHz 14 darab SMX-szel. Ezt lehet 300 wattra felszámolni. Mivel ezek a legjobb lapkák, így talán számoljunk 12 darab SMX-szel, hogy magasabb lehessen a magórajel. Nagyjából úgy hozható lenne egy ~750 MHz-es magórajel 300 wattal. Ezzel ~15-25% lenne az az előny, amit fel tudna mutatni a GTX 680-hoz képest. Ez abszolút nem éri meg. Sokkal jobban megéri a GTX 680-at gyári OC-zni. 800 MHz nagyjából aktív 10-11 SMX-szel lenne meg. Így sem lenne sokkal másabb a helyzet. Anyagilag nincs alátámasztva ennek a terméknek a létjogosultsága. Arról nem is beszélve, hogy a VGA-piac 300 dollár felett a teljes eladás ~2-3%-át adja. Már három GeForce van ebben a szegmensben. Többre nincs szükség, mert pici a vásárlóbázis. Ahol szükség lenne kepleres GeForce-ra az a 100-200 dolláros réteg. Ott 15-20%-os a vásárlóbázis a VGA-piac egészét nézve. Az NVIDIA-nak most már ide kell koncentrálnia, különben a Radeonok elviszik az OEM-es megrendeléseket.
    Szintén fontos, hogy mire lehetne GK110-es GeForce már 2013-at írunk, amikorra lehet felújított GK104.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10178 üzenetére

    Mindegyik GTX 590 ugyanolyan. Nem volt korai meg új verzió. Annyi történt, hogy az NVIDIA kiadott egy drivert, ami megváltoztatta a specifikációkat. Az alapfeszültség 938 mV-ra csökkent, és a driverben lett egy határ, ami megszabta a túlterhelésvédelem életbe lépését. Ezt annyira szigorúvá tették, hogy a termék a feszültség emelésére vesztett a sebességéből. [link]
    Ennyi történt. A túlterhelés elleni védelem volt egy nagyon lassan reagáló megoldás. Ez nyilván 300 wattig lehet, hogy jól működött a GTX 580-on, de +60-70 watt már más. Oda szigorúbb szabályok kellettek.
    Valószínű, hogy a következő körben az NV is végre megfontolja a teljesen hardveres védelmet. Igazából máig nem értem, hogy miért ragaszkodnak ehhez a félig szoftveres megoldáshoz. Tény, hogy hardver szintjén ez a legolcsóbb, de több száz ms-os késleltetése van. Ha igazán ráfeküdnek, akkor csinálnak egy PowerTune szerű, stream processzorok szintjén is működő megoldást, de elég az is, ha a HD 5000-es Radeonok hardveres túlterhelés elleni védelmét lemásolják. Az is gyorsabban működik a szoftveres kiértékelésnél. Bár ez ellen az anyagiak szólnak, mert ez a legdrágább megoldást mind közül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #10180 üzenetére

    A túlterhelés elleni védelem ugyanaz, ami van a GTX 580-ban. Egyszerűen ez a megoldás félig szoftveres. Az adatokat nem a hardver, hanem a driver értékeli ki, és ad engedélyt a beavatkozásra. Ez kapásból 500-700 ms-os késleltetés, vagyis a hardver a problémákra ennyivel később tud reagálni, mert ennyi idő, amíg a driver választ ad. Ez az amitől megdöglöttek a teszten a GTX 590-ek. Alapvetően nem működött rosszul a védelem, csak mire választ adott a szoftver, addigra köszönte szépen a hardver és megadta magát. Az új meghajtó ezen nem változtatott, csak a feszültséget vette vissza. A válasz ugyan továbbra is lassú volt, de nagyobb volt az esélye, hogy nem ég le, mire megérkezik, mert a feszültség kisebbre volt szabva, így a terhelés is alacsonyabb volt.
    Félreértesz, lehet 300 wattnál többet zabáló kártyát csinálni, de teljesen hardveres védelem nélkül nem életbiztosítás. A Radeon HD 6990 azért tartja magát ennyire jól tuning mellett is, mert a PowerTune pár ns-os késleltetéssel reagál, és ha kell, akkor az órajelet is valós időben csökkenti. A PowerTune előtt még az AMD sem mert 300 watt fölé menni. A HD 5000-es sorozat védelme is 50 ns-os késleltetésű volt, vagyis sokkal gyorsabb, mint bármelyik szoftveres megoldás, de ez csak a teljes lapkára vonatkozott, vagyis nem volt képes a shaderek szintjén beavatkozni, és az órajelet dinamikusan csökkenteni. Két opciója volt: lefagyasztja a terméket, ezzel megelőzve a károsodást, vagy kiad egy pihenj parancsot, ami a GPU-n egy teljes ciklust kihagy. Előbbi a fagyás miatt kellemetlen, utóbbi pedig nagy terhelés mellett szinte időszerű kihagyás, szóval egyik sem jó egy 300 wattot túllépő termékre. Ide olyan védelem kell, amilyen a PowerTune, mert az előbbi szintek mellé bekerült a terhelésszabályzás, az órajel állításával. Ha kell, akkor a PowerTune leveszi az órajelet a biztonságos szintre, emellett az OEM-ek is örülhetnek, mert volt BIOS, amivel 300 wattra volt limitálva a HD 6990.
    Most a GTX 690-nel is 300 watton maradt az NVIDIA. Egyszerűen nem éri meg megkockáztatni félig szoftveres védelemmel a nagyobb fogyasztást. Ráadásul így megvannak az OEM megrendelések is.
    Mi is első kézből gyűjtjük a tapasztalatokat számos Radeonnal a tesztben. Ha láttad, akkor mindig csinálunk Zero Core mérést. Ha valami nem stimmel, akkor azt észrevettük volna. Egyedül a gyári OC-s termékeket nem néztük. Ilyet még nem kaptunk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10182 üzenetére

    Ezen a piacon a presztízs másodlagos lett. A profit az első, mert évről-évre kevesebb lesz az eladás. Már a Samsung is ki akarja tenni a valagát, mert veszteséges a GDDR5-ös lapkák gyártása. Egyszerűen nincs meg az a rendelési volumen, ami régebben megvolt.

    Az NV jól mondja, csak akkor szabad ezt a terméket bevetni, ha az AMD elővarázsol valamit, amire nagyon kell a válasz. De mivel az AMD is ugyanúgy értéktelennek tekinti a hagyományos VGA-s fejlesztéseket, így nincs sok esély rá, hogy hirtelen jön egy lapka, ami 30-40%-kal gyorsabb lesz a GK104-nél. Mire ez megtörténik, addigra 2013-at írunk, amikorra már meg lesz a GK104 utód is. Szóval a GK110 mellett egyetlen szempont sincs. Persze ebbe a HSA és az integrációs tervek beleszólhatnak, de ez ellen az NVIDIA úgy sem tud választ, mert nincs még platformjuk. Az Intellel pedig nem tudnak szövetkezni, mert x86/AMD64 licenc nélkül csak az ARM-ra építhetik a GPU-k tudását. Ez előny is meg hátrány is. Előny, mert az NV-nek nem kell azzal törődni, hogy a GPU kezelje ugyanazokat a 64 bites pointereket, amiket a CPU használ. Ugye az AMD már így tervezte a GCN-t, és ezért a compute irány is. Abból a szempontból viszont hátrányos az NV-nek ez az egész, hogy az AMD már ennyire előretört a platformtervekben. Ennek rövidtávon csak annyi a hatása, hogy az AMD procik/APU-k mellé Radeont érdemes venni, de mivel az OEM-gyártók eddig sem rajongtak az AMD+GeForce kombóban, így ez annyira nem lényeges. Hosszútávon viszont nagy gáz, hogy a fejlesztésekre az AMD-nek lesz először olyan komplett rendszere, ami szoros platformintegrációt valósít meg. Ráadásul, mindezt legalább egy-két évvel a konkurensek előtt. Feltételezve, hogy az AMD Kaveri itt lesz 2013 közepén, míg az NV első ARM processzoros APU-ja, a Maxwell 2014-ben befut. Gondolom az Intel tartja majd a 2015-ös terveit a Skylake-kel, bár az Larrabee-re épít, szóval ott bármi megtörténhet, ami nem kedvező.

    Ami viszonylag sokat fogyaszt az az ütemezés. A GK110 esetében ez eléggé kigyúrt lett. Ezért nem akarja az NV lehozni GeForce-ba, mert semmi értelme nem lenne a dupla GK104 mellett, az extra funkcióknak pedig a CUDA-n kívül semmi sem veszi majd hasznát. Ami esetleg tényező lehet még az a dupla pontosság ugyanis a DX11.1 ezt már pixel shaderre is engedi, de kizártnak tartom, hogy ezzel valaki élni fog. Maximum technikai demók formájában.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10184 üzenetére

    Az NV mondhat bármit. Azt mondta JHH, hogy nincs gond a kihozatallal mégis a GK107 helyett Fermiket szállítanak a notebookokba. Az NV mindig azt mondja, amit az adott közönség hallani akar. Ezt az elmúlt évek során már meg lehetett tanulni.

    Quadroba kellenek. De a textúrázókat használják Teslában is.
    Az első hely megvan a GTX 690-nel is. Ha ezt esetleg az AMD legyűri egy HD 7990-nel, akkor is biztos, hogy két GK104-gyel gyorsabbat lehet csinálni, mint egy GK110-zel.

    Nem kockázatos az a GK104. A Tegrába ez kell. Nincs hely a felesleges tranyóknak. Szvsz most ez a legjobban skálázható modern dizájn lefelé.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10203 üzenetére

    Elég lenne, ha a cickó lengne. :K De sajna nem. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10205 üzenetére

    Világos. Most ezt olvassák a fejlesztők és szerintem már implementálják a csöcsfizikát. :))

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10215 üzenetére

    [link] - ez meg elfut a next gen gépeket. Szóval, ha az UE4 nem fut, akkor az nem a hardver hibája. Mondtam, hogy Sweeney évekig kergetett a Larrabee-val egy álmot, és természetesen évek munkája ment a szemétbe a Larrabee lufi kipukkanásával. Szóval azon szerintem nem kell csodálkozni, hogy gyengének titulálják a next gent. Egyszerűen rossz irányba fejlesztettek évekig. Az sem véletlen, hogy partnerek UE3-at választanak még a next-genhez is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10217 üzenetére

    Minden tech-demo jelenleg. Még az UE4 is. Next gen gépet meg nem mutathatnak a nagyközönség előtt, szóval csak videóval lehet megmutatni mit tudnak. A stúdióban felvették a rendert és kiadták. Az a kérdés, hogy kinek a next gen gépe volt, amiről ezt felvették. Szerintem a Wii U-t kizárhatjuk. Erős, de nem ennyire. Szóval marad az új Xbox, vagy az új PS. Előbbire tippelek, mert a Square Enix az FF-eket Xbox-ra fejlesztette, bár mennek PS3-on is. Neal Robison anno nem is mondott olyan balgaságot, amikor Avatar szintű grafikát jósolt. Egyszerűen csak a hardverre kell szabni a motort.

    Azt elhiszem, hogy az Epicnek kellemetlen, hogy Larrabee sincs, és az E3-as hírek szerint CUDA kompatibilis GPU sincs az új konzolokban. Ezekre a pillérekre helyezték az új motort, és jó esély van arra, hogy az első után a második is összetörik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10220 üzenetére

    Mondom, hogy ami next gen és valóban a háttérben futott, annak PC-ről kellett mennie, mert új gépet nem vihettek az E3-ra. Régi gépről persze futtathatnak, de az Ubi standján voltak játékok, amelyek PC-ről mentek, csak Xbox kontrollert mutogattak. :)
    A Square Enix az FF demóját valamelyik next gen konzolról vette fel. A japánok mindig is durvák voltak a dizájnban és nem hülyék a programozáshoz sem, szóval feltételezve a next gen konzolok erejét ilyet simán kihoznak.
    Azt tudom, hogy a Crytek és az Epic biztosan PC-ről demózott. Hirdetik is a konzol halálát, illetve a next gen gépek gyengeségét. Ezen állítások mögött az állhat, amiről régóta pletykálnak, vagyis hogy egyetlen next gen konzolba sem kerül NVIDIA GPU. A Crytek és az Epic azt mondja, amit az NV kér. Az NV-nek pedig a konzol nem kívánt alternatíva úgy, ha nincsenek benne a gépekben. Inkább a felhő.
    Az Epic számára nyilván nagyon nehéz, mert az UE3 túlkoros, míg az új rendszert két olyan technológiára alapozták, ami a konzolon nem érhető el (az egyik PC-n sem, gondolom ez nincs is benne). A Cryteknek könnyebb a dolga azért, mert a CryEngine 3 használható next genbe is. Nem ideális, de saját technológiákra építenek, szóval fejleszthető.

    Poén amúgy, de a lesajnált Carmack és az ID Tech 5 áll a legjobban a next gent tekintve. A nagy öreg ismét jól lőtte be az irányt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10222 üzenetére

    Én Carmack meglátásával értek egyet. A konzol és a PC mellé beépül a felhő. Megmarad a konzol és a PC létjogosultsága, de a felhő egy réteget el fog vinni. Az új konzolok sikeresek lesznek, de a felhő miatt nem annyira, mint a mostaniak, így az élettartamot is hosszabbra fogják tervezni. Szóval 2022-2024 előtt nem jön ezeknek leváltójuk. Az biztos, hogy az LG és a Samsung a felhőre gyúrja az okostévéit. Szerintem ezzel más is megpróbálkozik. A Sony-nak itt lehetne egy értékes ütőkártyája, mert rengeteg PS exkluzív játékot birtokolnak. Ezeket akár a saját okostévéikre is elérhetővé tehetnék a felhőn keresztül.
    A PC marad, de mivel mindenki platformhoz fejleszt, így erősen platformosodik úgy 2 éves távlatban. Egyszerűen előny lesz, ha a GeForce-ot NV APU-hoz, míg a Radeont AMD APU-hoz veszed. 2016-2017-ben pedig már nem lesznek VGA-k, ebben szerintem az NV-nek igaza lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #10224 üzenetére

    Iszonyatosan fontos meglátni azt a tényt, hogy az ID Tech 5 nem licencelhető. Carmack az ID Software-t eladta a Zenimaxnak. Most a részei ennek a cégnek. Ennek megfelelően minden szellemi tulajdonuk a Zenimaxé. Ők döntenek arról, hogy az ID Tech 5 licencelhető-e, de korábban már mondták, hogy házon belül kívánják felhasználni. Alapvetően az ID Software felvásárlása a Zenimaxnak nem a Rage és a Doom miatt volt értékes. Ebben is van pénz, de sokkal értékesebb, hogy kaptak egy olyan csapatott, amely élvonalbeli motort készít egy olyan emberrel az élen, mint Carmack. Ezt a motort a Zenimax összes csapata meg fogja kapni az új címekhez, így ezzel készülhetnek később az új The Elder Scrolls játékok például. Ez volt a felvásárlásban a koncepció.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10228 üzenetére

    Az UE4 érdekessége, hogy valós idejű GI-t kapott, ami elvileg ennek az elgondolásnak a módosított változata. [link] - lényegében a megvilágítási modell teljesen valós idejű. Az adatokat nem 2D-s textúrában, hanem voxelben tárolják. Nyilván a hatékony elérés érdekben Octree rendezést használtak. Megfelelő optimalizálás mellett a pro oldalon fel lehet hozni, hogy annyira nem számításigényes, mint a többi valós idejű GI, teszem azt mondjuk az AMD Leo demóban (illetve egy patch után a Dirt Showdownban) alkalmazott Forward Render megoldás, így nem kell annyira építeni az LDS-re sem, amiben a Kepler számít a valaha készül leggyengébb teljesítményű DX11-es architektúrának. A kontra oldalon kisebb problémák hozhatók fel a textúraszűrésekkel, de ezeket valószínűleg meg lehet oldani shader alapú szűréssel, ám nagy hátrány, hogy a voxelben tárolt információk zabálják a memóriát. Az Epic a tesztgépben 16 GB-ot használt, de a technika alapjait tekintve minimum 8 GB kell majd.
    Igazából két csoportra oszthatók ezek a valós idejű GI algoritmusok. Vagy többet számol és kevésebb RAM kell, vagy kevesebbet számol és több RAM kell. Egyik sem jó, de az egyik mellett lándzsát kell törni. Persze mindkettő skálázható, így alkalmatlan egyik sem lesz, csak hát a minőség ...

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TESCO-Zsömle #10230 üzenetére

    A hardver ára másodlagos főleg, hogy a megfelelő erőforrást kínáló chipek sem drágák. Egyszerűen manapság a legmodernebb GI-ok közé a Frostbite 2-ben használt, az AMD Leo-ra tervezett megoldása és a Voxel Cone Tracing tartozik. Mindegyiknek van előnye és hátránya. A Frostbite 2 motorja ugye deferred render, és hát a VRAM-ot kétpofára zabálja, de amúgy gyors és szép, és ami fontos, hogy a next gen konzolokba is jó, mert a mostaniakon is elmegy. Az AMD megoldása forward render, és elsősorban a számításra helyezi a hangsúlyt, a forward render miatt az MSAA is tökéletesen kompatibilis, és alig használ memóriát. A mai konzolokban nem lenne az igazi, de a next genbe nagyon jó, illetve egy Dirt Showdown patch-csel hamarosan megtudjuk, hogy PC-ben hogyan muzsikál. A Voxel Cone Tracing elméleti előnyeit és hátrányait előbb részleteztem, de a gyakorlatban még legalább 2 évig nem látjuk majd. Ami miatt ez kockázatos, hogy a PC-be vehetsz 16 GB memóriát, de vajon mennyit raknak a next gen konzolokba? A Nintendo 1,5 GB-ot, míg az MS és a Sony részéről sem hallani 2-4 GB-nál többről (azt is bele kell kalkulálni a konzol tervezésénél, hogy a memóriák ára nem marad állandóan alacsony, jön egy új szabvány, és régi ára megnő ... PC-ben már rég váltottál, de a konzolban rá vagy kényszerítve, hogy olyat használ, amire már kevés az igény 5-6 évvel a konzol megjelenése után). Ha erre épít egy motor, akkor a kevés memória a leskálázást is jelenti, ami pedig egy bizonyos szint alatt csúnya eredményt fog adni. Gondolom Sweeney számára ez az egyik ok, amiért erősen támadja az új konzolokat, mert azokba nem fognak 16 GB memóriát rakni. Az Epic szerint az összes partnerik UE3-mal készül a next genre. Valószínű, hogy az UE4-et senki sem érzi elég biztonságosnak ilyen távlatban. Nincs meg rá a biztosíték, hogy jó lesz a next gen gépeken. Persze a motor fejleszthető, így ha az MS és a Sony nem fogja kielégíteni az Epic igényeit, akkor át kell dolgozni a rendszert.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10232 üzenetére

    A marketing az mindig megy, ez nem az UE4 sajátja. Nyilván nem limitációkra fogják felhívni a média figyelmét. A licencelők meg tudják, hogy mit akarnak. Bár, ahogy elnéztem az E3-at szokatlan dolog került elő. Rengetegen inkább saját motort fejlesztenek, vagy legalábbis a kiadók megpróbálják házon belül elintézni ezt a kérdést. Sajna a teljes körű licenc az minden szempontból nagyon drága. Márpedig egy AAA játéknak erre szüksége van, ergo, ha veszel egy motort, azt ugyanúgy sok helyen át kell írni, mintha az egyik fejlesztőcsapat technikáját odaadnád egy másiknak. Bár ez nagyon függ az igényektől, de látványosan esik a licencre az igény. Ezért jött az UDK és a CryEngine SDK is ingyen. A garázsfejlesztőknek éri meg ebbe belevágni, mert olyan az Epic és a Crytek alap licenceket biztosító üzleti modellje, hogy nincs benne kockázat. Ha nem termel egy bizonyos minimum pénzt a játékod, akkor nem kell fizetni. Ha túlléped az 50000 dollár bevételt (UDK esetén, CryEngine-nél nem tudom mennyi a határ), akkor meg a bevétel egy része a motor tulajdonosát illeti.
    Az NV azért öli a pénzt az UE-be, mert lényegében ez az egyetlen értékelhető licencpotenciállal rendelkező motor, ami még épít a PhysX-re. A többiek mára elpártoltak a technológia mellől, ami elvileg azzal megmagyarázható, hogy a next gen konzolokban állítólag nem lesz CUDA kompatibilis GPU. Egyszerűen enélkül logikátlan erre építeni, mert a PhysX hátránya, hogy a fejlesztéseket a GPU irányába tolják, és ezen a ponton a CPU-s optimalizálás jelentősen háttérbe szorul, miközben a Havok, a Bullett és az ODE (csak hogy a legismertebbeket említsük) ebben sokkal jobb, mint a PhysX.
    Ha a játékok szemszögéből nézed, akkor a legtöbb GPU PhysX-es játék UE3-as. Így lesz ez a készülőkkel is. Az AAA kategóriában egyedül a Metro: Last Light nem UE3. Ott volt még az ARMA 3 is, de ugye nemrég mondták a fejlesztők, hogy elvetették a GPU PhysX-et, mert abban a környezetben, ahol használnák, nem jelentene semmilyen előnyt. Ezzel az ARMA 3 is csak CPU-n dolgozó PhysX-et kap.
    Szóval az NV-nek kötelező vakon bíznia az UE4-ben, mert ez maradt mára az egyetlen next gen motor, ami PhysX-et használ. Ebből a szempontból a legtöbb támogatást kell nyújtani neki, még akkor is, ha ez máshonnan veszi el az erőforrást.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10233 üzenetére

    Igen, az UE4 lényegi előrelépését ez a demó tipikusan rosszul mutatja be, de szerintem itt arra figyeltek, hogy látványos legyen. Aki licencre hajt az úgyis tudja, hogy mit kell nézni, a usernek viszont fingja sincs, így marad a látványorientált bemutató.
    Elvileg az UE4 első feltűnését az Epic sem mondja 2014-nél hamarabb. Azért két év alatt bőven be lehet építeni egy alternatív real time GI-t, ha mégis úgy alakulna, hogy a konzolok nem kapnak 16 GB RAM-ot. Tudtommal a Wii U 1,5 GB-ot kap, szóval oda alapból szükséges lenne valami alternatíva. Real time GI algoritmusból kis túlzással Dunát lehet rekeszteni, szóval nem kötelező erre építeni. Az biztos, hogy ez adja majd a legjobb minőséget, mert mégis erre építették a motort, de ha a hardverek fejlődése úgy hozza, akkor bármi beépíthető alternatívának.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10236 üzenetére

    A GPU-s PhysX egy alapvető átalakuláson megy keresztül már idén is. Eddig úgy volt, hogy megkaptad a beállítási lehetőséget. Jellemzően Off és Medium/High. Te eldöntötted, hogy melyiket akarod. Az új játékokban az NV és a fejlesztő dönti majd el, hogy mi az ami az adott kártyára megengedhető. Például ott a PLA benchmarkja. Az mutatja, hogy miképp fog működni. Például High opció GTX 570 alatti teljesítmény mellett nincs. GTS 450 a belépő a Medium szintre. A többi terméken Offra lesz kényszerítve. Ugyanígy a Borderlands 2-ben GTX 680 kell a max. beállításhoz. Nem számít, hogy a GTX 460/560 is bírná (sőt szerintem még a GTX 550 is) üzletileg nem éri meg, azon futtathatóvá tenni a legmagasabb opciót. A hosszútávú terv nyilván a platform. Az NV tudja, hogy az x86 hiánya a legacy szoftverekben gond lesz, mert ARM-os APU-val ott nem mennek semmire. A PhysX-et azért akarják fenntartani, mert ez lesz az extrája az ARM-os APU-nak. Ha x86-os processzorod van, akkor a PhysX eleve nem lesz bekapcsolható, mert üzletileg nincs mellette érdek. Szóval itt alapvető változás előtt áll minden. De ez nem csak az NV-nél lesz így. Az AMD is előtérbe helyezi a platformot. A VGA-kon már alig lehet keresni, de ha a VGA-kat úgy veszik meg az emberek, hogy vesznek hozzá egy AMD, vagy NV APU-t, akkor az már úgy értékes. Nyilván valahogy rá kell bírni a usert, hogy ne mixelje a gyártókat, és ezeket az extra funkciókkal lehet a legjobban megtenni. Az NV-nél a CUDA, míg az AMD-nél a HSA. Persze a GeForce és a Radeon működni fog Intel proci mellett is, csak a funkciók listájáról ki lehet húzni pár dolgot. Az meg világos, hogy az Intel sosem fogja támogatni a CUDA-t. Az NV tiltja a reserve engineeringet, szóval ilyen feltételek mellett senkinek nem éri ezt meg támogatni. A HSA az kicsit más tészta, mert open platform, és a fejlesztést is konzorcium veszi át az AMD helyett, de az Intelt szerintem így sem érdekli majd. Az ARM-ot, és az ARM partnereit annál inkább.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #10238 üzenetére

    A PhysX megvásárlása és annak folyamatos fejlesztése rengeteg pénzt vitt/visz el. Az, hogy te elégedetten használod egy két éves kártyán nem jó az NV-nek, mert a pénz az elmegy rá, de ennek csak egy része jön vissza. Rá kell kényszeríteni a felhasználót, hogy vásároljon új terméket. Mivel a PhysX az NV-é, így bármit megtehetnek vele. Akár azt is, hogy egy 2013-ban megjelenő játékban csak a GeForce 700 sorozatot támogatják, persze ez logikátlan lenne, de a régi termékekre érdemes limitációkat rakni, mert az elégedett felhasználó nem fog új VGA-t venni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10240 üzenetére

    Akkor lehet, hogy a Highra csak ajánlott a GTX 570. Az biztos, hogy GT440-en már nincs PhysX és GTX 450-en nincs High. Ezt majd az NV eldönteni, hogy melyik termékre mit engednek.

    Szerk.: My specs:

    Inte Core i7 3770K 3.5GHz (Turbo 3.9GHz)
    Gainward GTX460 GLH SLI
    8GB RAM

    Settings: 1280×720, DX11 (High specs), PhysX Normal

    As I wrote before, I don’t have posibility to set PhysX to another level. It’s automaticly set to Normal.
    Mondjuk neki meg nincs GTX 460 SLI-vel. Valszeg ez a limitáció nem működik még tökéletesen. Benchmarkban ez még annyira nem lényeges.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10242 üzenetére

    Nem hiszem. Többen panaszkodtak arra, hogy nem jól detektál a motor, valakinek GTX 480-on is Off opció volt egyedül. Kérdés, hogy hogyan dönti el a max. PhysX szintet a benchmark. De ezen még dolgozni kell, ahogy a panaszokat nézem. Persze mindegy. A megjelenés még messze van, szóval idő bőven van ezt javítani. Meg amúgy is Kínának fejlesztik ezt a játékot. Kár, hogy nem Chinese Army a neve. ;] Gondolom a cél ugyanaz, mint az America's Army-val. Többen lépjenek be a seregbe.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10244 üzenetére

    A CryEngine saját fizikai motorral rendelkezik, ráadásul sokkal jobbal, mint a PhysX. Semmi értelme így licencelni a PhysX-et.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10247 üzenetére

    Nem hiszem, hogy úgy lesz megoldva. Szerintem az NVIDIA a driverrel fogja ezt eldönteni. Végtére is ez nem a fejlesztők kívánsága, hanem az NV-é, így illik nekik intézni a korlátozást. A fejlesztőknek az a jó, ha minél többen elérik a max. grafikát, csak sokszor erős a kísértés, hogy átvegyék a nokiás dobozt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10249 üzenetére

    És közben az a jó, ha minél többen felső szintre tudják azt a csúszkát húzni. Ezért az optimalizálás, hogy ezt minél több hardveren meg lehessen tenni. Ez a fejlesztő érdeke is, de a PhysX az sosem erről szólt. Ott csak az számít, hogy olyan gépigényt lehet rendelni a játékhoz, amilyet az NV kér. Erről szól a PhysX, nem többről. Egyszerűen az új VGA vásárlását segítené elő. Ha az nem elég, hogy lassú high-on (sokan eljátszanak 20-30 fps között is), akkor majd most nem lesz high opció bizonyos VGA alatt.

    Igazából a TWIMTBP is erről szól manapság. Csak nézd meg, hogy mely játékok rendelkeznek max beállítás mellett óriási gépigénnyel: Metro 2033, Crysis 2, Max Payne 3. Az NV-nek az IGP-k megeszik a belépőszintű piacát, egyszerűen számukra már nem éri meg az, ha a játékos elvan egy 100 dolláros kártyával. A The Secret World bétája GTX 670/680 alatt nem játszható maxon. Ez nem vicc, így állították be (GTX 560-on el sem indul, GTX 470 a minimum, aminél nem fog 2560x1600-ban ezer évig tölteni, majd lefagyni). Persze DX9-en már gyors mindenen, de a cél az, hogy vegyél erősebb VGA-t, mert az nem jó az NV-nek, ha veszel egy IGP-t, és örülsz neki. Sajnos manapság egyre többen ezt az irányt választják, mert jönnek a cuki mini PC-t, meg a lapos monitorok PC-vel a hátulján. Ezek mind IGP-vel mennek, az NV-nek pedig eszik a piacát. Jól látható, hogy a cég részesedése most 15% körül áll, pedig 2010 végét még 25% fölött zárták. Minél többet eszik meg az IGP, az NV annál agresszívabb üzemmódba vált. Idén ráadásul waferekért fizetnek, így a nyereségük az Intel negyedéves bánatpénzével egyenlő. Persze ezt a pénzt megérdemlik, mert lényegében Intel tette ki őket a nagy nyereséggel kecsegtető piacokról, mennyivel másabb lenne most a helyzet, ha az NV még gyárthatna chipsetet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10251 üzenetére

    De mi az amitől ez megváltozna idővel? Egyedül az UE4 maradt a PhysX mellett. Rengeteg fejlesztő a partnerük volt, de egyszerűen otthagyták őket, mert statisztikailag kimutatható, hogy a PC fennállásának történelmében egyetlen gyártófüggő API sem maradt életben. Az elején fellendült, majd később otthagyták a fejlesztők, ahogy jötten a független/nyílt alternatívák. A PhysX-en már az sem segít, ha átírják OpenCL-re, mert a next gen motorok elenyésző része épít rá. Konkrétan csak az UE4. Eközben a licencelés is láthatóan visszaesett, mivel az kiadók megpróbálják a motorkérdést házon belül elintézni. Ráadásul egyre többen választják a saját fizikai motort.
    A PhysX-nek a mobil ad majd új értelmet. Ott nincs egy Intel, aki kirakja az NV-t a piacról, ha nem tetszik nekik az üzletpolitika. PC-n megtették, nem adtak nekik licencet, illetve megakadályozták az Ion terjedését. Ezzel most az Intel fizet évi ~300 milliót az NV-nek 6 évig, de simán megérte nekik, mert egy céggel kevesebb harapdálja a tortát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10254 üzenetére

    Van abban fizika, hiszen Havokot használ. Ráadásul a piac az egyik legjobb fizikai szimulációjával rendelkezik a Modern Warfare 3. Nem attól lesz a fizika jó, hogy GPU-val gyorsítható, hanem attól, hogy látványos és nem erőltetett. A Battlefield 3 ennek ékes példája. Az is Havok, és a minőség valami fantasztikus. De ha nagyon brutál fizikát akarsz, akkor itt van ez. [link] - na ez az amitől leesik az ember álla. És ez Havok+DMM.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #10259 üzenetére

    Már megtették. Ott a Havok FX modul.
    Nem azért nem használják, mert nem szabad, hanem azért, mert nem jelent előnyt. A legtöbb fizikai motor CPU-ra született meg, így arra ment a legtöbb optimalizálás. Később a Havok és a Bullett is kapott GPU-s kódot, de sok esetben ez lényegtelen, mert a CPU-n így is gyorsabb. A PhysX azért gyorsít GPU-n, mert a CPU-s kódok egy magra korlátozták, illetve nem kapott jó ideig SSE2 optimalizálást sem. A Batman: AC már GPU-s mód nélkül is automatikus többszálúságot használ, és SSE2 optimalizációt is tartalmaz. Az eredmény, hogy négymagos proci mellett gyorsabb a CPU-s kód, mert a GPU nem skálázódik jól.

    A Havok FX OpenCL-re van optimalizálva. Minden GPU-n működik, ami OpenCL-t támogat, de senki sem alkalmazza, mert nem gyorsít, ha nem korlátozod a CPU-n a teljesítményt. A PhysX-en ezt meg lehet tenni, mert az NVIDIA számára lényegtelen, hogy hogyan fut CPU-n, de a Havokon már nem. Ezen az IGP-k javíthatnak. Az mégis extra erőforrás, így arra ki lehet rakni a Havokot, ráadásul az ott van a CPU mellett azonos lapkában. Így talán lehet annyit gyorsítani, hogy értelme legyen a GPU-s kódnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #10261 üzenetére

    Ha nincs korlátozva, akkor igen, de a PhysX nagyon gyenge a CPU oldaláról. Azért az SSE2 is egy régi ISA. Azóta már vannak újabb kiterjesztések. Mindenesetre a Batman: AC jó példa, hogy korlátozás nélkül a CPU-s kód gyorsabb tud lenni.

    Olyan erőforráson számolod, amin akarod, a programozó dönti el, hogy mit használ.
    A Llano IGP-je csak akkor számít AI-t a Shogun 2-ben, ha a renderelést is azon végzi. A Dirt 3 és a Dirt Showdown használ GPU-s fizikát a zászlókra, de ez nem CTM, hanem DirectCompute 5.0-s algoritmus. Bármilyen DX11-es GPU-n megy, de csak azon van számolás, amelyiken a render is dolgozik. A Windows 8-ban ki lehet rakni DirectCompute számításokat egy alternatív eszközre. Akár IGP-re.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #10263 üzenetére

    A program teheti meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #10265 üzenetére

    Szerintem nem lesz DX11.1 Windows 7-en. De nyilván technikailag kivitelezhető, csak kérdés, hogy megéri-e ezzel vesződni. A DX10 is megoldható lett volna XP-n, csak sok munkába került volna. Ugyanez igaz a DX11.1-re is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz zoltanz #10268 üzenetére

    Anélkül el sem indul, mert a PhysX az API is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10274 üzenetére

    Az AMD más fejlesztőkkel kötött szerződést. Például a Counter-Strike: Global Offensive, Hitman: Absolution, Medal of Honor: Warfighter, The Elder Scrolls Online. Nyilván a szerződést általában úgy kötik meg, hogy a hardvert azért illik a szerződő félnek szállítani. Ezzel is jelezve, hogy együttműködés van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10275 üzenetére

    Nem furcsa. Sweeney nem tud mást tenni, mert Larrabee nem lesz. Amit tervezett évekig az bedőlt.
    Az új konzolokban AMD GPU lesz, ez egyre biztosabb. De Sweeney-nek a legnagyobb problémája nem a GPU, mert jól fut az UE4 bármin, főleg GCN-en, mert annál a compute power adott. A gond a rendszermemória mérete. Ha nem lesz minimum 8 GB, akkor tervezni kell egy másik GI eljárást.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10278 üzenetére

    Az AMD mással volt elfoglalva. A Computex-szel párhuzamosan futott az E3, de ami fontosabb, hogy ezen a héten van az AFDS. Szóval az erőforrást nem kérdés, hogy mire kell összpontosítani. Ha hetekkel korábban lett volna az E3, akkor oda is küldtek volna több embert, de így a Computex és az AFDS élvezte az elsőbbséget. Az NV az E3-ra gyúrt.
    Az új FF demó az egy felvett jelenet. Az egyik új generációs konzol dev. változatáról ment, de mivel ilyet nem vihettek az E3-ra, így fel kellett venni. PC-n nem hiszem, hogy fut jelenleg. Biztos portolható, csak ez mindig időbe telik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10279 üzenetére

    Úgy mint a Dragon Age 2-ben, amit az NV saját szoftverével paramétereztek. Te is tudod, hogy ez ennél bonyolultabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10288 üzenetére

    A Far Cry 3 twitteren valóban az van, hogy boxon és ps3-on futott.
    A Watch Dogs az valóban PC-n futott.

    (#10289) fatallerror: Az Ubisoftnak egy ideje senkivel sincs szerződése. A 3D Visiont is visszautasították a Ghost Recon Future Soldier esetében. Inkább a DDD-t implementálták, amit az AMD támogat kívülről. Szóval azt manapság nehéz rájuk mondani, hogy az NV-nek kedveznek. Tettek annyit egymás ellen, hogy kölcsönösen megutálják egymást. Ott volt az AC DX10.1 botrány, és a Far Cry 2-ben a DX10.1, holott az NV-nek nem is volt akkor DX10.1-es hardvere. Szóval a kapcsolatuk sosem volt rózsás. Szerintem ma úgy vannak vele az Ubi-nál, hogy kérnek egy kis segítséget, de többet nem. Túl rizikós, mert kétszer is csattant rajtuk az ostor, mikor még az NV-vel volt szerződésük. Egyébként ezzel nincs semmi gond. Az Ubisoft fejlesztőbrigádjai vannak olyan combosak, hogy megoldják a felmerült problémákat. Nem kell ide egy gyártó erős támogatása.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10297 üzenetére

    Ez mitől érdekes, így pár hónappal a megjelenés után? Erről már az elemzésünkben is írtunk. [link]

    A DX11.1 cikkünkben is megemlítettük ezeket az extra lehetőségeket az új generáció kapcsán. [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10308 üzenetére

    Szuper. Már az sem kapja meg teljes PhysX-et, akinek nem futja drágább VGA-ra. Erősen megkérdőjelezem ennek praktikusságát. Az üzleti indokot látom, csak kérdéses, hogy működni fog-e.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák