Hirdetés
- Android alkalmazások - szoftver kibeszélő topik
- iPhone topik
- Mobil flották
- Google Pixel topik
- Ezek a OnePlus 12 és 12R európai árai
- Redmi Note 13 Pro+ - a fejlődés íve
- Samsung Galaxy A34 - plus size modell
- Fotók, videók mobillal
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Xiaomi Watch 2 Pro - oké, Google, itt vagyunk mi is
Hirdetés
-
Színpadon a hardverzenekar
ph A hangeszközöké és monitoroké a rivaldafény, de asztali gépekről, komponensekről, notebookról és egérpadról is szó esik.
-
Érkezik a Redmi Watch 5 Lite
ma Szeptember 25-én Indiában lesz az aktivitáskövető premierje, és lehet, hogy marad is azon a piacon.
-
Tinkertown - Jövő hónapban jön az Xbox kiadás
gp Az év végén valamikor Nintendo Switch-re is befut a végső változat, de utóbbihoz dátumot nem kaptunk még.
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8802 üzenetére
Akkor is wafereket rendeltek, csak a TSMC benyelte a legtöbb hibás terméket. Ez viszont azt is jelentette akkor, hogy az NVIDIA lapkánként fizetett fix árat, ami a kihozatal javulása mellett nem volt kellemes. 2011-ben már waferenként fizettek, és 2012-ben is ez a modell. Utóbbi egyébként nem túl nagy érvágás. Annyira kicsi a TSMC 28 nm-es gyártókapacitása, hogy túlzottan nem befolyásolja a helyzetet. Ráadásul a gyártókapacitás zömét már igénybe vette a Xilinx, az Altera és az AMD. A Qualcomm és az NVIDIA a bővítéssel kerülhet helyzetbe, míg az Apple egy ideig letett a TSMC-ről, és maradtak a Samsungnál. Jóval bonyolultabb a helyzet, mint látszik. Éppen ezért teljesen mindegy, hogy a WSA mit tartalmaz az NVIDIA és a TSMC között, sőt logikusabb úgy megkötni, hogy az a 40 nm-es termékeknek kedvezzen, mert 28 nm-ből év végére lehet olyan gyártókapacitás, amivel a legtöbb partner igényeit ki tudja szolgálni a TSMC. Addigra remélhetőleg a bérgyártó is begyűjti a tapasztalatokat, és a partnerek is úgy tervezik a termékek második hullámát, hogy okulnak az első hullám nehézségeiből.
Az új árazással fenntartható bármi. A lapkamérethez viszonyítva rohadt drágák az új generációs Radeonok, és ebben a TSMC-nek is szerepe van, főleg abból a szempontból, hogy a 28 nm-es bulk waferek drágák, hiszen nagy rájuk az igény. Az NVIDIA már panaszkodott a legutóbbi negyedéves pénzügyi konferencián, hogy a kihozatal gyengébb a vártnál, de hozzá lehet árazni az AMD termékeihez az új versenyzőket, így ebből nem hiszem, hogy probléma lesz. Maximum az ellátásban lehetnek nehézségek, de azt nem mondták, hogy mennyivel gyengébb a kihozatal. Illetve azt sem tudjuk, hogy kinek a hibája. Hajlok afelé, hogy a TSMC-é, mert egyedül a Xilinx, Altera, AMD trió nem panaszkodik. Ez ugye nem jelenti azt, hogy ők nem érzik a gondokat, csak számoltak velük.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DemonDani #8855 üzenetére
Mindenki az integrációra fejleszt már. Az az idő elmúlt a VLIW4/5-tel, amikor tényleg erre a piacra fejlesztett VGA-k születtek. Egy VGA-nak nem kell natív C++ támogatás, de a GCN architektúra mégis tudja. Az integráció lett a fejlesztések mozgatórugója. Hasonló szempontok szerint születik meg az NVIDIA megoldása is. [link] - a célokat már ismertették a múlt évi GTC Asia 2011-en. Jobb programozhatóság, több funkció, és erős integrációs vonal. Ez most a fejlesztések általános iránya. Az aktuális VGA-k csak a kezdetei valaminek, amolyan okosított VGA-k, de közben félkarú óriások is. Sajnos sok funkciót csak integrálva lehet kihasználni az architektúrákból, de nyilván arra születtek a fejlesztések, hogy jól lehessen őket integrálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz DemonDani #8858 üzenetére
A látottak alapján ugyanolyan szintűek a tervek. Az implementáció különbözik, de az elvi síkon egyezik az AMD és az NV véleménye.
A hagyományos piac az összes résztvevőnek jó, de sok tényező befolyásolja a fejlesztéseket. Most például a változó igények (a pici termékek felé megyünk), és a fizika korlátjai, amik kihatással vannak a skálázhatóságra. A szerver is változás előtt áll. Az NVIDIA-nak nem jó a Xeonok mellé rakni a termékeket, mert korlátozza a képességeket. ARM licencek birtokában van az NV, így a processzor oldaláról is ARM kell az új funkciókhoz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen, de amíg erre nincs konkrét definíció, addig nehéz belőni. Sok dologtól függ az egész, hogy mikortól cGPU valami. Rendszerint ezt az aktuális helyzetet látva döntöttem el, de vannak olyan dolgok, amiket a Fermi sem tud. Például a Cayman esetében bevezetett dual DMA. Szóval nehéz belőni, hogy mikortól cGPU valami. Azt gondolom, hogy az új generációs architektúrákra már rá lehet mondani nyugodt szívvel.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Compute-ra technikailag már a shaderek megjelenésével adódott lehetőség. Több kell ide, mint szimpla compute képességek. Az új architektúrák jelentős előrelépésnek számítanak ebből a szempontból. Még akkor is, ha sok funkció az integráció hiányában kihasználhatatlan.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Wut? Mikor is írtam bármit Kepler teljesítményéről?
Azt írtam korábban, hogy nem számít, hogy mi lesz, mert fontosabb felkészülni az integrációra az új architektúrákkal. Ehhez most is tartom magam főleg azután, hogy kapom az OEM-gyártók útitervét, amiből az jön le, hogy a 2012-re tervezett PC-k kisebb arányban tartalmaznak VGA-t, mint 2011-ben. Van olyan gyártó, aki csak a termékek 10%-ba épít VGA-t.
Szóval szerinted mennyit számít így ez az egész? Ennél a piacnál sokkal fontosabb az NV-nek (meg az AMD-nek is persze, csak ők már integrálnak), hogy az integráció jól sikerüljön, mert csak így pakolhatják be a GeForce-okat a termékek nagy többségébe. Emellett az új funkciók szempontjából is fontos az egész. Gondolj az AMD GCN architektúrájára, ami most VGA-ként eléggé félbe van vágva. Az architektúra natívan kezeli a C++ programnyelvet, támogatja a virtuális funkciókat, a kivételkezelést, a rekurziót és a pointereket. Utóbbiból ugyanazokat használja, amelyeket az AMD64-es processzorok. Emellett ott a címfordítás lehetősége egységes címtartományban, a virtuális memória kezelése, és képes kezelni a laphibákat. Na most ezeket csak integrálva lehet kihasználni, megfelelő processzormagok és egyéb egységek mellett (IOMMU). Hasonló a helyzet az NV-nél is, csak ők az ARM mellett törtek lándzsát. Ellenben elvi szinten minden architektúrát az integrációra terveznek. Még az Intelnek is ez a célja a Larrabee-vel, ami egy ideig majd elbohóckodik a HPC szegmensben, de sokkal fontosabb a fejlesztés szempontjából az integrálás.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Olyan hír nincs, ami teljes mértékben helyeset állítana. Nem mondom, hogy mindenki a sötétben tapogatózik, de egyelőre csak részigazságokat sikerül eltalálni. De amúgy türelem. Annyira sokat nem kell aludni. Ennél többet nem mondhatok.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szerintem arra a táblázatra inkább ne nézzen senki. A megjelent termékek paramétereit sem jól jelöli. Pedig az igazán nem nehéz dolog. A VideoCardz.com egy borzalmasan amatőr oldal.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz ALONSO11 #8906 üzenetére
Felőlem bárki vásárolhat. Vannak tesztek, így arról el lehet dönteni, hogy megéri-e az illetőnek fejleszteni. Ezek egyéni igények szintjén változnak. Ha valaki boldog az aktuális kártyájával, akkor ne váltson, ha nem boldog, akkor vehet újat.
A PC-s alkatrészekbe pénzt fektetni sosem volt jövedelmező.
Igen. A mai projektek a klasszikus felépítéshez vannak fejlesztve. Kivéve a Rage, de Carmack előrerohant, hogy az ID Tech 5 sokáig alkalmas motor legyen. Ami itt változást hozhat és veszélyes a piacra, azok a next gen konzolok. Nyilván PC-n nagy érvágás lesz, ha a fejlesztők megkapják azt amit szeretnének. Akkor PC-n is erősen a teljesen koherens memória megosztása lesz a lényegi fejlesztési irány. A gyártók erre mennek az integrálással. Nyilván ők már többet tudnak arról, hogy a next gen konzolok milyenek lesznek, így készülhetnek rá a PC-s fejlesztésekkel is.
A kompatibilitás az ARM oldaláról lesz problémás. Oda újra kell fordítani a régi programokat. Illetve lehet emulációt alkalmazni. Ezt az MS nem vizsgálja, de az FTC kimondta, hogy az x86 emulálása jogilag rendben van, így az NVIDIA dolgozhat rajta.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz zoltanz #8911 üzenetére
A programozási szokásokat az NV és más kutatásai is számításba veszik .. lásd Echelon paper. ennek megváltoztatása nem ajánlott, hanem kötelező érvényű lesz, mert a skálázódás megszűnik, ha nem váltunk heterogén felépítésre.
Wu Feng tartott előadást erről az elmúlt évben és nagyon jól felvázolta a helyzetet. [link] - itt meg tudod nézni az előadását.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Bárki meg tudja csinálni, csak nem mindegy, hogy a tartalom megrajzolása mennyi költséget és humánerőforrást emészt fel a fejlesztésből. A Samaritan demót három éve csinálják, és pár perces jelenet.
Két dolog limitálja a végleges program grafikáját. Az egyik a hardver lehet, míg a másik fejlesztésre költhető pénz. Egyelőre a hardver jobban limitált, így a pénz nem volt annyira jelentős téma, de a real-time grafika is elért oda, ahova pár éve az offline renderelt animációs filmek. A művészek munkája komplexszé vált, így egyre több pénzt igényelt egy komoly grafika összerakása. Ezen kell egyszerűsíteni, és jó ötlet onnan lopni, ahol már megküzdöttek ezzel a gonddal.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A tartalmat a művész rajzolja meg, de nagyon fontos, hogy a munkájuk egyszerűbb legyen. Eddig megfelelt az UV mappal való pöcsölés, de mára ez túlzott erőforrást emészt fel.
Instacing mindig lesz, nem ezzel van a baj, hanem azzal, hogy a modellek minősége nő, és ez több textúrát, több befektetett munkát igényel. Illetve ott a tesszellálás, ami a művészek rémálma a DX11 noSplit megvalósításával. Kell egy UV map az alapmodellre és egy a tesszelláltra. Ha ezen a ponton egyszerűsítenéd a helyzetet, akkor sok erőforrástól kímélnéd meg a fejlesztőket, ami egyrészt anyagilag is felüdülés, és több modell elkészítésére is lehetőséget ad a művészeknek.
Bármilyen mai motorból ki lehet hozni nagyon sokat. Az aktuálisak közül a Frostbite 2.0-ből főleg, de sok befektetett munkát igényel. Nincs három éve pár embernek egy fejlesztésen belül, hogy elkészítsenek egy pár perces jelenetet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Remélhetőleg tartalmazni is fog, de az új motorról még csak annyit tudunk, hogy 4-es lesz a végén.
(#8920) Klikodesh: Pontosan ... Carmack rohadt jól látja, hogy mi lesz a jövő legfőbb problémája. Az ID Tech 5-tel ennek az orvoslására is próbál berendezkedni.
(#8924) Löncsi: Azt Carmack is elmondta, hogy PC-n sok a limitáció. Az API által okozott gondok mellett még a megatextúra is büntetést kap a PCI Expressen keresztül. Ezt próbálják 50 update-tel elfedni, de ez nehéz ügy. Mondjuk Carmack szerintem az ID Tech 5 fejlesztésének megkezdésekor úgy számolt, hogy 2011 környékére már nem lesznek VGA-k. Ez mondjuk nem egyedi Sweeney is eltemette ezt a piacot a 2000-es évek elején. Aztán jött a Larrabee mániája.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Már rég fut mindenen az ID tech 5. A patchek rendbe tették a kalibrálórutinokat. Most már normálisan ismeri fel a kétmagos procival rendelkező gépeket.
A Rage használ shadereket, és valós idejű árnyék is van benne. Ha nem látod, akkor értelmetlenül alkotsz véleményt erről a motorról.
Miért van ejtve? Ki beszélt arról, hogy azok rosszak. Itt egy általános diskurzus folyik, amiben nem döntünk a motorok minőségéről, csupán azon megy az eszmecsere, hogy merre érdemes menni, és a gyártók integrációja mennyire lesz erős, vagy jó, vagy előny a fejlesztések szempontjából, stb. Ettől az UE és a CE még jó motor. Te képzeled be, hogy nem azok.Azt hiszed, hogy ha valaki ír valamit, akkor azzal az NV-t támadja, és ezt személyes sértésnek veszed, eközben láthatóan senki sem írt olyat, ami az NV hardverén megvalósíthatatlan. Teljesen általános dolgokról beszélünk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8945 üzenetére
Nem pont a kihozatallal van gond, hanem a gyártókapacitás sem nagy. Sok a megrendelés. Még jó kihozatal mellett is nehéz lenne sokat gyártani, hiszen az Altera, a Xilinx és az AMD kapacitását nem veszi el a TSMC az új megrendelők mellett. A Qualcomm és az NV számára meg kell várni a bővítést (ami persze folyamatos, de a TSMC sem tud csodát tenni). Ennek egyébként hatalmas köze volt ahhoz, hogy az Apple mégis a Samsungnál maradt. Hiába a lapka, ha konkurensek elviszik a kapacitást. Ez ellen az Apple sem tud mit tenni, a TSMC-nek mindenki egyenlő megrendelő. Ha elveszi a kapacitást valakitől, akkor nem teljesítik a szerződést.
Fuad olyan álomvilágban él, mint Charlie, akinél most a TSMC éppen piknikezik. Orbitális badarság az is, hogy a gyártást leállítják. Erre maximum akkor van szükség, ha a clean room koszos maradt, ami az építkezéssel járó mérhetetlen kosz mellett ugyan lehetséges, de már kiderült volna korábban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #8969 üzenetére
Nem fogok beszélni a Keplerről, de általánosan attól függ a dolog, hogy a programnak milyen igényei vannak, és te milyen felbontást állítasz be. Szóval a "kevés" jelző maximum egyéni igények mellett állja meg a helyét.
(#8973) Egon: Miért is? Csak mert ki mertem jelenteni, hogy egy fórumon fórumozók vannak?
Igazán büszke lehetsz magadra, hogy így beszélsz egy fórumtársadról.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Samaritan demó pont FXAA-ra váltott. Okkal. A post-process gyorsabban számolható mint egy deferred MSAA, és a memória-sávszélesség, illetve a memóriaigény esetében is jelentősen kevesebb erőforrás szükséges.
(#8990) Klikodesh: Fake, ha érdekel. [link] - Ennek az egy hónapja megjelent anyagnak a grafikonos verziója.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #8994 üzenetére
Az az XDR2. Lehetséges használni, de két problémája van. Drága a memória, és nehéz rá memóriavezérlőt csinálni. Persze ettől még lehet rá építeni, csak sok szól ellene is, amellett, hogy marha gyors, ami pró érv.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #8998 üzenetére
Ez csak nektek a legutolsó szempont. A gyártóknak a profit az első, még a felsőkategóriában is. Be lehet vállalni, de szerintem is több szól ellene, mint mellette.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #9001 üzenetére
Azok valóban meggyőzőek és ez tény ... az XDR2 gyorsabb, mint a GDDR5. Ez szól mellette, meg még az implementálás, ugyanis kevesebb tűt igényel, illetve az XDR2 azonos sávszél mellett kevesebbet is fogyaszt. A gond kontra oldalon kezdődik. Maga a lapka jóval drágább, mint egy azonos kategóriájú GDDR5 chip, emellett teljesen más memóriavezérlőt igényel, amit cseppet sem egyszerű jól összerakni.
Összefoglalva a fogyasztás, a sebesség és az implementáció költségei az XDR2 mellett szólnak, de a termék magas ára és a bonyolult vezérlő elriasztja a cégeket.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #9011 üzenetére
Aki több monitorban utazik annak egyértelmű, hogy hátrány lehet a kevesebb VRAM. De nagyobb hátrány, hogy az NVIDIA az Eyefinity SDK-ból él, így multimonitoros élményre eleve Radeont érdemes venni. A legtöbb játéknál jól beállítható a képarány, és ebből általánosan profitál minden multimonitoros rendszer, hiszen maga a működés is eléggé általános. Ellenben a HUD pozicionálása problémás, erre driverbe épített speciális megoldások kellenek igazodva az SDK képességeihez. Az Eyefinity nyilván egy komplett csomag, így itt nincs gond, ha a fejlesztő mondjuk a középső monitorra akarja helyezni a HUD-ot, de a Surround ezeket specifikus parancsokat már nem tudja értelmezni, így ki lesz helyezve a HUD az oldalsó monitorok szélére. Ezen persze lehet javítani, mert a Surround is fejleszthető, de sok időbe kerül, amíg az NVIDIA reagálni tud az Eyefinity SDK fejlődésére. Ha belépnének a támogatók közé, akkor gyorsabban lehetne beépíteni a driverbe az SDK specifikus funkcióit (hiszen konkrétan részt vennének a fejlesztésben, így megkapnák a tényleges képességek listáját és működését is), ezzel mindig ugyanúgy viselkedne egy Eyefinity SDK-val megírt játék a VGA-kon.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz matteo_szg #9088 üzenetére
Már most megmondom, hogy nem ismeri a terméket a GPU-Z. Így meg fals értékeket közöl. Nem kell ezzel várni.
(#9082) Cybertrone: A kínai tesztelőkből kinézem, hogy nem értik a mai motorok MSAA-val kapcsolatos problémáit és szimplán beállították driverből a 8xAA-t. Ez lényegében 0xAA-t jelent a kinézetben egy kis extra számítással. Mi a saját tesztjeinkben pont ezért nem állítunk már a driverekben szinte semmit. Számos program nem kompatibilis az MSAA-val, vagy bármilyen erre épülő AA-val. Emellett már az AF-fel való kompatibilitás is kezd megszűnni, lásd POM. Mindkét problémára van megoldás, csak be kell építeni a motorba az egyéni AA és textúraszűrő algoritmust. Erre egyébként már vannak példák. Újabban egyre több.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Tök mindegy, hogy mennyi a TDP, amit egy gyártó megad egy termékre. A tesztek úgyis lemérik a fogyasztást. Senki sem hazudik ezekkel az értékekkel, csak van egy specifikus környezet, amiben mérik a fogyasztást. Az már részletkérdés, hogy ez a környezet mennyire tükrözi a valóságot.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ebben igazad van, de ezen nem tudunk változtatni. Törekedni kell arra, hogy az emberek lássák, hogy a gyártók szépítenek. Ez olyan, mint az Apple A5X, hogy 4x gyorsabb, mint a Tegra 3. Ezt is átvette a teljes média, aztán az NV feje ettől vörösödik, mert az Apple fanokkal lehetetlen tényeket közölni. Még a végén az lesz a cherry picked, amit az NV ad ki válaszul az Apple állításaira. Gyanítom rá is hagyják az egészet.
Ebből a szempontból nagyon szeretem azokat a slide-okat, és marketinganyagokat, ahol az állítások meg vannak csillagozva, és a konkrétumot, amire az adott állítás épül a doksi végén olvasni lehet. Ezzel el lehet kerülni az általánosításokat is, és le is lehet szűrni, hogy az adott állítás hol áll a bullshitméteren. Sajnos nem sok cég dolgozik így. Lényegében csak az Intel és az AMD szokott normális hátteret írni az állítások mögé. A legtöbb cég csak állít valamit, és lóg a levegőben a többszörös előny.
A TDP-k nekünk is fejfájást okoznak, így mi is csak hivatalos TDP-ként utalunk rá. Leírjuk egy táblázatban és kész. Többet elő se vesszük.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz matteo_szg #9116 üzenetére
Szerencsére ebből a szempontból a GPU-Z nem jó, így onnan semmit sem lehet leolvasni anélkül, hogy ismernénk az architektúrát. Továbbra is mehet a találgatás, mert mindkét sor rossz.
Szerk.: Látod. Megy is a találgatás a hsz-em alatt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Tényleg ne menjünk már el személyeskedős irányba. Olyan nyugodt volt ez a topik.
Szerk.: Schwartz-cal lehet csipkelődni (és fordítva), de csak finoman.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egy cikket is csináltunk erről, hogy várható gyorsulás a legelső driverek után. Persze ez nem jelent semmi biztosat, de világos, hogy az első driver még nem biztos, hogy teljes. Majd később újramérünk mindent. Nyáron úgyis szokott lenni egy kis uborkaszezon.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #9211 üzenetére
Metro 2033 atommaxon.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #9215 üzenetére
Attól még a vast zabálja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Heaven mennyire értékeli a processzorerőt? Láthatóan full statikus benchmark, mint a 3DMarkok. Csak kérdezem, mert sosem néztem meg ilyen mértékben.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Virtu még nem támogatja a 300-as driverszériát. Ez nem úgy működik, hogy on-the-fly megy minden. A Virtunak is van drivere, amibe be kell építeni a driverek és a termékek konkrét támogatását. Nehezen megy enélkül. Ezért mondtam, hogy tisztességes munka, de lehetett volna alaposabb is a készítő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Hakuoro #9341 üzenetére
Most általánosságban írok erre.
Egyrészt optimalizálni kell az alkalmazásokat. Másrészt a domborítás erősen viszonyítás kérdése. A mihez képest nagyon fontos szempont. A GCN architektúra egy brutális compute monster még a Fermihez képest is, amit már magán a CPU-kra hajazó koherens cacheszervezésen is látsz. A GCN ereje a compute programokban nem a feldolgozókban rejlik, hanem ebben: [link]
A feldolgozók számát nem elég növelni, azokat etetni kell és mindezt hatékonyan. Ez a compute teljesítmény kulcsa. Ha a cacheszervezést nézzük, akkor a VLIWx és a GT200 dizájn egy szintre helyezhető. A Fermi ehhez képest előrelépés, míg a GCN a Fermihez képest még komolyabb előrelépés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Bizonyos dolgokról még nem beszélek. Ezt majd később.
Amiről tudok beszélni, az az AMD és az NV integrációs tervei. Az AMD 2013-ra beépíti az APU-ba a GCN-t, és elkezdi az architekturális integrálást. Nekik compute monsterre van szükségük, mert 2013-ban már compute monster APU-kat akarnak. Az NV a Maxwell APU-t 2014-ben veti be leghamarabb, hiszen nekik a Win 9-et is meg kell várniuk az ARM irány miatt, na meg ugye kell a Denver processzormag is. Éppen ezért nem kell ennyire elé menni a dolgoknak, mert 2013-ban nem tudnak semmilyen APU-t kínálni az AMD Kaveri és az Intel Haswell mellé, még akkor sem, ha lenne hozzá megfelelő hardver. Az OS hiányzik. Majd 2014-ben a Win 9-cel, vagy a Win 8 frissítései után lehet izmozni. Most nem tudom, hogy az MS-nek mi a terve a Win 8 ARM verziójával. Egyelőre csak tabletes OS-ként tekintenek rá, de biztos tudják, hogy az NV-nek később több is kell.A GPGPU terén azt tudom neked mondani, hogy a GCN compute hatékonyságával nehéz versenyre kelni. Eleve, ha megnézed az architektúrát (leszámítva a fix funkciós egységeket), akkor jobban hajaz egy RISC processzorra, mint egy GPU-ra. Erre mondta anno egy blog találóan, hogy "Larrabee done right".
Egy konkurens hardvertől viszont még lehet valami erős computeban, csak maximum nem annyira. Minden viszonyítás kérdése.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #9355 üzenetére
Az integrációs irány nem csoda, hanem a skálázhatóság biztosítása a jövőben. Homogén többmagos processzorokkal ez már nem lehetséges. Ezért fejlesztenek a cégek heterogén irányba. Ezért fejleszt az NV processzort, és az Intel is ezért vette elő a Halo kódnevű Haswellt (a normál CPU-k helyére, mint HEDT platform), mert az IGP teljesítménye fontosabb lesz, mint a processzoré. Erre épít a Larrabee is. A kis magok buták, és nincs nagy egyszálú teljesítményük, de együtt nagyon erősek és skálázhatóvá teszik a lapkákat. Ezeket az irányokat nem az AMD találta ki. A Fusion miatt sokan ezt hiszik, de sokkal inkább az az igazság, hogy a fizika nem tesz más irányt lehetővé. Az AMD azért kapott akkora figyelmet ebben az integrálásban, mert ők voltak az egyetlen cég, akik nem saját kút főből akartak fejleszteni, hanem megvették az ATI-t. Ettől lett a médiában ennek nagy figyelme, hogy vajon ennek mi értelme volt. Az Intel és az NVIDIA nem vett senkit, hanem úgy döntöttek, hogy saját erőből tervezik a rendszert. Ez így azért nem kapott nagy figyelmet, mert nem volt mögötte valami felvásárlás, ami szenzáció lehetett volna. Ettől függetlenül nem az AMD ennek az iránynak a kirobbantója. Őket is csak viszi az ár, mint a többieket, csak közben megkapaszkodtak az ATI-ban és együtt viszi őket tovább az ár.
Félreértés ne essék a heterogén éra nem megoldás mindenre. Pár év múlva az APU-k is ugyanúgy beleütköznek a skálázhatósági falba, mint anno az egymagos processzorok, és most a többmagos megoldások. Egyszerűen az a cél, hogy az a fal messze kerüljön. Addig pedig hátha történik valami gyártástechnológiai áttörés.
(#9360) hugo chávez: Érdemes megvárni, de egy rendezvény nem változtat egy termék teljesítményén. Tehát a következtetéseket a tesztekkel le lehet vonni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz atok666 #9362 üzenetére
Persze. A programozási modelleket alapvetően meg kell változtatni. De a fejlesztők ezzel tisztában vannak, ugyanis nem számíthatnak arra, hogy az egyszálú teljesítmény a jövőben nő. Jelenleg erős stagnálás van kilátásban. Erről van egy nagyon szemléletes diagram Herb Suttertől: [link] ... a jövőben a párhuzamosítás oltárára még az egy szálú teljesítmény csökkentése is megtörténhet.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hugo chávez #9363 üzenetére
A konklúziódat nem érdemes egy-két program alapján levonni, ráadásul olyanokról van szó, amelyek biztos nem tartalmaznak rá optimalizációt. Jóval több programot kellene megvizsgálni. Ennél konkrétabbat nem tudok írni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz schwartz #9480 üzenetére
Biztos nem. 300 watt marad a max. Aki túllépi, annak nincs szabványos terméke. Persze itt is lehet machinálni, mint a HD 6990-nél, hogy az OEM-ek külön BIOS-szal kapják, hogy ne 375 watt legyen a limit, mint a dobozos verziónál. Ez szimpla szoftveres dolog volt.
HPC-nél pedig 225 watt marad a top fogyi. Ott ezt tekinti ideális maximumnak.
Az az igazság, hogy szerintem a 300 watt is marha sok, így ebből a szempontból nincs értelme izmozni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #9487 üzenetére
Csökkenteni már nem fogják. Az bonyolultabb, mert akkor ami eddig szabványos volt az holnaptól nem lesz az. Itt a legjobb, hogy ha ehhez nem nyúlnak. Most ezt így elfogadták már jó ideje és kész. Ha sokallja valaki, akkor ne építsen 300 wattos VGA-t, vagy az OEM ne építse be, ha nem szeretné.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az NDA lejártának dátuma is embargo alatt van, így erre nem adhatok választ ma ... és közvetlenül éjfél után sem még jó pár órán keresztül.
Az erőviszonyra pláne nem mondhatok semmit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #9508 üzenetére
A Crysis 2-ben nem számít a 3 GB VRAM. 1,5 GB max, amit igényel a játék. Így tervezték. A tesszellációból lehet nyerni. Ez a fontos eleme a játéknak. Tudjuk is, hogy milyen bullshit szintű az a tesszelláció. Ezért került ki a program a tesztjeinkből, mert az AMD új tesszellátora baromira jól érzi magát rajta, és ezt a rendszerbe bevezetett trükközésekkel éri el.
Ha olyan helyen tesztelnek, ahol erős a tesszelációs terhelés, akkor a GCN ilyen előnyöket épít ki. [link] - Ez a Crysis 2-ben reális, de más program nem fog tartalmazni olyat, hogy a sík padlót felbontja egy rakás háromszögre, szóval ez a teljesítménykép torz a ténylegeshez viszonyítva. Vagy nézheted ezt a részt is. [link] Ezek a terhelések tipikusan tetszenek az AMD Gen9 tesszelátorának, mert egyszerűen lementik a felületet, és csak visszatöltik. Eközben a többi hardver a lelkét kidolgozza, hogy felbontsa képkockáról-képkockára.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #9514 üzenetére
A Crysis 2-ben a bullshit tesszelláció nagyon szélsőséges helyzeteket teremt. Például a kezdő résznél, ahol csak pofáznak még a Radeon HD 5850 is elveri a GTX 580-at. Aztán vannak olyan részek, ahol extrém mértékű a tesszelláció, és ilyenkor a GCN Gen 9 tesszellátora brutál előnyöket épít ki. Röviden az egész program úgy szar ahogy van. Az eredmény zömében attól függ, hogy hol mérsz, és így az erősorrendben is óriási különbségek lehetnek. Ezért vannak ennyire nagy különbségek a Crysis 2 tesztek között. Azt meg nehéz eldönteni, hogy hol mérjünk. Az elején a teszt nyilván torz, mert eléggé egyedi eredményeket ad. A tesszellációs helyeken, meg hatalmas előnyt adsz az új generációs Radeonnak, és alapvetően kérdés, hogy ezt más programban újra látod-e, mert mindannyian tudjuk, hogy a Crysis 2 tesszellációja durván mesterséges, és elnagyolt. Továbbra is úgy gondolom, hogy sík felületeket nem érdemes milliónyi háromszögre bontani, mert semmit előnyt nem ad a képminőségben. Egyszerűen csak eltorzítja a VGA-k erőviszonyát. Ezért egyébként mi is úgy döntöttünk, hogy visszatérünk a Crysis Warheadhez.
(#9511) fatallerror: Persze. Nyugtatóznom kellett magam.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #9524 üzenetére
Igazából az AC-vel az a bajunk, hogy DX9-es. Az új kártyákat már minimum DX10-es környezetben szeretnénk mérni. Persze ez nem kőbe véset szabály, csak próbáljuk tartani magunkat az elveinkhez. Na meg ugye kérdés, hogy mennyire egyszerű benne mérni. De mondjuk ennek nem néztem utána.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Ukrajnai háború
- Projektor topic
- A fociról könnyedén, egy baráti társaságban
- OLED TV topic
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Anbernic RG556 kézikonzol teszt
- Milyen billentyűzetet vegyek?
- Elden Ring
- Épített vízhűtés (nem kompakt) topic
- Melyik tápegységet vegyem?
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen