Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Itt azért valamivel egyszerűbb lesz a dolog, mármint a program támogatását tekintve. A több cpu magon való skálázódással már aránylag sok az elméleti tapasztalat, ami a PC-s bevezetésnél nem volt általános. A másik dolog, hogy nem csak az NV megy erre. Ez egy fizikai kényszer, mert van egy dark silicon jelenség, amit több maggal kezelni lehet. Nem végtelenségig, de aránylag jól kizárható a probléma. 2013-ra eléggé általános lesz a négy ARM mag a SoC-okban, és ez elsősorban a dark silicon miatt történik. A fejlesztőknek pedig le kell követni.
Félreértettél, vagy csak rosszul fogalmaztam, mindegy. Megpróbálom még egyszer. A Tegra esetében mindkét általad felvázolt esett külön probléma. A triangle throughput direct render miatt, míg a shader heavy környezet azért, mert a Tegra IGP-je a fragment shaderekkel emulálja a blendinget. Ha növeled a programodban a fragment shader terhelést, akkor az nyilván több erőforrást követel, de eközben a Tegra számára még a blending emulálása is szükséges ugyanazokon az erőforrásokon. Ez okozza a visszaesést a többi architektúrákhoz képest, amelyek amúgy a blendinget direkt ROP-okkal kezelik emuláció nélkül. Az NVIDIA választása egyfajta kényszer is. Azért a mobil IGP-k esetében kell a tapasztalat. Az NV-nek ez az asztali szintről van meg, vagyis a mobil megközelítésük is eltérő. Ez természetesen bizonyos helyzetekben előny, míg máskor hátrány (a hátrány részét azért érzed jobban, mert a konkurensek jó ideje itt vannak ezen a piacon, és a programokat ezekre írják ... a Tegra IGP-jét nemrég ismerték meg). De ezt te is látod, hogy a Tegra IGP-je a működés szintjén mennyire eltérő. Nem mondom, hogy az NV kiváló munkát végzet, de azt sem hogy rosszat. Nem egyszerűbb a nulláról összerakni egy mobil igényekhez igazodó IGP-t. Sokkal kifizetődőbb volt elővenni a GF 7-et és mobilosítani amennyire csak lehet. Az eredmény tekintetében jónak mondható a rendszer. Nem kiváló, de nem is rossz.
-
max-pain
senior tag
"Ezen eredmények alapján elég jó esély van rá, hogy az sgx543mp2 még csak meg sem lesz a t3-nak, figyelembe véve a megjelenések közötti időkülönbséget ez elég durva."
Mondjuk az Apple reszerol az SGX543MP2 eleg overkill huzas volt az A5-hoz.
Amikor kisebb node-ra valtottak es 4x-5x nagyobb lett a felbontas (tavaly), akkor basztak egy jobb GPU-t belerakni az A4-be. Iden ezek kozul egyik se valtozott, erre beleraknak egy 5x-6x gyorsabb GPU. Az A5 SoC eleve nagy meretu valamint ilyen teljesitmenyt rendesen ugysem hasznal ki par programon kivul semmi. -
Abu85
HÁZIGAZDA
Természetesen így van, a lapkaméreten belül az IGP kiterjedése sok embert nem hat meg.
A vásárló lényegében csak az ár/érték viszonyt nézi, de ez teljesen normális. A programozót is hidegen hagyja ez a rész, ami szintén normális.
Én úgy gondolom, hogy a négy mag erőltetése stratégiai jellegű. Egyrészt a 40 nm-es node-ra Cortex-A15-öt rakni nem kedvező. Megoldható, de az ARM a 28 nm-es processekre tervezte. A Cortex-A9 van 40 nm-re alakítva. Ha az NVIDIA úgy döntött, hogy maradnak a 40 nm-en, ami utólag látva nem volt rossz döntés, akkor a teljesítmény növelése a magok duplázásával a legértékelhetőbb megoldás. Az órajel növelése is opció, de az magasabb általános fogyasztást jelentene átlagos terhelésű helyzetekben, és ez nem jó. A másik alapja ennek a szoftveres fejlesztések. Az NVIDIA a PhysX-et átültette már Androidra. Gyakorlatilag a rendszer fejlődése a PC-n megállt egy szinten, miközben Androidon komolyan fejlődik. A GPGPU-ban viszont a Google rendszere le van maradva, így a hagyományos utat kell járni, vagyis a központi processzormagokon kell számoltatni. Ez a másik oka a magok duplázásának. Nyilván az NV-ről tudjuk, hogy sokat fektetnek a játékokba, ott pedig előny a több mag. Van is lehetőség a többszálú feldolgozás kialakítására.A Tegra egy immediate render. A háromszögek feldolgozása más, mint a konkurens architektúráknak. A különböző kivágási technikák mellett a Tegra biztos több feladatot végez ezen a ponton, mert nem választja ki a látható háromszöget előre, hanem minden rendereléi, és utána, a mélységteszt alapján lesz a látható pixel kiválasztva. A konkurens architektúrák sorba rendezik a háromszögeket, és csak a legelsővel dolgoznak. Ebből a szempontból a Tegra számára a triangle setup sok veszteséggel jár, és a memóriával sem takarékos ez a megoldás. Nyilván ez valamennyire architekturális örökség. Az ULP GeForce alapjai a GeForce 7-ből származnak. Amikor az NV partnerprogramján belül készül egy alkalmazás, akkor mindig ügyelnek arra, hogy ez ne legyen komoly gond. Alapvetően nem is az, de a hatékonyság tekintetében a PowerVR, Mali, Adreno trió a Tegra előtt jár. Persze ez ellensúlyozható, mert a Tegra meg másban jár a konkurensek előtt.
Hát a teljesítményről majd a tesztek fognak árulkodni, egyelőre az előzetesek jól mutatnak.
Sajnos a IGP-kre nem nagyon adnak meg fogyasztást. Az ULP GeForce és az Adreno esetében ez lényegtelen, mert egyik sem licencelhető IP, vagyis senkit sem érdekel, a mi kíváncsiságunkon kívül ugye. A PowerVR esetében pedig a licenc csak terveket tartalmaz, vagyis a valós implementálás a gyártó feladata (az Img Tec ajánlásokat tesz, de nyilván nem kötelező követni). Ezzel a fogyasztás erősen függ a beállított órajeltől, az MP konfigtól és a gyártástechnológiától. Ez amúgy jó, a fogyasztás ezzel nagyon széles spektrumon mozoghat, ami egyfajta szabadság a licencelőknek.
-
Abu85
HÁZIGAZDA
Azért vegyük figyelembe, hogy a Tegra 3 IGP-je nem éppen akkora, mint az SGX543 MP2 konfigurációban. Az extra tranyó főleg a proci részre ment el, ami öt fizikailag beépített maggal nem csoda. Gyakorlatilag az ULP GeForce csak a pixel shaderben javult, meg a szokásos optimalizálásban, de ez nem olyan sok. Az NV ezen a szinten a programozható blenddel próbál előnyt kiépíteni, de kétségtelen, hogy a SGX543 MP2 sebességben előrébb tart. Persze lesznek kivételek, de többnyire a Power VR a jobb.
A shader-heavy környezet miatt lett megduplázva a pixel opciós rész. A triangle throughput nem hiszem, hogy sokat változott. Ebben óriási előnyük van a konkurens architektúráknak (PowerVR, Mali, Adreno), ilyenkor megéri inkább oldalra fejleszteni, ha érted mire gondolok. Az NV a szoftvereket elviheti olyan irányba, ami pont, hogy az ULP GeForce-nak előnyös.
Annyira nem nagy az a 4-5 watt. Az Apple A5 is 4 watt fölé lő max. terheléssel. A Tegra 2 is 3,5 watt fölött fogyaszt maxon. Itt az energiamenedzsment minősége döntő. Az átlagos terhelés mellett kell jót alkotni. Itt szokott kijönni az ARM előnye. Ugye ott az Intel Lincroft lapka, ami max fogyasztásban 3,7 watt kimérten. Alatta van több ARM SoC-nak is, de amíg az ARM SoC-ok képesek 1-1,5, vagy az erősebbek 2 wattos átlagos fogyasztásra, addig a Lincroft 2,5-3 watt között dolgozik, ami nyilván átlagos terhelés mellett sok. Az, hogy a lapka 5 wattot fogyaszt max, nem jelenti, hogy általánosan sok, mert az energiamenedzsment lehet örült jó, és akkor mindjárt semmi probléma.
Új hozzászólás Aktív témák
Hirdetés
- Nvidia Quadro M2000/ M4000/ P2000/ P2200/ P4000/ P5000/ RTX 4000/ RTX A2000 / RTX A4000
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32 RAM RTX 5060Ti 16GB GAMER PC termékbeszámítással
- LG 55B4 - 55" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
- LG 32GS95UE - 32" OLED / UHD 4K / 240Hz - 480Hz & 0.03ms / 1300 Nits / NVIDIA G-Sync / AMD FreeSync
- Kingmax 1x2GB DDR2 800 RAM eladó
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest