Hirdetés
- Samsung Galaxy Watch7 - kötelező kör
- Apple iPhone 13 - hízott, de jól áll neki!
- Apple iPhone SE (3. generáció) - szélsebes múltidézés
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Mobil flották
- Android alkalmazások - szoftver kibeszélő topik
- Macrodroid
- Huawei Watch GT 5 Pro - egészség + stílus
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Vodafone mobilszolgáltatások
Hirdetés
-
Minden információt felhasználnak rólunk a közösségi cégek
it Az amerikai hatóságok szerint a közösségi média felhasználói nem igazán rendelkeznek irányítással azon adatok fölött, amit az AI-rendszerekkel megetetnek a nagy cégek.
-
Három részletben lesz látható az Arcane második szezonja
gp A napokban érkezett egy új trailer, amellyel együtt végre megtudtuk mikor láthatjuk az új évadot.
-
Őszi WTCR-es AC bajnokság az Elantra/Cupra duóval okt.3-án rajtol!
lo Az idei őszi Assetto Corsa bajnokságunkban, a jelenkori túrautós bajnokság krémjét, a WTCR-es autókat keltjük életre....
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz VinoRosso #848 üzenetére
Az a chip ha lesz a felső kategóriába nevez. Ezek a GeForce-ok amik most kaphatóan a konkurens Radeonokhoz 25-30%-os sebességhátrányban lesznek gyengébb képminőség mellett. Az olcsóbb kategóriába is kell a frissítés. Gondolni kell a kispénzű júzerre is, és ez a termékpaletta csak a fanatikusokat győzi meg. Mindenhova kell az újítás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #850 üzenetére
Ne hívjuk GT300-nak ... már tudjuk, hogy ilyen nincs. Mondjuk ez lényegtelen valami van.
Amúgy jön egy új generáció a felsőkategóriába. És? Mi lesz a nagy bevételeket hozó középkattal. Ők is úgy számolnak, hogy a HD 4770 ellen nem lesz elég a GeForce GTX 260 sem a DX10.1-ben. Egyszerűen kell valami oda, mert kvázi semmit sem érnek el azzal, hogy van egy csúcskártyájuk. Sőt még a DX10.1-es Geforce-ok is hátrányban lesznek a DX11-ben, mert a mostani Radeonoknak még tesszellátoruk is van. Ettől függetlenül kellenek a DX10.1-es GeForce-ok, mert ezzel a termékpalettával most sem tartják a lépést, hát még az év végi játékokban, amik között sok DX10.1 lesz és pár DX11.
Most ne arra gondolj, hogy az NV szerint felesleges a DX10.1, tudják ők, hogy egy nagyon fontos lépcső az API, és valós hátrányt teremt a nem támogatása.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz VinoRosso #855 üzenetére
Mivel a szabványnak van esélye elterjedni, így a PhysX kiesett a szereplők közül. Előbb el kell szakítani a CUDA-tól, ha nem teszik meg, akkor pár játékkal a háta mögött kihal a technika a PC-s piacról. Jelenleg a PhysX technikát használó motorok töredéke használ GPU-s gyorsítást.
Én már jó ideje tudtam, hogy nincs GT300, ezért próbáltam a lelkesedést visszafogni a hírek kapcsán. Egyébként valszeg Fermi lesz a neve, ahogy az ExtraHardware is írja, bár kétségtelen, hogy nem lett volna szabad a hírt leközölni, de most már mindegy.Bici: Ott a Tesselation SDK, az tud Xenos és DX11-es kódot is kreálni. Ha elkészül a játék Xbox 360-ra, akkor semmi akadálya a forráskódot átmásolni a PC-s verziókhoz. Még más gyártó termékével való kompatibilitásra sem kell figyelni, mert csak az ATI használ tesszellátort a nem DX11 kártyáinál.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #861 üzenetére
A Tesla brand megmarad, a chip kódneve Fermi ... egyébként senki sem mondta, hogy visszaállnak a GPU tervezésre. Nekik a GPGPU piac a fontos. A PC platformosodik, proci nélkül elvesztik a meccset, így nem is érdemes GPU irányba fejleszteni az NV-nek. Ezért készítették a Tegrat, hogy a jövőben ez hozza a nagy bevételeket, ahogy Huang bácsi is fogalmazott pár év és a Tegra felel az NV jövedelmének több mint 50%-áért.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #863 üzenetére
Nem, de minek kidobni egy bevált márkanevet.
Bj Brooklyn: Azok a speckók eleve pletykák voltak. Pár dolgot mondtak, de erről nem beszélhetek, meg nekem sem világos még a felépítés. Igazából ezt a GT300 ügyet sem köthettem az orrotokra, de elmondták helyettem a csehek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Bj Brooklyn #866 üzenetére
Beszélek én, ha nincs NDA, vagy nem utasítanak hallgatásra.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #879 üzenetére
Senki sem mondta, hogy nem jó a GeForce PhysX ... egyszerűen egy zárt rendszerhez van kötve, így a fejlesztők csak akkor foglalkoznak vele, ha az NV egy zsíros csekkel megkéri őket.
rocket: nem én mondtam az 50%-ot, hanem Huang bácsi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #883 üzenetére
Minden GeForce PhysX-et támogató játékért fizet az NV. PC-re zárt technikát nem lehet másképp eladni. A mostani Terminátor kapcsán is ez a probléma, nem tejeltek annyit a zöldek, amennyit előre megbeszéltek, ezért nincs a játékban benne a GeForce PhysX, de lassan megegyeznek az álláspontok és jön a patch. Bár itt a GRIN és az NV sem teljesítette a követeléseket, ami némileg védi az NV álláspontját. A szerződés eleve a Bionic Commandora szólt (ám a játékról csak szóban egyeztek meg), a Capcom viszont nem engedte a GeForce PhysX-et, mert félt, hogy a célközönség Radeont birtokló emberkéi (és ez manapság már többség ) hátrányosnak érzik a GeForce támogatását, így inkább a Terminátorra passzolták a szerződést. Ez az NV-nek nem tetszett, mert nekik nem ez a cím kellett, így nem fizettek. Asszem már márciustól ment a vita erről, a GRIN is azt nyilatkozta, hogy Patch formájában lesz elérhető a GeForce PhysX.
Az Aegia ingyen kínálta a PhysX licenszeket, és az NV is így tesz, ennek az az oka, hogy a Havokkal ellentétben a PhysX nem képes alapból több szálon dolgozni (ezt sajnos egyénileg kell kivitelezni). Többek közt ez az oka, hogy amelyik stúdiónál van pénz az manapság a Havok-ot választja. A tesszellátor sem szabvány, ha a Xenos-szal nem lenne kompatibilis a technika, akkor semmi esély nem lenne a használatára (max. azok a címek amiket az AMD megvesz, de ilyet nem csinál a vörös oldal, mert pénz nélkül is támogatni fogják a technikát). A tessellation SDK-t azért építette az AMD platformszintű megoldássá, hogy minden fejlesztő azt használja, ezzel egyszerre készíthető DX11 és Xenos kompatibilis kód. Nézzük a PhysX-hez mi kell. Magát a technikát engedélyezni a GPU-kon futni nem nagy dolog, de az extra effektek komoly időbe kerülnek, nyilván ez anyagilag nem gond, hiszen az NV még túl is fizeti a fejlesztést, csak az igazán nagy nevek már Havok-ot használnak, ami nem a legjobb az NV szempontjából.Bici: Hát jelenleg ezt nehéz megmondani, most a Tegrara csak a Microsoftos zsíros szerződés van a Zune HD-re (ez már jó jel). A többi gyártó nem nagyon érdeklődik iránta, persze pár év alatt ez változhat bőven.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #896 üzenetére
A CUDA-nak fontos szerep jut a Tesla piacán. A PhysX át lesz írva OpenCL-re, mert az NV nem hülye, ha már kiadta a pénzt a technikáért, akkor versenyezni akar a Havokkal.
Az NV jó ideig nem fog eltűnni a GPU szegmensből, még három év múlva is itt lesznek. Persze várhatóan előtérbe helyezik a Notebook vonalat, illetve most túl nehéz versenyezni a GPGPU-ra tervezett architektúrával, így vegetálnak. De a GPU fejlesztés lassan ebbe az irányba halad, így két év múlva már az AMD-nek is ilyen elgondoláson kell gondolkodnia. Jelenleg azért erős a Radeon, mert megtalált egy ideális átmenetet a GPU és a GPGPU között, pont olyan a rendszer, amit a DX10-11 követel, se több, se kevesebb. Mivel az uralkodó API még minimum 2 évig a DX11 lesz, így nincs is értelme egyelőre ezen változtatni, de a jövőben érdemes a Larrabee felépítését figyelembe venni. Nyilván a platformosodás is fontos szempont lesz, másfél év múlva már a belépőszinten a prociba lesz integrálva minden, két év múlva a középkategória is egy chipből fog állni. Az NV előrejelzéseiben is látható a GPU piac leépülése, nyilván ezek azok a piacok amik eltűnnek. Sokan hanyagolják majd a dedikált GPU vásárlását, ha ott van egy erős rendszer a prociban.
A felső- és csúcskategóriában vélhetőleg a dedikált rendszerek megmaradnak, de 2014-től már itt is elkezdődhet a beépülés, így konkrétan a dedikált gyorsítok piaca lassan megszűnik. Ezt elősegíti majd, hogy négy év múlva már elkezd terjedni a szoftveres renderelés, így a procik is más felépítést fognak követni, kicsit a Cellre fognak hajazni (x főmag+y vektormag, és a többi terület).Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DemonDani #905 üzenetére
Ahhoz, hogy a szoftver render idejébe érdemes legyen maradni platform kell. 2015-ben úgy veszed meg a PC-t, hogy a prociba lesznek építve a vektormagok. Integrálódik minden, ezt jelentené a Fusion, amiért az AMD megvette az Atit. Ha lehet is még külső gyorsítót venni a gépekhez elég kis piaca lesz. Persze addigra sok víz lefolyik a dunán, még x86 licenszet is szerezhet az NV.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nekem két infóm van a next gen NV-ről (legyen akármi a neve - Mirek a csehek GPU guruja szerint Fermi, és szerintem is, de ez mindegy). Az egyik az OBR-től származik, aki elég nagy NV fan és nyal nekik, így ő közel ül a tűzhöz. Ami miatt ő érdekes lehet, az az, hogy elsőként köpte el a GT200 valós speckóit. (Viszont sokszor mellényúlt már) Ő azt állítja, hogy volt a Müncheni partin és megtudta, hogy nem lesz itt semmiféle radikális áttervezés, marad a jelenlegi architektúra okosított változata. Ez duplázott 480 SP-t jelent majd a jelenlegi TMU és ROP kapacitás mellett. Természetesen GDDR5 memókkal. A teljesítményt a tuningolt GTX 295 köré várják, ami GT200-zal azonos TMU és ROP kapacitással, szerintem csak az év végén érkező játékokban fog érvényesülni, várhatóan segít majd a DX11 is a bónusz sebességgel.
A másik füles (ő teljes diszkréciót kér ) radikális változásokat mond (radikális változásokat ígért nekem az Expert-en az NV is, azzal a kijelentéssel, hogy tetszeni fog). Érdekes, hogy ő sem GT300 néven nevezi a cuccot. Szóval azt állítja, hogy a next gen NV olyan lesz mint a Larrabee, rengeteg külön mag lesz benne, melyek vélhetőleg a Tegra 2 módosított változatára fognak épülni. Ez teszi majd lehetővé, hogy versenyre kelljenek az Intel rendkívül erős DP teljesítményével, ami GPGPU fronton kritikus pont. Ugye a Larrabee az egyetlen rendszer, ami 1/2-ed teljesítménnyel teljesíti ezt, az RV770-nek is 1/5-öd teljesítmény a DP. A GT200 pedig külön egységeket alkalmaz, így az 1/12-ed sebességet tud. Utóbbi Tegrás esetben természetesen még azok a pletykák is igaznak bizonyulhatnak, hogy a next gen NV-ben nem lesz tesszellátor, hanem az Intelhez hasonlóan a textúrázáson kívül mindent emulálnak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hugo chávez #952 üzenetére
Ilyenre manőverre nincs kapacitásuk. A mérnöki gárda létszámát minimum meg kellene duplázni, és akkor még a két rendszer támogatását nyújtó rendszerprogramozókról nem is beszéltünk.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #965 üzenetére
A DX11-et tuti támogatják. A baj itt azzal lesz, hogy az AMD már ott van a kártyájával a fejlesztőknél, és írogatja bőszen a DX11-es eljárásokat. Az NV-től az elmúlt években a CUDA fejlesztése volt a megszokott, DX10-es dokumentálásuk is alig van. Persze érthető a CUDA nyomatása, mert független platformokkal ők erről a piacról kényszerűen kiesnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz szasanyi #967 üzenetére
Pedig az NV szempontjából van értelme a CUDA-nak. 2011-től az AMD és az Intel a csúcslapkán kívül olyan CPU-kat fog kínálni, amik integrált GPU-val rendelkeznek. Ezzel kiesik az alaplapi és a diszkrét GPU piac 120-130 dollár alatti szegmense, vagyis az NV akaratán kívül meg lesz fosztva a GPU piac legnagyobb bevételforrásaitól. Nyilván ez ellen csak úgy lehet védekezni, ha olyat kínálsz amit az AMD és az Intel nem fog. Ez lenne a CUDA, amit természetesen úgy fejlesztenének, hogy az újdonságokat csak az NV GPU-k támogatnák, és az AMD illetve az Intel csak akkor kezdhetne neki - teszem azt - a 4.0-ás verzió hardveres követelményeinek megfelelő rendszer építéséhez, amikor az NV kiadja a speckókat. És persze, hogy akkor adja ki ezeket doksikat amikor már lesz a zöldeknek tökéletes 4.0-ás hardvere. Ezzel a módszerrel az NV egy folyamatos hátrányt teremtene az Intelnek és az AMD-nek, és a kisebb szereplőknek. Nem véletlen, hogy nem akarja senki támogatni a CUDA-t.
Az infóhiány nem biztos, hogy rosszat jelent. Attól még lehet jó egy hardver, hogy nem kürtölik ki a speckóit.
Elején a DX11-es kód 10-15%-kal fog jobban futni, a DX10.1-es kódhoz képest (látványbeli eltérés nem igazán lesz). A Radeonoknak még a tesszellálás sem lesz akadály.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #969 üzenetére
Inkább úgy fogalmaznék, hogy olyan nagyszerű újítás lesz, mint a DX10.1. De a DX10 adta mindkettőhöz az alapot.
Pont a DX9 miatt nincs elsimítás. Az a rendszer nem tud szín és mélység információt szerezni deferred render esetén. A DX10 már tud színt, míg a DX10.1 tud Z-t is, azaz támogatja a Multisample Accesst, amivel tökéletesen működik az élsimítás Deferred Rendering esetén is.
A CUDA az OpenCL és a Compute Shader ellenfele, azaz egy GPGPU interfész. Jelenleg a CUDA a legfejlettebb, de támogatás hiányában a többi hamar utoléri majd.
A PhysX működhet OpenCL-en és CS-en keresztül is, ahogy a Havok is megy OpenCL-en (várhatóan CS-re is megírják). Az NV köti a CUDA-hoz a PhysX-et, ami azt szorgalmazná, hogy legyen értelme az AMD-nek beállni a támogatók közé, de ez is bukott ügy lett.
Az AA-t meg felesleges másik API-val csinálni, amikor a DX10.1-ben ott a Multisample Access. Ezentúl az NV is minimum DX10.1 kártyát fog kiadni, mert nem lehet tovább húzni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #971 üzenetére
De a HL2 és a Far Cry nem is volt Deferred Render motor. Ellentétben az újgenerációs motorokkal (UE3, RAGE, Yeti leszármazottak, és még lehetne sorolni.).
Az MSAA sok új dologgal nem kompatibilis. A Crysis esetében csak az Edge Detect volt a probléma, így ez az effekt kikapcsol az MSAA aktiválásakor, ez eredményezi a fák, bokrok túlzott recézettségét.
Nyilván a PhysX jelenlegi formában való támogatásához CUDA támogatás szükséges a gyártóktól.szasanyi (#972): A DX11-et támogató játékok első hulláma alapvetően DX10.1-re van írva. Tehát a DX11-et sebességnövelés szempontjából használják (Compute Shaderes Local Data Share, stb.) Nyilván a Compute Shader programokat sebességvesztéssel tudják futtatni a mostani DX10.1-es karik is. Emellett a HD Radeonokban van tesszellátor is, így az is megoldott.
A DX10-es kariknél sok függ az eljárástól, de átlagosan 35-40%-os sebességhátrány áll majd fent, és a kpminőség sem lesz megfelelő (mérsékelte, vagy teljesen hiányzó AA, AF és gyenge minőségű árnyékolás, illetve SSAO)Bici (#977): Az első CPU-GPU variációk még a jelenlegi architektúrákkal lesznek megoldva. Az Intel nem Larrabee alapot tervez a Sandy Bridge-be, mert egyszerűen ez az elképzelés a DX kötött futószalagjának emulálásával nagyon lassú. Egy célhardver kisebb és gyorsabb. Azt nem tudni, hogy a GPU GMA4xxx, vagy PowerVR GMA5xx leszármazott lesz-e. Az utóbbinak mindenki jobban örülne. Az AMD cucca biztos, hogy R6xx-7xx-8xx buherálás.
HDR+AA kérdéshez: Többféle HDR van - az FP16, az FP32, az int10b és az RGBE az elterjedt formátumok. A HL2 például int10b-t használ, így nem gond az AA. Például a régen bőszen alkalmazott FP16-hoz már FP16-os blending egység kell, az AA támogatásához.
janos666: A Catalyst AI a GeForce meghajtóhoz képest másképp működik. Az AMD az effektet tartja előbbre és az AA kényszerítés csak másodlagos. Az NV pont fordítva csinálja, AA lesz, de effekt nem. Ez esetenként érdekes mintavételezés eredményeket szül ami elcsúszott tükröződéseket és helyenként hibás árnyékolást eredményez. Ezt amúgy csak Deferred Shadowingnál lehet eljátszani, Deferred Shading, vagy Lightning esetén már eleve rá sem kényszeríthető az AA a motorra.
Igazából egyik kényszerítő felfogás sem jó, az AA-ról nem a gyártónak kell gondoskodni, hanem a motor fejlesztőjének, főleg ha van megoldás a problémákra.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #980 üzenetére
Ha jól tudom, akkor az Oblivion RGBE HDR-t használ, amit tényleg az X1000 széria támogatott legelőször. Tudás szempontjából erre képes lett volna a GF6-7 is, de az NV tiltotta az RGBE melletti AA, mert drasztikusan tizedelte a sebességet.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Okos stratégia. Ahogy olvastam már több elemzőnek leesett, hogy az NV nem tud már semmit alakítani a GPU piacon. Kis tűzoltás lesz ez, hogy az NV komolyan gondolja még mindig a GPU fejlesztést. Valószínűleg ezért is ez a hosszútávú jóslás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Iron Funeral #995 üzenetére
Nem vagyok benne biztos, hogy 2015-ben ez az "5000 shader" proci a helyes irány. A Larrabee-féle felépítés tűnik a jó elgondolásnak, ilyen távlatban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szerintem a PhysX-et már sohasem nyitják meg. A konzolon, ha nem is nyíltan, de megbukott a rendszer a Havokkal szemben. Gyakorlatilag ingyenes árával sem nagyon kell a nagyobb fejlesztőknek, akik kellő anyagi háttér mellett képesek saját motort írna, vagy beruházni a Havokba.
A PC vonalon pedig fel kell készülni az Intel és az AMD platform terveire. Vélhetőleg a PhysX-szel akarják az NV-nél megoldani az olcsó grafkarik piacát. Mivel 2011-től eleve lesz a CPU-ban GPU így ez a 120 dodó alatti szegmens bármely gyártó számára bukta, ellenben, ha nem veszik meg a cuccot grafkariként, majd talán megveszik fizika gyorsítóként. Valszeg annyit megéri beruházni a PC-s szegmensbe, hogy vegyenek évente 2-3 PhysX játékot.lenox: A Larrabee feldolgozási elve hasonló a GT200-hoz, de a rendszer számos szempontból különbözik. A DP-t ugyanazok a magok oldják meg, míg a GT200-on dedikált processzorok vannak erre. Továbbá a GT200 számos fix funkciós egységet tartalmaz, amire nincs szükség a GPGPU piacon, így a Larrabee a lehető legtöbb ponton emulál a hardver.
Igazából az NV-nek tényleg az lenne a legjobb ha eldöntené mit akar, mert az AMD és az Intel már döntött. Előbbi gyártó maximális hatékonyságú GPU-t csinál, és a GPGPU piacot csak pár ponton támadják be meglehetősen kis erőfeszítésekkel. Az cégóriás Intel rájött, hogy a Larrabee nem valami életképes a GPU piacon, mivel maximálisan a GPGPU piacra tervezték, ezért a GPU szegmensben a jelenlegi GMA rendszerek lesznek kipofozva. Az NV next gen-ről nem tudni sokat, de ha GPGPU lesz, akkor el kell vinni Larrabee irányba, ha pedig GPU, akkor olyat kell kínálni, mint az AMD. Ha átmenetet csinálnak, akkor mindkét piacon seggre ülnek. Az AMD rendszer - amellett, hogy a PC platfom szintű fejlődési vonala piaci szegmenseket zabál fel - hatékonyságával intézi el az új chipet, míg az Intel Larrabee, brutális DP teljesítményével.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A GT200-ban csak a TCP-k használnak közös memóriát, de például a stream egységek is külön regiszterterülettel rendelkeznek. A Larrabee előnye a DP, az NV erre még mindig egy dedikált egységet alkalmaz a TCP blokkban. Ezután attól függ a Larrabee sikere, hogy az NV marad-e ennél a felállásnál, vagy változtatnak. Ha marad a dedikált egység, akkor DP-ben továbbra is nagyon le lesznek maradva, ha pedig a DP-re rágyúrnak, akkor a chip méretei kolosszálisak lesznek, és a PC-s VGA piacon gyakorlatilag semmi esélye nem lesz. Nyilván VGA szinten sok haszna nincs a DP-nek, de a tranyót azt keményen zabálja.
Ne az NV GPU-ira gondolj, azok túl vannak méretezve, mivel a GPGPU piacot is lefedik. Nézz meg egy RV670-RV770 fejlődési vonalat. A magméret alig nőtt a teljesítmény viszont brutálisan. Az RV740 magasan a legjobb teljesítmény/mm^2 mutatókkal rendelkezik, az NV GPU-k ezt meg sem közelítik. Ez a mutató az AMD ígérete szerint generációnként radikálisan nő, ami eddig meg is történt, tehát mire eljutnak 2011-ben az integrált GPU-s CPU-ig, addigra 32 nm-en 100 mm^2 alatt tudják hozni a jelenlegi HD 4870 X2 sebességét. Nyilván ez, akkor kvázi megfelel majd annak a szintnek, amit most a HD 4850 képvisel. A memória alrendszer meg meg van oldva az alaplapon. Ugyanolyan nyák, mint a VGA nyákja, semeddig nem tart oda dedikált memóriákat pakolni.
Az AMD és az Intel nem azért indul ebbe az irányba, hogy nekünk jó legyen, egyszerűen jobbak a lehetőségeik platformszinten, ráadásul ezzel a lépéssel az NV-vel sem kell törődni többet. A diszkrét kártyákra való igény durván visszaesik, most látható ennek a hatása, az NV máris helyezi át az erőforrásokat az új piacokba.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Amíg tudnak bevételhez jutni a GPU piacon addig persze, hogy maradnak. Persze a fejlesztések abszolút GPGPU vonalra történnek, így a GPU piacon a PhysX és a marketing lesz a termék. Ezzel nyilván kisebb kiadások érhetőek el, így elég lesz a kisebb bevétel is, ahhoz, hogy pozitív legyen a mérleg a szegmensben. A PhysX is csak NV-n lesz, így az árverseny sem fontos, hiszen aki PhysX-et akar csak GeForce-ban gondolkodhat, még a Radeon mellé helyezhető társkártyás lehetőséget is megvágták. Gyakorlatilag az NV nem tekinti az AMD-t követlen ellenfélnek, felkínálnak egy plusz szolgáltatást, amit csak az NV-n érhetsz el.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hugo chávez #1100 üzenetére
A Microsoft csinálja a Compute shadert ami a DX11 része lesz. Ugyanarra jó, amire az OpenCL.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz janos666 #1113 üzenetére
Én ezt tudom. Ez olyan dolog, mint az RV870. Az sem létezik, mert Cypress a neve. Mindegy én szeretem ha valamit a nevén neveznek. Főleg a GPU-ra igaz ez. Allergiás vagyok a GT200-ra is, amikor G200 a hivatalos neve.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #1117 üzenetére
A driverbe nincs semmi bedrótozva. A program a BIOS-ban található kódot ellenőrzi, ami G200-xx0-Ax/Bx lehet. Ezután azért írja ki a GT200-at, mert a program készítője ezt a paramétert írta bele, ha a fenti kód hasonlít a sémára.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
[link] - nVidia schedules an event on the same day as ATI's Evergreen launch?
Attól, hogy linkeltem nem jelenti azt, hogy igaz is.
Az NV nem tudja, honnan szedi Theo a marhaságait, de nem terveznek szeptember 10-ére semmit. Persze lehet, hogy pont ők ferdítenek és Theo mond igazat? Na majd a jövőhéten kiderül.Szerk.: [link] - nVidia to show off its own DX11 hardware on September 10th - már ők is kezdik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mivel a DX11 funkcionalitása eléggé kötött, így bármilyen okos egy rendszer csak annyira lesz okos a gyakorlatban amennyire a DX11 engedi. Az emulációval teljesen programozható lesz a tesszellálás, bármilyen tesszelláló algoritmust írhatna a fejlesztő. Persze ez a mai számítási teljesítményen sebesség szempontjából töredéke lenne a fix-funkciós egységnek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem tudom, hogy mi volt, de ezek a GT215, GT216 és GT218 lapkák, tehát a DX10.1-es GeForce 200 széria. Lehet, hogy a tervezetben 300 szériának volt betudva, aztán ki tudja, miért változott.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Most nézem, hogy ebben vannak újak is.
- NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
- NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
- NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"Érdekös. Nem tudom hova rakni. Ki sem jött a GT215, de máris újítás, rosszabb esetben átnevezés lesz.
A 190-ből kiindulva ezek a DX10.1-es lapkák.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz antikomcsi #1162 üzenetére
Hivatalosan megjelent a GT215, csak a mérete miatt nem tudnak belőle sokat gyártani, így a tömegtermelés decemberben indul/indulhat be. Addig csak korlátozott számban érhető el a fő OEM notebookgyártóknak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz antikomcsi #1174 üzenetére
Kb. az a helyzet ami az RV740 esetében. Nagyon keveset gyártanak. Persze az NV ezt ügyesen oldotta meg, és csak az OEM-eknek érhető el a cucc. A GT218 a napokban debütált ténylegesen. Gyakrolatilag beindult a tömeggyártás. Októberben követi ezt a GT216, és december elején a GT218.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez a hír nincs egy hangban a későbbivel.
Azt írja a cím, hogy GT300 is taped out. Ha ez most történt meg, akkor ebből hogy lesz termék az év végére? Ez vagy valami elírás vagy a Fudzilla nem érti a tape out jelentését.Igazából a három FUD szaki folyamatosan mást mond. Theo azt írta régebben, hogy már az év elején meg volt a tape out ... ha ez reális infó, akkor a novemberi megjelenés lehetséges. Ugye abból érdemes kiindulni, hogy a Cypress-nek múlt év végén volt a tape outja.
Charlie mester nyár közepét mond. Így sem lehetetlen a novemberi start, de szűkös az idő. Most a FUDmesterek azt mondják most volt a tape out ez esetben én tavaszt jósolnék megjelenésnek, de ez is optimista jóslat.Szerintem amit most a FUD összehordott az bullshit. Az egyik hír üti a másikat.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A vége felé olvassátok.
And now it's easy to estimate speed of upcoming GT300 and HD5800 series as their peak performance already known and there no difference at architecture for integer calculations.
GeForce 350 - 1,08 TFLOPS
GeForce 380 - 1,63 TFLOPSSenki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hugo chávez #1229 üzenetére
300 W fölé nem mehetnek, aki ilyet ír az barom. Ha hivatalosan megerősítik, akkor az a barom, aki tervezte. De a PCI-SIG miatt az 500 W nem valószínű.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz VinoRosso #1248 üzenetére
És ennek játéknál van jelentősége? Természetes mindenki tudja, hogy GPGPU-ban az NV jobb, mert erre készítette az architektúrát. Az AMD-nél ez fordított ... a játékok igényeire szabta a rendszert. Azért tudnak ilyen gyorsak lenni DX10-ben és DX11-ben. Azért van már Cube map tömbös demójuk GI-jal dinamikus jelenet mellett. Nem az általános számítás volt az érdekelt, hanem a 3D-s teljesítmény.
Azért mondta tegnap az NVIDIA, hogy a GeForce a fontossági listájuk alján szerepel.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hát jelen esetben ezt pont nem jó, mert lista alját mondtak. A Tegra, a Tesla és az Ion is fontosabb nekik. Ha valaminek mindenképp vesznie kell, akkor a brandek közül a GeForce lesz az első, amit beáldoznak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen