- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
- Fotók, videók mobillal
- Megjelent a Poco F7, eurós ára is van már
- Magisk
- Honor Play - játék az árakkal
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- Samsung Galaxy A36 5G - a középső testvér
- Samsung Galaxy S23 Ultra - non plus ultra
- LG V30 - vezércsel
- Poco F5 - pokolian jó ajánlat
Új hozzászólás Aktív témák
-
Bluegene
addikt
-
Abu85
HÁZIGAZDA
Az első két demó az ATI CAL-ban írt szoftveres futószalagját használja.
Az Image Metrics az egy picit más. Inkább a filmekben lesz először szerepe, persze találkozhatunk játékban is vele. Ez sem DX10, hanem egy saját fejlesztésű rendszer, ehhez szolgáltatja az ATI a hardvert. -
Bluegene
addikt
ezt mind dx10-zel és atival csinálták, ettől jobbat is tudnak biztosan, idővel
1.lehet primitívnek hangzik, de látvány és gamer szempontból felesleges a sw render, a valóságosnál jobbat úgye lehet
2. nem is tartom esélyesnek h elterjed, egyrész MS ellenállása, másrészt kompatibilitási gondok(az egyik larrabee-n 32 mag van a másikon 64, az AMD-sen meg 48 x86 mag van, ezekre mind ráoptimalizálni...)szal marad a DX
-
janos666
nagyúr
Pedig jelenleg adott lett volna a 2010-es hajnal (mármint hogy akkor útjára induljon, és 2-5 éven belül mi is lássunk belőle valamit), hisz jön a Fermi, és jött volna a Larabee, miközben nincs még előirányozva új DirectX. (hova ettől jobb táptalajt?)
Én pl. szívesen láttam volna egy játékmotort még 2011-ben, ami Fermin (vagyis inkább már az utódján) futtat egy OpenCL vagy ComputeShader alapú software renderert.(#70) Quan-Chi - Mármint, hogy a Tesla ellenfele? Mert szerintem annak komoly ellenfele lett volna, míg a Qadro esetében még nehezebben rúgott volna labdába, mint a Geforce ellen.
-
Quan-Chi
őstag
ebből a grafikus csipből lehetett volna csinálni Quadro vagy FireGL ellenfelet
-
Raymond
titán
TS mar nagyon regota hirdeti a GPU halalat. Az a kedvenc temaja. Meg el lesz vele egy darabig, foleg ugy hogy mindig kitolja a hataridot
Peldaul:
Nov 21, 2001:
At some point in the future, we’ll begin to question the value of having
two separate and expensive chips in computers, the CPU and the graphics
chip. Then what, will NVidia be trying to extend their pixel shaders
and vertex shaders to achieve x86 compatibility? Will Intel be encouraging
developers to go back to software rendering? These two industries are in for an interesting collision course in 5-10 years.Feb 24, 2004:
I think CPU’s and GPU’s are actually going to converge 10
years or so down the road.May 12, 2006:
Looking at the long term future, the next 10 years or so,
my hope and expectation is that there will be a real convergence between
the CPU, GPU and non traditional architectures like the PhysX
chip from Ageia, the Cell technology from Sony. -
9950es
aktív tag
Miért muszáj azzal számolni hogy valaki BIZTOS hogy kimarad a buliból ?
Eddig az volt hogy majd az nV marad ki mert majd olyan jó IGP-k lesznek hogy csak na.
A valóság nem ilyen , még a rambusnak is jutott torta szelet (PS3 ) . Sweeneyvel kapcsolatban nem az a kérdés hogy jut - e tortaszelet , hanem az hogy mekkora...
Nyilván vele járnánk a leges legjobban, mert jobb toolset , jobb multiplatform játék etcetera.
Egyébként tőle ez egy totál érdekes húzás lévén általában lehúzza az intelt, mivel még igp-t sem tudnak csinálni, a LRB-t is lelőtte még tavaly, hogy grafikai megoldás ebből nem lesz, legfeljebb átszivárog az IGP-be és ebből a notebook userek majd profitálnak...
Nem konzol, nem desktop, nótbúk. -
Abu85
HÁZIGAZDA
A hír többnyire Tim Sweeney jövőképéről szól, régóta tudni lehet, hogy ő a DX (fix futószalag) és újabban a GPU piac halálát hirdeti, mert a szoftver render lesz a jövő. Ehhez az ő elképzelése szerint olyan GPU architektúra illik, amilyen a Larrabee (vagy Fermi, de főleg a Larrabee-t szajkózta). Azzal, hogy a Larrabee-nek meszeltek egy időre, a saját projektje is veszélybe került, így felemelte hangját, hogy meggyőzzön több fejlesztőt az igazáról. Aztán, hogy mi lesz az UE 4 sorsa azt nem tudni, de biztos átgondolják még egyszer az irányt. 2014-ig van idő.
-
9950es
aktív tag
: DD ez van...
Nézegesd a konzol architektúrákat, találd el hogy a következő gen milyen lesz.
-
rumkola
nagyúr
Így gyorsan átfutva olyan mintha az amd tartana rossz irányba a jövőre vonatkozóan, és az intel meg az nv belepancsol a jóba.
Eddig főleg az ellenkezőjét szajkózták néhányan...
most akkor mi is van? -
janos666
nagyúr
-
dezz
nagyúr
Éppenséggel először (hónapokon belül) az Intel fog kiadni olyan procit, ami egy tokban tartalmaz CPU és GPU lapkát. 2011-ben mindkettőtől jön majd a kettőt egy lapkán tartalmazó megoldás.
Az Intel a Larrabee-vel éppen most ment neki a falnak...
Tényleg nagyon jó irány volt...
Azt majd meglátjuk, át tudják-e úgy alakítani, hogy életképes legyen.
Az AMD, bár kevesebbet költhet fejlesztésre, de kreatívabb... Másrészt jobban rá van kényszerítve, hogy előre meneküljön. Ugyancsak nem elhanyagolható, hogy a kezükben van a jelenlegi legjobb desktop grafikus technológia, amitől az Intel messze le van maradva. (Éppen ezért próbálkoznak más megoldásokkal, de egyelőre nem sok sikerrel.)
-
misran
tag
Ok, en meg ati-t szoktam meg. Nem mondtam, hogy nincs jo kezekben, sot. Igy igazibol O most jo kezekben van, ha AMD is felveszi a kesztyut. NV van inkabb bajban, persze a szorongatas kolcsonos. Azt azonban nem gondolnam, hogy NV magokat integralnak majd Intel lapkakra. AMD viszont konnyen integralhat meglevo grafikus technologiat. Talan pont ezert is akar az Intel mas iranyba menni. Amerra meg O megy, az -tetszik nem tetszik- jo esellyel _az irany_. Becsulendo, hogy az AMD partiban tud-probal lenni az Intellel, de mas meretu cegekrol es kapcsolati tokerol beszelunk.
Velemenyem szerint ez egy orok mozgas lesz: egybe mindent, kulon mindent. Es mindig attol fogg fuggeni, hogy eri meg uzletileg aktualisan. Mindket irany lehet jo es rossz is, tisztan technologiai oldalrol nem lehet donteni. Ism.: szerintem. -
misran
tag
A lenyeg ez: olyan szamitasi kapacitast sikerult vagy sikerul a jovoben integralni egy lapkara, hogy mar lehetoseg van grafikus szamitasi igenyt is kielegiteni, lapkan belul. Ez technikailag is jo, meg uzletileg is. Egy nv vagy ati pedig nem fogja odaadni a magjait az intelnek, integralasra. Kar, lehet, hogy jobban jartak volna.
Talan most ujra az az ido jon, amikor az effekteknek es latvanynak csak a kepzelet szab hatart, nem pedig az implementalt effektek. Vagy ez az ido mar reg itt van? (mostanaban nem nezek jatekot/demot)
Amugy az nv ugye probal sajat labra allni, lehet, hogy ok cpu-t szeretnenek a grafikus magjaik melle? -
dezz
nagyúr
Hát úgy, hogy amiket leírtam, azt maga a MS fogja csinálni, hogy megtartsa a DX-, és ezzel együtt Windows-függőséget. A legtöbb fejlesztő valószínű továbbra is ezt fogja használni, csak a kísérletezőbb kedvűek és a nagyok állnak majd neki 1-1 saját, fullos szoftver-renderernek.
-
dezz
nagyúr
A DirectX (SDK?) (legalábbis a korábbi verziók) tartalmaz egy bizonyos referencia renderert, ami nem más, mint egy szoftveres renderer, ami tehát szoftveresen emulálja a videokártyák működését. (Így ellenőrízhető, hogy a kettő egyforma eredményt ad-e, hiba esetén a videokártya drivere-e a bűnös, stb.) Ha eljő az "új korszak", a MS bizonyára rá fogja ezt optimalizálni az új HW-ekre, hogy legalább a meglévő DX alkalmazások fussanak rajtuk.
De bizonyára azzal is bepróbálkoznak majd (a fenti továbbfejlesztéseként), hogy a szoftveres renderelés bonyibb részeit átveszik a kevésbé "elszánt" fejlesztők válláról, amolyan köztes megoldásként.
-
dezz
nagyúr
válasz
Jim Tonic #48 üzenetére
A Larrabee-nek csak az egyik baja, hogy x86-on alapul. Ez önmagában még nem olyan hatalmas probléma, mivel az x86-os (+ x64 + SIMD-ek) kód átfordításra kerül egyfajta RISC kódra, és a továbbiakban azzal dolgoznak a magok. Bár ehhez szükség van egy összetett dekóder egységre (itt magonként), ami szintén foglalja a helyet.
A másik dolog, ami talán fontosabb, hogy itt minden mag a szokásos CPU-s felépítést követi, ami cseppet sem hatékonyabb azoknál, ha nem teljesen általános integer kódról van szó, hanem elsősorban számításokról. Hiába van 32db belőle, 32 proci sem ér fel egy kisebb GPU-val sem ebben.
Ezen belül az egyik dolog, hogy a szokásos cache memóriával operál, ahol egy bájt hasznos adathoz több bájt kiegészítő információt is el kell tárolni. Ellenpélda: a Cell prociban sima (statikus) RAM memória van az SPU-k mellett (jelenleg 256kB/SPU). Így ugyanakkora területen többszörös tár helyezhető el.
A másik, hogy a Larrabee-ben minden mag a CPU-knál szokásos módon címezheti és férhet hozzá a külső memóriához. Ez jót tesz a kényelemnek és a könnyű programozhatóságnak (sok kód változtatás nélkül futtatható), azonban cseppet sem erőforrás-kímélő, nem kényszeríti rá a programozókra az optimálisabb kódolást, és az előbb említett, szokásos, nem helykímélő cache mechanizmust is igényli.
Harmadik, hogy mivel még a kisebb L1 cache (10-20 kB) is sok helyet igényel, bonyolult és ugyancsak nem helykímélő ugrás-becslő logikára van szükség a L2-höz, vagy épp külső memóriához való hozzáférések számának csökkentése érdekében. A Cell SPU-i esetén erre nincs szükség.
Így lehet 1-1 Celles SPU a hozzátartozó srammal együtt is jóval kisebb, mint 1-1 Larrabee-s mag -> azonos területen jóval több fér el belőlük -> jóval nagyobb hatékonyság.
-
Az Intel hülyesége ez az elgondolás. Mindent X86-on kell megoldani.
Kár, hogy ez a legtöbb esetben hatalmas pocsékolás. Nem ok nélkül kerülnek a szuperszámítógépekbe grafikus maguk tömkelegei. Ugyanis bizonyos számításokat (lebegőpontos) röhögve elvégez egy GPU, amihez kellene egy vödör X86 processzor. Felépítéséből adódóan csak sokkal nagyobb pénz és energiabefektetéssel tud hasonló képességeket felmutatni.
A Larrabee is ott bukott meg, hogy már most elvérezne egy egymagos GPU mellett a maga 32!!! magjával.
Sokkal életképesebb az Nvidia Fermi elgondolása. Valószínűleg ők találják el, mi a jövő. Vagy ott a Cell, ami megint előremutató rendszer, csak még mindig nem prezentálják megfelelően.
Az X86 amúgy igencsak korlátolt rendszer, sok dologban egy ARM is jobb nála. Egyszerűen alkalmasabb bizonyos területekre. Nem tudom anno hol olvastam, hogy egy ARM multimédiás képességei is nagyságrenddel jobbak, mint egy x86-é, és ugyanahhoz a dologhoz kevesebb energiát igényel. -
dezz
nagyúr
Jahh, így van ez pl. a Cell procival is, összetettebb algoritmusoknál kb. 5x GPU-s flops-nak felel meg a teljesítménye.
Viszont, nem biztos, hogy a Larrabee architektúrája lesz a befutó... Kenterbe ver egy sima procit, de egy GPU ellen kevés... Épp ezért törölték az aktuális verziót is. De ha nem változtatnak az architektúrán, minden csíkszélességi lépcsőfoknál ugyanez lesz a helyzet... Lassan rájönnek, hogy mégis csak a Cell architektúrája (vagy valami ahhoz nagyon hasonló) a legjobb út... Az ugyanis 2-3x hatékonyabb. Hogy nehezebb programozni (értsd: nem annyi, hogy egy recompile)? Hát, valamit valamiért.
-
orbano
félisten
válasz
Jim Tonic #43 üzenetére
én teljességgel értettem miről beszéltél, de sem az állításoddal, sem az érveléssel nem értek egyet. célhardver az van most, a DX11-gyel körülbelül elérte a korlátait. A jövő real-time algoritmusai már nem működnek célhardvereken, azoknak igenis rendes processzor kell, méghozzá jó sok. És ehhez nem kellenek jósok...
-
janos666
nagyúr
És a Fermiről (illetve OpenCL-ről és CS-ről) hallott már Sweeny?
-
orbano
félisten
úram atyám, tu tudjátok egyáltalán már, hogy mi a francről beszéltek? SOC? Emulálás? WTF?
Abu, már elmenekültél? -
válasz
#95904256 #36 üzenetére
Egy célprocesszor az effekt számára.
Nem, ilyen elgondolással minden munkához azt használjunk, amit arra gyártottak.
Esetleg létre lehetne hozni PC szinten a SOC megoldást, mindent a processzor old meg, és mindent szoftveresen kell megoldanod.
Bár a SOC sem tökéletes példa, mert a legtöbb ilyen rendszerben csak az ARM processzorral dolgozol, a többi egységet meghajtod driverrel, és nem emulálsz. -
h_143570
addikt
A fo kepesege az OpenGL es DX API-knak pont az volt, hogy a hardverek kulonbsegeit es bugjainak a nagyreszet eltuntettek a fejleszto ellol. A teljesen szoftveres megoldas eseten ugyan ugy le kell majd jatszani, minden kartya minden reviziojahoz, sot talan meg driver verziokhoz is.
Az OpenCL es a DX11 Compute Shader megoldasai talan eltuntetik ezek egy reszet, visszont az sem lesz teljesen szabad.A legfajobb pont valoszinuleg a kompatibilitasi reteg, azon lehet sokat nyerni teljesitmeny szempontjabol. Erdemes megnezni, hogy egy C forditto milyen bajtkodot forditt egy sima FOR ciklushoz osszevetve egy ugyanolyan, de kezzel ASM-ben megirt FOR ciklushoz kepest. Nagysagrendileg lesz komplexebb a C-s valtozat, sot a komplexitas nagyreszere az esetek jelentos reszeben folosleges teljesitmeny korlat. Grafika esten ez a kulonbseg meg durvabb.
Szoval a teljesen szabad megoldas eseten garantalt lenne, hogy mindeki olyan kartyat vegyen amit a fejlesztok hasznaltak, ugyanazzal a driverrel, aztan cserelgesse a felhasznalo.
Bar valoszinuleg a kedeves EPIC-es emberke megnyilvanulasa a konzol piacra valo koncentraciot vetiti elore, ott 10 evig nem valtozik a hw es a sw sem nagyon, igy ki lehet hagyni a tobbi kartya bugjanak az elfedeset.OpenCL es DX11CS eseten legalabb van nemi esely a kompatibilitasara meg ha nem is lesz tul gyors. Aztan persze ellenorizni, hogy milyen fix egysegek vannak meg es tudni, hogy mikor gyorsabb azt hasznalni vagy szoftveresen szimulalni.
-
T.Peter
őstag
Nem így gondoltam. Ezt írtad: "Szoftver Renderbe meg kell írni, azt amit eddig az API már tartalmazott. " Nem az egészet emelnék ki, hogy dx futószalagot csináljanak, hanem azokat a részeket, amiket ugyanúgy kell megírni, mint ahogy már megvan írva dx-ben. Vagy azokat azért nem használnák, mert tudnak jobb megoldást? Hogy fog így elterjedni a szoftveres renderelés, ha például azok, akik nem akarnak mindent önerőből megírni, továbbra dx-et fognak használni? Annyival jobb motorokat fognak írni egyéni futószalaggal, hogy muszáj lesz áttérnie mindenkinek? Ha már itt tartunk, a voxeles grafika mikor fog elterjedni?
-
válasz
#95904256 #16 üzenetére
Jaja, Nvidia elgondolás. Ne okosan oldjuk meg, hanem erőből.
Sokan belefulladtak már ebbe. Szerinted mi játszik le könnyebben egy mp3 zenét? Egy CPU vagy egy célprocesszor? Közben mekkora lesz a fogyasztáskülönbség?
Ilyen elgondolással vágjunk fát fűrész helyett 20db késsel. -
ElEvEn11
senior tag
válasz
TomBoy1986 #26 üzenetére
Szerintem azt kellene, hogy megértsd, hogy akkoriban a 3D még igencsak gyerekcipőben járt. Habár már voltak kezdeti szabványok, mégis mind a hardveres, mind a szoftveres megoldások gyerekcipőben jártak és még nem igazán tudták használni sem azokat.
Amit dezz írt az sem elhanyagolható tényező, de végül is a gyakorlatban ez ugyanazt jelenti.
Mostanra természetesen van egy jól bejáratott út, amit a DirectX jelent a játékok területén és az OpenGL maradt a professzionális piacnak, habár még egyes játékok is használják. Ami a jövőt illeti ott az OpenCL és a szoftverrendering, ami ismét egy nagy változást jelentene. Valószínűleg ott is lennének kezdeti bakik, de a megfelelően erős hardver már meglenne hozzá gyakorlatilag. Mindez még akkor sem jelent olyan gondokat, mint amiket Te is említettél. Egyébként is! A ma megjelenő játékok 90%-a még a harmadik patch után sem tökéletes, de ez nem a technológia hibája. -
Abu85
HÁZIGAZDA
A GoW 3 fejlesztése nem az Unreal Engine 4-től függ. Sweeney és csapata már befejezte a munkát az UE3-on, ettől függetlenül annyi játékot lehet rá csinálni, amennyit szeretne a stúdió. Mivel a jelenlegi konzolgeneráció életciklusa úgy 2013-2014 környékén ér véget, esélyes a GoW 3 xBox 360-ra.
T.Peter: Felépíthető a DX11-es futószalag szoftver renderrel. Bár ennek sok értelme nincs. Ha valaki ilyet szeretne használja az API-t.
-
T.Peter
őstag
válasz
#65675776 #22 üzenetére
Szerintem nem ez a célja. A cikkben csak Sweeney-ről van szó, nem az Epic-ről. Tim Sweeney hozzáállása pedig érthető, hiszen őt biztosan korlátozza a DirectX.
Abu: Nem lehet a DirectX-ből azokat a részeket átemelni, amik úgyis kellenének, és nem kell rajtuk változtatni?
-
he7edik.
addikt
Tehát xbox360-ra nem jön GoW3 bár a HALO-ról is lehúztak még egy bőrt
-
dezz
nagyúr
válasz
TomBoy1986 #26 üzenetére
De az nem szoftveres rendering volt... Hanem nem-szabványos fixfunkciós hw-ek.
Vagy nem értem, mire gondolsz. -
TomBoy1986
veterán
Úgy értem inkább, hogy még amikor megjelentek az első 3D-s játékok, akkor egyik helyen ilyen effekt hiányzott, mert nem tudta véghezvinni az eszköz (annak ellenére is, hogy támogatta az aktuális DirectX verziót). Legjobb példa erre talán az S3 sikerkártyája, ami megélt vagy 4 generációt és ráncfelvarrást (virge). De a Riva 128-ból is hiányzott pár fontos fícsör, mint pl. a fekete vonalak eltüntetése a poligonok illesztési határán. Vagy pl. ugyanezzel a kártyával az AVP 1 Predatorral álcázott módban úgy nézett ki, hogy fehér rizsdarabkák voltak a képernyőn. Szóval ilyesmikre gondolok én kompatibilitási gondoknál.
De hasonló volt a helyzet hangkártyáknál is. Nem kell túl messzire visszamenni, amikor még be kellett állítgatni a hangkártyát a játékoknál. Volt ott Sound blaster kompatibilis, SB 16, AWE 32 stb... és ez még csak a Creativenak a játszótere... Aztán jött a többi gyártó.
-
leviske
veterán
Kevesebb lesz a saját engine? Már most is alig akad saját fejlesztés a stúdióknál, mindenki UE3-at használ.
-
Dare2Live
félisten
válasz
Dr. Romano #13 üzenetére
azért volt szebb mert célhardware.
Ha wgy durva "3DStudio szint" megy realtimeban 2020ban akkor melyik lesz a szebb?
-
#65675776
törölt tag
"A szoftveres futószalag visszatérése egyébként azt is jelentené, hogy egyre kevesebb stúdió engedhetné meg magának a saját motor fejlesztését, ami a nagyobb idő- és erőforrásigénnyel magyarázható. Talán éppen ezért nem mindenki ért egyet Sweeney elképzeléseivel. Bár technikailag nem kifogásolható az elgondolás, anyagi szempontok miatt jelentősen megnő a fejlesztés kockázata."
Ebből meg az, hogy kevesli a licencdíjakból befolyó bevételt. Alapvetően mindegy, hogy kinek/minek a licencdíját fizetem meg a játék árában. Az Epic célja a jelek szerint az is, hogy a kisebb engine-fejlesztőket ellehetetlenítsék.
-
dezz
nagyúr
válasz
TomBoy1986 #17 üzenetére
Milyen hw-ek között volt inkompatibilitás? A GPU-k fixfunkciósak voltak, a prociknál meg max. az lehetett gond, hogy az Intel nem támogatta a 3DNow!-t, az AMD meg mindig némi késéssel az aktuális MMX-et és SSE-t. Vagy úgy érted, túl nagy különbségek voltak a procik között sebességben?
akosf: Lehetnek valakinek jó ötletei, de egy komplett motort nem biztos, hogy össze tud hozni a "sufniban", hiszen így még nagyobb munka. Így a kis cégek még nehezebben tudnak labdába rúgni a nagyok mellett, amik matematikusok és programozók hadát alkalmazhatják. Szóval, elég felemás ez a dolog.
orbano: Szabványnak szabvány, de hogy mennyire jó...
Bonyolultabb dekódolást igényel: CISC->RISC, nem fix szélességű utasítás-szavak, stb. Bár pl. a Larrabee-n nem átlag x86-os kód futott volna többségben, hanem AVX.
mmdms: Titkos alkú a MS és Nvidia között?
(Az AMD-t azért hagyom ki, mert ők ha akarnak, tudnak csinálni egy Larrabee-re hasonlító valamit. Az Nvidia viszont meg lenne lőve ezzel is, hiszen nem rendelkeznek sem x86, sem x64, sem SSE, sem AVX licenccel.)
-
mmdms
addikt
a Larrabee utasításarchitektúrája és programozási modellje lenne a legmegfelelőbb a fix funkciós szintektől lekorlátozott DirectX-féle futószalagok leváltására.
Nekem ebből a mondatból az válik nyilvánvalóvá, hogy a microsoft keze van a dologban, nehogy véletlen le kelljen váltani a dx-et.
-
orbano
félisten
válasz
TomBoy1986 #17 üzenetére
senki nem mondta, hogy nem lesznek szabványok. kezdésképpen az x86 már egy egész jó "szabvány".
-
TomBoy1986
veterán
Én emlékszem arra is, hogy iszonyatos kompatibilitási problémák voltak sok esetben a most hőn áhított szoftveres rendernél. Ráadásul ha jól rémlik éppen azért lett egységesítve (illetve hát kétségesítve, hiszen OpenGL és D3D), hogy ne kelljen már a programozóknak minden egyes qrva gyártó qrva kártyájára külön megírni a játékokat.
Na nehogy már a szabvánnyal szembemenni annyira jó dolog. Ha mégis, akkor vásárolj angol elektronikai cuccot és használd itthon. Vagy még jobb példa az amerikai, ahol nem csak a dugó más hanem a feszültség is...
-
-
Abu85
HÁZIGAZDA
válasz
Dr. Romano #13 üzenetére
De anno nem teraflops-class lapkák voltak.
-
Dr. Romano
veterán
Egyébként miért lenne jobb a szoftveres renderelés? Anno épp hogy csúnyább volt a 3D-s API-khoz képest
-
Azért ez komoly pofáraesés.
A Nvidia most nagyot dobhat a Fermivel, az AMD meg a Fusionnel. -
ddekany
veterán
Csak kíváncsi leszek, mitől fog eljönni az az új generációs grafika, ha pont az Intel nem kezdi el nyomni konkrét termékkel. Ez így végtelen ciklus... nem szállok be a piacra vassal, mert nincs szoftver ami kiaknázná, szoftvert meg nem csinálunk rá, mert nincs elterjedt vas hozzá.
-
ddekany
veterán
-
#95904256
törölt tag
"A szoftveres futószalag visszatérése egyébként azt is jelentené, hogy egyre kevesebb stúdió engedhetné meg magának a saját motor fejlesztését, ami a nagyobb idő- és erőforrásigénnyel magyarázható."
Miért? Nehezebb CPU-ra programot írni mint GPU-ra?
Én örültem volna ha megjelenik a Larrabee. Végre írhattam volna egy rendes engine-t.
-
Psych0
őstag
"egyre kevesebb stúdió engedhetné meg magának a saját motor fejlesztését. "
szerintem ez nem akkora, probléma, mert így talán sokkal kevesebb lesz a (technológiailag) szar játék, mert lesz mondjuk 5 király engine, amit mindenki licenszelne, és nyilván azt használnák, ami a legjobb (mint pl. anno a quake3 engine), és ahhoz, hogy a legjobb legyen folyamatosan fejleszteni kéne.
-
orbano
félisten
elég furán hangzik egy mondatban a "2011 vége felé" és a "már"
szerintem egyébként az Intel szépen csöndben várja az új generációs grafika eljövetelét. addig nem száll ringbe, mert hamar elkönyvelnék gyenge harmadiknak. de ha eljön a szoft render kora, akkor jó esélye van az élre törni...
-
Yany
addikt
"Az újkeletű pletykák alapján a 2011 vége felé megjelenő, Ivy Bridge kódnevű processzor grafikus magja már támogatni fogja a DirectX 11-es grafikus API-t is."
Amikor már DX12 vagy valami egészen más lesz a "menő"?
De legalább a régi cuccok futni fognak rajta, ha nem lesz olyan inkompatibilis, mint a jelenlegi gma chipek driverei a megjelenésük után sokáig...
-
UnSkilleD
senior tag
szoftver render FTW
Új hozzászólás Aktív témák
Hirdetés
- 3D nyomtatás
- Óvodások homokozója
- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
- Formula-1
- Több évig húzódó per várhat az Apple-re az iPhone-ok uralma miatt
- Windows 11
- Építő/felújító topik
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Amlogic S905, S912 processzoros készülékek
- Diablo IV
- További aktív témák...
- Xiaomi Redmi Note 13 Pro 5G 256GB, Kártyafüggetlen, 1 Év Garanciával
- Geforce GTX 1050, 1050 Ti, 1060, 1650, 1660 - GT 1030 - Low profile is (LP)
- Csere-Beszámítás! RTX Számítógép játékra! I5 13400F / 32GB DDR5 / RTX 4070 Super / 1TB SSD
- Bomba ár! HP EliteBook 850 G2 - i5-5GEN I 8GB I 256GB SSD I 15,6" FULL HD I Cam I W10 I Gari!
- Bitcoin miner Bitmain Antminer S9 S9I 13.5 - 14 Th 1250W eladó
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest