Hirdetés
- OnePlus 8T – fazonigazítás
- Honor Magic6 Pro - kör közepén számok
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Xiaomi Watch 2 Pro - oké, Google, itt vagyunk mi is
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Milyen okostelefont vegyek?
- Hat év támogatást csomagolt fém házba a OnePlus Nord 4
- iPhone topik
- Ezek a OnePlus 12 és 12R európai árai
Hirdetés
-
Érkezik a Redmi Watch 5 Lite
ma Szeptember 25-én Indiában lesz az aktivitáskövető premierje, és lehet, hogy marad is azon a piacon.
-
Amazon Fire TV Stick 4K Max
lo A Müncheni Országos Bíróság helybenhagyta a Nokia keresetét. A panasz szerint jogsértést követett el az Amazon. mert...
-
Gondoskodik róla az EU, hogy az Apple felnyissa a rendszereit
it Az Apple-nek meg kell nyitnia a rendszereit a riválisok felé, ebből az EU nem enged.
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz schwartz #8517 üzenetére
JF-AMD-t én annyira nem ismerem. Halottam róla, de ő a szerverprocikkal foglalkozik, amit annyira nem követek. De amúgy igen. Már ha egyről beszélünk. A Bulldozernél is eléggé feltolták az igényeket, közben eléggé látszott, hogy az integrációhoz tervezett rendszerről van szó. Ha megírok egy hírt, akkor benne szokott lenni, hogy mi a pletyka és mi nem az. Na most az olvasós szempontjából ez ignorálódik. Olyan, mintha ott se lenne, közben egy nagyon fontos adalék.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #8519 üzenetére
Csak tologatják. Valszeg TDR nélkül akarják kihozni, de a béta nem jó.
Amúgy dolgozok azon, hogy összegyúrjak egy kevert drivert, ami a 275-re épül, de megkapja a legújabb béta DirectX és OpenGL részét, csak eléggé bonyolult az NV driverstruktúrája, de talán átverekszem magam rajta. Ha minden jól megy, akkor a kevert driverrel 290-es játékfunkciókat kaptok a 275-ös driver stabilitásával. Persze készpénznek ne vegyétek. Fingom nincs, hogy mennyire tudom stabillá tenni. Próbálkozok, de csak machinálni tudok forráskód nélkül. Ha az alapstruktúrát követem, akkor pedig több szolgáltatásnak annyi lesz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #8521 üzenetére
[link] - itt van egy hosszú topik. Szerencsére összeraktam egy rendszert, amiben előjön. Erős Youtube terhelés mellett Firefoxszal, így tudom tesztelni.
Azt nem tudom, hogy a 285 neked hol bajos. Én a TDR-en próbálok segíteni. Többre sajnos nem vagyok képes. Ezt is azért nem kürtöltem világgá még, mert közel sem biztos, hogy ennyire bonyolult struktúra mellett tudok valamit alkotni.
Az a bajuk a júzereknek, hogy a 275 driver eléggé stabil, de sok játék jobban fut a 28x-szel. Ezért ott a kérdés, hogy a stabilítást, vagy a sebességet válasszák. Megpróbálom a kettőt összegyúrni. Mondom egyelőre próbáltam megbontani a driver működését, de ez nem megy, mert nem stabil, szóval nekifogok a másik útnak. Funkcionalitásban kevesebb lesz a rendszer, de stabil lesz, reményeim szerint.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Ezt 2006 végén elmondta az AMD, hogy amikor úgy döntöttek, hogy a felvásárlással csapnak bele az integrálásba, akkor az ATI mellett az NVIDIA, a Matrox és az ImgTec is opció volt. Általában egy ekkora üzletnél több céget is mérlegelnek. Az meg valószínű volt, hogy az NVIDIA volt az első számú opció, hiszen 2004-2005-ben az AMD-vel nagy barátságban voltak.
Ahhoz persze csak gratulálni lehet a Forbesnek, hogy sikerült megtalálni 2012-ben a 2006-os Financial Analyst Day transcriptjét, vagy esetleg egy videót róla. Az meg, hogy az AMD alkalmazottja kikotyogta. Mit? ... amit az AMD 2006. december 14-én elmondott a világnak. Micsoda titokra derült fény.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ahogy elnézem sokan nem tudták. Pedig logikus, hogy egy többmilliárd dolláros beruházásnál több szempontból is megvizsgálják a lehetőségeket. Ez amúgy lehet a sajtó hibája is, hogy 2006 végén nem számoltak be erről a FAD után. Mondjuk csak az utóbbi pár évben vált a FAD jelentős eseménnyé a sajtó szemében, mert korábban csak üzleti rendezvény volt. Úgy 2008-tól kezdve alakult úgy, hogy az AMD rendre bemutatja a következő év hivatalos útitervét. Nyilván enélkül túl nagy figyelmet nem kapna.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem lesz az teljesen low-end GPU ... a pletykált lapkaméretből kiindulva amolyan Cape Verde kategóriás termék lesz. Persze lehet ezt is low-endnek hívni, de tény, hogy vannak ennél gyengébbek is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz gainwardgs #8572 üzenetére
Fake. Volt a youtube-on egy videó mielőtt a Google kirakta a felhasználót. Ott látható volt a DXDiag, ami 295.73-as drivert mutatott, annak a drivernek a nvdisp.inf állományában nincs Kepler. Ez az eredmény úgy született, hogy a driver stringben átnevezett a srác egy GeForce GTX 560-at, vagy hasonló kaliberű Fermit NVIDIA GeForce Kepler GK107 (Engineering Sample) bejegyzésre. Ezért nem mutatta meg a driveren belül a paramétereket, mert abban ez a bejegyzés nem él, hiszen kijelezné a lapka tényleges kódnevét.
Azt figyeljétek, hogy ha valaki Keplert demózik, és amatőr módon, vagy szándékosan megmutatja a DXDiagot, akkor a jegyzett drivernek a 300-as sorozatból kell származnia (egészen pontosan 300.65, de ezt nem tőlem olvastátok ). Ez lesz az első driver, ami támogatást kínál az új termékekre.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz gainwardgs #8587 üzenetére
Lehet, hogy én nem látok valamit, de úgy néz ki, mint egy VGA. Néhol nem a legjobb megoldás van bevetve, de az ES termékekre ez jellemző.
(#8597) ÁdiBá: Nem a memóriabusz szélessége számít, hanem a memória-sávszélesség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elvileg ezek a speckók:
1536 shader, 64 textúrázó csatorna, 32 blending, 256 bit, GDDR5
705 MHz mag, 1411 MHz shader és 6 GHz memória
A pletykák szerint hasonló szervezése lesz, mint a GF110-nek, csak a CUDA magok jelentősen változnak. Az ALU:tex arány az félelmetesen nagy. Ha azt mondjuk, hogy az AMD compute irányt vett, akkor ez már über compute irány.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Gondolom az NVIDIA is belátta, hogy semmi értelme egy új gyártástechnológia bevezetésénél szenvedni egy 500+ mm2-es lapkával. 300 és 400 mm2 közé kell lőni. Ez az ideális jelenleg a fizika törvényei mellett. Majd ha kiismerték a node-ot, akkor lehet továbblépni, de addig csak szenvedés lenne.
(#8612) p87: Ez az infó is épp olyan pletyka, mint a többi. Ha tudom a paramétereket, akkor úgy sem mondhatom már el.
(#8613) Löncsi: Ha sok a játékban a post-process, akkor elég jó lehet. Ha nem túl sok, vagy máshol van a hangsúly, akkor nem tűnik olyan jónak. De ez is csak pletyka.
(#8615) DemonDani: Nézd, ha tényleg 4,3 TFLOPS lesz, akkor ez is mehet Teslába. Ott nem számít, hogy gyenge a TMU. Gyanítom, hogy marad az 1/2-es DP, így ki is jön az a fejlesztés, amit a Fermihez mértek. 0,79 vs. 2,15 TFLOPS. Nagyjából háromszoros a különbség. Nem lesz itt GK100 így.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz adamssss #8625 üzenetére
Igaz lehet, más lesz az architektúra, ami nagyon erős compute irányt vesz ... Emellett az NVIDIA készül az integrálásra is.
A shader az nagy kérdés, hogy mit tekintesz annak. Ezek teljesítménye nagyban függ az architektúrától. Az AMD-nél is nagyon nehéz értelmezni a 2048 shadert. Ezért írom shader részelemnek, mert talán ez áll még a legközelebb az igazsághoz, noha ez is egy sarkított dolog. Persze az átlag olvasó nem érti meg mélységében.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #8627 üzenetére
Lineárisat biztos nem fog adni. Ha tényleg ilyen magas lesz az ALU:tex arány, akkor lesz olyan játék, ahol nagyon erős lesz. Akár Tahiti fölött, de lesz olyan, ahol eléggé gyenge lesz, akár Pitcairn alatt. Ez programfüggő lesz nagyon.
Ez nem olyan egyszerű. A shaderek önmagukban nem érnek semmit, ha nem eteted őket. Az architektúra alapjai számítanak. Ezt láthatod a GeForce-Radeon vonalon. Egy 32 bites FMA utasítás az mindenhol ugyanaz.
Ahol egyébként ez nagyon sokat fog érni az a GPU-s PhysX. Valószínű, hogy ez is cél volt. Egyelőre a GPU-s PhysX nagyon nem hatékony. A fő cél az lehetett, hogy a magok jól ki legyenek használva, vagyis kevesebb legyen az üres ciklus. Ez szintén nagyon jó oda, ahol a GPU ezerrel számol. Itt a HPC front jön be, mint komoly opció.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #8629 üzenetére
Főleg azért, mert a 384 bit drága. Természetesen lehet szűk keresztmetszet a sávszél, de ez nem csak a busz szélességétől függ, hanem a memória órajelétől is. GDDR5-ből 7 GHz-es lapkákat is gyártanak. Ezeket az AMD csak azért kerüli, mert 5,5 GHz fölött a lapkák fogyasztása aránytalanul magas lesz, de ettől be lehet vetni. Az NVIDIA sem fog mindig leragadni a Fermi gyenge memóriavezérlőjénél. Ki lehet azt javítani úgy, hogy jól kezelje a gyors memóriachipeket is. Innentől pedig már csak játék az egész a fogyasztással és az előállítási költséggel. Biztos végeznek szimulációkat, hogy mi a legjobb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz jozsef m. #8640 üzenetére
Annyira nem friss. A tegnapi órajelek alapján kiszámolták, hogy hogyan viszonyul az egyes részek teljesítménye a Tahiti-hez. Mondjuk az kérdés, hogy a textúrázók számát honnan vették ehhez. Mert a shadert, a ROP-ot és a memóriabuszt értek, de textúrázókról még nem volt szó.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8642 üzenetére
Szerintem sem az AMD-nek, sem pedig az NVIDIA-nak nem fontos már a VGA-piac. Úgy vannak vele, hogy fejlesztenek egy fontos irányba, aztán VGA-ként pedig teljesít úgy ahogy tud. A fejlesztések arról árulkodnak, hogy az architekturális integráció mielőbbi bevetése a cél. Tekintve a VGA-piac értékét már nem egy-egy csata megnyerésére lett a cél, hanem a háború irányát változtatnák meg a saját javukra. Ez most bemelegítő. Az igazi harc 2013-2014-ben kezdődik. Nagyon fontos, hogy ki mennyire hatékony architektúrával várja a komoly fúziót, mert az a skálázás szempontjából döntő lesz. Sokat nem tudunk a Keplerről, de a pletykák szerint a compute teljesítmény nagyon ott van, és a Maxwellhez pont ez kell. A grafika az egy kis szelet lesz. Az integrációval a komolyan párhuzamosítható általános feladatok is a grafikus magon futnak. Legalábbis ez a fő cél a skálázhatóság megőrzése érdekében.
Az architektúrákat ebből a szempontból is érdemes vizsgálni. Ha választani kell egy csata és a háború megnyerése között, akkor szerintem mindenki az utóbbira voksol.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8644 üzenetére
Nagyjából így van. Az asztali szegmens az egy megtűrt piac, amit mobilos és szerveres fejlesztésekkel betömnek. Sajnos ez nem úgy néz ki, hogy változik.
Azért az Intel sem mindig marad a mostani architektúránál. A Larrabee integrálása a cél.
(#8645) Löncsi: A next-gen motorok közül az ID Tech 5 az egyetlen, amit látunk. De hasonló irányba megy majd el a többi is. Elsősorban szerintem is az a fontos, hogy a tartalom kreálása ne kerüljön dollár tízmilliókba. Ezzel egyszerűsíteni kell a művészek munkáját. Az erős hardver nem ér semmit, ha túl drága hozzá tartalmat illeszteni. A másodlagos cél a compute erősítése, de ez egyelőre post-process szinten működik, és maximum a fizikát tudom még elképzelni, de csak olyan korlátokkal mint a PhysX. Vagyis inkább grafika lesz az, mint fizika. Az integrálással persze sok minden megváltozhat. Végre szabadabb lehet a fejlesztés. Gyanítom, hogy az aktuális architektúrákat, azért illesztik ennyire az integrációs irányokhoz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8648 üzenetére
Az IB-E egyelőre nem is szerepel az asztali roadmapon. Vagy csúszik, vagy levették. Utóbbi nem lepne meg. Nincs értelme. Lesz viszont egy Haswell Halo verzió, ami drágább lesz. Valószínű, hogy ez kiváltja az IB-E-t, ami only szerver lesz és kész.
Az Ivy IGP-je a Llano IGP-jét nem veri meg, így ezen a ponton le van tudva ez a meccs. Feltéve, hogy a Trinity IGP-jének a teljesítménye nem esik vissza, de erre kicsit az esély. Ellenben az előrelépés jó, de ennyit lehetett várni, hiszen komolyan nőtt az IGP mérete és tranyószáma.
Vannak a dGPU-kra tervek. A platform kiegészítői lesznek. Veszel egy NV APU- mondjuk, és ahhoz veszel egy GeForce koprocesszort. Ezek együtt tudnak dolgozni. Az IGP lesz a fő egység, míg a GPU az egy segédprocesszor. Hasonló elképzelése van az AMD-nek is. Ők már meg is rajzolták sematikusan, hogy mit képzelnek el:
Nagyjából az a lényeg, hogy a rendszer minden eleme a rendszermemóriába dolgozik. A VRAM, kvázi egy gyorsítótár lesz. Ebben a modellben azért benne van, hogy nem jön be. De szerintem az NV és az AMD is úgy gondolja, hogy a dGPU-k kereslete pár év múlva a hangkártyákkal fog majd vetekedni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8650 üzenetére
Technikailag a felzárkózás egyszerűbb, mint egy relatíve erős rendszer fejlesztése, vagyis egyértelmű, hogy az Intel többet lép előre generációnként, amíg a rendszerük hatékonysága el nem éri azt a szintet, amit a Radeon és a GeForce képvisel. Utána már jóval nehezebb előrelépni.
Szerintem azt már semmi sem változtatja meg, hogy több dGPU fogyjon. A cél inkább az már, hogy legalább egy pici szegmens szintjén megmaradjon ez a piac.
Az növelné a keresletet, ha durván csökkennének az árak, csak akkor azzal a nyereség is csökkenne, sőt megszűnne. Ezt nyilván senki sem vállalja be.Igen, és a mobil irányvonal is óriási nyomás. Átalakulnak az igények, és ez átalakuló fejlesztési irányokat is jelent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8652 üzenetére
Mike Bryant régebben ezt mondta a TSMC 28 nm-ről: "Ten designs going through (hét vállalattól egyébként); we have heard about problems on six of them ..." De nyilván csak az NV-nek van baja. Szerintem ők kérték meg a TSMC-t, hogy állítsák már le a gyártást, amíg felzárkóznak.
A viccet félretéve a TSMC-re csak a Xilinx, az Altera és az AMD nem panaszkodik. Szóval messze nem csak az NV-nél van gond. Szerintem még a Xilinx, Altera, AMD trió sem elégedett, csak jobban készültek a lehetséges gondokra, így az általuk használt dizájnokat nem érinti úgy a probléma, mint a többieket, ettől még biztos megvan. Mondjuk a Xilinx és az Altera FPGA-kat gyárt, amik nem valami bonyolult ASIC-ok. Egyedül az AMD csinál GPU-kat, ami már problémás. Ha leállították, akkor valszeg azért, hogy módosítsanak a node-okon. A tömeggyártás alatt álló lapkákból, elsősorban a GPU-kból már megfelelő a tapasztalat, némi módosításra, hogy jobb legyen a kihozatal. Az igaz, hogy egy ilyen leállás az új versenyzőknek sosem jön jól, de rosszabb, ha magas hibaaránnyal dolgoznának.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A driveres post-process AA-kat nem érdemes összehasonlítani a beépítettekkel. Sokkal kevesebb információ érhető el számukra, mint a motoron belül. Kapnak egy végső képkockát, amin lefutnak, minden extra adat nélkül. Ha motorba építed, akkor extra adatokkal segítheted a feldolgozást, ami nagy előny.
Összehasonlítást még nehéz készíteni, mivel a GeForce driverben egyelőre nincs engedélyezve az FXAA. Egyedül a Catalyst-ben van MLAA, de azt váltja az MLAA 2.0 még ebben a hónapban. Utóbbi a legnagyobb problémákra megoldást ad, így temporálisan stabil lesz, és a kinyert adatok jobban illeszkedhetnek a subpixel pozícióra, hogy kisebb legyen az elmosás, de ettől még mindig nincs több információja egy képkockánál. Kellenek a driveres post-process AA-k, de ezek nem csodafegyverek. Az MLAA 2.0 az első használható megközelítés. Gondolom az FXAA fejlesztése is hasonló irányba halad, valszeg idővel az NV is engedélyezi, amikor már eltűnnek a gyermekbetegségek. Ettől függetlenül ez nem menti fel a fejlesztőket az AA beépítésétől. Az MLAA 2.0 és az FXAA 3.0 is sokkal jobban működhet, ha integrálva van a motorba.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Klikodesh #8669 üzenetére
Az GTX 580 az messze van attól szinttől, ahol az új generációs cGPU-k tartanak. A GCN és a Kepler architektúra is jóval komplexebb feladatok számítását teszi lehetővé, nagyságrendekkel hatékonyabban. Ez a mai játékokon nem fog meglátszani, de a komplex feladatokban az előző generációs architektúrákat lemorzsolják az új rendszerek. Azok a plusz tranyók nem csak lógnak a levegőben. Rendeltetésük van, csak a mostani programokban még nem látod.
Persze a maga idejében a Fermi és a VLIW4-5 is jó volt, de tovább kell lépni, és a compute irány erősödik. Az előző generációs termékek ebben azért nem igazán jeleskednek. [link] - ezért nézünk compute teszteket. A GCN kilő mindkét esetben. Hasonlóara számítok a Keplertől is. És meg kell jegyezni, hogy ezek a különbségek az új generációs és a korábbi között a feladatok növekvő komplexitásával csak növekedni fognak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ha valóban leváltották az MSAA-t FXAA-ra, akkor valószínű, hogy egy GTX 590 és HD 6990 is elég lenne. Az előző demó ugye 720p-ben 4xMSAA-val ment. Tekintve, hogy deferred MSAA-ról van szó elég nagy terhelést kap a memória-sávszélesség, illetve magas lesz a memóriahasználat. Ezt csökkentve minden szempontból csökken a terhelés, hiszen a deferred MSAA-nál a pixeleket nem számítod többször, de a mintavételezésnél már négyszeres adattal dolgozol. Ettől lesz jobb eredmény. Az FXAA jóval egyszerűbb. A pixeleket normál mód számítod, ami negyedére csökkenti az MSAA-val járó terhelést, és post-process formában alakítod ki az AA-t. Röviden tehát azzal, hogy az MSAA-t FXAA-ra váltod, már önmagában rengeteg sebességet nyersz. Az új generáció compute ereje valószínű, hogy kell ehhez, de benne van, hogy nem teljesen ugyanaz futott a korábbi GTX 580 trión. Ha ezt futtatják GTX 580-on, akkor szerintem már elég lenne kettő is, vagy esetleg egy ... belekalkulálva azt is, hogy egy év alatt azért jócskán lehetett reszelni a programon. Jó lenne, ha kiadnák a techdemót, mert akkor lehetne tesztelni a lényegi különbségeket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DemonDani #8677 üzenetére
Valóban, de általában ilyenek a technikai demók. Messzemenő következtetést nem lehet levonni belőlük. Olyan szinten értékesek viszont, mint a 3DMarkok és a Unigine benchmarkok ... feltéve, ha kiadják valaha. Ha csak videóig jut el, akkor semmi értékük nincs. Annyit érnek, mint az AMD meg nem jelent Ruby demója. Ledöbbenünk rajta, majd elfelejtjük.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mindig fontos megjegyezni, hogy más egy motorba épített extra információkkal táplált post-process AA, és egy driverből, vagy különböző inject programból kényszerített. Utóbbi esetekben csak a végső képkocka ad információt, amiből sokkal nehezebb jó eredményt csinálni. A kép mosása is ebből ered, ha nem tudsz kinyerni subpixel információt, akkor nehéz jót alkotni. Persze lehet próbálkozni különböző trükkökkel, mint mondjuk az SMAA, vagy az MLAA 2.0, de extra infók nélkül ezek az AA-k sosem lesznek tökéletesek, bár az eredmény természetesen javul.
(#8680) DemonDani: Szerintem azon is lehet még javítani. Az SRAA implementálásával irányítani is lehet a post-process AA-t. Vannak lehetőségek, csak használni kell őket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elég, ha egy post-process AA kerül bele, de az legyen jó. A több AA-nak sosem voltam híve. Tisztelem azokat a fejlesztőket, akik megadják a választás lehetőségét, mint mondjuk a Deus Ex: HR-ben is három AA algoritmussal, de ennek nem sok értelme van. Legyen egy jól kivitelezett megoldás. Az, hogy az FXAA, MLAA, GBAA, SMAA, vagy anyám kínja AA lesz valamilyen keverék formában, teljesen mindegy. Persze érdemes az igényekhez megválasztani az algoritmust, a fontos az, hogy vannak algoritmusok, így már nem elfogadható az, hogy nincs AA egy játékban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Látom a pletykákra előkerültek az urbán legendák.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A játékokról nem szoktunk írni. De ha a Gamepodra Zsoccc-nak elküldöd privátban, akkor biztos megírja.
Jut eszembe. Mivel kérted ezeket a DX9-es gémeket, így megnéztem a Skyrim-et és a Witcher 2-t. A Skyrim teljesen esélytelen, ugyanis a legújabb patch számos VGA-ra kikapcsolhatatlan vertikális szinkront rak. Ezzel 60 fps-nél megáll az egész. Sajnos így nem tudjuk bevenni. A Witcher 2 megoldható, legalábbis nincs semmi nyűgje, de az übersampling brutálisan igényli a memória-sávszélességet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezek inkább játékok. De graf szintjén sincs semmi komolyabb technikai rész. Gamepodon megírják, ha elküldöd.
Ha átutalod a számlánkra az NDA megszegéséért járó büntetést, illetve a további szankciókra való anyagi terhet is vállalod, akkor megírom.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DeckardCain #8701 üzenetére
Igen. Az AMD fejlesztései előrehaladottak ezekkel a platformtervekkel.
Az NV-nek 2014-re lesz kész a Maxwell APU. Nekik még az OS oldalon is támogatást kell szerezni, így ők az integrációt a mobil irány felé tolják. Sajnos az ARM-os Windows erős korlátozásokkal érkezik, de később ahogy a rendszer fejlődik ezek megszüntethetők.Az új konzolok megjelenése után is el kell telnie egy kis időnek, amíg a fejlesztők erre nagyon rágyúrnak. Úgy 2014-ben már lehet belőle hátrány. 2013-ban még nem hiszem.
Ahogy én elnézem a terveket, itt az API-t egyik cég sem kedveli. Jobb alternatíva a virtuális ISA. Persze az API-t nem lehet teljesen mellőzni, de váltani kell. Mindegyik nagy versenyzőnek lesz ide alternatívája. Az ARM-osok majd az AMD-hez köthetik a fejlesztéseket, mert a HSA lesz nyílt.
(#8707) Löncsi: Azért fizették ki a repülőutat a GDC-re, mert vállaltuk, hogy amit ott mutatnak, arról egy bizonyos időpontig nem írunk. Mi már tudunk mindent, de semmit sem mondhatunk el. Még az NDA lejártának időpontja is tabu. Ez van. Ti persze linkelgethettek. Az nem tilos. Kommentálni persze nem fogom, hogy melyik a jó infó.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
És mit érünk el a repjeggyel, ha nem írjuk alá az NDA-t? Akkor kimentünk volna a semmiért, mert nem mutatnak semmit. Ez a dolog így működik. Ha egy cég be akar mutatni valamit, akkor meghív. Nyilvánvaló, hogy meghívás tartalmazza az út anyagi költségeit is. Évek óta így működik. Ha szerinted az újságírók magántőkéből vannak a gyártói rendezvényeken, akkor tévedsz.
Egyszerű. A tényekről kell írni. A Sandy Bridge-nél sem volt ebből probléma. Úgy érzem megoldjuk most is.Ennél vannak szomorúbb dolgok is. Rengeteg lett a troll.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez pontosan így van. A GDC minket nem érdekel. Az érdekelt amiért kimentünk.
Ne aggódj továbbra is a tényekre építünk. Ezzel csak akkor van probléma, ha az olvasónak nem tetszik a tény, de a véleményeket nem tudjuk és nem is akarjuk megváltoztatni. Ha boldoggá tesz, akkor élj abban a tudatban amilyenben.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Tudtommal a PlanetSide 2 free-to-play marad, de alkalmazni fog mikrotranzakciós modellt, vagyis az egyes tartalmak eléréséért fizetni kell. Ez még mindig egy korrekt dolog szerintem. Bár kérdés, hogy a nem fizetős játékosoknak ebből mennyi hátránya lesz.
Érdemes megszokni az új árszinteket. Sajnos ez a piac a vásárlások visszaesését magas árazással tolerálja.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem értem ezzel mi a probléma. Egyrészt nem tudjuk a gépigényt. Ha csúcskártya kell hozzá, akkor az valóban nem valami ütős, de ha a játékot úgy tervezték, hogy elfusson mondjuk egy nem túl combos mobil GPU-n, akkor teljesen érthető a helyzet. Nagyobb tömegekhez akarják eljuttatni a játék lehetőségét. Nem látom én ebben azt a "nagy gázt".
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Tényleg nem akarok ebből vitát, de a Crysis 2 eladta őket? A helyzet az, hogy a mobil irányvonal a fejlesztések szempontjából erősebb már, mint az asztali. A legnagyobb játékosbázishoz úgy jut a fejlesztő, ha az igényekhez fejleszt, és az igények erősen változnak. Ezt a hardvergyártók is szépen lekövetik, hiszen nagyon erősen haladnak a fejlesztések az integráció irányába.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szerintem is tévednek a piackutatások. A VGA-piac eladásai valójában nőnek és ez csak a Crysis 2-nek köszönhető. A JPR is hibás adatott közölt a mostani Q3->Q4 -12%-os visszaeséssel, valójában az +12%, csak könnyű elírni azt a fránya jelet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #8783 üzenetére
65 nm az nem 28 nm. Már a 40 nm-en is komoly gondok voltak. Minél kisebb csíkszélesség, annál nagyobb a kockázata a nagy lapkának. A tranyók számát növelheted, mert a csíkszélesség jelentősen kisebb, de a bekapcsoláshoz szükséges energia már nem redukálódik olyan mértékben, mint amennyivel több tranyót építhetsz be. Ezt az ARM az elmúlt év közepén fel is vázolta, mint jelentős problémát. [link] Egy 500 mm2-es lapka 28 nm-en akár a törlés kockázatát is maga után vonhatja. Ezt elméletben még be lehet vállalni, de óriási a kockázat, mert a pénzt és a humánerőforrást elviszi, és eredménye nem lesz. Egy nagy lapka fejlesztését ilyen kockázatok mellett csak egy jól ismert gyártástechnológián lehet mostantól elkezdeni. Még itt sem biztos, hogy eljut a fejlesztés a gyártásig, de a kisebb lapkákból gyűjtött tapasztalat segíthet. Persze a kockázat jelentős csökkentését a fogyasztási irányelvek növelése eredményezné. A 300 (normál VGA-k) és 225 (HPC) watt a termékekre már túl kevés. Ha ez nem csökken, akkor 400 mm2 fölé nem érdemes menni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #8792 üzenetére
Nem akarom elvenni senki kedvét, de a cégek radikálisabban gondolkodnak. Egyetlen nagy lapkával sem történt olyan, mint a GF100-zal. 2009 végére volt tervezve, és a B verziót 2010 végére rakták össze. Korábban mindegyik nagy lapka jól működött elsőre, még ha drága is volt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #8795 üzenetére
Ez nem az AMD követése, csak logikusan gondolkodnak. A gyártástechnológia komoly jelentőséggel bír, így a fejlesztést erősen építeni kell a node képességeire. Semmivel nem lennének előrébb egy nagy lapkával, amit a TSMC nem tud gyártani.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Projektor topic
- A fociról könnyedén, egy baráti társaságban
- Elden Ring
- PlayStation 5
- OnePlus 8T – fazonigazítás
- Honor Magic6 Pro - kör közepén számok
- Apple iPad Air 13” (M2, 2024) - a méret a lényeg
- Milyen monitort vegyek?
- EA Sports WRC '23
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- További aktív témák...
- PowerColor Red Devil RX 6700 XT 12GB GDDR6 használt videokártya 1 év garanciával!
- NVIDIA 30xx VIDEOKÁRTYA FELVÁSÁRLÁS AKÁR AZONNAL KÉSZPÉNZBEN VAGY UTALÁSSAL - WWW.PCFELVASARLAS.HU
- Nvidia Quadro NVS 310 / 512MB
- Pcie 5.0 ATX 3.0 12Pin - 16Pin Moduláris Tápkábelek És Adapterek 12VHPWR Egyedi Harisnya Nvidia
- nVidia GIGABYTE GeForce RTX 3080 OC 10GB VISION videókártya
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen