- A Samsung bemutatta az Exynos 2500-at
- Huawei Watch GT 4 - kerek karék
- Google Pixel 8 Pro - mestersége(s) az intelligencia
- Xiaomi 14 - párátlanul jó lehetne
- Élő adás Utazómajommal és Kerek Istvánnal az AI kapcsán
- Google Pixel topik
- iPhone topik
- Xiaomi 15 - kicsi telefon nagy energiával
- Erős specifikáció, kompakt formában
- Milyen okostelefont vegyek?
Új hozzászólás Aktív témák
-
dezz
nagyúr
Már ketten is írtuk, miért rúghat labdába... Pl. az IBM is fejlesztett egy ipari felhasználású, szupersok poligonnal is real-time dolgozó ray-tracert Cell alapú minigépekre.
Az igazán profi tűz, füst, stb. szimuláció is leginkább voxel alapon működik, aminek a fázisait vissza lehet számolni poligonokká, de nagy elemszámnál szintén nem feltétlen így lesz a leghatékonyabb (vagy ahol nincs mozgás, de voxel alapú a nem kicsi adatbázis).
-
Abu85
HÁZIGAZDA
Attól függ, hogy a modellezés hova tart. Ha marad a poligon-alapú feldolgozás, akkor van egy szint, ami kivégzi a raszterizálást. Most hogy van tesszellátora a GPU-knak egyre több fejlesztői bemutatón kerül elő, hogy a világ kialakításánál vigyázzanak a magas raszterizálási hatékonyságra, vagyis egyetlen háromszög se legyen kisebb 16 pixelnél. 8 pixeles háromszögméret mellett már 50% alatt van a raszterizálás. A mikropoligon render elméletben 1 háromszög/pixelt jelent, ott már 10% alatti a raszterizálás hatékonysága.
Egyszer talán elérhető az a szint, amikor a ray-tracing hatékonyabb lesz, mint a raszterizálás. De ott van még quad-fragment merging, ami a fenti problémán segít a reszterizálásnál, így kitolhatja a technika élettartamát. 7-8 év múlva érdemes erre visszatérni. Addig felesleges ezzel az elmélettel foglalkozni. Valszeg, ha terjedni is kezd a valós idejű ray-tracing, akkor az 10 éven belül nem lesz jelentős terjedés.
-
Komplikato
veterán
"akkor rendszermemóriának min.16 Gigának kellene lennie.."
Mi ezzel a gond? Jelenlegi árakon átlag embernek simán elérhető a 8GB, munka gépbe miért nem?"akkor ott vagyunk, hogy a mostani maximálisan engedett 32 Giga Ram kell a gépekbe"
Emlékeim szerint volt itt a PH-n olyan akinek vagy 1-1.5 éve 48 vagy 96GB volt sa munkagépébe. mi ez az "engedélyezett 32GB"? Megdöbbentő módon nem csak Windows otthoni desktop verziója létezik a világon ... 48GB memória kittet meg igen régóta kapni.
-
LordX
veterán
Szerintem amíg nem esik a fejlesztők IQ-ja 85 alá, addig nem lesz fenyegetés. Mindent meg lehet csinálni inkrementális képalkotással, amit ray-tracinggel is, csak bonyolultabb kóddal, viszont még mindig nagyságrenddel gyorsabban.
Az, hogy egyszerűbb programozni, egy érdekes kérdés - a végusert nem érdekli, a játékfejlesztőt nem érdekli (mert megveszi a számára tetsző grafikai engine-t, csak kevesen fejlesztenek sajátot)..
7-8 év múlva, amikor már olyan erős gépek lesznek, hogy valós időben lehet sugárkövetni, raszterizálás esetében a maradék teljesítményt fel lehet használni AI-ra, fizikára, vagy bármi más hasznos dologra. És ez nem csak otthonra igaz, ha a játék/szimuláció/virtuális valóság/akármi felhőben/szervereken fut, ugyanúgy igaz.
-
dezz
nagyúr
Esik, de nem kis részben azért, mert az átlagjátékos nem használja ki a komolyabb kártyákat... De mi lesz, ha kezdenek átállni végre ray-tracingre és más efféle technikákra? Bár ahhoz is jól jön az FSA, de a ami csúcskártyáknál is sokkal nagyobb teljesítményre lesz szükség a normális képminőséghez...
-
Abu85
HÁZIGAZDA
Az FSA-t a GCN architeltúra köré építik. A hardveres alapok ki vannak dolgozva, és az ARM meg az IBM is megkapta őket, hogy dolgozzanak a saját hardveren. A szoftveres alapok vannak hátra, és ebből leghamarabb 2013-ra lehet valami.
Mire erre lesznek majd programok akkorára nem biztos, hogy értékes lesz a dGPU-k piaca. Az AMD a hosszútávú stratégiájában emlegeti a dGPU-kat, de éves szinten 33%-ot esik a piac bevétele, akkor ez a hosszútávú stratégia lényegtelen lesz. -
Abu85
HÁZIGAZDA
Nem kellenek 200-300 wattos GPU-k az APU-kba. Az AMD az FSA-val próbálja kiütni az API korlátjait. A low-level elérés annyira begyorsíthatja a rendszert, hogy egy töredék teljesítményű IGP is szarrá tudna verni egy API+driveren keresztül működő csúcs-GPU-t.
Az ARM is ugyanezt csinálja. Bár ők az FSA mellett állnak, vagyis nem fejlesztenek saját rendszert, hanem az AMD nyílt megoldására építenek hardvert, amit majd az OpenCL-en, és feltételezhetően a C++ AMP-n keresztül lehet FSA-val használni. Pont úgy,a hogy az AMD-s lapkákon. Az IBM is partner már, de szerintem csak a nextgen konzolok miatt, hogy a fejlesztőknek egyszerűbb legyen. Az már eléggé körvonalazódik, hogy mindhárom nextgen konzol marad a Power prociknál.
Az NVIDIA szintén ugyanezt csinálja, csak a zárt CUDA-val. Az elméleti alapok viszont egyeznek. Annyi az eltérés, hogy amíg az FSA az OpenCL és a C++ AMP kiterjesztése, addig a CUDA egy teljesen egységes felület, persze zárt, és ez lehet egy hátrány, hiszen csak NV-n fog futni nagyon gyorsan. A CUDA x86 szart sem ér majd a heterogén jövőkép mellett. Persze ez az NV-nek pont jó.
Sőt, ha tovább utazunk az időben pár évet, akkor az Intel is ugyanezt csinálja, csak ők nem FSA-znak, vagy CUDA-znak, hanem x86-os "GPU-magokat" építenek, azaz a Larrabee vagy új néven MIC magok kerülnek a mostani IA főmagok mellé. Szimplán C++-ban kihasználható. -
dezz
nagyúr
-
-
szabi80sz
tag
Vagy Dezz arra gondoltál, hogy maga a program amúgy is a rendszermemóriában dolgozik és ne dolgozzon a vid.k memóriában? (Programozáskor szerintem ez nem jelent gondot senkinek.)
Még annyit azért leírok, hogy átnéztem a Pci-e 3.0 egyik leírását és ami jó lett volna, hogy a cpu hozzáfér a vid.k.memóriához: ez lehet, hogy nem valósul meg (ha valaki másképp tudja, linkeljen legyen szíves), viszont a gpu hozzá fog férni a host (rendszer) memóriához, tehát a felesleges másolgatás kimarad, így az általam is nagynak tartott időt csökkenti, tehát mindenféleképpen jobb lenne.
-
szabi80sz
tag
Nem értem mi a kérdés. Szerinted a felesleges pakolgatások, amik zajlanak és amik egy rakás időt felemésztenek megérik, hogy "közös címtérben dolgozzanak"? Ráadásul most nem egy közös címtérben dolgozik a rendszer, illetve a programozók. A fent leírt lépéseket nekünk kell kézzel végrehajtani (alaplapra integrált vid. kártya hiába használ rendszermemóriát: ott is meg kell tenni ugyanezeket a lépéseket, viszont ha hozzáférne a vid. kártya a host memóriához, az gyorsítást és egyszerűbb munkát eredményezne és a kompatibilitás is megmaradna). A PCI-e3.0 esetében valóban lehetőség nyílna arra, hogy egy közös címtérben dolgozzunk az adatokkal, de itt a kérdést nem értem, hogy mire vonatkozott? (Egyébként bizonyos esetekben gyorsabb lehet a 2 címtér, de akkor is kimarad a felesleges másolgatás, amiket ma végre kell hajtani). Viszont, ha valaki úgy akar OpenCl, Cuda, stb. programokat írni, mint eddig: ezt is megteheti, semmi sem akadályozza, viszont kényelmesebb lesz az új megoldás.
-
Entryy
aktív tag
Véleményem szerint mindegy, hogy van e értelme a PCIe 3.0 nak (mindemellett sztem van!) vagy sem. De! ha már a 999$os űberbrutállegqrvagyorsabb procit veszem, ami értelmetlenül drága, akkor igen is legyen tele a legújabb technikai lehetőségekkel!
Az pedig, hogy a gépbe még RAID kártyát is kell venni - mert alig lesz benne Sata - és még az USB 3.0át sem natívan támogatja...
Olyan ez, mintha nem lenne kész, hogy finoman fogalmazzak.
Vagy csak a szokásos lehúzós TIK-TAK taktika.
-
LALA_kiraly
őstag
az intel meg minek is fejlesztene, hisz a procit eladja, a konfigot meg cserélgesd 1-2 évente. Ez az üzlet...
-
clippy
tag
válasz
szabi80sz #27 üzenetére
de ha ide-oda pakolgatja a rendszer a számításokat (és ahogy olvastam a 3.0 inkább csak a visszafogást oldaná fel) akkor rendszermemóriának min.16 Gigának kellene lennie.. itt a fórumon volt egy magánteszt,, hogy játékok mekkora memoriát használnak.. kb. 2,5 Giga volt a max. (így lefojtva).. lehet rosszul gondolkodom de ha a 2,5 gigát vesszük 4-5×ös ram kell hozzá, hogy a folyamatos számítások puffer stb. frissüljön.. de lehet még több.. akkor ott vagyunk, hogy a mostani maximálisan engedett 32 Giga Ram kell a gépekbe, hogy ténylegesen kihasználjuk a VGA CPU RAM kapacitását.. (lehet megint baromságot írok de én így gondolkozom logikusan)
-
szabi80sz
tag
Pontosan melyik részéről adjak linket?
Tehát a lényeg PCI-E 3.0 előtt, pl. Cuda esetében az első lépések:
1. megfelelő mennyiségű rendszermemóriát lefoglalni az adatoknak (amiken a párhuzamos műveleteket végre kell hajtani).
2. ezt a területet feltölteni adatokkal.
3. videomemóriát lefoglalni a 2-es pontban megadott adatoknak (ezt lehet párhuzamosan is végrehajtani az 1 és 2 lépésekkel)
4. átmásolni a rendszermemóriából az adatokat a videomemóriába.
Ezt gyorsítaná, ha kihagynák a lassú rendszermemóriát és a felesleges másolást.
Ha vége van a számításoknak, akkor attól függően, hogy a keletkezett adatokat hol dolgozzuk fel még jöhet egy videomemóriából a rendszermemóriába történő másolás (régi vagy új helyre, de szállal ezt -a lefoglalást új hely esetén- is lehet gyorsítani). Majd fel kell szabadítani a lefoglalt video- és rendszermemóriát. Ez mind a végén: sok idő (főleg a lassú rendszermemória műveletek).
Saját méréseken alapszik az általam leírt dolog, de ha érdekel: itt van pár részlet az induláshoz:
http://supercomputingblog.com/cuda/cuda-tutorial-1-getting-started/
(saját mérést ajánlok, ahol az első 4 lépést és az utolsó másolás/felszabadítást külön méred a konkrét számítás(ok)tól az eredmény meglepő lesz -a számítások során sok lebegőpontos műveletet ajánlok- ). A Cuda sdk-ban (GPU Computing SDK) is van ilyen mérő program, ez innen szedhető le (nem emlékszem a nevére, de végig kell próbálgatni) :
http://developer.nvidia.com/cuda-toolkit-40 .
Régebben mértem: ezért pontosabban nem tudok segíteni, mivel most egy Firepro-t használok és OpenCl-t, ezen nem foglalkoztam mérésekkel (korábban elég meggyőző volt a Cuda-s és a rendszermemóriám nem gyorsult sokat, a vid.kártya számítási teljesítménye igen). Pár példa nálam (néhány éves mérések) : Művelet: sin (nem csak ezt néztem: mást is, de kb. hasonló eredmények jöttek ki, ezeket az adatokat nem jegyeztem fel). 512-es blokk méret 33553920 db float adat (tömbben). Mértékegység: ms.
Athlon 64 X2 (dual chanel mem ddr2 800Mhz) + Geforce 9800Gt, 16x pci-e 1.1 :
Lefoglalás: 181, Felszabadítás+visszamásolás: 91, számítás: 67.3 a processzor szálak nélkül: 3815
Intel Atom 330 + Geforce 9800Gt, 16x pci-e 2.0 :
Lefoglalás: 233, Felszabadítás+visszamásolás: 192, számítás: 67.1 a processzor szálak nélkül: 8894
(Tehát: Lefoglalás+felszab.+visszam. Athlon esetnén: 272 ms, míg maga a számítás 67.3 ms. Bonyolultabb számítások esetén ez a 67.3 ms többszörösére is nőhet, de még mindig túl nagy a "felesleges" idő a számításokhoz képest, aminek nagy része eltűnne PCIE3.0 esetén. A feldolgozandó adat mennyiségének növekedése a lefoglalási- és másolási időket nagy mértékben tovább növeli. A rendszermemóriák sebessége: kb. 2szeresére nőtt a mérésem óta, míg a hasonló kategóriájú Geforce általános számítási sebessége kb. 4-5szörösére -amd pedig hasonló kategóriában még gyorsabb-, tehát látható, hogy a fenti "felesleges" műveletek egyre nagyobb nyűgöt jelentenek, amire a Pcie3.0 megoldás lehetett volna). -
clippy
tag
Nos a korábbi hírekre hivatkozva, az intel anno bejelentette, hogy néhány dolgot nem tudtak megoldani a proci "utasitáskészletével" kapcsolatban de majd később ezt a problémát megoldják, erre jött az alaplapgyártók válasza "sebaj majd lesz néhány ""butitott"" alaplap és ha megoldják akkor kijönnek a full alaplappal"... olvasva a cikket, már szerintem szó sincs semmilyen "butításról" mert az előre beharangozott tudást nem tudja a proci.. marad a "butitott" alaplap, és Marvell, JMicron chippekkel próbálják majd bővíteni (már ha engedi)..túl gyorsan (nyomás alatt) túl nagyot akartak lépni és bukás lesz ez a széria...szerintem egy éven belül kiis vonják majd..
-
kpal
nagyúr
válasz
Lord Dragon #23 üzenetére
Nekem is 2magvas van de keveset játszok időhiányában és emiatt ritkán fejlesztek. Most is online csak a Crysis Warst tolom .
-
Hát nekem még minden játék elfut Ultra High-on szaggatás nélkül és még csak 2 magos a procim, szóval nem érzem h le lenne maradva. Jelenleg 4050 Mhz-en hajtom a procit feszültség csökkentéssel. Erre a proci teljesítményre még rá lehetne duplázni egy Extreme edition beszerzésével, ami valszeg szintén menne 4050-en, szóval egyelőre én nem félek attól, hogy túl gyenge a proci. Filmet konvertálni nem szoktam. Játék az ami általában a leggépigényesebb azok közül amit csinálok, arra meg úgy néz ki még eddig bőven elég. Esetleg ha a Rage jön meg a Diablo 3 meg az Elder Scrolls 5. Ezeket mindet várom, akkor lehet szükség 4 magra.
-
kpal
nagyúr
válasz
Lord Dragon #21 üzenetére
A 775 is jó amíg az embernek elég arra amire kell nem is kel cserélni semmit .
-
"sokan kivártak az XP-vel, kihagyták a vistát és win7-re álltak rá"
Én is így csináltam... soha nem volt Vistám, mert 7-re váltottam XP után.
"maradnak az 1366-nál és majd váltanak"
Ezzel kicsit hátrébb vagyok, mert nekem még 775-öm van. Kb pár hónappal ezelőtt kezdtem el először gondolkozni, hogy váltani lehetne esetleg, szóval szerintem én az 1366, 1156, 1155-öt kihagyom már mindenképp, azért is akarom megvárni a 2011-et, de ha ennyi pénzért ennyire nem erőltetik meg magukat, akkor lehet a 2011-et is kihagyom aztán inkább veszek valami 775-ös 4 magos Extreme Edition procit és jól elhúzom az időt még ezzel a rendszerrel, elvégre már 3 éve jól szolgál.
-
Most sorry már, (nemrég ébredtem fel és álmos vagyok még) azért kérdezek rá, hogy most én olvastam félre, vagy tényleg összesen 6db SATA csatit akarnak tenni az X79-es lapokra az előzetes szerint?
Mert ha tényleg, akkor nem tudom, hogy sírjak-e vagy nevessek, mert az l***sz kevés. Főleg, hogy várhatóan 60-120K -ért fogják árulni az X79-es lapokat. Én többek közt azért is várom ezt az 2011-et, mert 1366-ra már így jelen pillanatban nem váltanék, tekintve, hogy az 1156, 1155 is sokkal újabb a 2011 meg a nyakunkon van. De az 1156-nak nem látom értelmét az 1155 fényében (félreértés ne essen, nem azt mondom h rossz, csak nekem most 775-öm van és ha váltanék nem váltanék 1156-ra már) az 1155-ök között meg tényleg rengeteg alaplap van, de én egyet se találtam amit szívesen megvennék az enyémnek a helyére.
Erre meg 6 db SATA-t tesznek az X79-re? Viccnek is rossz. Nem értem miért szaroznak ennyire a felszereltséggel főleg egy várhatóan jó drága cucc esetében.
-
clippy
tag
Szerintem a 6 sata port kevés, főleg a SAS hiánya lesz a másik gond, mivel ezek a procik és a hozzá tartozó alaplapok a pénzes felsőkategóriába tartoznak, profi felhasználók (cégek) fogják főleg venni, van arra pénzük, hogy komoly háttértárat tegyenek bele és ne sima sataII-est... nagyon úgy néz ki, hogy az intel nagyot akart durrantani de csak egy kis lépés lesz.. én úgy látom inkább középfelsőkategória lesz a rendszer és nem felsőkategória.. ezzel az erővel lehetett volna 1155-ös tokozású.. kiváncsi leszek majd a tesztekre, lehet alig lesz számottevő gyorsulás az 1366-os rendszerhez képest...
Elképzelhető, hogy úgy lesz mint a windows-nál, sokan kivártak az XP-vel, kihagyták a vistát és win7-re álltak rá.. maradnak az 1366-nál és majd váltanak a pl. 3076-os majdan megjelenő rendszerre.. -
Petike1007
tag
És akkor most a Gigabyte röhög markában,hogy jól megszivatta magát az msi a felesleges chipekkel...van akinek minden bejön...
-
proci985
MODERÁTOR
"Szintén nem tudni, hogy a BIOS-ban alkalmazott mikrokód végleges-e, hiszen ezen a ponton is le lehet fojtani az adott processzor teljesítményét. "
sorok között: akkor nem nem csak nekem tűnt ez így ebben a formában nagyon gyengének (főleg a várható árazás függvényében). remélhetőleg tényleg csak a mikrokód.
picit 975ös chipset érzésem van. bizonyos tekintetben remek (40 pciE lane azért tiszteletreméltó), 6 sata (na nekem ez kevés lenne), baromi drága megoldások, sebességben meg a nyakán a középkategóriás társa. aztán belegondolva a 400usdre mondott lapokra, hm, skulltrail flashbackem van.
-
Tomcat
őstag
Nos akkor hogy is van ez? Az MSI árulkodik hogy a Gigabyte megtéveszti a vásárlóit mire most kiderült hogy még egy jó darabig nem is lesz szükség a 3.0-s PCI-E szabvány implementáéására. Így már érthető a különböző vállalatok eltérő hozzáállása a következő szabvánnyal való kompatibilitáshoz. Valami azt súgja hogy még egy pár év és legalább két-három alaplap generáció kijön addig mire tényleg szükség is lesz az új szabványra mint "de facto" szériatartozék tulajdonságra.
-
-
szabi80sz
tag
"Szerencsére a gond nem annyira súlyos, mivel a PCI Express 2.0-s felület sebessége elérhető, így a rendszer esetében csak a 3.0-s szabványról kell lemondani, ami bőven bevállalható opció, hiszen az új csatolóból jelenleg nem lehet előnyt kovácsolni."
Csak?! A PCI-E 3.0 a szoftverek egy új generációját hozhatná, mert a nagyfokú párhuzamosításnál nem lenne késleltetés (a processzor közvetlenül tudná írni és olvasni a videokártya memóriáját), ez az oka, amiért próbálják erőltetni a 2-est (ezenkívül az Amd új processzorai sem támogatják a 3.0-át), így várni kell még sokat a 3.0-ás videokártyákra is, ráadásul addig az Intel simán kitiltja a külső videokártyákat a rendszereiből. Gazemberek ezek mind!
Egyébként pont ez a válasz arra, hogy miért kell Pci-e 3.0. Még mielőtt valaki azzal jönne, hogy ez nem olyan nagy veszteség: hát az! Én ezekkel dolgozok és a legtöbb számítás többszöröse a késleltetési idő, így versenyezhetnek ma a jobb processzorok a kártyákon történő számításokkal (ha ez az idő kiesik, akkor nem tudnák behozni a lemaradást, annak ellenére, hogy nem minden algoritmust lehet párhuzamosítani, így ezek a nem párhuzamosíthatók gyorsabban futhatnának a nagyobb órajelű. processzoron, de akkor ahhoz meg nem szükséges 1-2 magnál több). -
Abu85
HÁZIGAZDA
válasz
Geri Bátyó #6 üzenetére
Ezt nem úgy kell érteni. A végleges mikrokód előtt bevett szokás olyat csinálni, ami limitálja a processzor gyorsítótárainak teljesítményét. Így nem derül ki a termék valós teljesítménye a megjelenés előtt. Ez ugye a hibakeresésben nem jelent változást, így simán megoldható.
Ezért írtam, hogy lehet, hogy gyorsulhat még, mert a mikrokód le van fojtva. Persze lehet, hogy minden végleges. Ezt innen nem lehet tudni. -
djculture
félisten
válasz
Geri Bátyó #6 üzenetére
majd a következő revizióban mikor már mindenki megvette ezt.
-
A 14 SATA port valóban kissé fölöslegesen soknak tűnt, de a 6 kissé kevés. Igazán meghagyhattak volna 4-et a 6 Gbps-os portok közül is, de SAS nélkül.
"nem tudni, hogy a BIOS-ban alkalmazott mikrokód végleges-e, hiszen ezen a ponton is le lehet fojtani az adott processzor teljesítményét"
Annyira azért nem száguldozott abban a tesztben (2600K-hoz képest), hogy még lassítani is kelljen! -
radi8tor
MODERÁTOR
PCIe 2.0 sem használja ki semmi, miért akar mindenki 3.0-t?
-
Shing
őstag
Azért hagyják ki a PCI-E 3.0-t, mert ~4 évig senki sem cserélné le a procit.
-
fatallerror
addikt
na erre biztos ugrani fognak az okosok :Đ
Új hozzászólás Aktív témák
Hirdetés
- Csere-Beszámítás! AMD Ryzen 7 7700 Processzor!
- Ryzen 5 9600X /// Bontatlan // Üzletből, számlával és Garanciával!
- AMD Ryzen 7 5700X processzor eladó /Garanciás/
- Intel Core i7-7700K (8M Cache, up to 4.50 GHz) OEM Processor! 27% számlával!
- Ryzen 9 7900 /// Bontatlan // Üzletből, számlával és Garanciával!
- Samsung Galaxy S23 , 8/128 GB , Kártyafüggetlen
- Bomba ár! HP ZBook Studio G5 - XEON I 32GB I 512SSD I Nvidia I 15,6" 4K DreamColor I Cam I W11 I Gar
- ÖRÖK GARANCIÁVAL - OLCSÓ, LEGÁLIS SZOFTVEREK 0-24 KÉZBESÍTÉSSEL - Windows - Office - LicencAruhaz.hu
- AKCIÓ! Apple Macbook Pro 16" 2019 i7 9750H 32GB 500GB Radeon Pro 5300M hibátlan működéssel
- Telefon felvásárlás!! Xiaomi Redmi 9, Xiaomi Redmi 9AT, Xiaomi Redmi 10, Xiaomi Redmi 10 2022
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest