- Poco X6 Pro - ötös alá
- Apple Watch Sport - ez is csak egy okosóra
- Honor Magic5 Pro - kamerák bűvöletében
- Új Beats fej- és fülhallgatók jelentek meg
- Yettel topik
- Samsung Univerzum: Az S23-at is megbabonázta a Galaxy AI
- DIGI Mobil
- Motorola Edge 40 neo - színre és formára
- Android alkalmazások - szoftver kibeszélő topik
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
Hirdetés
-
Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
it Egyre nagyobb probléma az AI hallucinálása – most az osztrák adatvédelmi hatóság veheti elő a ChatGPT miatt az OpenAI-t, alapvetően a GDPR megsértése miatt.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Karácsonyfaként világíthat a Thermaltake új CPU-hűtője
ph Az ASTRIA 600 ARGB ráadásul a hűtési teljesítmény szempontjából sem szégyenkezhet.
Új hozzászólás Aktív témák
-
7time
senior tag
válasz gyilkos répa #49 üzenetére
Majd elválik, egyelőre a tesztek alapján hibát, a játékok majd megmutatják a valós képet.
[ Szerkesztve ]
-
Sinesol
veterán
válasz gyilkos répa #49 üzenetére
Ha támogatja a Dx12-t, akkor biztosan lesz valami előrelépés.
De szerintem korán van még Dx12-ben gondolkodni. Idén nem valószínű Dx12 játék, jövőre talán lesz már néhány. Kb. 2017-ben lesz általánosan elterjedt, addigra meg úgyis érik egy vga csere.
Addig meg a szokásos felállás van, ugyanazt az fps-t hozza mindkét oldal.[ Szerkesztve ]
-
Z10N
veterán
A 7400k nincs is elmaradva a dupla akkora testvereitol, ezekszerint jo valasztas volt.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
-
veterán
Az említett gépen minden játék szépen fut és futni is fog még jó ideig, konzolos felbontásban, konzolos fps-el, konzolossal egyenértékű grafikai beállításokkal, de a többség nem azért tart játékos PC-t, hogy konzol minőségben élvezze a játékokat...
tudom pc fronton 60+ az elvárt de ez a lényegen nem változtat
Szerintem elég lényeges, hogy 30 helyett 60 fps-hez kb. kétszer olyan erős VGA kell, és akkor jön még a nagyobb felbontás...el kell tudniuk adni a bazierős VGA-kat
4k-s megjelenítők mellett, semmilyen mesterséges igény generálásra nincs szükség. -
rambustibi
őstag
Nem teljesen így látom. Ugyanúgy fogják venni a hardvereket..miért is? Mert igaz, hogy a mostani játékoknál nő az fps, de a felbontás sem marad 1900X1080 4K-hoz pedig kell az fps és kell a hardver is. Szóval szerintem valahogy szintbe hozzák a 4K vs megnőtt fps szintet, mert a jelenlegi játékokkal és technikával igen combos gép kell 4K-ra magas fps számhoz.. A G-sync és Freesync csak egy szint felett megoldás..
Kijött a 4K-s 144Hz-es monitor..és? A displayport 1.2 és a hdmi 2.0 egyaránt 4K-n 60Hz-et tud.. szóval van hova még fejlődni és a hardver eladások nem fognak megállni..Klaus: Audi C5 RS6 2.7V6 biturbo (Audimaxpower Team) "Der will nur spielen"
-
rambustibi
őstag
válasz gyilkos répa #49 üzenetére
Nem követtél el hibát, van számottevő előrelépés DX12 alatt, nyugi
VGA alapon:
VGA húzva:[ Szerkesztve ]
Klaus: Audi C5 RS6 2.7V6 biturbo (Audimaxpower Team) "Der will nur spielen"
-
Pekkk
aktív tag
válasz gyilkos répa #49 üzenetére
Lesz előrelépés, ha támogatja a DX12-t és nem legalsó kategóriás kártya. Azt nem írtad, hogy milyen. Mondjuk a R9 285 elég jó választás volt aki azt vett. Ár érték arányban a tesztek alapján nagyon ott van.
[ Szerkesztve ]
-
Peat;)
veterán
Te milyen tapasztalatok alapján írod amit írsz? Mondanál egy azaz egy olyan játékot ami konzolon szebben fut mint a megjelölt i5+960-as pároson? Ha így lenne én sem vacakolnék, várakoznék, jönne egy ps4 és kész, de messze nincs így. Mindkét oldalon volt 1-2 exkluzív (nem multicím amikről te írsz) ami elég szép, de messze nem evolúciós lépcsőfokok. Én mint sima konzol, ilyen olyan hype nélkül is többet várok a gépektől, gyakorlatilag a szokásos konzoloptimalizációt látjuk eddig, azt hogy ténylegesen kihasználják a gépeket vagy odébb van vagy nem nagyon megy.
Ez a teszt meg érdekes, ez alapján a 750ti jelenleg előnyöket élvez directx11 alatt a 290-el szemben, nos én azért mégis 290-esre böknék inkább.... Kb ennyi lesz a jelentősége directx 12 alatt is.
-
gyilkos répa
tag
válasz rambustibi #57 üzenetére
Te hogy bírtad rá a 3dMarkot, hogy a dx12-t is mérje? Nekem ott API not supported szerepel.
Gyr
-
PuMbA
titán
Ettől még nem kicsivel lassabb az A8-7600-tól tesztek szerint, hiszen 256 vs 384 shader processor és 1833Mhz-es RAM támogatás vs. 2133Mhz, 2 mag vs manapság kötelező 4 mag A10-7850K vs A8-7600 viszonylatban van pár fps különbség csak a memória sávszél limitáció miatt.
[ Szerkesztve ]
-
Duck663
őstag
válasz gyilkos répa #61 üzenetére
Win 10 kell hozzá.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
rambustibi
őstag
válasz gyilkos répa #61 üzenetére
win 10 kell hozzá a legújabb build-el (talán a 10049), kell hozzá nvidia driver ez: 349.88 (bár most jött ki a 350.05, de ezzel nem tudom működik-e)
Nagyjából ennyi Build frissítés után tedd fel az nvidia drivert (ha esetleg a régebbi build verzió lenne meg, amit a microsoft oldaláról lehet letölteni), ez fontos. Ha nem így teszel akkor a build felülírja a dx12-őt dx 11.2-re és nem fog működni, csak akkor, ha újra felrakod az nvidia drivert.Klaus: Audi C5 RS6 2.7V6 biturbo (Audimaxpower Team) "Der will nur spielen"
-
arn
félisten
Ennek a tesztnek kb annyi ertelme, mint anno a tobbi kisarkitott featuretesztnek. Gyakorlatban meg total masok lesznek az aranyok. Mar ha tenyleg optimalizalnak dx12re altalanosan.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
gyilkos répa
tag
válasz rambustibi #65 üzenetére
Köszi! A Windows 10-zel szerintem megvárom a végső release-t, nincs kedvem bajlódni a bétákkal...addig kivárom a dx12-t is, és remélem, hogy tényleg lesz valami ugrás, mert zavar, hogy 2560x1440 felbontásban azért még a gtx980nal is döcög némelyik játék...
-
arn
félisten
válasz gyilkos répa #68 üzenetére
A jovoben is fog... Most komolyan elhiszitek, hogy a dx12vel minden szep es jo lesz? A laikusok a valtast sem fogjak eszrevenni.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Duck663
őstag
válasz gyilkos répa #64 üzenetére
Dehogy, csak nem figyelted!
Én is csak Mantle-lel teszteltem, az megy Win7 alatt is, Win-ből meg megvárom a 11, 12 vagy 13-at, remélhetőleg addigra megszabadul az M$ a jelenlegi agyrémségétől.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
katt777
félisten
Akkor nézz meg egy tesztet DX11-ben és DX12-ben, legelsőre a DX11 mód eredményét fogja kidobni. Ez az, ami 33%-kal gyengébb DX12-es rendszer alatt, hiába megy, ahogy magad is mondtad (és én is), DX11-ben. Jó páran megnéztük 970/980 topicban. W10 alatt ekkora lassulás volt, de nekem is sikerült feltennem egy W10-et, amely alatt még nem futott a DX12 mód, és akkor is 50%-kal gyorsabb volt a DX11, mint aktív DX12 esetlén. Nem véletlenül mondtam, hogy ez nem véletlen.
Tényleg, a mobil R9 290X-szel mi a helyzet? Mert az TIER1, a DX12 támogatást meg TIER3-tól írják GCN-en.
[ Szerkesztve ]
Funkcionális analfabéták kíméljenek!
-
gyilkos répa
tag
Nem várok megváltást a dx12-től, kis előrelépést várok. Az már szerintem elvárható lenne egy csúcskategóriás kártyától ma is, hogy valamivel full hd felett sima játékélményt nyújtson.
Elképesztő, ahogy tolják a 4k (és már 8k!) kijelzőket, amikor a kártyák sehol nincsenek hozzájuk. Itt, ahogy írok, például az Asus 4k gamer kijelzőjét látom a háttérben teljes oldalas reklám formájában. Minek? Csak a szívás van velük.
Persze én csak kismókus vagyok.
[ Szerkesztve ]
-
hugo chávez
aktív tag
"PS4/XO kb egy 1,6ghz-n járatott alacsony fogyasztású FX8120 és egy HD7850-nek felel meg"
Szerencsére nem. Semmi köze nincs a PS4/XBO APU-k CPU részének az FX 8120-hoz (Bulldozer architektúra). A Jaguar-ra épülnek, melynek jóval nagyobb az azonos órajel melletti mag(szál)szintű teljesítménye, mint a Bull-nak.
(#71) katt777:
"Tényleg, a mobil R9 290X-szel mi a helyzet? Mert az TIER1, a DX12 támogatást meg TIER3-tól írják GCN-en."
Hogy miiiiiii? Mit írnak és hol?
Egyébként az M290X Pitcairn GPU-s, vagyis az asztali HD 7870-en lévővel azonos."sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
arn
félisten
válasz gyilkos répa #72 üzenetére
Szvsz a nativ felbontasban futast egy idore el kell felejteni ha 4k fole novelik a felbontast. Jo lesz egesz osztos felbontasban is, ugy nincs interpolalva. Perpill a 2d is nyogvenyelos lesz.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
katt777
félisten
válasz hugo chávez #74 üzenetére
DX12 támogatás specifikációknál láttam, hogy GCN tier 3 kell neki, nV meg ráadásul több szolgáltatást is csak emulál. Na, ha így lesz, akkor jöhet náuk a 970 után az újabb kör a "DX12" jelölésű dobozokra, mert az én kártyámén is nagy betűkkel szerepel. Persze még nincs végleges DX12, De akkor az R9M még csak nem is Tahiti.
Funkcionális analfabéták kíméljenek!
-
parampa
aktív tag
Ez igen! Így NEM kell értelmezni a 3DMark API Overhead tesztet. Korruption detected.
Kártyáink már Tier4 & DX13 kompatibilisek! -by ÁJEMDÉ marketing department./ már a Tier 2-3 sem volt igaz az Elméleti maximumok Galaxisán kívül persze /
-
sb
veterán
Azért a lehetőség erősen ott van benne.
Real-life is van már 1-2 Mantle cucc ahol igencsak mérhető a cpu és így a gpu kihasználtság javulása. Nem 10-20%-ot.Az, hogy a lehetőséggel hányan élnek majd kiderül. Nyilván el lehet vérezni sok helyen, de ehhez szvsz balf*szság kell. És ha van egy szereplő aki nem balf*sz és ír egy 3x szebb/gyorsabb cuccot akkor a többi azért megnézheti magát. Az evolúció és természetes szelekció itt is csodákra képes... nem kell mindig az egy helyben toporgó posványból kiindulni. Kicsit beleszoktunk az utóbbi 5-10 évben hw, de főleg sw oldalról.
-
katt777
félisten
Néhány játékkal volt alkalmam kipróbálni a Mantle-t, mindenütt 1-2 FPS csökkenést hozott, GPU meg előtte is 100%-on dolgozott. Ha persze valakinek gyönge procija (és durva CPU-limitje) van, más a hleyzet, de be kéne látni végre, hogy a Mantle-t nem a GPU-k gyorsítására (akkor i5 mellett is gyorsult volna a 780XT-m, de még 6800K mellett sem ), hanem a gyönge AMD procik eladására találták ki. A DX12 más tészta, az jó VGA-kon és procikon is gyorsulást hoz.
[ Szerkesztve ]
Funkcionális analfabéták kíméljenek!
-
hugo chávez
aktív tag
Rossz helyen nézted. Minden GCN GPU támogatja a DX12-t, ez teljesen biztos. Bekötési szinten meg 99% (azért nem 100, mert, mint te is írtad, a DX12 specifikációi még nem véglegesek), hogy Tier 3-at. Jelenleg ezek a legfrissebb infók erről: [link], [link]
Ja, az M290X bizony nem Tahiti. Ez egy 3 átnevezést megért kártya, kezdte HD 7970M-ként a pályafutását, aztán HD 8970M-ként folytatta, most meg M290X. Remélem, az utódja már minimum Tonga alapú lesz...
(#81) bunfi:
Ne is törődj vele, csak felakadt nála a lemez. Látott egy idióta táblázatot egy fórumban, amit valami vicces kedvű troll, vagy NV fanboy rakott össze, aztán most az neki a Bibliája.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
katt777
félisten
válasz hugo chávez #83 üzenetére
No de akkor a bekötési szint végül is mit jelent? Mert az biza nem Tier 3, ergo nem megy. Amúgy nem sokat jelent, mert ha van valami, ami nem éri meg az árát, az az AMD VGA-val szerelt laptop.
Mobil VGA-kat annyira nem követem, HD8970-ig voltam képben. De hogy az nV is már a DX11, 8xxM kártyákat nevezi át 9xx-re (hátha bedől a user?) a nem csúcs szegmensben, az elég gáz. Kíváncsi vagyok, mi lesz a 3xx szériával AMD-nél.Funkcionális analfabéták kíméljenek!
-
BoogeyM@n
tag
DX 13 Még a 12 sincs letisztázva mit jelent.
11-nél még legalább volt valami jó kis progi megy egy jó cikk is ahol kézzelfogható/szemmelfogható bizonyíték van mire képes és mit jelent egyáltalán, pl:tesszelláció új generációja vagy pl: poligonoknál hogy látszik elődjéhez képest (dx9 dx10) a fölénye de most csak megy a blabla.... -
félisten
Szerintem valamit félreértesz.
Van AMD GCN 1.0, 1.1, 1.2, és talán lesz most majd 1.3. Pár helyen GCN1, GCN2, stb.-t írnak, nem tudom, hogy melyik a hivatalos elnevezés. (Olyan ez, mint nV oldalon a Fermi, Kepler, Maxwell, stb.)
A Tier 1,2,3 a dx12 bekötési szintjeit jelenti. Konyhanyelven fogalmazva a dx12 tudás szintjei.
A jelenlegi infók alapján az összes GCN felépítésű AMD kari (GCN 1.0-tól, vagyis a 7000 szériától) képes támogatni a DX12 Tier3-at, vagyis a legmagasabb szintet.
Lehetséges ebben még változás, mivel a dx12-n még az utóbbi időben is változtatott a microsoft.[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
katt777
félisten
Hát, én is ebből indultam ki, tehát, hogy a tier 1 tudásszintje nem éri el a tier 3-at, tehát nem képes futtatni a DX12-t, legföljebb annak egy részét (máskülönben miért emelték volna ki a 3-ast?). A többi, gondolom emuláció, ergo lassú, ergo nem éri meg ilyen kártyával DX12-zni, mert nem hozza ki a maximumot.
Funkcionális analfabéták kíméljenek!
-
Xmister
senior tag
Úgy látom még mindig rosszul értelmezed.
GCN-ben nincsenek Tier-ek. GCN-ben verziók vannak. 1.0, 1.1, 1.2
DX12-ben vannak Tier-ek, amik bekötési szintet jelentenek. Képzeld úgy, mint funkció halmazokat.
Tier1 a legkisebb halmaz, ez a maximum az Intel IGP-knek.
Tier2 már egy bővebb halmaz, ez a maximum az újabb Nvidia GPU-knak.
Tier3 a legbővebb halmaz, ez támogat mindent. Ide tartoznak a GCN GPU-k. (Az összes) -
katt777
félisten
Jó, akkor megkérdem sokadszorra: Az R9 M290X Tier 1 mit jelent? Mert számomra a te válaszodból is az jön le, nem a DX12 teljes használhatóságát.
nV-t akkor lehet támadni a nem teljes DX12 támogatás miatt is, miközben lazán rávágja a dobozokra a DX12 minősítést, holott mégsem adja? DX11-nél legalább nem írták oda, hogy .1 v. .2. Mekkora hátrány a Tier 2 az nV kariknak? 3 helyen is csak emulációt olvastam. Vagy ezt megoldják még a végleges DX12-ben? Overheadben mindenesetre egész szépen teljesítenek.Funkcionális analfabéták kíméljenek!
-
bunfi
őstag
Egyszerűen azt jelenti, hogy valami miatt nem üti meg az elvárt szintet. De mivel egy ez egy HD 8970M, ami pedig egy mobilosított Pictrain, vagyis konkrétan majdnem egy 7870. Ami Tier 3, szóval vagy a forrás ír baromságot (belinkeled honnan van az infó az m290-ről?), vagy mi nem tudunk valamit.
János először lőtt oszt már kérdeznie se kellett
-
Xmister
senior tag
M290X -hez kapcsolódóan csak a notebookcheck oldalán látok egy DX11.2 Tier1 feliratot (ami ebben az esetben a tiled resources nem támogatását jelenti, ha jól tudom), de ez nem keverhető a DX12 Tier szintekkel.
Az NV nyilván nem fogja szétkürtölni, hogy ebből a szempontból hátrányban van az architektúrája.
Hogy mekkora hátrány ez gyakorlatban, azt egyelőre nem tudni.Ha hasonlóan mennek a dolgok, mint eddig, akkor lesz 1-2 játék, ahol az AMD kártyákon több/szebb effekt futhat, de sok fejlesztő a Tier2-es szintet célozza majd addig, amíg az NV ki nem jön egy újabb architektúrával.
Ezen csak az változtathat, hogy különösebb erőfeszítés nélkül lehet majd a Tier3-as szintet megtartani egy konzolról portolt játéknál, ezért felmerülhet a kérdés, hogy miért is csökkentenék az effekteket, ha egyszerűen opcionálissá is tehetik őket a beállításokban.
[ Szerkesztve ]
-
arn
félisten
Persze, minden kartyara meg szintre kulon fognak optimalizalni. kicsit mas befektetest kivan, mint korabban egy dx verziot tamogatni. Itt hwre optimalizalnak, nem apira, ami automatikusan elerhetove valik, ha a hw/drv tamogatja. Szelsoseges esetben pl lehet az egyes gcn verziora optimalizalt sw a masik verzion mar nem fut optimalisan.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Xmister
senior tag
Eddig is megoldottak az optimalizálást driverben, most meg a játék motrokban lesz, mitől lenne ez nagyobb meló?
Ezentúl sem kell minden játékba külön megírni, és ha egy arch már meg van a motorban, akkor azzal már nem kell annyit foglalkozni ezután sem.GCN-ek között pl. minimális különbségek lehetnek ilyen szinten. Azért a DX12 nem egy asm.
A bekötési szintek különbségei pedig tényleg csak számok. Beleférünk a 64 UAV-be? Nem? Akkor nem engedélyezzük az x meg y effektet.
-
sb
veterán
Nagyon el vagy tévedve mert egy speciális esetből, a sajátodból indulsz ki:
Olyan játékod, vga-d és cpu-d van amik szeretik egymást. Ez nem nagy csoda, hiszen mindig van egy optimális arány a két hw között és a játékokat is erre írják. Nyilván ha egy mai vga-hoz 28x erősebb proci kéne meg írnának rá egy maiaknál 50x részletesebb játékot akkor az egész konfigod használhatatlan lenne... ezért nem csinálnak ilyet.De most próbálj ebből az egyedi helyzetből kiszabadulni:
1. Tegyél be Mantle mellett egy jóval gyengébb procit: Azt látod, hogy ugyanúgy elég lesz. Nyertél vele? Ja.
2. Indíts el egy igényesebb játékot - mondjuk multiban: Látni fogod, hogy még erősebb proci kellene... Mantle mellett meg nem. Nyertél vele? Ja.
3. Képzeld el, hogy kapsz egy jóval több ojjektumból álló, jóval több rajzolási paranccsal dolgozó új játékot. Ma még nincs ilyen mert el se tudnád indítani kb. De az új apikkal lehetséges. Jobb/szebb lehet egy 1-2 nagyságrenddel többet rajzoló játék? Ja.Szóval a hsz-ed nagyon nem helytálló. Max a jelenlegi helyzetben ami egy ugyanolyan speciálisan generált helyzet mint a többi lesz.
-
sb
veterán
Fordítva fogalmaznék:
Eddig SE tudták megoldani driverben, hogy jól fusson. Nekem egy 10-20%-os driver optimalizálás - ami amúgy soknak számít - lófütty ahhoz képest, hogy egy low level api-val 2-3x olyan terhelést tudsz tenni a vga-ra. Magyarul 2-3x teljesítményt kapsz.Szóval eddig ez nem ment akármennyi energiát, költséget nyomtak bele... a driverbe, játékba.
Most ha nem optimalizálnak hw szinten akkor szintén nem fog teljesen optimálisan futni a játék... de ha mégis akkor jól fog. A lehetőség legalább megvan.A játék/driver meg továbbra sem írja meg magát. Költség van vele, a kutya fáját...
Minden a bevétel/költség arányon múlik.
De ha jön egy valaki is aki mondjuk beleteszi azt a munkát és 3-4x jobban fut a játéka mint a másik fejlesztőnek akkor némi nyomás is lesz a minőség felé. -
Xmister
senior tag
Nem mondtam, hogy ingyen lesz ezentúl, de valószínűleg drágább sem lesz, mint eddig volt. (Főleg, hogy eddig azért a 10-20% -ért mennyit kellett szenvedni, ma meg azt olvassuk, mennyire meg vannak elégedve a fejlesztők az alacsony szinttel)
Az egyetlen dolog ami változik, hogy most a motorban kell megcsinálni azt, amit eddig a driverben csinálták. Nem hinném, hogy ez gondot fog okozni, minden nagyobb motornál ott vannak a HW gyártók megfelelő emberei, és a DX12 még mindig nem egy asm, hogy annyira specializálni kellene.
-
sb
veterán
Ugyanezt gondolom én is.
Mondjuk annyival azért árnyaltabb a kép, hogy mivel a hw gyártó driver írói helyett a játékfejlesztőnek kell megtenni így teljesen máshol keletkezik a többletköltség.De szerintem ezzel sincs gond. A játékfejlesztőnek legalább annyira érdeke, hogy több hw-n is fusson a cucca mint a hw gyártónak. (ill. mivel a hw gyártónál felszabadul a korábbi költség akár támogatásra is jó lehet)
-
arn
félisten
Szvsz rosszul latjatok. A jatekfejlesztonek legtobbszor az lesz az erdeke, hogy pcn ugy fusson kb mint konzolon ("megfeleloen"), es ne az, hogy kihozzon mindent a hwbol. Persze lesznek huzocimek, amiket majd jobban megirnak, de nem fognak minden produkcio mogott babaskodni. Ez egy lehetoseg, aminel az a kerdes, hogy hasznaljak e, erdeke lesz e vkinek hasznalni. A drvnel egyertelmu, hogy a kartya eladasat befolyasolja, de egy jateknal nem biztos, hogy lesz ilyen kapcsolat.
A dolog "szepsege", hogy sose fogod tudni, hogy meg mit lehetett volna belole kihozni. A masik oldalon viszont, ha par fele enginet hasznalnak remelhetoleg azokat felkeszitik.
Masik hatuluto, hogy a drvnel a gyarto erdeke volt biztositani a kompatibilitast, most viszont ezt is atharitjak, e ha egy hw kikerul a fokuszbol, lehet mehet a kukaba, annyival lassabb lesz.
Mar mantlenal is volt olyan baki, hogy elteroen futott a ket gcnnel.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld