Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Bici #7478 üzenetére

    Annyira amennyire a GF100. De ezt a chipet már komolyan kell venni, mert tömeggyártható lesz. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz emmm #7492 üzenetére

    LoL. A Computesbase olvassa a fórumunkat. :C

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    [link]

    Kiszivárgott Asus teszt. Valszeg az Asus nem is csinál referencia-órajelekre épülő modellt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #7507 üzenetére

    Kicsi az esélye, hogy megjelenik. Agyontuningolt GTX 460-ak vannak helyette.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #7509 üzenetére

    Ki lehet hozni többet, de nem tudják megverni a HD 5870-et. A HD 6000 ellen úgy sincs esély, így egyelőre a Fermiről alkotott jó architektúra presztízsértéke többet ér, mint a csata. Ugye folyamatosan a DX11 Done Right szöveggel mossák az agyunk.
    Persze ha a HD 6000 ár/érték aránya erős lesz, akkor kell egy frissítés, mert a GTX 460-at nem érdemes árban 150 dollár alá vinni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #7512 üzenetére

    A GTX 485 esetében a lapka fogyasztása kilövi a lehetőséget. Vannak minták, de +100-200 W-ot követel az 512 cc 6-7 %-os teljesítménytöbblete, ami nem éri meg. 300 watton belül nem tudnak úgy gyorsabbat alkotni, hogy az tömeges szinten gyártható legyen. Esetleg a dupla GF104, ezzel viszont mindenképp megvárják a HD 6000-et. A megjelenés attól függ, hogy a GTX 480 elveszti-e a leggyorsabb egy GPU-s kártya címét. Nyilván ha elveszti, akkor le is áll a gyártása, és jön helyette a dual GF104, mert olcsóbban gyártható és gyorsabb.

    Reklámnak nagyon jó. Döntő tényező lehet a termékek eladásánál a DX11 támogatás. Ezért hangsúlyozzák, mert az emberek ez után mennek.

    (#7513) schwartz: Az NV-nek olyan megoldás kell, aminek a gyártása felvállalható, és nem taszítja a negyedéveket veszteségbe, mint ahogy a GF100 a mostanit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #7515 üzenetére

    Ezért kellene a memóriavezérlőt kijavítani, mert a belső teszteken 3600 a max, amint kihúznak belőle hiba nélkül. A menekülőutat a gyári tuning jelenti, mert a dobozos verziót kiadhatják a partnerek 4 GHz-es memória felett is.

    Vannak ilyen termékminták a partnereknél. Egyet szerzett az EXPreview. [link] Gyakorlatilag kimondható, hogy a kártya 300 watton belül nagyon nem tömeggyártható. A legjobb chipeket meg kell hagyni a Quadro és a Tesla vonalra, mert ott 225 watton belül kell lenni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #7517 üzenetére

    Nem biztos, hogy válaszolni akar az NV a HD 6000-re. Egyelőre nincs értelme árversenyt generálni. A GTX 480 gyártásban van még, a GTX 465 és 470-nek lett vége. Igazából a GTX 480-at azt lehet olyan áron adni, hogy nincs rajta veszteség, így nem gond, ha megmarad a termékskálán. A funkcionálisan hibás lapkákból meg már nincs sok, mert a TSMC ebből a szempontból jól működik, csak a termikus variancia a durva, de a noti vonalon is van GF100, ami egy nagyon lecsupaszított verzió, és 300 dollár egy ilyen MXM modul. A GTX 465 és 470 nélkül is eladható a legyártott mennyiség, főleg úgy, hogy a Quadro és a Tesla generáció is a GF100-ra épül. Lényegében az a balansz, ami lehúzta az aktuális negyedévet már nem nincs meg.
    Nagy mennyiségben nyilván a GTX 460 lesz gyártásban. A GTX 480 is egy szerencsétlen modell az OEM szempontok alapján. 300 wattos a fogyasztás és nem a leggyorsabb termék. Nagyon kevés OEM partner veszi figyelembe azt, hogy sokan csak az NV-t szeretik. A racionálisan döntő felhasználókból több van, így az ő igényeik érvényesülnek, márpedig 300 wattos határban a HD 5970 bevehetetlen, és akkor nem beszéltünk a HD 6000-ről.

    Nem muszáj a DX9. A Steam statisztikái szerint drámai mértékben csökken a Windows XP tulajok száma. Idén nem egy játék lesz, ami követeli a Windows 7/Vista rendszert. A DX11 meg könnyű, megírod az API-ra a játékot és a rendszer visszaskáláz. Ebbe csak az XP kavarhatott be, mert az nem támogatja a skálázást, de ezt az oprendszert egyre inkább elfelejtik a fejlesztők. Az, hogy konkrétan hány DX11-es játék jön még idén nem tudni pontosan. A Lotr Online-hoz jön a patch. Aztán DX11 lesz a Civilization 5 és a HAWX2 is, na meg a Lost Planet 2, ami jó eséllyel pályázik a legrosszabb folytatás címre, szóval inkább törődtek volna a játékmenettel, mint a grafikával. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #7520 üzenetére

    Kb. ugyanaz a driverek minősége. A tesztekben egyikkel sincs sose problémánk.
    A hónapos frissítés a gyors reakciót szolgálja az egyes hibákra. Általában egy probléma, ami könnyen reprodukálható, egy-két hónapon belül javítva van. Például a 10.8-ban van egy olyan hiba, ami az overscan pozícióját nem menti el az újraindítás után. Mivel a 10.9 már WHQL-en van, így a 10.10-re lesz javítva. Nyilván ez könnyen reprodukálható probléma, mert minden konfigot érint. Hasonló hiba az NV-nél a DX8 alatti játékok futtatási problémája, ami a márciusi fermis driver óta gond. Elvileg most lesz javítva Hétfőn a 260-as driverben. Nyilvánvaló, hogy a hónapos struktúra gyorsabb reagálásra ad lehetőséget. A 260-as driver esetében ezért lesz egy nagy változás. A rendszer modulárissá válik, amilyen a Catalyst, így könnyebb a fejlesztés, és gyorsabban jöhetnek a frissítések.

    Ha megírod a kódot DX11-ben, akkor az a kód változtatás nélkül fut DX9-ig visszamenőleg, Win 7 és Vista SP2 mellett. Egyedül az XP-hez kell natív DX9, így ez az egyetlen tényező, ami probléma. De már ez sem akkora gond, mert az új Windows-ok gyorsan terjednek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #7522 üzenetére

    A szürkehalált lényegében az alaplapok okozzák. Ugyanezzel a problémával küzdhet most az NV, csak nem szürkehalálként jelenik meg, hanem a GTX 400-as kártya lefagy a bejelentkező képernyőn. A GTX 465 / 470 / 480 topikban egy ideje csak erről van szó.
    A mikroakadás az konfigurációfüggő lehet. Láthatod, hogy a GTX 460 topikban is megy erről a beszélgetés, de a tesztekben sosem merül fel. Mi sem vettünk még észre ilyesmit a tesztekben. Az akadást nagyrészt egy háttérben futó szoftver okozza, lehet mondjuk a vírusirtó, amikor elkezd ellenőrizni. Valszeg mi azért mentesülünk ezektől a problémáktól, mert csupasz rendszeren tesztelünk.

    Csak azok találkoznak vele, akik a régi játékokkal szeretnének játszani. Nyilván egyelőre kevés sikerrel. De a lényeg, hogy az NV már írta áprilisban, hogy tudnak a hibáról és javítani fogják.

    Van ilyen. De az AMD amúgy sem szereit a driveres kényszerítéseket, mert ilyenkor lassú lesz az AA és az AF. Ha a játékba építed az algoritmust, akkor lesz a leggyorsabb. Például az SSAA-t azért nem engedik DX10 fölött futni, mert nem akarják, hogy a 2x-es beállítás negyedelje az FPS-t, így a fejlesztőre hárítják az AA lehetőségét. Választhatnak a Multisample Access és egy DX11-es AA mód között, mindkettőre van dokumentáció az AMD-nél, és működik a GeForce kártyákon is.

    Nem lassú a DX11 terjedése. Az év végére háromszor annyi DX11 játék lesz, mint amennyi DX10-es volt az API megjelenésétől számított idő alatt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz toldy #7526 üzenetére

    Van, de nem sok.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz toldy #7531 üzenetére

    A teljes GF104 opció lehet. A fogyasztás függ az órajeltől, de 200 watt alatt maradna minden bizonnyal.
    A GTS 455-tel a 192 bites busz a probléma. 130 dollárért ez túlzott költség egy 240 mm^2-es GPU-val. Ki lehet hozni, de többet érnek el a gyártók a GTS 450 tuningolásával.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz toldy #7533 üzenetére

    A HD 5770 teljesítménye a GTS 450 órajelein még 192 bites busszal sem hozható. Ezért nem 192 bites a GTS 450. Valószínűleg az NVIDIA kivár, hogy az AMD most átnevezi-e a HD 6700-ra a HD 5700-at, vagy nem. Nyilván ha átnevezik, akkor egy kis korrekciót is lehet ejteni az órajelekben. Kérdés, hogy ez felfelé, vagy lefelé megy. Ha felfelé megy, akkor semmi értelme egy lassabb kártyát drágábba előállítási költséggel indítani. Nyilván ha most elindítják a GTS 455-öt, és nem fogja meg a top Junipert, akkor azonnal ki lehet adni az EOL-t rá, mert a terméknek semmi értéke nincs, és még a partnerek is szopnak vele. Azért jönnek a gyárituningos GTS 450-ek, mert ezek anyagilag nem kerülnek többe, mint az alapverzió, de többet lehet értük kérni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz toldy #7535 üzenetére

    Én nem számítanék rá. Értelme nincs.

    Az nem baj. Ha neked az NV tetszik, akkor azt vedd. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7537 üzenetére

    Meg az is kérdés, hogy hova pozicionálják. A GTS 450 és a GTX 460 768 MB között alig van árkülönbség, azt meg a tuningos GTS 450-ek átszelik.

    (#7540) smkb: félrekattintott szvsz, előfordul.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bj Brooklyn #7549 üzenetére

    Igen. Először is azt kellene átelemezni, hogy a pletykált GF110 milyen alapokra épül. A GF104-re nem épülhet, mert 512 SP-t mondanak. Számoljunk a GF100-ból. Azt ki kell egészíteni SM-enként egy plusz textúrázóblokkal. Ez tranzisztorok szintjén költségesnek mondható. Az 612 bites memóriavezérlő nem nagy kunszt a GF100-hoz képes +100 milla tranyó maximum. Ami gáz az az extra ROP blokkok, mert azokat is növelni kell. Egészen pontosan 64 blending-re. Ez is komoly tranyóköltség (hozzászámolva az L2 tár növelését). 40 nm-en egy gyengus 700 mm^2-t lehet számolni lapkaméretre, ami gyakorlatilag lehetetlenné teszi a gyártást. Egyszerűen a TSMC gyártósorait nem ilyen méretű lapkákra készítették fel. Ekkora kiterjedést maximum az Intel vagy az IBM tudna megoldani, bár az Intelnek ebbe a Larrabee kapcsán beletört a foga, pedig technológiailag nem gyengék. :)
    Ha számolunk teljesítményt, akkor maximum 25-30%-os előny lehet azonos órajelen a GF100-hoz képest. Tekintve, hogy a 300 watt egy szívós határ, így az órajeleket csökkenteni kell, tehát reálisan tudna a pletykált GF110 +15-20%-ot felmutatni. Na most ezt két GF104 is hozza, és még a gyártás is olcsóbb, sőt mondjuk úgy, hogy lehetséges.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #7551 üzenetére

    A Tesla kártyákat nem lényeges gyorsítani. Oda nincs értelme egy respinnek. Új GPU kell. A GF100 meg ilyen lett, oda jó ahova tervezték.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #7554 üzenetére

    Fogalmam sincs, hogy a GF110 létezik-e, de van bejegyzés egy GF119-re. Aztán, hogy ez mit takar. :F

    (#7555) Bj Brooklyn: Igen volt róla szó, de a GF104 is ugyanazt a materiált használja, mint a GF100 A3 rev. Ez feltételezhetően azt jelenti, hogy a 40 nm-en megtalálták a megfelelő kombinációt a gyártáshoz. Az, hogy sokat fogyaszt a GF100 ... Hát egy 530+ mm^2-es chipről van szó, várható volt.
    Szerintem új lapkát 40 nm-en már nem csinál az NV. Nincs értelme. A 28 nm-ert várják. Egyébként baromira rossz stratégia a TSMC-hez kötődni, mert semmi sem garantálja, hogy most nem szarnak el valamit. Sokkal jobb két bérgyártót a tűzben tartani. A GloFo is hibázhat, de két technológiával (amik ráadásul sok szempontból eltérnek) biztosabb a siker. Költségesebb is, de a kockázati tényező csökkenése megér ennyi befektetést. Főleg annak tudatában, hogy a TSMC RMG HKMG-t csinál, ami a nehezebb megvalósítás a gyártás szempontjából.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #7557 üzenetére

    Egyrészt a gyártókapacitás kicsi, másrészt az NV40 kihozatala az IBM-nél iszonyatosan alacsony volt. Csak azért csinálták, mert a TSMC nem tudott többet gyártani, és kellett a chip a rendelések miatt. Amint a TSMC kapacitása bővült az IBM-es kirándulásnak vége lett.

    Egyébként a TSMC gyártókapacitása nagyon nagy. Senki sem tudja őket nélkülözni. Az biztos, hogy az AMD gyártatni fog a GloFo-nál GPU-t, de a TSMC-nél is muszáj lesz, mert nem elég a GloFo kapacitása. Valószínűleg ez úgy lesz megoldva, hogy a generáción belüli GPU-kből egy a GloFo-nál, míg a többi a TSMC-nél készül.

    A TSMC és a GloFo is hozott ki egy chipet a 28 nm-es HP technológiával. Persze a gyártási kísérleti, szóval még nem beszélhetünk két termékről. A különbség viszont az, hogy a GloFo egy ARM-os SoC-on dolgozik, míg a TSMC egy FPGA. Az utóbbi felépítése sokkal könnyebb, így nem biztos, hogy a tesztek alatt minden problémára fény derül. Például a 40 nm-en, amikor a gondok még aktívan megvoltak, akkor csak az Altera volt az, aki az FPGA-kat tökéletes kihozatallal gyártotta, míg a többiek szenvedtek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Izzé #7561 üzenetére

    Nem a magokkal van a baj, hanem a szabványos Blu-ray 3D-vel, ami HDMI 1.4a-t követel. A GF104 csak a 3D Vision platformot viszi át.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Izzé #7566 üzenetére

    Optimalizálni bármikor lehet, de elsődleges a chip felfejlesztése az új szabványokhoz.
    A visszajelzések szerint nincs nagy piaca a 3D-nek, de a 3D Visionbe az NV rengeteg pénzt ölt, és nem azért zárták le a rendszert, hogy elmenjen mellettük a piac. Az NV-nek fontossá váltak a funkciók. Amikor voltam pesten a GTX 460 bemutatóján, akkor Igor minden második mondatában kiemelte, hogy ezt csak az NVIDIA tudja, meg azt is csak mi tudjuk (CUDA, PhysX, 3D Vision). Ez egy olyan szempont, ami segítheti az eladásokat, mert jövőre a prociban lesznek a combos IGP, és valami extrát fel kell mutatni, amiért a user kiad +70 dollárt, egy ugyanolyan gyors diszkrét kártyára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #7613 üzenetére

    Ez természetes. Az AMD Vision brand, az jelzi, hogy a terméket Vision platform kompatibilis. Erre épül majd az új Catalyst platformszintű támogatása. Ha teljesen Vision gépet építesz (AMD CPU-IGP-GPU), akkor több funkciót kapsz mint más konfignál. Ez a Vision brand fennállása alatt eddig is így volt, csak kevesebb programmal. A Vision főleg a mobil piacra korlátozódott, és ott is csak a chipsetekre. Most már a CPU-k és a GPU-k is Vision brandesek, mert lesz OpenCL támogatás, és platformszintű energiagazdálkodás. Ide a belépő egy Vision brandes holmi. Majd le lesz írva, hogy mi hogyan kompatibilis egymással.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #7617 üzenetére

    Mivel a Havok GPU-t támogató része kész, így oda lehet írni, hogy tudja a GPU ezt, az OpenPhysics is kész. Persze újabban már nem írják oda, mert a kereskedők visszajelzései szerint a Physicstől az emberek a PhysX-re gondolnak és arra sok vásárló nem reagál pozitívan a magas gépigények miatt. Ide majd ki kell találni valamit, hogy a Physics alapvetően nem rossz dolog a közhiedelemmel ellentétben. Bár az nyilvánvaló, hogy a DirectX támogatás az első szempont a marketingeseknél, mert arról tudja a legtöbb ember, hogy jó, és a magasabb szám láttán elcsábulnak. Nyilván a DX több, mint tíz éves múlttal értékelhető marketingfegyver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7622 üzenetére

    Akkor lehet, hogy mégis 128 TMU lesz a GTX 580-ban, mert 64 TMU-val már a Crysis is nagyon vérszegény, a második rész még igényesebb lesz, mert lesznek szép 3D-s textúrák is benne, ami halál ezeknek a kártyáknak. Mondjuk azt nem értem, hogy miért nem 2D-s tömbökkel dolgoznak, mert az a mostani Fermiken hatákonyabb.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    [link]

    Nvidia Corp. (NVDA US) rose 6.4 percent to $11.80 for the third-biggest gain in the S&P 500. The second-largest maker of graphics chips rallied on speculation it is a takeover target, said analysts including Patrick Wang of Wedbush Securities and Nicholas Aberle of Janney Montgomery Scott LLC.

    Érdekes. Kíváncsi vagyok ki lehetne érdeklődő. Lehet, hogy az Oracle tényleg komolyan gondolja a felvásárlást.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7627 üzenetére

    Az Oracle feje nemrég mondta, hogy chiptervező után kutatnak. Az NV abszolút opció. Meg az Oracle sosem rettent meg, ha milliárdokat kellett fizetni.
    A partnerek érdekénél csak egy dolog számít jobban ... a cégérdek. Az Intel persze lehet, hogy könnyezne az Oracle után.

    (#7630) Oliverda: Sajnos egy létrejövő akvizíció egyik mellékterméke lehet a GeForce teljes eldobása. Az Oracle számára nem lenne értelme a PC-ben versenyezni, főleg egy drasztikusan szűkülő piacon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #7636 üzenetére

    Kizárt. Az kell a felhőre. Vinnék tovább az NV elképzelését, hogy minden a cloudban fusson. A Tesla eladásoknak ez jót jelent, mert akkor rengeteg clud szerver épülne világszerte. Ez az Oracle számára is fontos lehet, sőt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ZewaDeluxe #7653 üzenetére

    Ugyanaz, mint a GF104, csak javítanak benne pár dolgot. El kellene kapni vele a Caymant. Nagyon valószínű, hogy a buszt 384 bitesre emelik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ZewaDeluxe #7657 üzenetére

    Nem hiszem, hogy a 460 helyére kerül. A GTX 460 árazása nagyon gáz, így az nem követhető. Drágábban kell árulni a terméket. A GTX 460 árazása egy piacszerzés lett volna, mert az NV nagyon szarul áll a DX11-es kártyák esetében. Ez meglátszik a DX11-es címek támogatásában is, mert mindössze három játékra volt pénz. A többi játékot elvitte az AMD, ami annak köszönhető, hogy az eladott DX11-es kártyák 90%-a Radeon. További probléma, hogy jelentős anyagi forrásokat követel az NV-nek egy játék vásárlása. A Crysis 2-re 2 millió dollárt fizettek, és ebben benne van, hogy a grafikát át kell alakítani a GTX 580-hoz. Természetesen ez csúszást eredményezhet, mert a Crysis 2-őt eddig Radeon hardveren készítették. Valószínű, hogy csak a konzolokra tartható a márciusi megjelenés, míg PC-re csak ősszel lesz Crysis 2. Ez persze a fejlesztőknek nem gáz, mert az NV 2 millájával már most többet kerestek PC-n, mint a Crysis első részével. Az persze kérdéses, hogy a játékosok hogyan reagálnak majd az NV akciójára, mert a márciusi megjelenés nem biztos már, és az NV a pénzzel megvásárolta a gépigény kialakításának lehetőségét. Ennek az eredményét már láttuk a Mafia 2-ben, ami szintén ilyen akció eredménye. Egyébként az NV nézőpontja is érthető. A VGA-piac jövőre drasztikusan szűkül, ahhoz, hogy a jelenlegi pénzügyi eredményeket hozzák nem egy hanem két GeForce kell gépenként. Nyilván ilyen nagy gépigényeket csak akkor vállalnak be a fejlesztők, ha megfelelő pénzmag érkezik a megrendelőtől.

    A GF114 annyival lesz drágább, amennyivel gyorsabb a GF104-től. Ezután a GF104-et csak el kell adni, majd a gyártók aktuális problémája meg lesz oldva. A GTX 460 SE csak egy félmegoldás, mert még mindig közel van az ára a GTS 450-hez, de ezen már nem tudnak komolyabban változtatni, így ezt ki kell bekkelni az új generáció megjelenéséig.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz toldy #7658 üzenetére

    A referenciatermék picivel hosszabb a GTX 480-nál, de elhanyagolható a különbség ... fél cm kb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz decibel #7662 üzenetére

    Csak ugye nem az összes pénz ment a fejlesztőknek, mert az EA is kéri a saját részét. Az NV 2 millája csak a fejlesztőknek megy.

    Áhh. Ha re-design van márpedig az van, akkor az NV-nek rá kell állnia az SLI-re. Az nem téma ha egy GeForce kártyán jól fog futni a Crysis 2, mert attól nem fognak több VGA-t eladni. Nekik pedig az kell, hogy mostantól ne legyen elég egy GeForce, mivel a diszkrét kártyák piacának alja, és a mobil piac bevételei elapadnak.

    A Mercury adata szerint 96% az AMD részesedése 250 dollár felett. 100 dollár felett 76%. Ennél közelebbi adat nincs.

    (#7663) adamkaa777: A gyártók még idén akarják, mert a karácsony nem lesz karácsony a GTX 460-nal. Az NV egyelőre a GF110-re koncentrál, így a GF114 jövőre csúszhat. Ettől függetlenül egy paper launch lehet idén, de az tényleg az lesz, tehát a GF110-nél várható alacsony példányszámú rajt sem lehet kivitelezhető.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #7666 üzenetére

    Te mit tennél ezen kívül? Jövőre az integráció kinyírja a mobil termékekben a VGA-t. A diszkrét kártyák belépőszintjének vége. Olyan bevétel esik ki a VGA-piacból, amit valahogy pótolni kell. Ezért lett a CPU-ra korlátozva a ruhafizika számítása a Mafia 2-ben. Egyszerűen az nem üzlet már, hogy a gépbe egy GeForce-ot veszel, kettő kell minimum, hogy megérje a piac. Régen ez másképp volt, mert versenyezhetett az NV az IGP-ben, ami a legnagyobb nyereségrészt adta. Most már a mobil a fontos piac, de annak jövőre vége lesz. Nem marad más, mint az asztali gépek, ami a nyereség szempontjából nulla. Ezekkel a feltételekkel, és egy x86-os platform hiányában van jobb stratégia a megfelelő bevétel fenntartására? A CUDA és a zárt platformok egyelőre nem váltak be az NV-nek, így agresszívabb megközelítés kell, vagy fel kell adni.

    [link] - írt a techradar is egy kérdésekkel teli elemzést. Nagyon nehéz a helyzet ez látható. Az NV egyre agresszívabb lesz, minél kevesebb talaj van a GeForce lába alatt. Legrosszabb esetben le kell lőni a brand-et, de ezt amúgy is le kellene, ha nem mennének bele ezekbe a játékokba, tehát vagy nagyot nyernek, vagy elvesztenek egy jelen állapotában értéktelen piacot. Mondhatni úgy is, hogy az NV-nek nincs vesztenivalója. Akik megszívják azok a játékosok az egekbe tolt gépigénnyel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Lacc88 #7668 üzenetére

    Ha én kifizetek 2 millát egy játékért, akkor úgy állítom be a gépigényt, hogy az az üzletnek kedvezzen. Valószínűleg egy GTX 580-nal már el fog futni a Crysis 2. Alatta kompromisszumok kellenek. Ez persze még mindig jobb, mint a Mafia 2 esetében. Ott mindenképpen kell a dedikált GeForce kártya a PhysX gyorsítására. Azt azért nem hiszem, hogy a PhysX-et lesz idő belerakni a játékba, mert az jelentős késést eredményezne, akár egy évet is.

    (#7669) adamssss: De a felsőkategóriás VGA-k volumene nem elég. A kártyák 70%-át 100 dollár alatt értékesítik. Ha ez kiesik, akkor konkrétan a bevétel fele elúszik. Nem beszélve arról, hogy az egyetlen értékelhető nyereségforrás is eltűnik a mobil piac személyében. Erre egyébként szintén életképes stratégia lehet a külső VGA, amit az NV már javában fejleszt. A Keplerhez kell is egy újfajta felfogás, mert a HPC rendszerekhez nagy szikség van processzorokra, amit ARM magokkal megoldhatnak, de ezek megint csak tranzisztorpazarlásra jók a VGA-k piacán.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7673 üzenetére

    Ha lejjebb viszik az árakat, akkor mire raknak hasznot? :) Nem olyan egyszerű ez. Amúgy a Llanonak nem a HD 5770 fogása a dolga, hanem a HD 5570-é. Mivel a Redwood is egy 100 mm2-es GPU, így annál jobbat ebbe a kategóriába nehéz intézni, vagy le kell mondani a haszonról, ami nyilván nem szempont.

    Az IGP-k ereje valós, nem csalóka. Egyszerűen azzal, hogy beülteted a prociba a rendszert ennyit nyersz. Ki tudod ütni a belépőszintet, vagyis az eladások felét. Ha jön a 28 nm, akkor sem lesz sokkal jobb a helyzet, mert a Llano és az Ivy Bridge még mindig olyan erős lesz, mint egy 50 dolláros VGA. Ez elég a piac feléhez, ami irtózatos volumen. Ha nem lenne valós veszély az integráció, akkor az NV, vagyis a nyílt szabványok korábbi élharcosa, nem zárná le minden szempontból a piacot. :) Sőt talán nem mondanák el a rendezvényeken, hogy a PC elavult és az ARM-ban van a jövő. Illúzió az, hogy az integrációnak semmi hatása nem lesz.

    A következő konzolgenerációk nagyon nem az erőre mennek rá, hanem a játékélményre. Ebben a fejlesztési szempontban van a pénz, ezt a Wii bebizonyította. Ne számíts számottevően gyorsabb hardverekre. Nem az vonzza a vásárlót.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz proci985 #7675 üzenetére

    Megveszi konzolon. Ez még a kiadónak is bombaüzlet a Crysis 2 részéről. :) Főleg, hogy az EA-ról van szó, akik a PC-s Fifát most zárkóztatták fel kb. a konzolos szintjére. Megint jöhet az ötéves böjt. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7678 üzenetére

    Az alapprobléma az, hogy még így is a konzolra adják el a legtöbb játékot. Látja mindenki, hogy a grafika másodlagos lett. Ezért hozta a Sony és az MS a mozgásérzékelős hülyeségüket, mert a Wii ezzel tarol, és a jövőben ezt kell továbbfejleszteni.

    2012-ig még vannak kérdések, amiket tisztázni kell. Az NV nagyon felhőzni akar, és ebben az Epic támogatja őket. Ez a konzoloknak is fontos szempont lesz, mert ha mindenki ennyire ki akarja vinni a számítást a felhőbe, akkor nincs értelme a fényévekkel erősebb hardvernek. Az, hogy erősítenek, az biztos, de hogy nagyon arra kicsi az esély.
    A 3D egyelőre fekete ló a piacon. A konzoloknál a Sony az egyetlen aki tolja, de ők is csak azért, mert a 3D bizniszben érdekeltek. Az MS-t nem érdekli mennyi 3D-s TV megy el, így érdektelen erőltetni egy olyan technológiát, amiben jelenleg nem látnak jövőt. A Nintendo már egy továbbfejlesztést alkalmaz, vagyis a 3D szempontjából eltűnik a legzavaróbb szempont, a szemüveg. A 3DS ebből a szempontból lényeges előrelépés, de azzal még mindig meg kell küzdeni, hogy a jelenlegi 3D-s technológia hét éves kor alatt rontja a szemizmokat, ami a gyerek későbbi látása szempontjából nagyon nagy gáz. Erre még mindig nincs tökéletes kutatási eredmény, hogy mennyit kell pihentetni a szemet két menet között, így a Nintendo is elővigyázatosságból a 3D kikapcsolását javasolja. Ez egyébként a TV-knél is benne van az utasításban. Valószínű, hogy egy 3D-s mozi nem hat negatívan a látásra, mint ahogy heti egy-egy mozi sem viseli meg a hallást, de az aktív 3D-zés következtében nagy az esélye annak, hogy egy nem kifejlett szemmozgató izom később kettős látást eredményez, és ez az egész életére megmarad a gyerkőcnek. Ezek olyan dolgok, amit a cégek nem vállalhatnak fel. A technológia nagyon kiforratlan, és elképesztően megerőlteti a szemet. Még a felnőtteknek is vannak problémái, hányás, fejfájás, szemfáradtság, persze ezek gyorsan elmúlnak, amint abbahagyod a 3D-t.

    Ettől függetlenül lehet trend a 3D csak marhára nincs kész a technológia, és szerintem az egyértelműen értékelhetetlenné teszi, hogy tönkreteszi a gyerek szemét. Persze ez az én álláspontom, a gyártóknak nyilván a termék eladása fontos.

    (#7679) Bici: Stratégiailag a Cayman ott fog elhelyezkedni, ahogy a GF114, hiszen a méret közel azonos lesz. A GF110 a dupla-Cayman ellen jön.
    Ezt felboríthatja a kártyák konkrét árazása, mert ha a Cayman tud annyit, mint a GF110, akkor az AMD hülye lenne olcsón adni. Ez a stratégia úgy néz ki beállt. A GF100 is a Hemlock ellen jött, csak nem volt elég gyors, így egy kategóriával lejjebb szorult. Sokan máig a két-GPU-s GeForce-ra várnak, pedig aki egy kicist is ért hozzá tudja, hogy A HD 5970 és a GF GTX 480 előállítási költsége közel azonos, vagyis lehetetlen a két-GPU-s GeForce. Ami lehetséges lett volna az a dupla GF104, de az nem lett volna elég a HD 5970 ellen, így inkább eldobták a kiadás előtt. Elég sok ember hiszi azt, hogy az NV-nek csak egy két GPU-s kártya kell, hogy elverje az AMD zászlóshajóját. Erre természetesen lehet várni, és az NV is ezt a látszatott akarja fenntartani, de ha kihoznak egy két GPU-s kártyát, akkor szembe kel nézni azzal a problémával, hogy ha nem nyer, akkor világos lesz a felhasználóknak, technikailag előrébb tart az AMD. Amíg nincs két GPU-s Geforce, addig lehet az 1 GPU vs. 2 GPU-val védekezni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamkaa777 #7685 üzenetére

    Egyre kisebb az esélye, hogy megjelenik a Zotac kártyája.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #7687 üzenetére

    Az OpenCL nagyon kérdéses az NV oldaláról. A platform veszélyes a CUDA-ra, és ez nem megengedhető. Az Apple is ezért dobta az asztali Mac-ekből az NV-t, mert a CUDA-t jobban akarja, mint az OpenCL-t. Már most látszik a support része a dolognak. A Sandra 2011-es verziója eredetileg augusztus végére volt tervezve, de az OpenCL benchmark nem futott az NV driverén. Ezt jelezték a fejlesztők az NV-nek és október végére tolták a startot. Ez idő alatt az NV felkínált egy CUDA kódot ugyanarra a benchmarkra, de megoldás nincs az alapproblémára, vagyis a végleges program nem méri az NV kártyák sebességét OpenCL-ben. Az OpenCL egy olyan platform, ami feleslegessé teszi a CUDA-t, és ez az NV-nek kizáró tényező. Csak annyira támogatják, amennyire feltétlenül szükséges a PC-n.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7692 üzenetére

    Azt írtam, hogy az asztali Mec-ekből dobta őket. Az iMac-hez jelenleg Radeon rendelhető. Jövőre mindenhonnan kidobja, mert jön a Sandy Bridge és a Fusion. Ezután mindent meg tud oldani az Apple egyetlen IGP-s processzorral, aminek a fogyasztása messze alatta van az NV chipsetek+proci kombónak.
    Az iMac-ban azért cseréltek, mert az NV a CUDA-ra épít, míg az Apple az OpenCL-re. Ez egy olyan ellentét, amit nem lehet megoldani. Az NV számár az OpenCL nagy fenyegetés, ezért nem is éreznek késztetést a fejlesztésére. Támogatják annyira amennyire kell, de a CUDA-t tolják.

    Felőlem fogalmazhatunk úgy is, hogy a miniatürizálás folyamán nincs hely a nyomtatott áramkörön egy külön GPU-nak, ha így jobban tetszik. De várjuk az NV x86-os APU-ját. :)

    (#7693) Bici: A prof piac megmarad az NV-nek. Annyira más tervezésű GPU kell ide, hogy az AMD is hozhatná az 500 mm^2-es szörnyeket, amiből nem tud két GPU-s kártyát csinálni. Annyit tud tenni az AMD, hogy gyártja a pluginokat, amiket épít be az OpenCL-es FirePro driverbe. Ezek durva gyorsulást hoztak, ellenben az architektúrát továbbra is gamingre építik.
    A szoftver render egyelőre csak Sweeney fantáziáját mozgatja. Neki is csak egy rendszer erejéig (Larrabee), ami már nem létezik. A szoftver renderrel az a gond, hogy minden architektúrára külön meg kell írni a futószalagot, ami hatványozottan megnöveli a fejlesztési időt. Ha van három architektúrád, akkor a mostani befektetés háromszorosa kell, időben, pénzben, erőforrásban. Ezt csak úgy tudod lecsökkenteni, hogy ha az egyik architektúrát kiveszed a szorítóból, és akkor azon nem fut a kód. Sweeney erre konkrétan azt mondta, hogy mindig lesz egy nyerő architektúra, ami letarolja a piacot, és a többivel nem is kell foglalkozni. Persze ez a piacon most nem nagyon látszik. :D
    Ami lesz az a következő DX-ekben a futószalag egyes részeinek cseréje. Erre alkalmas a DirectCompute, csak ki kell némileg egészíteni. Az biztos, hogy ray-tracinget senki sem fog használni, mert nem akarnak egy képkocka számításával egy másodpercet eltölteni, nem is lenne praktikus, mert legalább 25x gyorsabb render kell. Ami lehetőség, az a geometrikus transzformációk lecserélése voxelesre, de ott meg az a gond, hogy a raszterizálás háromszögeken működik, vagyis mindenképpen kell egy transzformáció, ami a voxeles felületet poliginokra bontja. Itt majd jó hasznát lehet venni a tesszellátornak. Ebből tovább lehet menni a mikropoligon renderig, ahol egy háromszög egy pixel nagyságú. Persze itt majd át kell alakítani a VGA-k 2x2 grid feldolgozását is, mert nem jó ha a raszterizálás hatásfoka 90% alatt van. Márpedig a jelenlegi hardvereken 1 pixel/háromszöggel kb. 6-8%-os a hatásfok, ami nagyon alatta van. :D Nagyon sok még a nyitott kérdés, így sok reális alternatívát lehet felvázolni. Ami biztos, az az, hogy a geometrikus transzformáció elérte a határait. Az egész technológiában nincs több. Nyilván amíg a pixel a kép legkisebb eleme, addig felesleges a pixelnél kisebb háromszögek kialakítása. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7695 üzenetére

    Az OpenCL első számú támogatója az Apple. Ők nagyon sokat tesznek hozzá a rendszerhez, mert a jövőben az oprendszert is ebbe az irányba szeretnék vinni.
    Valószínű, hogy kicsit lassabb lesz az SB, de a folyamatos méretcsökkentés és az üzemidő növelése nem teszi lehetővé a diszkrét GPU alkalmazását.
    A Llano opció, mert egy lapkából kell megoldani mindent, és az OpenCL is csak a Llanora érhető el. Ezen esetleg az Intel változtathat, mert nekik is csak egy driver kell.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz decibel #7702 üzenetére

    Azt is ved bele, hogy annak a 22 millának nagy részét adta az EA, mert ennek a többsége az ő pénzük. Százalékosan jut a fejlesztőkhöz a pénz 10 dollár csak a kezdetekben lehetett, bár amekkora tőkét belenyomott az EA nem hiszem, hogy 10 dollárt adtak volna. Az nagyon sok. Főleg úgy, hogy a motor jogait megtartotta a Crytek.

    Régen sokkal egyszerűbb volt, mert akkor az NV nem volt egy generációval lemaradva. Most már a piac is szűkül, és ezt agresszívebb követelésekkel kell ellensúlyozni. A CUDA effekteket kell a Crysis 2-be építeni, ezért áldozhat rá az NV 2 millát. Más esély nincs, mert az AMD előnye nem tűnik el, sőt nőni fog, hiszen a Keplernek már virtuális memóriát is támogatni kell, vagyis kell bele pár ARM mag. Ezek szintén csak a tranzisztort viszik, de adni nem adnak semmit egy játékban. A next genben feleannyi tranyóból kihozhatják ugyanazt, a játékteljesítményt a Radeonok, ami már nagyon sok. Olyan technológia kell a játékokba, ami csak az NV-n fut, mert teljesítményben nem lehet versenyezni a játékra tervezett Radeonokkal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cwn #7707 üzenetére

    Fél éven belül nem. Maximum egy pipe cleaner lapka. Q3 végére lehet leghamarabb 28 nm-es generáció.

    A 22 nm majd 2012-ben jön (a vége felé), de csak a GloFo-tól. A TSMC 20 nm-re ugrik, ami azt jelenti, hogy leghamarabb 2013-ban (az év második felében) lesz nekik gyártósoruk.

    (#7708) alibaba78: Lehet, hogy berakták a készletre, de csak holnap délután lehet szállítani. Persze úgyis webes rendelés szóval nem számít, hogy jelzik a készletet. Teszt holnap lesz, de azt nem tudni, hogy kinél, mert nem sokan kaptak kártyát. Az Anand biztosan kapott, mert a konferencián mérgesek voltak rájuk a konkurens újságírók. ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamkaa777 #7712 üzenetére

    Csődbe tuti nem megy az NV. Addig pedig nem hagyják el a piacot, amíg van remény a CUDA-t elterjeszteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cwn #7715 üzenetére

    Na és ezt melyik x86-os platformjukkal teszik meg? Csak akkor gyere emulálással, ha levezeted, hogy hogyan képzeled el. :)

    (#7717) gbors: A Cypress gyorsabb a GF104-nél. Nem is kevéssel. A Barts is gyorsabb bár nem annyival viszont 400 millió tranzisztorral beljebb van. Mindezt ugyanolyan gyártástechnológián. Ez architekturális előny.

    (#7716) Crytek: Ne számolj 10 dollárral, ha értékelhető eredményt akarsz. Teljes áron is maximum 5 dollárral érdemes számolni. A mostani áron még 1 dollárral sem. És ne felejtsd el, hogy annak a 22 millió dolláros fejlesztési költségnek egy (nem jelentős) részét a Crytek állta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz decibel #7720 üzenetére

    Bizony az EA olyan feltételeket szokott szabni a fejlesztőknek, hogy ők jól járjanak. :)) Erről híres a cég. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #7722 üzenetére

    Elvileg lesz pár teszt.
    Biztos eljut ide is, mert országos kvóta van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #7724 üzenetére

    Általában az igényeknek megfelelően van leosztva az országos kvóta. Esetlegesen előfordulhat, hogy a kereskedők nem tartanak rá igényt, akkor el lesz adva a termék más országnak.
    Az, hogy mennyi a kvóta az attól függ, hogy mennyi termék van. Ha kevés, akkor mi nem sokat kapunk, ha sok, akkor nem lesz gond az elérhetőséggel.

    Amit egyelőre tudok, hogy a Best Buy 200 darabot kap gyári NV-ből. Azt nem tudom, hogy EVGA-ből mennyit kapnak.

    (#7726) adamssss: A hibás chipek száma már jelenleg is nagyon alacsony ... Gyakorlatilag elhanyagolható. A termikus variancia biztos jobb lesz, nem hiszem, hogy ne jöttek volna még rá a problémák okára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #7727 üzenetére

    A 64 TMU a hírem után tényleg kérdéses volt. :)) ;]

    (#7728) gbors: A mai architektúrák dizájnja nagyban befolyásolja az órajelet. Ebből a szempontból nem lehet már clock-to-clock összehasonlítást csinálni, mert kérdés, hogy mi legyen az NV-n a 850 MHz a shader vagy a core.
    A GF104 Achilles-sarka a memóriavezérlő, ami nem képes 3,8 GHz fölött működni. Úgy néz ki, hogy a next gennél sikerülhet a 4-4,2 GHz, ami nem sok, de lesz memóriabusz bővítés, így lesz értelme az extra magok bekapcsolásának. A GF104 esetében ennek nem sok haszna lett volna, mert a HD 5870 semmilyen szempontból nem lett volna meg. Még gyári agyontuninggal is képtelenek fogni. Már rég elverték volna, ha erre lehetőség lenne, de nincs.

    A Bart az a GF104-hez igazított megoldás. A GF114 ellen Cayman LE-t érdemes bevetni, mert a lapkaméret megegyezik, így simán verhető. Esetleg egy HD 6890-es Barts, de ez nem valószínű. Túl nagy lenne a tumultus az árazásban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #7731 üzenetére

    Ez hibás következtetés. A VGA vásárlásához semmi köze a lemaradásnak. A vásárlók az ár szerint vásárolnak. Az AMD procik is generáció hátrányban vannak, mégis vásárolják őket, mert az ár/érték arányuk jó. Hasonló a helyzet az NV-nél is. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #7735 üzenetére

    Nem a piaci részesedésről volt szó, hanem az architektúráról. Az NV az architektúra szempontjából olyan lemaradásban van, az AMD-hez képest, mint az AMD procik az Intel procikhoz képest (itt most az asztali és a mobil szintet nézzük. Az Atomot ne számoljuk, mert azt minden megveri, de nem is az a célja, hogy erős legyen.). Az egyetlen különbség, hogy az AMD a gyártástechnológiában is hátrányban van az Intelhez képest.

    Egyébként jó dolog az asztali részesedésbe kapaszkodni, de remélem nem mondok újdonságot, hogy ebben van a legkisebb haszon (már ha van). Ahol jelenleg van pénz az a mobil piac a VGA-k szempontjából. Ennél is sokkal zsírosabb piac az IGP. Többek között a JPR ezért nem bontja le az eladásokat a VGA-kra, mert pénzügyileg elhanyagolható réteg.

    A prociknál is hasonló hátrányban van a desktop, azzal a különbséggel, hogy a proci csak egy lapka és egy tokozás, vagyis olcsóbb gyártani még a legerősebb modellt is a legolcsóbb VGA-nál. Ettől függetlenül, ami számít az a mobil piac. Annak is a legnagyobb része az ultravékony és a netbook.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák

Hirdetés