Keresés

Új hozzászólás Aktív témák

  • leviske

    veterán

    válasz Nippon #148 üzenetére

    Hol látod kifutni a GTX-eket? Még csak kiszórásra hasonlító lépéseket sem tett az nVIDIA és amíg a HD5800-asokkal egy árban lesznek a GTX-ek, addig azokkal illik összemérni. Nem tudod bemagyarázni, hogy nem, mert anno a G80 és G92 esetében ugyan ez történt.

    Arról nem is beszélve, hogy tök felesleges az nVIDIA-ra várni. Van rá esély, hogy a Fermi ki sem jön desktop-ra...

    Megjegyzem, nem értem miért nézed le ennyire az nVIDIA-t. Egyáltalán nem volt véletlen lépés a G80, a rá következő GT200 úgyszintén nem volt az. Amire szánták őket, arra tökéletesek, de az a bizonyos valami nem a desktop GPU-k piacán keresendő.

    Az Intel&AMD páros ellen már nem tudnak mit lépni,a játékfejlesztők is kiléptek mögűlük... ki miatt kéne maradniuk? A Fermi várhatóan egy 600mm2-es, ~Cypress teljesítményű (desktopon) utolsó lehelet volna, aminek a kiadására jó eséllyel nem is találnának már partnert. (Igen, pont amiatt, mert az AMD, amint megjelenne, megrángatná az árait és esély sem volna rendes profitot kisajtolni a kártyákból.)

    Ha az nVIDIA úgy gondolja, hogy a kártyái nem konkurálhatnak az új ATi-kkal, mert régiek, akkor hidd el, le fogja venni a Radeonok ársávjából őket... de kétlem, hogy az nVIDIA hajlandó volna jelen helyzetében árversenyt indítani.

  • leviske

    veterán

    válasz Nippon #143 üzenetére

    Mi is volt a G80 startjakor? Mi is volt a G92 startjakor? Ki várt az ATi hasonló generációba tartozó kártyáira? Pedig utóbbi esetében csak 2 hetet kellett volna.

    Ne nevettess már. Most ugyan azt az alaptalan hülyeséget nyomod, amit anno az nV fanok nyomtak a HD4800-asok megjelenésekor, mikor a HD4870-et a GTX280-al kellett volna összemérni, a GTX280 pályáján természetesen, mikor a GTX280 kétszer annyiba került, mint a HD4870.

    A HD4890 jelenleg ugyan úgy fele annyiba kerül, mint a GTX285. Ha össze akarod őket mérni, akkor két HD4890-est nézz CFX-ben, a GTX285 ellen. Onnantól viszont ugye picit más a dolgok fekvése. :U

  • leviske

    veterán

    válasz tome.jr #130 üzenetére

    Akkor elnézést. :R Valószínűleg emiatt értettem félre:

    "amikor még nincs is hozzá DX11-es game és a konkurens megoldását sem ismerjük"

    Bár enélkül is azt lehet írni, hogy a 8800-asoknál is volt dobálva a különösen ajánlott plecsni. Pedig a DX10-hez közük nem volt sok. :)

    Ezt az "ajánlott" dolgot szvsz úgy kell elképzelni, hogy akik most akarnak videokártyát venni, azoknak érdemes ebben gondolkodni... Hogy milyen felállás lesz fél év múlva, azt pedig senki sem tudhatja, de addig sem lehet elmenni szó nélkül az új széria ár/teljesítmény mutatója mellett. :)

  • leviske

    veterán

    válasz Nordic #112 üzenetére

    Senki nem is kényszerít váltásra... DX11 dömping esetén is tudod majd futtatni a kártyádon a játékokat, tehát ezt sem lehet szempontnak venni. Általában az új szériákat azoknak szánják, akik épp új termék vásárlásán gondolkoznak. Ha teljesítményben és árban egy-egy széria annyira jól sikerül, hogy addig elégedett felhasználókat is megtudnak győzni a váltásra, az a gyártóknak jó, de nem feltétlen cél...

    (#115) tome.jr: A 8800GT megjelenésekor pontosan ugyan ezt magyaráztuk, hogy az új szériával mérjék össze ár/teljesítmény/fogyasztás terén... Mégsem ezt történt. Nem tudom, a HD5800-asoknál miért kéne, hogy forduljon a kocka? Csak mert az nVIDIA-ról van szó? :) Pedig itt nem is 2hetes különbség lesz a startok közt, hanem jó pár kemény hónap, ahogy a G80/R600 start között... Jah? És mintha ott sem várták volna meg az R600-at a hasonlítgatással. :)

  • leviske

    veterán

    válasz Abu85 #105 üzenetére

    De ha már költöttek a fejlesztésekre, akkor érdemesebb volna inkább a Larrabee felé elindulni, hogy egy piaccal több piac megtartására/meghódítására legyen esélyük.

    Itt Larrabee alatt nem a desktop-ért való küzdésről írtam. Vagy rosszul emlékszem és a Tesla-t nem veszélyezteti a Larrabee? :)

  • leviske

    veterán

    válasz keIdor #100 üzenetére

    Nem így értettem. Jelentős újításokat most már nem tudtak volna belerakni, de az általuk megkezdett út már több, mint egy éve megbukott, így még lehetett idejük más irányba terelni a Fermi-t. (Bár igaz, ha nem a Larrabee felé terelgették, akkor igencsak átgondolatlan lépést követtek el...)

    (#102) - = Zk = -: Ez nem pici kimaradás... :P Ez már a GT200 óta téma. Más kérdés, hogy az nVIDIA a lépéseivel egyre inkább igyekszik ezt alátámasztani.

  • leviske

    veterán

    válasz keIdor #97 üzenetére

    Mondjuk az igaz. Én csak arra asszociáltam, hogy hátha alakítgattak még a GPU-n. A GT200-al is elindultak valamennyire a DX10 irányvonalába. Abba nem igazán gondoltam bele, hogy partnert már nem nagyon találnának hozzá, aki kiadná.

    (#90) JColee: :DDD

    (#93) Nippon: Mint írtam, azok a fejlesztők, akik DX10-re alapozták a játékaikat, valószínűleg rövid időn belül tudják a játékokat DX11-essé alakítani. Akár utólag is.

    A jelenlegi HD4890 és GTX tulajokat pedig senki nem kényszerít a váltásra, csak a vérük. ;)

  • leviske

    veterán

    válasz Atis707 #91 üzenetére

    Egy jó GPU nem csak szakemberek kérdése. A ViA-nak nincs pénze egy versenyképes GPU-t piacra dobni...

    (#92) - = Zk = -: A G80-al miért arra indultak el, amerre? A GT200-al miét vitték tovább azt a vonalat?

    Már Abu sokszor leírta, hogy a CUDA nélkül az nVIDIA halálra van ítélve desktopon. Most már 100%, hogy a CUDA-t nem tudja elterjeszteni. Innentől értelme nincs tovább pazarlni a pénzt desktopra, mikor az Intel már a... fenekükben van a Larrabee-vel. Ha most nem vetik magukat neki teljes erővel az Intelnek (ez a desktopról való kivonulást jelenti), akkor egyáltalán nem marad életben maradási lehetőségük, mert az Intel a most kiszemelt piacukat is letarolja.

    (#94) Keldor papa: Igazad van, csak nehogy a Fermi miatt (ha kijön mégis desktopra), az AMD felezze a kártyák árát, hogy az nVIDIA-t végleg kipofozza a piacról... Mert arra viszontmég van sansz, hogy a Fermi kijön desktop-ra, mert nVIDIA-ék ahhoz szvsz túl sok felesleges pénzt beleöltek a DX11 miatt, hogy utána csak úgy dobják a desktopot. Bár majd meglátjuk...

    (#96) schwanz: A HD5700 széria szvsz korai. Miután végül a HD5800-asokon 1 GPU figyel, nem két, egybetokozott, így valószínűleg a hibás Cypress-ek fognak a HD5700-asokra kerülni.

  • leviske

    veterán

    válasz Nippon #81 üzenetére

    Nézz utána a DX11 specifikációinak. :) Elég sok újdonságot fog hozni és a DX11 hosszú ideig köreinkben lesz. (Már elvileg nem lesz több DX, tehát várhatóan egy jó 4-5 év minimum) És miután a valós DX10-re írt játékok könnyen alakíthatók DX11-essé, így már ebben az évben is várható lett volna dömping, ha nem tolnak el annyi játékot jövőre. Sokan még utólag, patch formájában fogják kiegészíteni a játékaikat DX11 képességekkel.

    A PhsyX-al meg mi lenne? Csak az nVIDIA támogatja, már egy idejemég akkor sem megy, ha a gépben GeForce is van egy Radeon mellett. Innentől már nem jósolható neki túl nagy jövő. Se az AMD,se az Intel nem támogatja, az nVIDIA meg a CUDA desktop kudarca miatt várhatóan kivonul. Van rá esély, hogy a most következő DX11 szériájuk után már nem is adnak ki több desktop GPU-t. Tehát kérdezem újra: Mi lenne? :)

    A többi kérdőjelet is felfedhetnéd előttem, mert én nem látom. Az nVIDIA-t két-három éven belül pótolni tudja majd az Intel és visszatér minden a "rendes" kerékvágásba.

    (#87) Atis707: Hát ez az! A 600-asok,a 800-asok egy adott árkategóriát képviseltek. Most viszont, ha az AMD nem akar akkora űrt a kártyacsaládjai közt, akkor kénytelen lesz a 600-asokat drágábban indítani.

    És miután ebben az évben már érkezik az X2 is, várható, hogy érkezni fog a HD5600-as széria is.

  • leviske

    veterán

    válasz pumpa007 #65 üzenetére

    Nincs eltévedve. Az AMD a HD3800-asok megjelenése óta azt az imázst igyekezett kialakítani magáról, hogy új generációnként azonos kategóriában duplázzák a teljesítményt.

    Úgy tűnik, hogy az nVIDIA búcsúzásának köszönhetően az AMD-nek már kevésbé füllik a foga a vásárlóbarát árazáshoz. Más kérdés, hogy így a legtöbben ki fognak várni az új GeForce-ig, ami nem feltétlenül jó az AMD-nek.

    (#72) Nippon: Csak én érzem úgy, hogy ellent mondasz magadnak? Az új ATi-k jó fél éven keresztül egyedül fogják képviselni az "új generáció" jelzőt. Innentől váható, hogy az AMD tarolni fog.

    Amíg pedig a GTX285 kapható a felső kategóriában, kénytelenek lesznek az emberek azzal összemérni.

    Ha nem lehetne a GTX285-öt kapni, ki lenne vonva a forgalomból, így a vásárlóknak esélyük sem lenne azt választani.. abban az esetben lehetne mondani, hogy felesleges vele összemérni az új ATi-kat.

  • leviske

    veterán

    válasz gfefe #17 üzenetére

    Az nVIDIA valószínűleg inkább a Larrabee-re fog koncentrálni.

    Ha meg a PhsyX-ról beszélünk, akkor említsük meg, hogy az új GeForce elvileg csak emulálni fogja a tesszellációt... azt a dolgot, amire -szinte- az egész DX11 alapszik.

    Filmnézésre meg ott van az ATi Stream. Arra is van jópár program, ami támogatja. (Ha jól rémlik, akkor pl a PowerCinema)

    (#20) Nippon: Majd, ha megjelenik, össze lesz hasonlítva... Addig ahhoz mérjük, amivel egy árban lesz. Jelen esetben a GTX285-höz. :)

  • leviske

    veterán

    válasz Abu85 #10 üzenetére

    Tehát akkor már tuti, hogy lesz HD5700? Ez a számozás így elég zavaró lesz... A HD5600 jobban tükrözné, hogy mekkora teljesítménybeli különbség van a két család közt. :F

    (#12) gfefe: Az eddigi AMD-s, hivatalos tesztek alapján a HD5870 elég csúnyán elpáholja a GTX285-at. (1,5x/2x teljesítménybeli különbség)

    (#14) Abu85: Azt már sejteni, hogy hova érkezik az X2 árban? $800? 1000$? :) Csak mert a HD5870 ára mellett viccesen mutatna az eddigi 500-600 dolláros ár. :DDD

    (#15) helkis: Az eddigi sejtések alapján a Cypress is kétmagos (úgy Core 2 Quad módra), innentől valószínűleg az alatta lévő kategória fele akkora teljesítményt fog nyújtani.

    Bármost, hogy mondod a hibás chipeket, talán mégis van értelme, hogy legyen 700-as és 600-as család egymás mellett.

  • leviske

    veterán

    válasz keIdor #5 üzenetére

    Gondolom a HD5850-ről, vagy HD5830-ról lehet szó... Vagy rosszul gondolom?

    (Meglepne, ha emellett az árazás mellett egyszerre adnák ki az 50-est és a 70-est. De aztán majd kiderül, hogy jól gondolom-e.)

Új hozzászólás Aktív témák

Hirdetés