Keresés

Aktív témák

  • leviske

    veterán

    válasz TESCO-Zsömle #8309 üzenetére

    Az EVGA tudtommal nem fért be a partnerek közé. A legtöbb őspartner állítólag így is sipákolt az XFX miatt.

  • leviske

    veterán

    válasz rocket #8302 üzenetére

    A Club3D hozza a szokásos szimpla designt, de valahogy mégis tetszik... A dobozon a felirat viszont borzalmas...

    A Gigabyte meg úgy látom fejlődik. A designer kirugdosás úgy tűnik elérte a VGA részleget is... :DDD

  • leviske

    veterán

    válasz robyeger #8272 üzenetére

    Tudom, pont ezért írtam, hogy "A Cypress felépítésén" akadt fenn. :)

    (#8274) Abu85: Nem azért lettek ilyen, hogy tesszelláció alatt is megfelelően skálázódjanak? Ha jól emlékszem, pont emiatt tartottad hihetőnek anno, hogy a Cypress 2 GPU-ból fog állni.

  • leviske

    veterán

    válasz gyiku #8257 üzenetére

    A Cypress felépítésén rugózik és a régi R700 pletykákon. Alapjáraton nem hülyeség, csak miután a Cypress egy die-ból áll, így máris felesleges párhuzamot vonni közte és az annoi R700 pletykák közt. Arról nem is beszélve, hogy a DX11-et nem feltétlen lehet csak egy egyszerű ráncfelvarrásnak nevezni...

  • leviske

    veterán

    válasz keIdor #8211 üzenetére

    A GT216-nak is elvileg fél éve meg kellett volna jelennie. Atól, hogy nem tette, még úgy tűnik, hogy megteszi majd Q4-ben. A GT212-t jóval hamarabb ki tudják adni a zöldek, tehát elméletben volna rá esély, hogy 10Q2 elején megérkezzen. Más kérdés persze, hogy mennyire kellett a 40nm-hez áttervezni és erre mekkora erőforrást tudtak fordítani a Fermi mellett.

  • leviske

    veterán

    válasz Dare2Live #8183 üzenetére

    Az nVIDIA is tutta a GTX260-at adni $200 körül. Nem követtem az árakat, de még talán utána is mentek a HD4870-nek, ami mér jóval $200 alatt székel... De amúgy akkor Te mennyire tippeled a Larrabee árát? Vagy még az nem biztos, hogy az első Larrabee-t az Intel kiadja desktop-ra?

    "Már, hogy lenne versenyképes ha 600mm2 ből rakja elénk amit a konkurencia 182mm2ből.... és nem csak a die kerül junipernél sokkal olcsobba."

    Hmm--- pedig direkt igyekeztem úgy írni, hogy megfelelően utaljak arra az elméletemre, hogy az Intel hajlandó lesz állni a nagyobb méretből keletkező plusz költségeket.

    "és? Mire Lara kijön már rég G300at árul NV, aminek paramétereiről foglamunk sincs."

    Igen, fogalmunk sincs. Pont ez a téma... Ha a Fermi-vel tovább próbálnak két hajóban evezni, ahogy eddig tették, akkor nem valószínű, hogy meg tudják fogni a Larrabee-t. Vagy elképzelhető, hogy mind a kettőt meg tudják fogni, csak akkor feltételezem az eddig pletykált 450mm2-től lesznek nagyon távol. (És érdemes abba is belegondolni, hogy az AMD-nek nem sikerült azonos die méret mellett duplázni, akkor az nVIDIA hol áll a Fermivel a GT200b-hez képest?)

    Persze nem lehetetlen, hogy nulláról kezdték a Fermi fejlesztését, de ha képesek elindulni az R600 felé, akkor az elmúlt 2-3 évet nem fogom érteni...

    (#8247) DemonDani: Szomorú... Vagyis a Vista tulajok szemszögéből mindenképp.

    (#8241) westlake: Úgy kéne, ahogy a HD4-esekkel lett végül csinálva. Bár most feltételezem még fele annyi X2 tulaj sem lesz, mint amennyi a HD48-asok idején volt...

  • leviske

    veterán

    válasz janos666 #8171 üzenetére

    Varázsbot? Hol írtam, hogy varázsbot? :) Nem várok az első Larrabee-től áttörést, de tudtommal az RV770 szintjét hozni fogja (bár persze 600mm2-es magméret mellett és 2010-ben). Az Intel be tudja nyelni a méretbéli különbségekből adódó kellemetlenségeket, így a Juniper-nek lazán nekitudnak ugorni. És miután a HD5700-asok ugye a 100-200 dolláros ársávba sorolnak be, ezért a Larrabee lazán meg tud érkezni a piac fő áramába.

    Innentől jogos arról beszélni, hogy a középkategóriában versenyképes lesz az Intel.

    Az nVIDIA maradását illetően meg csak annyit, hogy -ha jól tudom/emlékszem- a Larrabee-nek jóval nagyobb a DP teljesítménye, mint a GT200-nak. Ha az nVIDIA ezt a vonalat követi tovább, akkor csúnyán meg fog bukni a Tesla az Intellel szemben... És innentől egy hosszútávú piacot vesztettek. Az meg feltételezem komoly tranzisztormilliókba kerülne, hogy a Larrabee-vel és a Cypressel is feltudják venni a harcot, ami egyenlő volna a hatalmas GPU mérettel és a várható buktával.

    És akkor ugye még elgondolkoztató, hogy érdemes-e a desktopba fecsérelni a pénzt, mikor már csak 2-3 év és kiszorul az alsó és középkategóriából, aztán végül az egész piacról... Ha most az egész pénzmagjukat az új piacokra irányítják inkább, akkor sokkal több esélyük van az életben maradásra, minthogy feleslegesen szórják a milliókat desktopra, mikor akkora profitot nem is termel már nekik.

    A ViA-s X86 meg szép álom, de kétlem, hogy valóra válna. Ha felvásárolják a ViA-t, ugrott a licenc, ha pedig csak beletolják a pénz, akkor egyszerűen megbolondultak... De ha valamilyen úton módon mégis szövetkeznének az nVIDIA-val, akkor még így is volna egy több éves lemaradásuk és egy hátralévő több millió dollárra rúgó fejlesztésük, amibe mind a két cég (nV/ViA) jó eséllyel belerokkanna.

    (#8176) TTomax: Elnézést, nem fogalmaztam elég pontosan... a HD5700-asokkal fog konkurálni, ahogy -ha megjelenik- a GT212 is.

  • leviske

    veterán

    válasz Dare2Live #8164 üzenetére

    A HD4800-asok sem voltak azért "ultraolcsón"... $100-el voltak olcsóbbak.

    És szerintem, ha a RV770/RV790-et sikerült volna megfelelő mértékben kiszórogatni, akkor nem feltétlen kerülnének ennyibe...

    Esetleg még ami a magas árazás mellett szólhat, az az, hogy nem feltételn lennének teljesítményben pariban a Phenom II X3/X4-esekkel, az X6-osok pedig még elég sokára jönnek.

    (#8153) cwn: Most nem azért, de ezzel az nVIDIA mérnökeit hülyézted le... Nem véletlenül szerepelnek ennyire rosszul desktopon.

    Egyébként meg MUHAHA... :U

    (#8167) Balika911: Az egyik AMD-s prezentáción, ahol a Cypress-t 300-400 dollár közé lőtték be, ott az X2 $500 alatt volt... Ami megjegyzem, igen hülye lépés volna, miután a HD4870X2-vel mindig tartották magukat ahhoz, hogy 2db 70-es ára volt a 70X2.

  • leviske

    veterán

    válasz Ricco_hun #8133 üzenetére

    Értem mire gondolsz, ugyan ezen a véleményen vagyok én is, de azzal, hogy rágjuk a témát, nem érünk el semmit.

    Ennyi lesz az áruk, kész. Valószínűleg többet tudnak nálunk... Onnantól, hogy az nVIDIA megint elkezdte nyomni a sódert arról, hogy a "DX11 felesleges", várható, hogy vagy csak nagyon sokára, vagy egyáltalán nem lesz alá megoldásuk. A DX10.1-ről tett hasonló kijelentésük után lassan két év telt el, mire megjelent egy DX10.1-es GPU-juk. És abból is csak egy alsó-középkategóriás vitéz.

    Ebből fakadóan valószínűleg a HD5000-esek nagyrészt a Larrabee-vel és a DX10.1-es GeForce 300-asokkal fognak kűzdeni.

    Még akkor talán szerencsésnek is mondhatjuk magunkat árazás szempontjából, ha az nVIDIA még utolsó nyögésnek kiad egy GT200 erejű, RV790 méretű, DX10.1-es GPU-t és azzal elkezdi kicsit bökdösni az AMD-t.

    Bár megjegyzem, hogy nem feltétlen csak a monopolo helyzet szülhette ezt az árazást. Ha ránézünk a RV770/RV790 körüli káoszra és átgondoljuk, hogy vajon miért adták ki most a HD4860-ast, levonható a következtetés, hogy a válság rátette a bélyegét az eladási mutatókra és ki kell szórni a maradékot, normális haszonkulcs mellett.

    (#8143) Balika911: Már persze annak, aki fog aludni... :DDD

    (#8132) Med1on: Szimplán Bullet-ként jobban ütne. :DDD

    (#8134) Abu85: Jah? Így márlétom némi értelmét én is... :))

  • leviske

    veterán

    válasz Ricco_hun #8127 üzenetére

    Akár meddig rágjuk a témát, a Radeonok kezdőára akkor sem fog lejjebb menni... Érdemes inkább most egy HD4870-esbe, vagy HD4890-esbe invesztálni, miután most úgysem jönnek ebben az évben a DX11 zászló alá eget rengető nevek. Bár a Dirt2 érdekes lehet...

    2010 elején pedig szerintem le fog csökkenni a kártyák ára és érdekesek lehetnek már azok számára is, akik a HD4800-asok árazását várták. :)

    (#8126) Med1on: Bullet? :Y

    (#8128) Abu85: Nem akar valaki véletlenül egy gyártósemleges Physics megoldást fejleszteni? Csak mert gondolom itt akkor megint megy majd a kavargatás...

    Leglább a Bullet még bele is van olvasztva a Steam-be, úgy ahogy a PhsyX a CUDA-ba? :F

  • leviske

    veterán

    válasz gyiku #8109 üzenetére

    Tehát végül a HD5850 tényleg hardveresen is különbözni fog a 70-estől... :( Szomorú.

  • leviske

    veterán

    válasz VaniliásRönk #8036 üzenetére

    Hát ez az... :( Én viszont azt értettem 1000 évnek, mire megjelenéskor már lesz Linux verzió, ahogy már egyre többször van OSX verzió is. :(

    (#8037) LordX: A Larrabee driver-jeivel gondolom ezt már nem fogják eljátszani.

  • leviske

    veterán

    válasz VaniliásRönk #8027 üzenetére

    Igaz, elnézést. :R Bár az új Unreal, ha jól tudom, nem nagyon szagolt még a Linux közelébe se, vagy csak figyelmetlen vagyok?

    (#8032) DemonDani: Felső, vagy alsó határral? :DDD

    Amúgy miért? :)

  • leviske

    veterán

    válasz tlac #8008 üzenetére

    Jah? Tényleg! El is felejtettem, hogy egy Core i7 975 + GMA4500 milyen jól felveszi a versenyt egy AMD Dragon platformra épülő géppel... :)

    Amúgy az IGP-ikhez nem kell túl komoly driver... A Larrabee alá azért nem hiszem, hogy hagynák, hogy ilyen gány driverek kerüljenek. :)

    "nem, vannak ilyenek, persze nem sok"

    Elnézést, rosszul fogalmaztam. Olyan játékokra gondoltam, amik mondjuk a BioWare, vagy Blizzard/DICE/Valve kezei közül kerülnek ki. :) Tudom, hogy vannak rá már most játékok, de mivel vagy kis költségvetésűek, vagy hobbi fejlesztések és sajnos technológiailag + gyakran történetileg is elmaradnak a nagyobb fejlesztőstúdiók termékeitől.

    Az iD-ben bíztam ezen téren, de komoly csalódást okoztak a Rage-vel... Ha képesek lettek volna Linux-ra is kiadni, akkor még meg is vettem volna a játékot, pedig a zombis/lövöldözős játékok nem a világom.

    "egyáltalán nem vagyok képben az amd-s szerverekkel, szóval oda milyen driverek kellhetnek?"

    Chipset? Mondjuk. :) Nem feltétlen árt, ha van driver és mint említettem, pár hónap múlva érkezik a Maranello platform... Nem ártana úgy debütálni, hogy nincsenek driver gondok egyik OS alatt sem.

    "szerintem sok munka"

    Jajj, basszus... Windows alá újra tutták írni. Ne legyen már annyira nehéz újra írni Linux alá, mikor valószínűleg a közösség is aktívan küldözgeti a visszajelzéseket.

    Ha az "Ultra Hordozható Notebook"-ok piacán meg akarnak élni, ugyancsak nem árt a Linux-ra felkészülniük, bár igaz, hogy oda nem igazán OGL teljesítmény kell, hanem (a HD tartalmak miatt) ATi Steam, vagy OCL ...

  • leviske

    veterán

    válasz tlac #7985 üzenetére

    Az Intel valószínűleg a Linux-ot nagyon fogja nyomni, amint lesz egy versenyképes, egész platformja.

    Miután az AMD-nek az egész csak driver kérdése, szerintem nem lenne hülyeség részükről meglépni a dolgot. Úgyis 1000 év lesz, mire megjelenik az első natívan Linux-ot támogató játék, így a MS sem hunyoroghat rájuk, hogy a bármit ezzel a Linux-on segítenének.

    Amúgy a szervereket csak azért hoztam fel, hogy hogyha már kénytelenek így is hozzányúlni a driverfejlesztők a Linux-hoz, akkor aztán főként nem sok plusz munka a GPU-k alá is nyomni egy minőségi drivert.

  • leviske

    veterán

    válasz Dare2Live #7974 üzenetére

    Igaz, a 25%-os ÁFA-'ra nem gondoltam sajnos... :R Bár attól függetlenül az aprókban szvsz így is lehet majd találkozni 200€ körüli HD5850-esekkel itthon is.

    Amúgy itt akkor mi rosszat is írtam? Nem mondtam, hogy "tutibiztos" és attól függetlenül hülyeséget sem írtam, mert a 25%-os ÁFA mellett sem lesznek ezek 300-400€-s kártyák, bár tény, hogy így azért nem maradnak 200-300€ közt sem.

    (#7973) Departed: Nem tudom... Nem mondtam, hogy "fujj, de csúnya", csak annyit, hogy többet vártam. Ez a matrica kicsit semmilyen.

    (#7975) Balika911: Nem számoltam az ÁFA-'t... Ha nem 120 nagykeren keresztül és nem dupla/tripla ÁFA-'val érkeznének, akkor lenne magyarországon is annyi, mint amcsiba. Így csak globálisan az EU-ra értendő, ahol EUR a pénznem.

    (#7976) janos666: Ez mondjuk igaz. Bár az XFX a kenguru óta nem nagyon szokott nagyméretű motívumokat használni. Az a JasonX féle fej meg csak az X2-n figyelt és én nem olyanra gondoltam, tehát szétvagdosás nélkül meg lehetett volna oldani.

    Bár mind1, lehet, hogy élőben jobban fog kinézni ez is, vagy egyszerűen a hűtés maga cseszi el az összképet.

    MOD: Mondjuk tény, hogy attól függetlenül igényesebben oldották meg, mint a Sapphire a lefejezett csajokkal...

  • leviske

    veterán

    válasz Dare2Live #7946 üzenetére

    Akkor miért nem hihető, hogy itt annyiba fog kerülni, mint amerikában?

    $300=~200€
    $400=~275€
    $450=~300€

    Ha az EU-ban 200 és 300 euró közé fognak esni, az csak annyit jelent, hogy végre nem lesznek drágábbak itt a kártyák, mint amcsiban...

    Nem kell hülyének nézni, ha valaki bődületes baromságot írt volna be, mint amit mondjuk Te írtál példának, akkor azt azért nem "híresztelném", bár megjegyezném, hogy egy kérdezőnek írtam, ott is kihangsúlyozva, hogy nem 100%.

    (#7964) gyiku: Hm... A HD4-esek matricázása után jobbat vártam. Pedig erre az új hűtésre aztán lehet alkotgatni. :F

  • leviske

    veterán

    válasz Dare2Live #7909 üzenetére

    Elég merész dolog azt állítani, hogy hazudik, csak mert nem illik a $=€ elméletedbe...

  • leviske

    veterán

    válasz tlac #7896 üzenetére

    Miért ne lehetne 0-ról újraírni a drivereket? :F A Windowsnál már másfél éve megtették. Ha nem szeretnék, hogy a későbbiekben úgy egybeforrjon a Linux neve az Intel videokártyákéval, ahogy eddig össze volt forrva a GeForce-okéval, akkor érdemes elkezdeni tipegni a normális támogatás felé.

    Arról nem is beszélve, hogy lassan jön a Maranello. Miután serverek terén a Linux már elég elterjedt ezért ajánlott, hogy a chipset kapjon normális támogatást Linux-ra. Ha pedig már a Catalyst chipset részével elkezdtek foglalkozni, akkor már a GPU részét sem tart semmibe minőségire javítani.

    (#7898) beteg: És a "k drága" mivel akar pontosabban egyenlő lenni? :)

    Mind1, majd meglátjuk, de én bízom benne, hogy végül az amcsi árak lesznek ide is értendők, nem juróba számolgatva/osztvaszorozva... :)

    Így lenne reális. Az AMD eddig is tisztában volt vele, hogy az EU-ban drágábban lehet megvenni a cuccait, a processzorait azért hírdette múltkor inkább már EUR-ban.

  • leviske

    veterán

    válasz Kucsek #7894 üzenetére

    Eddigi hírek szerint a HD5850 200€ a HD5870 pedig 300€, tehát elvileg nem lesznek ezek 300-400€ kategória.

    Bár majd meglátjuk ugye. :)

  • leviske

    veterán

    válasz tlac #7881 üzenetére

    És ettől miért kéne hason vergődnöm? :) Én arról beszéltem, hogy a HD5800-asok már kapnak rendes Linux-os drivert, nem arról, hogy a Catalyst milyen szépen felfejlődött. (Ugyebár az iD-nél valószínűleg még nem találkoztak a HD5-esekkel bemutatkozó Catalyst-al.)

    Onnantól pedig, hogy a HD5-ösök már teljes mértékben AMD fejlesztések, és az AMD IBM közeli, az IBM pedig jelenleg Linux párti, még talán az sem lehetetlen, hogy az AMD majd tud segítgetni a Tech5 átportolásában.

    Nem hiszem, hogy a Linux örökké 1% alatt fog maradni...

    Arról nem is beszélve, hogy az Intel nagyon tolja a Linux szekerét. Az AMD is kénytelen lesz oda szagolgatni. (Ha esetleg a fentebb felhozottakra a Microsoft-os partnerség lett volna ellenérv.) :)

  • leviske

    veterán

    (#7858) Bluegene: És mit fogsz csinálni, ha a még nV barát játékokban a HD5850 a GTX285-el lesz egy szinten? Miután a HD5870 is általában inkább x1,5 szintet hoz a GTX285-hoz képest. Igen, ez már mondjuk attól függetlenül a GTX295 teljesítménye, de attól függetlenül a GTX285-höz átlagosan x1,5 teljesítményt lehet várni.

    Amúgy azt a x1,4-et nem tudom honnan vetted a HD5850-hez... Egyelőre, ha jól rémlik a HD5870-ről szivárogtak ki AMD-s tesztek.

    (#7866) Dare2Live: Menyivel tart neked hosszabb ideig megkérdezni tőle, mint nekem? :) Csak úgy az érdekesség kedvéért. :)

    Én nem kérdeztem, tehát, nem tudom, hogy hol lehet ennyiért előrendelni. :)

    MÁS: Úgy tűnik talán most a Linux-ot is figyelembe vették a fejlesztések közben: ATi Eyefinity Linuxon

    Ebből azt merem levonni, hogy felnőttek a driverfejlesztési feladathoz már Linux esetén is. Örvendetes. :))

  • leviske

    veterán

    válasz Dare2Live #7852 üzenetére

    [link] :)

    (#7854) Vasinger!:

    HD5850 ~ 1,1x(?) GTX285
    HD5870 ~ 1,4x GTX285 Bár rémlik, mintha lenne, ahol a GTX285-höz képest 220%-os teljesítményt mutat fel...

    A többi kártya teljesítményéről még biztosnak látszó pletyka sincs. Bár sejtések alapján a HD5700-asokat a HD4800-asok szintjére lehet várni.

  • leviske

    veterán

    válasz janos666 #7850 üzenetére

    Ehh... Azt nem veszed figyelmebe, hogy ez alapján a HD5850 megérkezik a HD4890 árszintjére. Ezek alapján feleslegesen ment a rimánkodás, hogy a HD4890 árán meg lehet majd kapni a HD5770-et.

    Az, hogy a HD4870 anno mennyibe került, előfordulhat, hogy annak volt köszönhető, hogy a EUR/HUF árfolyam padlón volt, most viszont 270.

  • leviske

    veterán

    válasz Valty #7794 üzenetére

    :Y A végén még kiderül, hogy európában nem lesz drágább az indulóáruk, mint a HD4800-asoknak. :Y

    MOD: Amúgy így még volna is érelme... Megszagolták, hogy Európában mindig x1,5 drágább, most úgy döntenek, hogy az Észak Amerikaiakkal is megfizettetik azt a 200/300 jurót. :))

  • leviske

    veterán

    válasz Med1on #7778 üzenetére

    Jól lefejezték szegény csajokat... Attól függetlenül valahogy emberibbnek tűnik a hűtése így felmatricázva.

    Kíváncsi legyek az XFX matricájára, az biztos ütni fog.

    (#7776) Valty: Bruttó, agy Nettó? :Y

  • leviske

    veterán

    válasz Med1on #7763 üzenetére

    Az, hogy a HD5770 kijön $200-os áron, nem biztosítja be, hogy a HD5750 is drága lesz az előző generációhoz képest. Ha pedig a HD5770 hozza egy tuningolt HD4890 teljesítményét, a HD5750 pedig egy HD4870 1GB teljesítményét (mondjuk utóbbi $150-ért), akkor szerintem nem lesz különösebb gond.

    Anno a HD4600-asok sem jöttek a HD3800-asokhoz képest kedvező áron, pedig azok aztán csak elvétve hozták az elődök teljesítményét.

    (#7764) Keldor papa: EVGA 890FX lapon csak akkor nem lepődnék meg, ha végül az AMD befogadta volna partnernek. Márpedig a HIS elég rossz szemmel nézné szerintem, ha egy hasonló profilú céget felvenne az AMD, miután Ő a nehezebb helyzetekben is az AMD oldalán állt.

  • leviske

    veterán

    válasz Med1on #7761 üzenetére

    A 2-3 ezer SP végül igaznak bizonyult, hiszen a Cypress 1600SP-vel fog jönni, a mittoménmi X2 meg ebből fakadóan 3200SP-vel ugye... :)

    A HD5770 $200-os árát pedig az nVIDIA sem fogja különösebben zargatni, ha megjelenik az új GeForce, mert valószínűleg az új kártyákat mérnöki pontossággal igyekszenek majd az AMD kártyái fölé irányozni, hogy ne induljon árverseny. Mert egy árversenyt az EVGA és a BFG nem valószínű, hogy már kibírnának. A többi partner meg úgy hálálná meg az árversenyt, hogy kiadnának 1-1 új GeForce-ot a szériából és le van tudva.

    Nem véletlenül jött el az XFX... Valószínűleg Ők már látták a komor jövőt és sem az Intelre nem volt kedvük várni, sem az ION-t nem volt kedvük nyomni.

    ABU!: Lesz-e 890FX és 890GX-el szerelt XFX alaplap? Vagy ilyenekről még nem tudni?

  • leviske

    veterán

    válasz DemonDani #7758 üzenetére

    Az Intel van akkora, hogy az első generáció rossz méreteit be tudja nyelni gond nélkül. És miután elvileg ez a 0. generációs Larrabee is RV770 teljesítménnyel fog rendelkezni, van rá esélyük, hogy konkurálhatnak az AMD-vel...

    És akkor arról még nem beszéltünk, hogy az Intel már eléggé bejáratta a 45nm-es gyártástechnológiáját. Ha jó kihozatali aránnyal tudják majd gyártani, akkor maga a méret nem fog annyira számítani.

    (#7759) Keldor papa: Tudtommal az lesz 3 év, hogy normális méretek mellett tudnak majd, felső kategóriás terméket kínálni.

    Akkora teljesítményt bőven fog hozni a Larrabee, hogy bizonyos keretek közé szoríthassa az AMD-t. :)

  • leviske

    veterán

    válasz Med1on #7748 üzenetére

    Miért erőlteted ennyire ezt a konkurencianélküliséget? :F A Larrabee elég meggyőző teljesítménnyel fog érkezni, főként ha az Intel be tudja lőni a HD4890 fölé. Az Eddigi tesztek alapján egy HD4890 teljesítményű kártya már lehetne hasonló helyzetben, mint anno a HD3850 volt a 8800GT ellenében. Ez pedig ahhoz képest, hogy az emberek mennyire lebecsülik most az Intel, egyáltalán nem rossz.

    A 450mm2-t pedig nem kell szentírásnak venni... Mint írtam, ha akkora lesz, nem valószínű, hogy gyorsabb lesz a Cypress-nél. Ahhoz, hogy erősebbek legyenek, kéne rendes tesszellátor és DX10.1 kompatibilitás. Azt persze el tudom képzelni, hogy magasabb órajeleken tudnák normális sebesség mellett emulálni a tesszellációt, de a magasabb órajelekhez elengedhetetlen a jó kihozatali arány. Azt pedig nem lehet jónak hívni, ha 100-ból 20 működik (GT200 kihozatali arányát alapul véve)...

    Mind1,majd meglátjuk. Tény, hogy a GTX285 vs HD5870 eredményekből kiindulva, és azt alapul véve, hogy a GTX295 nagyon ritkán tud ráduplázni a GTX285-re, nem elég, ha az nVIDIA a GTX295-öt lövi be célnak, de talán még az sem, ha afölé irányozza az új GeForce-ot.

    (#7749) rocket: Ha nekem szólt, akkor nem vagyok write only... Pont amiatt töröltem a 8800GTX/GTS példámat, mert utána megnéztem a képet és láttam, hogy van pár miniméter különbség, plusz a szellőzőkből is több van a GTX-en. Attól függetlenül a 50/70 esetén lenne 3cm különbség, ami gondolom a gyártás során nagyobb költségekkel jár, mint az a hibahatárnyi különbség a GTX és GTS hűtése közt.

  • leviske

    veterán

    válasz rocket #7746 üzenetére

    $300-ba férjen már bele egy jobb minőségű 256bites nyák. :F Meg mondjuk a jelenleg potenciális GTX285 vevők esetében nem hiszem, hogy pont az a pár centi lesz mérvadó, amivel hosszabb a 70-es...

    MOD/MÁS: Amúgy képesek lesznek meglépni azt, hogy csak a 800-asok kapnak új hűtést, a 700-asokat meg kieresztik a X1950/HD3870/HD4770 hűtésével? :F

    MODII: Amúgy itt a plusz hűtést is érdemes beleszámolni a költségekbe, miután a teljes nyákot lefedi...

  • leviske

    veterán

    válasz Oliverda #7741 üzenetére

    Nem tudják HD5850-ként eladni a hibás HD5870-eseket. Vagyis tudtommal költségcsökkentő okai voltak, hogy a HD2900XT/PRO, HD3850/70, HD4830/50/70 azonos nyákon érkeztek.

    MOD: Közben cowboy_bebop válaszolt. :)

  • leviske

    veterán

    válasz Med1on #7735 üzenetére

    Egyelőre nagyon valószínű az, hogy a 300-as széria a DX10.1-es kártyákkal lesz megindítva. Ez már így magában elgondolkoztató.

    Azzal a 450mm2-es, 512SP-os GT300-al pedig én várnék. (Amúgy Ők kezdtek el előbb Fermizni. És Ők mondták előbb, hogy semmit nem fejlesztenek GT300 kódnév alatt)Ha végül 450mm2-es lesz, akkor jó eséllyel DX11 alatt a Cypressel veheti fel a harcot. Ami 1,5x nagyobb magméretből kiindulva nem lesz túl poénos a partnerek szemszögéből nézve.

    Arról nem is beszélve, hogy már én fogom hülyének nézni az nVIDIA-t az utóbbi 2-3év miatt, ha most még képesek lesznek DX11-re koncentrálni (hogy felvehessék a versenyt a Cypress-el), mikor az Intel a fenekükben van és pillanatokra van attól, hogy a friss Tesla birodalmat rombadöntse...

    (#7736) Oliverda: Ezen én is megakadtam, mivel tudtommal ezzel a költségeket növelik. :F

    MOD: Med1on -a szerk.-re-: A Larrabee ott lesz mint konkurencia. A GTX300-asokkal nem érünk semmit, mert -bár az Intel sem- nem tud árversenyt kezdeni. Az pedig már így előre megmondható, hogy túllőni az Evergreen-eken nem tudnak majd, így vagy hozzájuk igazodnak, vagy bevállalnak egy csúnya árversenyt, amiből ők jönnek ki vesztesen az AMD-vel szemben.

  • leviske

    veterán

    válasz Dare2Live #7712 üzenetére

    Nekem az a véleményem, hogy az AMD azért mert így árazni, mert az nVIDIA kihullása már múltidő.

    Az AMD nem nagyon fog cicózni az új GeForce-al, ha véletlenül mégis kiadják... Emiatt pedig már az exkluzívok csúnyán megtérdelhetnek.

    Bár igaz, hogy a Larrabee sem indul sokkal jobb helyzetből, de mégis hihetőnek tartom, hogy az Intel szépen átcsábítja magához azokat a partnereket, akik eddig az ION-ra nem haraptak rá. Már csak azért is tartom ezt hihetőnek, mert jó esélyét látom, hogy az Intel be tudja nyelni a Larrabee plusz költségeit, cserébe, hogy az EVGA és BFG rendes haszon mellett tudják szorongatni a HD5700-asok torkát.

    Az ugye eddig sem volt kérdés, hogy az ASUS és MSI lazán kifarolnak mögüle, tehát belőlük sem nézném ki, hogy kiadják az új GeForce-ot, ha GT200-féle jövőképet fest. Így egyelőre ugye 4 partner mínusz. A Zotac és a PNY eddig is elég erősen elhajlottak az ION irányában, tehát belőlük még ki is nézem, hogy követni fogják az nVIDIA-t az új piacra, de abban az Ő esetikben is kételkedem, hogy a Fermi-t felvállalnák, ha igazak róla a hírek. Maradt az XFX és a Palit/Gainward páros... Ugye az XFX álláspontját már egy ideje ismerjük, tehát nem kételkedem benne, hogy Ők talán amúgysem akarták kiadni az új GeForce-okat.

    A Palit/Gainward párosból már kinézném, hogy kiadják, de belőlük meg csak úgy tudom kinézni, ha az Ázsiai piacon cserébe egyedül maradnak az új GeForce-al. És talán itt hangsúlyoznom sem kell, hogy Ázsia a kulcs szó, mivel a GeForce-nak, mint márkának, ott van pozitív hírneve.

    Persze még ott vannak a "kicsik", mint a Leadtek/Sparkle/Galaxy, de belőlük sem nézném ki, hogy mernének kockáztatni egy GT200-féle újrajátszást, így Őket csak az új DX10.1 kártyák körül tudom elképzelni.

    (#7730) sniper elite: Onnantól, hogy az RV770-en volt létjogosultsága a 1GB VRAM-nak, az R700-on a 2GB VRAM-nak, szerintem a HD5870X2-n már lesz létjogosultsága a 4GB VRAM-nak.

    Más kérdés, hogy -bár ezt már feltettem a HOC-on régebben- egy 4GB VRAM-al ellátott kártya hogy viszonyul egy 32bit-es rendszerhez? :) Esetleg mondjuk 8GB VRAM, CFX-et feltételezve. :))

  • leviske

    veterán

    válasz Bici #7445 üzenetére

    Basszus, hogy számoljátok ezeket? :Y Meg nem tudnám mondani, hogy mennyivel kéne nagyobbnak lennie a GT200-nak, hogy DX10.1 és DX11 kompatibilis legyen... :F

    Amúgy, ha a Cypressel fel akarják venni a versenyt, akkor nem árt olyan erős chipet tervezniük, ami tényleg bírja olyan sebességgel emulálni a tesszellációt, mint -legalább- a HD5850. Ezt pedig szvsz egy kicsi chipben nem nagyon lehetne megoldani. Ha meg vannak annyira hülyék, hogy beépítik a tesszellátort fleslegesen, akkor megintcsak valószínű, hogy nem kis GPU-ról lesz szó, de legalább már arra sem lesz tökéletes, amire eredetileg szánják. :U

    (#7440) Gonosz15: Nem kell nagyon félni. Most jön az Intel, elvileg beszökken a Larrabee-vel a HD5700-asok szintjére és máris lesz ellenfele az AMD-nek. A következő generációnál meg már árversenyt is lehet majd várni... :)

    (#7456) 00roli00: Ugyan ezek voltak az érveim, mikor úgy gondoltam, hogy $300-ba fog kerülni a 870-es és $200-ba a 850-es...

    Végül is majd meglátjuk, hogy fognak lavírozni az árakkal... Az mondjuk biztos, hogy ha képesek felére rántani az árakat fél év múlva az Intel, vagy az nVIDIA miatt, akkor a későbbiekben nagyon kevesen lesznek olyan hülyék, hogy 100k körül megvegyék tőlük a kártyákat.

  • leviske

    veterán

    válasz Bluegene #7368 üzenetére

    A Fermiben lesz tudás, csak nem desktopra, DX11 alá. Pont emiatt tartom reálisnak Keldor gondolatmenetét, miszerint ki sem hozzák desktopra...

    Ha megint olyan kihozatali aránnyal jön, mint a GT200 (már pedig az eddigi infók alapján az tűnik talán a maximumnak), akkor többet érnek vele, ha a Tesla termékcsalád tagjaként több százezrekért eladják, minthogy az AMD-vel versengjenek és megint szinte mínuszig tornásszák a hasznot. (Ezt a gondolatmenetet fejtegetted nekem nem rég a HD5800-asok árazásával kapcsolatban is.)

    És akkor még arról nem is beszéltünk, hogy ilyen kilátások mellett (bár már többször felhoztam ezt) nem nagyon találnak majd partnert, aki kiadná.

  • leviske

    veterán

    válasz Bluegene #7363 üzenetére

    Az alsó és középkategória rövid időn belül le lesz zárva az nVIDIA számára, miután jön 2011-ben a Fusion és az első komolyabb Larrabee. Az ION valószínűleg ezzel meg is szűnik, hacsak nem fog össze az nVIDIA és a ViA. (Bár mondjuk a ViA-ék helyében bemutatnék a zöldeknek és maradnék a saját chipset/CPU/GPU párosaimnál, ha már vannak és az nV egyszer már cserbenhagyott)

    Az meg eddig is világos volt és egyben beszédtéma, hogy az nVIDIA ezzel még nem megy csődbe, csak átcsoportosítja az erőforrásait a Tegra és Tesla irányába. :)

    Az X2 nem létére meg emellett az árazás mellett lett volna realitás, de az AMD már prezentálta az ütemtervét és az alapján jönni fog az X2... (Fura mód úgy lehetett kivenni, hogy $500 alá)

  • leviske

    veterán

    válasz Abu85 #7335 üzenetére

    Azt akartam már régebben megkérdezni, hogy játékok szempontjából már marad a fullHD? Úgy értem, hogy érdemes inkább a HD felbontásokban gondolkozni, vagy lehet mondjuk 1920x1200 mellett is dönteni hátrányszenvedés nélkül?

    (#7337) Mackósajt: Én se, tehát ebben kvittek vagyunk. Ezek után viszont már nem tudom, hogy honnan szedtem a DX10.1-et. :F Bár mondjuk se az SC2, se a D3 nem egy olyan kaliberű játék, ahol sok pluszt hozhatna, tehát akár OGL-re is jöhetnének... Máskérdés, hogy miután a Blizzard elég ATi közeli, így valószínűleg azt a vonalat nyomják majd, amit az AMD, ami jelenleg a DX és azon belül is a DX10/11...

  • leviske

    veterán

    válasz Mackósajt #7321 üzenetére

    A Sims 3 és a Spore is DirectX-re épül, ha jól tudom... mégis kijöttek Mac-re. A WoW sem OGL játékként rémlik, mégis van Mac-re. Nem hiszem, hogy a Diablo3-nál ne tudnák megoldani a helyzetet... :)

    PC-re DX10.1 támogatással érkezik a Diablo 3, enyit tudok. :) Sajnos nem vagyok különösebben Blizzar fan, tehát én sem vagyok sokkal naprakészebb nálad. Ha kicsit visszanézel a Diablo 3 bejelentések idejére, akkor te is olvashatod majd, hogy DX10.1 támogatással jön.

  • leviske

    veterán

    válasz Mackósajt #7286 üzenetére

    Az egy nagyon rossz érzésed, mert régebben bejelentette a Blizzard, hogy a Diablo III DX10.1-es lesz. Van rá esély, hogy már a SC2 is az lesz. :)

  • leviske

    veterán

    válasz Chalez #7227 üzenetére

    A Crysis 2 tudtommal a CryEngine 3-ra fog épülni, tehát annak még egy HD2900XT-n is tökéletesen kéne futnia.

    Bár most, hogy felhoztad, kíváncsi leszek, hogy raktak-e bele tesszellációt. Gondolom nem véletlen szerepelt az egyik AMD bemutatón...

  • leviske

    veterán

    válasz attiLANte #7127 üzenetére

    Innentől már hihető az is, hogy a HD5700-asok jönnek. Más kérdés, hogy kíváncsi vagyok, azért vezet nyíl a Juniper-ből, mert annak a hibás változataiból lesz a Redwood, vagy csak így nézett ki jól az ábra?

    Annak viszont örülök, hogy tisztázták, hogy kicsit változtattak a stratégián és már nem igazán mondható a 200-300 dolláros réteg a fő célpontnak.

    MOD: Azt viszont ugye nem gondolják komolyan, hogy a $400-os HD5870 mellett az X2-vel maradnak $500 alatt? :Y

    (#7128) NFree: Itt a topicban találsz az utolsó két oldalon hivatalos, AMD teszteket. Eddig úgy tűnik, hogy a HD5870 megközelítőleg a GTX295 teljesítményét hozogatja. :)

  • leviske

    veterán

    válasz leviske #7045 üzenetére

    Visszaolvasva picit hülyén írtam le. Tehát úgy képzeltem a dolgot, hogy a Cypress-el ellátott kártyák Scissor-ban dolgoznának.Ha ezeket akár milyen CFX-be kötik (X2, vagy 2/4db külön álló kártya), akkor a Cypress 2 "magja" feldolgozná a kép két felét és őket követné AFR-ben a következő Cypress.

    Vagy hülye vagyok és keverem és a Cypress nem is a sima kártyákon lesz, hanem az X2-n? (Ebben az esetben elnézést, az RV770 utódjára gondoltam végig a Cypress kódnév alatt, tehát ha az a Redwood, akkor az egész szöveget érdemes ennek fényében képzeletben átkódolni.)

  • leviske

    veterán

    válasz Abu85 #7041 üzenetére

    Továbbfejlesztették a Scissor-t és most annyi felé osztja a képet, ahány GPU? :) Bár ebben az esetben az X2 nem kezelné ezt a dolgot AFR-ben, így csak arra tudok gondolni, hogy maga a Cypress Scissor-ban fogja feldolgozni a képet az erre alkalmas felépítése miatt, az X2-esek és a CFX-be kötött kártyák pedig maradnak az AFR módnál.

    Nem kell konkrétumot válaszolni, csak annyit, hogy jó irányba kezdtem-e el tapogatózni. :)

  • leviske

    veterán

    válasz Abu85 #7024 üzenetére

    Vissza tér a Scissor? Vagy az előbb nem volt annyira meleg a helyzet és a Supertile tér vissza?

    Ha igen, akkor feltételezem, most már egy HD5430 + HD5870X2 CFX párosítás is gyorsíthat majd a rendszeren. Vagy ennyire azért nem mentek messzire?

    (#7032) janos666: Erről szól a marketing... Nem mutogathatják a kártyáikat 800x600-as felbontásban, ahol a CPU limit miatt a 8800GT és a HD3850 is egy szinten lenne az új kártyákkal...

  • leviske

    veterán

    válasz Dare2Live #6966 üzenetére

    Joh, ez alapján már elhiszem a HD5870 $399-os árát. :)

    Arra még várok bizonyítékot, hogy lesz-e HD5700 az első turnusban és tényleg csak az fogja-e hozni a HD4800-asok szintjét. :)

  • leviske

    veterán

    válasz Bluegene #6952 üzenetére

    Nem gondolom, hogy az AMD jótékonysági intézmény, de a továbbiakban sem értek egyet veled...:) Csak már lusta vagyok megint leírni egy regényt.

    Majd folytathatjuk ezt a dolgot ~2 hét múlva. :)

  • leviske

    veterán

    válasz csatahajós #6908 üzenetére

    $400 nem igazán mondható már felső középkategóriának. És amit senki sem hajlandó "kihallani" a mondanivalómból: Anno a 800-as széria egy árrést tömött be. Ez a réteg, ha az AMD nem nyújt újra 2x teljesítményt itt az előző szériához képest, akkor nem lesz kihasználva. Akinek most van egy HD4890-ese, vagy akár HD4830-asa, az hülye lesz majd egy ugyan olyan teljesítményű kártyát venni, csak hogy élvezhessen a DX11 matricájára.

    "ja és nem a 8800GTX-hez mérték már akkor hanem a GTX280hoz"
    Hmm... Jól emlékszem, hogy a GTX280 $600 körül, a GTX260 pedig $450 körül kezdett? Az erre,pofánvágásként beállított $300-as HD4870 nem egy hiba volt, ahogy azt beállítjátok, hanem vevőcsalogatás.

    Amit Ti magyaráztok, az akkor lenne életképes, ha az AMD most nem adna ki X2-es kártyát. Viszont így, hogy Októberre várható az X2-es, minimum 4 kártya lenne belőve $350 fölé, ami elég érdekesen hatna. Arról nem is beszélve, hogy a X2 árát vagy megszabnák a szokásos 500-600 dollár körül (ami a $400-os 70-es mellett viccesen mutatna), vagy $1000 fölé mennek, ami viszont a válság miatt mutatna röhejesen.

    És bocs, de a Fuad nekem nem egy olyan dolog, akitől feltétlen elhiszem a 700-asok létezését... Régebben ők voltak az elsők, akik bejelentették a 800SP-s RV770-et, utána folyamatosan ontották magukból a 480SP-s hülyeségüket.

    De ne offoljuk tele a topicot ezzel a témával... :) A kártyák debütálásáig engem nem lehet meggyőzni arról, hogy az elméletem helytelen. Az meg már egy külön elgondolkoztató dolog, hogy Abu -aki valószínűleg már biztosabb infókat tud a kártyák áráról- nem kezdett el velem vitázni. :) Pedig anno, a HD4890 megjelenése előtt igyekezett mindenkit meggyőzni arról, hogy nem érdemes túl hatalmas teljesítménytöbbletet várni.

  • leviske

    veterán

    válasz Bluegene #6899 üzenetére

    Jaj, már el is felejtettem, hogy veled milyen frankó vitázni. Csak, hogy prezentáljam, hogy mennyire ragadtad meg a mondanivalóm az első idézettel:

    "most"
    Még meg sem jelentek. :P

    Jó lenne, ha a HD4800 részt is meglátnád a két szép kis szemeddel. :) Az RV770-nél volt egy igen erős fordulat. Semmi értelme nem volt olyan alul árazott kártyákat kiadni.

    Jobb helyzetben meg most sincs az AMD. A HD4800-asok idején a DX10.1 volt technológiai előny, most a DX11 lesz. Ettől a technológiai előnytől nem tűntek el a GeForce-ok. Márpedig az AMD-nek még mindig az a lényege, hogy kitúrja az nVIDIA-t.

    Amúgy,meg az i7-es példa eléggé sántít. Attól a 8ezer forinttól szerintem távol van egy i7. Arról nem is beszélve, hogy nem a processzorok, hanem a körítésük van túlárazva. Erre a 100 vs 1 vevő témára meg annyira ráizgultál.. hihetetlen. Tudnám, hogy akkor hogy a frászba érte meg az AMD-nek olcsón adni a cuccait, hiszen akár milliárdos árat is kérhetett volna egy-egy Agena-ért és R600-ért. Erre ez az idióta inkább olcsóbban adta és még rá tett egy lapáttal a 2-3 magos CPU-k árával és a PRO-val. :U

    Mind1, a továbbiakban tényleg lezártnak tekintem a dolgot, mert nincs kedvem a hozzászólásaim részleteit külön megmagyarázni...

  • leviske

    veterán

    válasz Bluegene #6897 üzenetére

    Hagyjuk a témát. Nem vagyok annyira idióta, hogy a magyar viszonyokhoz mérjek bármit. Az eddigi Radeon politikára alapoztam a mondanivalómat és nem tudsz meggyőzni a humbugoddal. :P

    Megjegyzem, gazdagabb országokról úgy felesleges beszélni, hogy millióan kerültek utcára a 2008-ban és 2009-ben a válság miatt. Nem hiszem, hogy pont most akarnak majd az emberek drágább videokártyákat venni.

    Azt meg külön elmagyarázhatnád, hogy a HD3800-asokkal megkezdett árpolitikát akkor kik javasolták az AMD-nek, ha nem a témában jártas szakemberek?

    Mind1, mi ketten aztán főként hagyjuk egymást, mert semelyikőnk sem egy könnyen meggyőzhető típus. Várjuk meg a tényeket, azoknak már mindketten hinni fogunk. ;)

  • leviske

    veterán

    (#6870) Bluegene: Tételezzük fel, hogy igazad van és röhejes módon az új ATi-k előállítása annyiba kerül, mint a GT200-é. Ki mondta, hogy adják 30k-ért? Én biztos nem...

    Bár mondjuk az meg egyenesen hülyén hangzik, hogy 100-ból 10-en megvennének egy olyan kártyát, amit várhatóan fél éven belül (minimum) fele annyiért megkaphatnak? Azért ne nézzük már hülyének a vásárlókat, induljunk már inkább abból ki, hogy nagyrészük iQ-val is rendelkezik, nem csak egy pénztárca.

    Félteni meg nem féltem őket, más kérdés, hogy egy ekkora előnyt nem arra felhasználni, hogy hosszútávú előnyt fabrikáljanak belőle, baromság.

    (#6871) DeckardCain: A hozzászólásod végén elmondtad a lényeget. Meg van az oka az átlagnak, hogy most ne váltson. Ha az AMD van olyan hülye, hogy a felvásárlóközönséget elriasszák a vásárlástól az új nVIDIA érkezéséig és emiatt utána csak maximum a felvásárlóközönség 3/4-ét tudják megfogni, akkor meg is érdemlik, hogy az elkövetkező években 50% fölé nem nagyon fognak vergődni. Bár igen komoly mértékben csalódnék ebben az esetben az AMD vezetőségében.

    (#6882) csatahajós:
    1.: Linket kérnék a HD5700 biztos létezéséről.
    2.: A HD4800-asok idején hol let volna a gond, ha a 8800GTX árán megérkezik a HD4870? A HD3800-asok idején hol lett volna a gond, ha a HD3870 megérkezik a HD2900XT árszintjén?

    Mind1, zárjuk le a témát. A HD5800-asok debütálása napjáig úgysem tud senki meggyőzni arról, hogy nincs igazam. :)

  • leviske

    veterán

    válasz VinoRosso #6865 üzenetére

    Kérlek, magyarázd el nekem, hogy a RV770 mitől volt kevésbé High-end, mint amilyen az utódja lesz... Ha az AMD nem így áraz, akkor a GTX260 teljes nyugalomban el lett volna 80k környékén, a HD4870-el és a HD4890-el meg lett volna a GTX285. Az X2-esekre nem lett volna semmi szükség.

    Azt nem érted, ahogy látom, hogy mire gondolok. A HD3800-asoknál az AMD elkezdett egy utat, hogy az addig parlagon heverő, 40-70k közti árrést betömje. Az akkori kijelentés abból ált, hogy ebben a kategóriában mindig szolgáltatni fogják az előző videokártyacsalád felső kategóriás termékének a teljesítményét. Te most azt mondod, hogy ezt fel fogják rúgni, csak mert másodjára is sikerült tartani a szintet... Valahogy nem tudok egyetérteni.

    Az nem előrelépés és az AMD józan ésszel nem gondolhatja, mikor válság van, hogy egy azonos teljesítményű kártyára, drágábban hajlandóak lesznek befizetni az emberek, csak, hogy DX11 matricát ragaszthassanak a gépük oldalára. Arról nem is beszélve, hogy egyelőre a CPU részleg miatt is igyekezniük kell inkább még a jófej formát hozni.

    Vonatkoztassunk már el a szerencsétlen nVIDIA-tól és az AMD alkalmi technológiai monopol helyzetétől. 40%-os a részesedésük jelenleg a diszkrét grafikuskártyák piacán. A HD4000-esekkel nem tudták feltornászni magukat 50%-ig. Ha lesznek annyira hülyék, hogy ezt megtoldják egy idióta, önmagukat meghazudtoló árazással, akkor biztosak lehetnek benne, hogy ez a 40% nem fog a közeljövőben 60%-ra nőni. (Amit ellenben egy jó árazással volna rá sansz, hogy eltudnának érni.)

    MOD: Amúgy dobna valaki nekem egy linket, hogy honnan ez a HD5700 dolog? Nekem valahogy csak úgy volna világos, ha a 800-asok helyett 900-asok jönnének és az X2-esek ebben a körben kimaradnának.(Ez viszont ugye ellent mondana az AMD monolitikusGPU ellenességével.)

  • leviske

    veterán

    válasz keIdor #6860 üzenetére

    Akkor most nem lesz HD5600 széria? Csak mert ugye a 600-asok voltak eddig belőve az előző 800-asok szintjére.

    Arról nem is beszélve, hogy milyen "más réteg"-ről is beszélünk? A GTX285 rétegéről, amit a vásárlók talán 5%-a megfontol és az adott 5%-nak talán a negyede rá is szánja magát? A 8800GTS 640 és HD2900XT rétegéről, amit az emberek csak kényszerből piszkáltak? Potenciális vásárlócsalogató réteg ez és biztos jó pont lesz ez azok számára, akik nem vakulnak be a DX11-től és megnézegetik még maguknak a GeForce-okat... Arról nem is beszélve, hogy az ilyentén agresszív árazással azt éri el az AMD, hogy az emberek kivárjanak.

    Nem tudom, én a megjelenésig fenntartom inkább a jogot a kételkedésre. Sokallom az árazást, furcsállom a 700-as név korai bevetését...

  • leviske

    veterán

    (#6678) VinoRosso: Az RV770-re és az RV790-re nehezen lehet azt mondani, hogy harmatgyengék. Mégis jóval olcsóbban debütáltak, mint az nVIDIA hasonló teljesítményű termékei. Arról nem is beszélve, hogy a HD4800-asok megjelenésekor sem vették komolyan figyelembe a HD3800(X2) széria akkori árait.

    Amúgy a nagy magméret és a rossz kihozatal nem mond semmit... A TSMC a kezdeti kényelmetlenségek miatt olcsóbban gyárt az AMD számára, innentől a GPU ára tekinthető akár az RV770 árához hasonlónak.

    (#6680): Nehezen veszi be a gyomrom, hogy miután már év eleje óta szórják kifele keményen a kártyákat (szinte már gusztustalan méretű kavarodást okozva), ne sikerült volna kiszórni az RV770-es kártyákat. Az RV790-re meg az összes gyártó valószínűleg úgy készült, hogy már az új széria ráteheti a kezét az eladásokra.

    (#6681) DeckardCain: Ha annó a HD4870 árát a 9800GX2-éhez szabják meg, akkor a GTX280 ára körül kezdett volna. Le van tojva, hogy a GTX295-nek és a HD4870X2-nek mennyi az ára, ha kategóriában (és ezzel együtt felszereltségben) a HD5800-asok a 8800GT-vel és HD3870-el megnyitott kategóriát célozzák meg.

    Amúgy ez a HD5700-as sorozat honnan jött? Biztos, hogy ezek is megjelennek? 3 GPU-ra (4 kódnévre) 5 videokártyaszériát adnának ki? Nekem ez elsőre kicsit abszurd... Vagy most az IGP-k és a Fusion kedvéért kihagynák a low-end kategóriát,ami a legtöbb pénzt hozza? Bár, ha véletlenül lesz HD5700-as sorozat, akkor meg valami iszonyatos szinten elfogja szipkázni a potenciális HD5800 vásárlókat és így a 800-as széria a fején marad. Annál meg egy gyártóval rosszabb nem történhet, minthogy a legyártott/legyártatott termékei a rajtamaradjanak.

    (#6685) Def26: Örülök, hogy nem vagyok egyedül a véleményemmel. :)

    (#6828) Abu85: Neeeeeeee! Ezzel megölték Ruby-t... Csak a haja színe hasonlít. :( Nem zavar, hogy élő/valós reklámarcot akarnak, de nem kellett volna a Ruby nevet adni neki. Ha ennyire nyomják a Cinema 2.0-t akkor nyugodtan lehetett volna Cinemaca, aztán Ruby-t hagyják nyugton. :O

  • leviske

    veterán

    válasz keIdor #6666 üzenetére

    A HD3800-asoknál az AMD a sima 800-asokkal egy piaci rést tömött be. A HD4800-asokkal tartotta magát a megkezdett elvéhez, pedig ha közelebb áraztak volna az nVIDIA-hoz, akkor is jónak számított volna az RV770.

    Most akkor a HD5000-esekkel felrúgják az egészet és vagy a 5600-asok és 5800-asok közt lesz egy hatalmas rés, vagy ami mégrosszabb, a 5400(?)-asok és 5600-asok közt fog egy kráter tátongani? A monolitikus GPU fejlesztéssel pont amiatt hagyott fel az AMD, mert kicsi a felvásárlóközönsége a high-end cuccoknak. Innentől mennyi értelme volna, hogy a HD5850 is 90k körül kezdjen? A fő széria így fel lenne kínálva egy kemény, ~1%-os piacnak.

    A HD5600-asokra meg kétlem, hogy a HD4800 tulajok annyira nagy ütemben fognak vándorolni. A HD4600 tulajoknak meg a HD5600-asok kezdőára drága lesz.

  • leviske

    veterán

    Én még mindig csak ámulok és bámulok a jelenlegi árpletykákon. :F Régebben még külön prezentációkon is szemléltette az AMD,hogy mostantól a perfomance kártyái $300 és $200-on fognak érkezni. Meglepne, ha végül feltornásznák az árakat $300 fölé és nem lenne meg még a 20%-os árkülönbség sem a 850-esés 870-es közt.

    Az meg külön fura, hogy pont ilyen gazdasági helyzetben dobják meg a kártyák árait, hogy kevesebben vegyék. A DX11 hosszútávon egy ütőfegyver lehet az Intel ellen, hülye dolog nem kijátszani és inkább a pillanatnyi profit miatt lassítani a kártyák terjesztését...

    MOD: Bár tény, hogy egy utolsó éves és egy első éves partnerrel szemben lehet, hogy én is elereszteném az árakat, de nem érdemes elfelejteni, hogy miért vezették be a multiGPU-s felső kategóriát...

  • leviske

    veterán

    válasz alien_ #6270 üzenetére

    Bár lehet, hogy most ugyanúgy járok, mint anno a "nem lesz ebben 800SP" kijelentésemmel RV770 esetén, de szerintem ez túlságosan elüt a HD5870 elvileges hűtésétől. Ha ez lesz, akkor biztos egyszerűsödik valamennyit, mert így jobban néz ki, mint a 70-es hűtése és első saccra jobban is hűt.

    Attól függetlenül az eddigi 50-es kártyák hűtéséből kiindulva van rá sansz, hogy ez lesz, csak mint írtam, szvsz leegyszerűsítettebb változatban.

    MÁS: Már biztosnak mondható a $300 és $350-osár?

  • leviske

    veterán

    válasz westlake #6441 üzenetére

    Demózni, ha jól emlékszem az AMD már a CeBIT-en demózgatott, így elég nehezen hihető, hogy az új GeForce-ok ilyen hamar megérkeznének.

    Gyilkolásról meg szvsz nem valószínű, hogy szó lesz.Már persze, ha a későbbiekben életben akarnak maradni több fronton a Larrabee ellen. Az Intel nem annyira kedves játszópajti, mint az AMD/ATi, innentől érdemes inkább rájuk figyelni...

  • leviske

    veterán

    válasz gyiku #5989 üzenetére

    Vagy, ami miatt tényleg nem hinne senki a szemének, bejelentik az nVIDIA csúcskártyáját. :P Esetleg a Larrabee-t. :DDD

  • leviske

    veterán

    válasz Bluegene #5619 üzenetére

    Miután a DX10-en alapú játékokat elvileg könnyű DX11-essé skálázni, ezért inkább mondjuk azt, hogy a DX10/.1 dömping szépen kimarad és a DX9/10 játékok után jönnek a DX11-esek.

    A DX11 esetén szvsz felesleges 2-3 éves elterjedést prognosztizálni, miután a DX10-es kártyákon is butítva, de elszaladgál... És jó eséllyel elterjedtek már a DX10-es kártyák annyira, hogy ebből a szempontból ne hátráltasság a fejlődést.

    A DX10 elterjedését pont az lassította, hogy a DX9-el nem volt kompatibilis. Ilyen helyzet most nem áll fenn.

    (#5614) Abu85: Tehát akkor azt nagyon benéztem, hogy perfomance (és fölött) kategóriában megmaradnak a diszkrét GPU-k?

    Bár régebben már beszéltél erről... A szoftver render előtt gondolom ez azért nem nagyon fog bekövetkezni, nem? Mikorra várhatók felsőkategóriára méltó Larrabee szerű megoldások? 2015? Később/hamarabb?

  • leviske

    veterán

    válasz janos666 #5436 üzenetére

    Nem unod már ugyan azokat a köröket futni? Most őszintén, miért nem mész át az új GeForce topikjába, ahelyett, hogy ezt teleoffolod a sok felesleges, de legalább ismétlődő érdveddel, hogy "az ATi miért is szar"?

    Senki nem kíváncsi erre, ha Abuval akarsz vitázni, nyugodtan, de nem fárazd már a többi fórumozót... menj vele privátba.

    Nem szereted az AMD/ATi-t, sajnálod az nVIDIA-t, jobbnak gondolod a GeForce-okat, közelebb állnak a szívedhez, most a következő videokártyád GeForce lesz. Felfogtuk!
    Egyéb építőljellegű hozzászólás a témával kapcsolatban, vagy már Te is belátod, hogy elég embernek vésted bele az agyába a fentieket? :)

    Tényleg, őszintén sajnálom, hogy ennyire nem voltál megelégedve a HD4800-asaiddal, de ez talán még nem jogosít fel arra, hogy teleszemeteld a következő szériáról szóló topicot. Remélem ezt nem veszed sértésnek. Szeretem, mikor Abuval vitázik valaki, mert gyakran sok plusz információt szerez belőle az ember, de mikor periódikusan váltogatják egymást ugyan azok a témák, az már kicsit unalmas és az információértéke sem túl jelentős...

    (#5433) Bluegene: Nem feltétlen. A HD4800-asok a legtöbb ember számára nem voltak számottevően gyorsabbak, mint az nVIDIA megoldásai. A HD4870 esetek többségében a GTX260 köré illeszthető, a HD4890 a GTX275 köré, a HD4850 a 9800GTX+ köré a HD4830 pedig a 8800GT köré. (Elnézést az össze-vissza sorrendért.) Erre én sem jelenteném ki, hogy "Hűűű, de aláz az ATi", elvégre jobban utánajárni a pénzügyi és technikai dolgoknak az átlag vásárlók nem fognak. Így szvsz nagyon szép eredmény a 4%-os térnyerés.

  • leviske

    veterán

    válasz Med1on #5364 üzenetére

    Nem hiszem, hogy az AMD, hivatalos prezentáción egy ilyen gyány céglogót használna... Ezt a logót kéne alapul venni. Egy eredetin szerintem hasonlót lehetne látni...

    (#5373) Abu85: Ez mit takar? Miben van több erőforrásigénye a DX10-nek, mint a DX11-nek? Kevesebb ROP-ra, vagy SP-ra van szüksége? A tesszellátor ennyire előtérbe kerülne DX11 esetén? :F

  • leviske

    veterán

    Szerintem reális, hogy a HD5870 299$-on kezdjen.

    A HD4870 ~299$-on kezdett, ha jól emlékszem a HD3870 úgyszintén 299$-on kezdett. Logikus volna, ha a HD5870 is ennyibe kerülne...

    És nem tudom miért rohannának a befektetők, ha erősebb kártyákat olcsóbban adnák... Így jóval nagyobb bevételre lehet számítani, miután jóval több kártya fogyna. Magasabb ár mellett a legtöbben megvárnák az nVIDIA lépéseit. Az AMD szerintem tanult az Athlon X2 vs. Core 2 csatából. Sokkal fontosabb, hogy részesedést szerezzenek és komoly piacot szippantsanak el az nVIDIA-tól, minthogy kihasználják a pillanatnyi monopóliumot.

    Ha sikerül 70+%-os részesedést szerezniük, akkor a következő szériával már jöhet a csúnyább árazás. De, ha van eszük, ezek után is inkább igyekeznek majd az Intelt a padlón tartani.

    Még a jelenlegi kezdőárakat tekintve is valószínűleg bőven lesz nyereségük. Az eddig folytatott piacpolitikájukat folytatva (a HD3800 és HD4800-asokból kiindulva) könnyebben tudják majd mozgásban tartani a saját piacukat, mivel a dupla teljesítmény, amit eddig tudtak a kategóriákon belül nyújtani, mindenkinek elkezdi bizseregtetni a pénztárcáját.

    Arról nem is beszélve, hogy mennyire könnyen ki tud alakítani márkahűséget egyes embereknél, ha egy gyártó hosszú távon tudja játszani a jófiút....

  • leviske

    veterán

    válasz TESCO-Zsömle #5226 üzenetére

    A HD4770 végleges hűtéséből kiindulva előbb indulnak el az Arctic Cooling
    irányába.

    (#5216) Med1on: Nincs sűrűn váltva. A "HD" a DX10-el, a "csak számokkal jelölünk" a DX10.1-el lett bevezetve. És a DX11-et elég sokáig fogják nyúzni a fejlesztők, hacsak nem jön elő valaki jobbal.

    (#5217) TESCO-Zsömle: A DX10-es játékok nagy részét már -tudtommal- pofon egyszerű felfokozni DX11-essé. A Dirt2 nem véletlen tud már ebben az évben megjelenni, DX11-esként, tesszellátort használva. És tudtommal a Battleforge-hoz is készül egy DX11-essé fokozó patch, ami -ha jól rémlik- tesszellátort is pakol a játékba.

    Innentől lesznek a DX9-es játékok és a DX11-es játékok. Na meg a Blizzard a DX10.1-el, miután várhatóan ők nem fognak plusz éveket belefeccölni, míg a saját tempójukkal kiegészítik a Starcraft-ot és a Diablo-t a DX11-es ficsörökkel. A többi játékfejlesztőnek minden bizonnyal meg fogja érni a DX11 a plusz felhajtást.

    A több GPU-ra optimalizálást pedig DX9-es játékok esetében is meg lehet oldani, ha a fejlesztők nem akarnak befürödni. Az AMD-n már nem múlik, hiszen jó ideje már csak a CrossFireX rendszerek teljesítményén javít a Catalyst.

  • leviske

    veterán

    válasz TESCO-Zsömle #5214 üzenetére

    Szerintem viszont ez az elnevezési rendszer addig életképes, míg csak X2 létezik.

    A több GPU-val szerelt videokártyák egyik fő ütőereje az, hogy nem kell sok GPU-t tervezni. Ha egy idő múlva az AMD eljut arra a szintre, hogy elég lesz 1 GPU-t tervezni, akkor az egész termékpaletta ugyan azt a nevet kapja majd és csak X? választja majd el? (PL: HD8850, HD8850X2, HD8850X4, HD8850X8, HD8850X16)

    Ha a végül kiderül, hogy az Evergreen két GPU-ra épül, akkor lesz egy HD5800-as család X2-esekkel és X4-esekkel, teljesen eltérő teljesítmény mellett és mellékesen lesz még egy HD5300 család, ami a kisebb GPU-ra épül?

    Ha végül 3 GPU-ra épül az Evergreen,akkor nem szóltam, hisz marad az eddigi felállás, de ha jól tudom, a tesszelláció alatt ebben az esetben az "RV840" és "RV870" közt nem feltétlen lehet majd komoly különbséget észlelni, míg az X2-es kártyák hozni fogják a dupla teljesítményt, így a termékpaletta nem igazán lesz kiegyensúlyozott... (Hasonló gondok lesznek, mint most a HD4700-asok megjelenése után.)

  • leviske

    veterán

    válasz Med1on #5197 üzenetére

    Ezzel csak az a gond, hogy csak akkor kivitelezhető, ha az "RV870" (sajnos a valódi kódnevét nem tudom. Ez volna a Redwood?) nem lesz kétmagos, vagy natív kétmagos lesz. Másként elég nagy kavarc lehet a nevekkel, miután a régit követve lehetne HD5870, HD5870X2, HD5870X3(?), HD5870X4. Ez gondolom mondanom sem kell, hogy a vásárlóknak nem tetszene. Erre a helyzetre a K10,5-ös CPU-k számozása sokkal megfelelőbb kiindulópont volna.

    Nem hiszem, hogy véletlen volna, hogy egy jól bevált GPU nevezéktant a kukába dobtak.

    (#5198) sniper elite: Nem kell törvényszerűségeket levonni a HD4-es széria történelméből. A HD3800-asoknál sem jött az RV690. Nem biztos, hogy szükség lesz egy újabb ráncfelvarrásra. Inkább az új GeForce-tól függ, hogy mennyire lesz szükség plusz kártyára.

  • leviske

    veterán

    válasz Bluegene #5195 üzenetére

    Attól függ, hogy nézed. Ha RV870 = 2x RV840, akkor csak egy darab egyszerűbb chipet kell megtervezni és legyártani. Teljesítményben sem veszítenének sokat, ha egyáltalán veszítenének. És így legalább megvolna a komolyabb teljesítménykülönbség és nem lenne akkora kavarodás, mint a HD4700 és 4800-asok közt.

    Amúgy a nevezéktanról már szivárgott ki valami? Mert ha jól rémlik, valaki írta, hogy a CPU-k számozását veszik át.

  • leviske

    veterán

    válasz TESCO-Zsömle #5154 üzenetére

    Ebben a "Se7en optimalizáltabb, mint a Vista" dologban nem igazán hiszek. Kipróbáltam és semmivel nem nyújt számomra többet. Nagyon minimális csiszolásokat érzékeltem, amik önmagukban nem érnek meg nekem egy új op.rendszervásárlást. (Főként, hogy erősen szimpatizálok az Ubuntuval és reménykedem a csodákban.)

    Bár eddig nem nagyon néztem teszteket, ha végül lesz tesztek által kimutatottan érzékelhető javulás, akkor lehet, hogy megadom az esélyt.

    (#5166) gyiku: Azt tudom, hogy a DX11-et megkapja a Vista is. Csak nem tudtam, hogy a Win7 tartalmaz-e vele kapcsolatban egyéb extrákat, amit a Vista-ból a MS "véletlen" ki fog felejteni.

    Bár gondolom nem, hiszen az elkövetkezendő 1-2év játékai, amik DX10-ből lesznek DX11-essé feltupírozva, azok feltételezem még Vistán készülnek, a Se7enen készülő játékokra feltételezem még kell várni pár évet. Így túl sok, a Se7en javára szóló extra nem valószínű, hogy lehet. Mire meg ideérnek a Se7en-en készült játékok (ha egyáltalán a fejlesztők látják majd értelmét a váltásnak), addigra úgyis muszáj lesz az akkori új Windows-ra váltani, ha az ember trendi akar maradni és nem mellékesen még frissítéseket is akar. :))

    (#5155) Abu85: A MacOSX-re hogy portolgat a EA és a Blizzard? Az Apple-nek kiadta a MS a DX licencét, vagy a WoW/Sims/Spore nem éppen az a kategória, amit DX nélkül ne lehetne megoldani?

    (#5156) janos666: Új DX tudtommal nem lesz,de az OGL-re én akkor sem számítok. Régebben, másik topicban Abu kivesézte a dolgot. Az OGL nem kimondottan a desktop számára készül, nem véletlen hódolt be ennyire könnyen Carmack a DX-nek.

    Én inkább az Intelben és a Sony-ban bíznék ezen a téren, hiszen az Intelnek -úgy tűnik- szívügye a Linux és a videokártyapiacra lépésük után meg lesz az alkalmuk ebbe a szférába kicsit belekavargatni. Főként, hogy a Larrabee elég nagy mozgásteret nyújt majd nekik és a DX eleve nem nagyon lesz az ő pályájuk tudtommal. A Sony-ban pedig azért bíznék, mivel számára elég komoly érdek, hogy a játékfejlesztőket a Microsoft ne tudja elszippantani a Xbox & Windows párossal. A Valve így is már "lusta" PS3-ra fejleszteni...

    Tehát mindkét cégnek megvolna a megfelelő oka egy saját API létrehozására és a megfelelő technikai/anyagi háttér is megvolna rá.

  • leviske

    veterán

    Abu85: Egy őszinte/komoly választ kérnék. Látsz esélyt arra, hogy a közeljövőben a játékfejlesztők figyelembe vegyék a Linux-ot és egy DX11-es rendszert ki lehessen használni mondjuk Ubuntu alatt is, vagy a DX olyan erős ütőkártya a Microsoft kezében, hogy érdemes behódolni egy Windows 7-nek?

    És a DX11-es játékok szempontjából hoz újdonságot a 7-es, vagy nyugodt szívvel lehet maradni a Vista-nál?

    Bluegene: Mi ez a nagy avatár váltás? Alig ismertelek fel. :)

  • leviske

    veterán

    válasz TESCO-Zsömle #4827 üzenetére

    Szerintem az előtt semmiképp, hogy megjelenne a 890FX... (ha ez lesz a neve) Nem hiszem, hogy hagynák elmenni a hullámot, amire felültethetik az új csúcs chipsetet. A CrossFireX bejelentésével is megvárták a 790FX-et.

    Ha nagyon a Hydra-ra alapoztak, akkor úgyis csak a 890FX-el szerelt lapok tudják majd először beizzítani mind a 8 GPU-t.

    (#4877) janos666: Az MS lebutította volna a DX10.0-t? Én eddig úgy tudtam, hogy a DX10 csak túl nagy mozgásteret hagyott és az nV ezt használta ki... tehát a G80 is már egy DX10-et támogató GPU, de attól még arra az útra nem elég, amire a MS rálépett a DX10-el.

    A MS egyébként nem utálja az NV-t. Félre érted.Senki nem hiszi ezt... De a céljai elérését desktop fronton az AMD jobban tudja segíteni. Attől még van ahol az nVIDIA-val is közreműködnek,pl a ZoneHD ha jól emlékszem Tegra-ra épül...

    Amúgy tudtommal a PS3 igen is különbözik fejlesztésében a XBOX-tól. Ezen is ugrál a Valve (ha jól emlékszem), hogy nekiik nem éri meg a plusz munka. XBOX-ról Windows-ra viszont elvileg pofon egyszerű a portolás.

    A Linux-ot pedig nem vagyok benne biztos, hogy a játékok keltenék fel. Bár egy komolyabb tábor tudna kialakulni, de a Linux legnagyobb visszatartó ereje maga a Linux. Sokan nehezen tudnak áttérni Windows-ról... Mondom ezt hobbi Linux próbálgatóként. :)

  • leviske

    veterán

    válasz csatahajós #4496 üzenetére

    Processzorokéhoz hasonló nevezéktan? Érdekes ötlet, de processzorok terén én nem nagyon látok kialakult rendszert.

    A K10,5-el bevezetett rendszer sem tartható túlságosan hosszan, lévén, hogy a generációkat elfelejtik közölni, ellenben jóval hosszabbak a nevek és kevésbé csattanósak.

  • leviske

    veterán

    válasz gbors #4381 üzenetére

    Az RV770 esetén is lehetetlen volt, hogy 800SP-al érkezzen. Arról nem is beszélve, hogy az RV790 jól demonstrálja, hogy az AMD merre is tud még haladni.

    De ezeket gondolom már írták előttem. :)

  • leviske

    veterán

    válasz janos666 #4375 üzenetére

    Az nVIDIA lazsált? Most mutatták be az első DX10.1-es szériájukat. Nem lazsálnak ők, csak más utakon járnak. A GT200 nagy ugrásnak számított, mindenből dupláztak, az NV fanok el is élveztek tőle. Utána szépen lassan kiderült, hogy alig-alig ér többet játékok alatt, mint a fele akkora RV770. Hogy miért? Mert nem is a desktop volt a fő célpont vele, ahogy várhatóan az új GPU-val sem.

    A nagy nevekkel meg nem tudom mit akarsz. Milyen nagy neveket akarsz? Mondjuk Battlefield 3? Esetleg Colin Mcrae Dirt2? Mind a két játék várhatóan toplistás eladásokat fog produkálni és sokan fognak miattuk a boltba rohanni DX11-es kártyáért. Megjegyzem, ugyan ez a szöveg ment a HD3870X2 és 8800GTS512 tulajok részéről a HD4800-asok megjelenése előtt és az jogosabb is lehetett volna, hisz a HD4800-asok teljesítményen kívül semmi pluszt nem hoztak. JA??? Hogy van esély rá, hogy a HD5800-asok is csuklóból hozzák a HD4870X2 teljesítményét, HD4890 áron??? :Y Lehet, hogy már csak emiatt is várható, hogy jó páran rohannak majd értük a boltokba...

    Azt pedig látom nehéz felfogni, hogy a hozzászólásom lényege pont az volt, hogy esélytelennek látom, hogy túláraznának... Várhatóan hasonlóan fognak árazgatni, mint a HD4800-asok esetén. Hogy miből gondolom ezt? Olvasd el az említett hozzászólásom úgy, hogy agyilag fel is fogod.

    Erősen kétlem, hogy az AMD előre dörzsölné a tenyerét. Amekkora GPU méret különbségek várhatók az AMD és az NVIDIA fő GPU-i közt, nem lehet túl sok jót jósolni az NVIDIA üdvöskéjének, miután az AMD saját pályáján nehéz volna több, mint háromszoros teljesítményt ráverni az AMD-re. Főként azután, hogy jelenleg annak is örülhetnek, ha pariban tudnak vele maradni. (Ahogy a GT200 vs RV790 "csatában")

    Amúgy nyugodtan nevess és ess le a székről, csak nehogy utána még pofára is ess az NVIDIA üdvöskéjének premierje után. :)

  • leviske

    veterán

    válasz schwartz #4367 üzenetére

    Majd meglátjuk mi lesz... egyelőre túl sok mindent nem látok az AMD útjában a 60% felé. Te látsz? :)

  • leviske

    veterán

    válasz csatahajós #4364 üzenetére

    Jelenleg még mindig a piachódítás a cél. Át kell venniük az NV régi helyét (60+%), hogy stabil lábakon vegyék majd fel a versenyt az Intel ellen.

    Szerintem olyan árazásra érdemes várni,ami a HD4000-esekre is jellemző volt. Nem voltak elszállva, de nem nagyon csökkent az áruk.

    Az X2 érkezését pedig, ha jobban belegondolunk, nem volna értelme sokáig tolni, ha nem muszáj, hisz azzal egy elég nagy piacot engednek át az nVIDIA-nak. (Attól függetlenül lehetséges, hogy kivárnak... nem tudom.)

    MOD: Amúgy arról végülis volt már infó, hogy lesz-e X4? :)

  • leviske

    veterán

    válasz janos666 #4277 üzenetére

    Igen, megszokhattuk már az ilyen aljas húzásokat az ATI/AMD-től. :))

  • leviske

    veterán

    válasz BemAnyó #3750 üzenetére

    A Windows 7 jobb esetben Októberben debütálhat... Most májusban csak az RC jelent meg.

  • leviske

    veterán

    válasz Abu85 #3698 üzenetére

    1200SP? Akkor tényleg nem lesz duplázás? Mert gondolom 1200SP-al nem nagyon lesz meg a HD4870X2, pedig eddig sikerült az előző generáció csúcskártyájához belőni a felső-középkategóriát.

    Vagy lehetséges, hogy az X2-es kártya fogja most képviselni a középkategóriát?

    Érdekes lesz, ha megint az első pletykák lesznek az igazak. Az RV770-nél anno először 800SP-t jósoltak, a HD5800-asoknál X2/X4-ről beszéltek és 2400/4800SP-ról...

    De ez a 1200SP milyen esetben valósulhat meg? Milyen egyéb specifikációk szükségesek hozzá? És így hogy lehetséges a 512bit-es memóriavezérlő? Mert ez gondolom egy X2-es kártya esetében sem lenne egy olcsó mulatság, de egy X4-es kártya esetében már biztos elég drága volna... Nem?

    És amúgy arra van esély, hogy a 800-asoknál már lesz egybetokozás? Mint mondjuk a C2Q-ok esetében...

  • leviske

    veterán

    válasz rocket #3465 üzenetére

    Reálisan gondolkodva egyetértek.
    Egy nyári RV870 debütálással letarolhatnának egy egész piacot, úgy, ahogy a G80-al tette az nVIDIA. A GT300-at földbe lehetne döngölni az X2-es kártyával is.

    Nem tudom, hogy mennyi esély van rá, hogy ettől az nV-s partnerek a padlóra kerülnének és azt sem tudom, hogy megérné-e kockáztatni a fix profitot és azt a méretes tábort, akit veszíthetnek egy esetleges kivárással.

    És nem szabad megfelejtkezni a Larrabee-ről sem, aki, ha feltudja tényleg mutatni egy RV770 teljesítményét (nekem ez rémlik) játékok alatt, akkor még a nagy magméret ellenére is kapós lehet, ha nem lesz ellenfele. Vagy a Larrabee még később jön, mint a GT300?

  • leviske

    veterán

    válasz Gyuri27 #3457 üzenetére

    Nem azt mondtam, hogy gusztustalankodna, azt írtam, hogy hasonló eset állhatna fenn, mint az Intel Core 2-esei esetében. Már most is látszik, hogy annyira végzetesen nem érdekük csökkenteni az árakat, de attól még a HD4800-asok sem voltak túlárazva. Gondolom a továbbiakban is 300$ körül lenne a x870-es kártya és 200-250$ körül a x850-es kártya, de tény, hogy ezek az árak komolyabb ellenfél nélkül nem feleződnének túl hamar. A HD48-asok esetében is kellett fél év mire közel feleződött az áruk, az említett fél év alatt pedig semmi árváltozás nem volt szinte, csak eleinte. Ha jól emlékszem...

    (#3458) Gonosz15: Akciósan kaptam nagyobbat, gondoltam: "akkor miért ne?". :P

  • leviske

    veterán

    válasz tzsolesz #3451 üzenetére

    Azért az RV870 ellen ott lesz még a GT300 és a Larrabee, az RV870 utódjának meg ott lesz a fejlettebb Larrabee. Nem kell itt annyira félni. Hasonló helyzet fog felállni, mint a CPU vonalon, csak itt az AMD lesz nyeregben.

    Az tény, hogy van esély arra, hogy az árak befagyjanak,de eleinte az AMD-nek úgyis az lesz az érdeke, hogy terjeszkedjen. Egy esetleges 70-80%-os VGA piaci AMD részesedéssel nem nagyon tudna hova ugrándozni az Intel, hogy a fejlesztők az Ő megoldását nyomják.

    (#3452) Bluegene: Részben igazad van, de mondjuk álomvilágban sem érdemes élni. Jelenleg sem csökkenti nagy ütemben a HD4800-asok árát az AMD. Jó eséllyel a kártyák ára ott fagyna be, ahol van, egy esetleges monopóliumra törés esetén. Bár persze -mint írtam- ott van még az az eshetőség is, hogy a Larrabee nem feltétlenül lesz annyira kiszolgáltatott, az AMD-nek pedig érdeke lesz a piacszerzés.

    Tehát kb azt a helyzetet tudnám elképzelni, mint az Intel Core 2-esek esetén.

  • leviske

    veterán

    válasz tzsolesz #3401 üzenetére

    Sokan váltottak anno a 8800-as kártyáikról és a HD3800(X2)-as kártyáikról a friss HD4800-asokra. Ha tartják a saját maguk által megszabott lépést, akkor a HD58-asoknak valahol a HD4870X2 környékén kéne kezdenie. Azért a teljesítményért pedig már többen kimernek majd adni plusz pénzt, még abban az esetben is, ha van egy friss HD4890-esük. Arról nem is beszélve, hogy valószínűleg sokakat már a DX11 teljes körű támogatása is vonzani fog.

    Az viszont tény, hogy a HD4890 amiatt kellet, mert az "ATi a jobb" skandálás kezdett alábbhagyni, a HD4770 pedig népkártyának kellett, mert gondolom a HD4830 nem volt annyira költséghatékony megoldás és persze ez egy jó alkalom, hogy elkezdjék tesztelni a 40nm-es gyártástechnológiát.

  • leviske

    veterán

    válasz rocket #3286 üzenetére

    "RV740 16ROP 128bit, RV770 16ROP 256bit"
    Akkor elnézést, rosszul emlékeztem. Akkor csak a mag méretet nveli jelentősen a plusz ROP? A használható nyákot pedig mi szabja meg? :F Vagy keverem és a nyák csak a sávszélesség miatt fontos. (Bár ebből a szempontból sem árt az 512bit, miután a HD4870 a GTA4 alatt a memória órajel emelésére is reagál elvileg.)

    Akkor is kétlem, hogy magasabb órajelekkel érkezne. A HD4870X2 is később érkezett, mégsem variáltak az órajelekkel.

    (#3288) Keldor papa: Nem írtam egy szóval sem, hogy nyáron jön. Főként miután elvileg az AMD igyekszik a Windows7 indulásához kötni az RV870 debütálását. A Se7enre pedig még lehet várni Októberig az Acer szerint.

  • leviske

    veterán

    válasz sniper elite #3277 üzenetére

    "mi a halálnak?"
    Te jó ég! Ezt tőled olvasni? :Y :DDD Beszedtél valami influenzát? :DDD

  • leviske

    veterán

    válasz jucye #3267 üzenetére

    Ez gondolom innen jött és nagy valószínűségel hülyeség. (Abu okkifejtése)

    Amennyiben tényleg onnan szedték, akkor itt 256bit-es nyákról is szó van (nem számoltam utána az adatokból), amit viszont, ha jól tudom kapásból üt a 32ROP. Mert úgy rémlik, hogy a 32ROP-hoz már 512bit-es nyák kéne.

    Az meg külön vicc, hogy a HD5870 szerintük alacsonyabb órajeleken érkezik, mint a HD5870X2... Eddig egyedül a HD3870 esetén járt az X2 magasabb órajeleken, az is csak azért, hogy meglegyen az elméleti 1TFLOPS. A 5870X2 esetében viszont nem nagyon lesznek szerintem határon.

    És meg kell valljam a SP-ok számát illetően Bundival értek egyet. Nem kimondottan hiszek ebben a 1200SP-s GPU-ban, miután elvileg a DX11-es játékok egyre inkább SP igényesek lesznek. (Vagy rosszul tudom?) Számomra is hihetőbb egy 1600-2000SP-os megoldás.

    Kétlem, hogy az órajelekkel akarnának játszani, miután -ha jól gondolom- alacsonyabb órajelek mellet magasabb kihozatali arányt tudnak elérni. Így a 950MHz-en ketyegő X2-t ebből az okból is kilőném. :)

    (#3275) sniper elite: Ha jól tudom, akkor egy 890FX-es lappal akár 4-et is beizzíthatsz majd. :)

  • leviske

    veterán

    válasz barnam_ #3206 üzenetére

    Ne vedd biztosra... A Diamond pl valószínűleg a "szebb" hűtéssel jön és az XFX sem hiszem, hogy képes volna rusnya hűtővel kiadni (bár lehet, hogy ők a fekete, tégla hűtést rakják rá. :DDD )

    Az említett Gainward is hajlamos kiadni a HD3870hűtéssel. Bér tekintve a HD3800-asok és HD4600-asok hűtését, valószínűbb, hogy ez is valami GS hűtéssel jön, vagy olyannal, mint a HD3800-asai.

  • leviske

    veterán

    válasz ashot #3168 üzenetére

    Magasabb órajelen? :F A 965-öt ugyan úgy "legyűri" a tesztben a Phenom 920-as, pedig a Phenom 920 2,8GHz-en ketyeg, míg a i7 965 3,2GHz-en. :F

    Vagy hogy érted?

  • leviske

    veterán

    válasz gyiku #3156 üzenetére

    cizoe kolléga már dolgozik az ügyön tudtommal. :) Már persze, ha az RV740-ről van szó. :DDD

  • leviske

    veterán

    válasz Bici #3120 üzenetére

    Igen, én is Abu cikkére utaltam... :)

    gbors: Esetleg várható egy Stromrise: HD2900XT vs 8800GTX/Ultra teszt? Vagy legalább( :DDD ) egy HD3870 vs. 8800GT teszt? Esetleg egy képzelt HD3890 (cc: 875MHz; vc: 2500MHz) vs. 8800GTS 512MB tesz? :))

  • leviske

    veterán

    válasz leviske #3116 üzenetére

    Visszavonom. :DDD Most esett le, hogy a GPU-Z-ben a többi adatot is érdemes megnézni. :DDD Így már érthető, hogy a Mobility HD4870X2 miért nem gyorsabb számottevően, mint a Mobility HD3870X2. :DDD

    (#3117) gbors: Jó teszt! Érdekes, hogy sokan mennyire leszólják a HD3800-asok teljesítményét a HD4800-asokéhoz képest, közben árához képest nagyon jól állja a sara a kis HD38-as a tesztben.

    Én mondjuk pont a HD3870X2 és HD4870 viszonya miatt realizálom, hogy a HD5800-asoknak olyan 2,4-2,6TFLOP környékén kéne lenniük. Így van esély arra, hogy tartsák a trendet. Kíváncsi vagyok, hogy sikerül e. Gondolom nem tarthatatlan... Vagy igen?

  • leviske

    veterán

    válasz Komplikato #3112 üzenetére

    Nekem ez egy kicsit gyengének tűnik. Nem hiszem, hogy ez egy RV740-re, vagy RV770-re épülő X2 volna. Én inkább arra tippelnék, hogy egy 256bit-es nyákra fabrikált RV730 párról van szó, vagy egy átnevezett Mobility HD3870X2-ről. Vagyis erre tudok csak következtetni a tesztekből.

    Egy 3,2GHz-es C2D nem foghatja meg ennyire, hogy sok helyen 8800GT szintet hozzon. És január/február környékén úgy is lehetett hallani olyasmikről, hogy a HD3600-asok át lesznek nevezve mobil fronton HD4700-asokká. Ebből könnyen levonható az a következtetés, hogy a HD3800-asokat (ha igaz volt a pletyka) árulhatják Mobility HD4800-asokként is.

    Végülis jó eséllyel a notebook gazdája úgysem fog észrevenni különbséget, hiszen notebookon nagyon kevesen szoktak Crysis-t Very High beállítások mellett játszani. :)

  • leviske

    veterán

    válasz keIdor #3094 üzenetére

    Nekem gyanús az a 256bit-es nyák. Abu szerintem nem hülyeségből írta az 512bit-et a múltkori hírben. :)

    És 512bit esetén megint jöhetne az esetleges 50-es és 30-as változat GDDR3-al, míg az esetleges 70-es és 90-es pedig GDDR5-el.

    De majd meglátjuk végülis. :)

  • leviske

    veterán

    válasz rocket #2987 üzenetére

    Nagyon kérdés, hogy 1200SP-al képesek-e elérni a 2,4-2,6 TFLOPS teljesítményt... És az is kérdés, hogy mennyire lesznek shader igényesek a DX11-es játékok. Gondolom eléggé azok lesznek...

    És ugyebár eleve azt az utat kezdték el, hogy közel triplázzák a SP-ok számát és ugyebár a HD3-asokkal pedig azt kezdték el (és a HD4-esekkel folytatták is), hogy az új középkítegóriás kártyák az előző felsőkategóriát váltják teljesítményben.

    HD2900XT>HD3870^HD3870X2>HD4870^HD4870X2

    És ha tudják folytatni, akkor még elég hosszú ideig az nV gondban lesz, az Intellel együtt.

    Bár gondolom az érdekes inkább az lesz, hogy az RV740 mekkora lapkamérettel érkezik. Abból már lehet majd valamennyire következtetni arra, hogy egy 200-240mm2-es chipbe mi fér bele. Bár az is igaz, hogy az RV770-el sem értünk sokat a találgatásokkal, mert végül megoldották, hogy 800SP legyen benne... :))

    (#2991): "Szerintem ez is az oka, hogy nem lesz HD4890X2, felesleges lenne a lecet meg magasabbra tenni, mert kozel van mar az ugras :) "

    Akkor végülis szerinted is reális a Júliusi/Augusztusi start? :)

    (#2969) gyiku: Az AMD-s prezi képeken a HD3870 hűtése figyel... Nem hiszem, hogy elcsesznék egy ilyen rondasággal a kártyát. A HD4750-re pedig szerintem a másik, letisztultabb hűtő kerül, amiről már jelentettek meg képeket.

    Szerintem ez csak egy egyszerű AC hűtő... Elég sokan kaptak most rá. (ASUS, HIS, Inno3D, Force3D, Club3D, etc)

  • leviske

    veterán

    válasz Abu85 #2949 üzenetére

    És a Compute Shader fejlesztése is folyhat tovább "DirectX" megnevezés alatt? Csak mert iPon-on le lettem oltva, hogy "mit okoskodok, a DirectX-et még lehet fejleszteni bőven és nagyon valószínű, hogy még 12 is lesz..."

    (#2963) Mercutio_ : Lesz HD4750 is... :DDD

  • leviske

    veterán

    válasz keIdor #2919 üzenetére

    Csak azért futott át az agyamon, hogy talán lehetséges, mert -mint zuchy is írta- állítólag a GT300 Októberben jön. És miután azért valószínűleg lépéselőnyben van az AMD, hülyék lennének nem kihasználni a helyzetet.

    A Windows 7 sem lehetetlen Augusztus környékén, a Vista SP2 már biztos megjelenik addig (gondolom abba már beletuszkolják a DX11-et)... És ha egy negyedévvel hamarabb dobják piacra az RV870-et, akkor letarolnak egy elég nagy piacot a GT300 elől. És ha még képesek az R800-at is beütemezni elé... :U

    De mind1, majd meglátjuk. :))

  • leviske

    veterán

    válasz keIdor #2915 üzenetére

    Én is ezt tartom reálisabbnak.

    (#2916) zuchy: Igen, jó eséllyel talán a HD4670-et váltaná, csak kérdés, hogy az RV730-nál mennyivel kisebb és mennyivel olcsóbb az RV740... Mert sejtésem szerint az RV730-at még mindig gazdaságosabb gyártani, Hülyeség volna egy nagyobb fogyasztású, drágább kártyával váltani. Bár aztán ki tudja... Attól függetlenül én inkább a HD4730-at (ha lesz) tudnám realizálni a HD4670 helyett. :)

    MOD: Azt a pletykát hallotta már valaki, hogy elvileg Július közepén/végén, vagy Augusztus elején érkezhet az RV870? :Y Ennek van valóságalapja? :Y

Aktív témák

Hirdetés