Keresés

Új hozzászólás Aktív témák

  • agressiv

    addikt

    válasz dezz #160 üzenetére

    b+ nem azt mondtam, hogy öreg cuccot adok el, hanem azt, hogy jól megválogatom, kinek mi kell. :W

    Kiváncsi lennék, hogy miért is lettél te szakértő... :(

  • Löncsi

    őstag

    válasz dezz #160 üzenetére

    bezzeg nekiállsz majd magyarázni, hogy hát kérem ez a fejlődés

    Ez tény... vettek volna inkább GTX480 SLI-t. :DDD Ezután már nincs is szükség hajszárítóra/törülközőre, az ember csak beáll a gép mögé száradni. :DDD

  • agressiv

    addikt

    válasz dezz #154 üzenetére

    Az igaz, hogy megtorpant a processzorok teljesítménye, de az azért érdekes kérdés, hogy kell e egyáltalán több? Sokat gondolkodok rajta mostanában, hogy óriási pénzeket ölnek egy processzor, gpu, stb. feljesztésébe, de az a baj, hogy valós hasznot nem nagyon hoz az emberiségnek miközben, lehetne sokminden másra is költeni azt a sok pénzt.

    Azzal teljesen egyetértek, hogy a mobil eszközökben jó szolgálatot tehet az APU, mivel ott kiemelten fontos a teljesítmény felvétel minimalizálása és ezekkel talán megbízhatóbbak lesznek a laptopok, mert az utóbbi időkben nagyon hullanak ezek a gépek és szinte mindíg az elégtelen hűtés miatt tönkre ment BGA okozza a gondot. Az is igaz, hogy valóban nem viszik túlzásba még a mai mobil IGP-k sem, kivéve persze az extrém kategóriát.

    Az ólommentes forrasztásról meg annyit, hogy a régi tévékben is eltörnek a forrasztások, az viszont nem mindegy, hogy 30, vagy 3 év után.

    Sajnos ez van, de van egy olyan érzésem, hogy lesz még rosszabb is. :(

  • agressiv

    addikt

    válasz dezz #152 üzenetére

    Ott vett egy kis lendületet, de a dolog ott indult, amikor a fix funkciós shaderek helyét átvették a programozható shader egységek (DirectX 8.0 compliance), 2000-ben. De ha ilyen jól (so-so) tudod, akkor miért írkálsz olyanokat, hogy ez egy új irányvonal?

    Nem új irányvonal, inkább ekkor érte el azt a szintet, hogy érdemes legyen foglalkozni vele és a programokban megjelentek az NVIDIA CUDA x.264 kódolás lehetőségek.

    Egyébként nem tudom, a vektorprocikról hallottál-e már? A vektorprocik története a '70-es években kezdődött és az első szuperszámítógépek is ilyen procikra épültek. A GPU-k shadertömbjei többé-kevésbé ezeket utánozzák. Nyilvánvaló volt, hogy előbb-utóbb általános célra is igénybe veszik majd őket. (Ahogy a technológia fejlődése egyre inkább lehetővé tette, hogy ezek egyre rugalmsabbakká váljanak.)

    Továbbra is PC-ről van szó, nem szuperszámítógépekről és vagy egyéb próbálkozásokról.

    A Llano vagy a Trinity 4 magja talán túl sok nyers CPU erő?
    Akkor tehát most már a 8800/9800 ereje sem túl acélos? Csak mert ugye egy 4-magos Llanóhoz vagy Trinityhez nagyjából ilyen teljesítmény jár.

    Ha nem lehet kihasználni a 3D játékoknál, programoknál, igen, túl sok feleslegesen. A feleslegesség csakis akkor érvényes, ha általános célra van használva a számítógép (film, játék zene). Ha valaki azért veszi, mert a munkájával ki tudja használni az rendben van, de az átlag emberek között nincs ilyen, mert aki ezt csinálja nyílván nem egy átlag felhasználó, akinek windowst kell telepíteni és driverezni, ja és még tegyük fel a szkájpot is.. :DDD

    (#148): Hogy jönnek ide a hülyén összeállított gamer konfigok?

    Úgy jönnek ide, hogy egy APU kb. ugyanaz, mint az általam példaként említett konfig. Erős proci, gyenge kártya (továbbra is játékra gyenge) és nagy felbontású monitor.

    (#151): "olómentessel forrasztanak és kb 4x annyi szemét termelődik"

    Ezt valamivel alátámasztanád?

    Ezek szerint nem vagy kompetens. Aki ilyesmivel foglalkozik (reball, reflow stb.) annak ez mind egyértelmű és a saját bőrén tapasztalja. Tudod milyen nehéz ólmos golyókat találni még kínában is?

    Tele van az apró javító emberkékkel, kérdezz rá néhánynál, hogy mi a véleménye az ROHS-ről.

    A mai üzletpolitika az, hogy egyre kevesebb a garancia és javíttatás helyett, dobd ki, vegyél újat. Ez mindenre igaz, nem csak az IT iparra. Olyan országokban ahol jobbak a körülmények ez valamennyire működik is és lassan elönt minket a szemét.

    A nagyi gépébe hol vesznek 30k-s videókártyát?

    Péládul nálunk, hogy az unokák tudjanak játszani (illegális lenne, de szívesen felvenném és kiraknám ide egy komplett gép telefonon való megrendelését a kuncsaftokkal :DDD ).
    Elmondják mennyi pénzük van, hogy mit szeretnének rajta csinálni, mi összerakjuk, a gép célnak megfelel, nagyi unoka örül.

  • agressiv

    addikt

    válasz dezz #137 üzenetére

    Lehet, hogy próbáltad, de épp az ellenkezőjét sikerült mondani: "Közben az az új irányvonal indult, hogy a VGA számol, renderel, konvertál" (Előtte ugye full-HD-ról és hasonlókról írtál, ami nem igazán a '90-es évek, szóval, a "közben" az nem éppen 2000.) Ne erőlködj, jól látszik, ki az, aki itt nem igazán van képben, felcseréli az időrendeket és úgy von le következtetéseket.

    Nem most indult, ez, hanem az unified shader kezdetétől számolom én legalábbis.

    (I)Irma nénit és az egyszeri netezőt hol zavarja, hogy a GPU hol foglal helyet?(/I)

    Az nem zavarja, hogy hol van, de amikor az unoka jön játszani akkor a legkevésbé sincs szüksége nyers erőre, csakis 3D-ben valami hatékony teljesítményre ahol sajnos az IGP-k még mindíg nem valami acélosak.

    Nem az az átlagos ember aki ide írkál, hanem az átlag felhasználó aki netezik filmet néz és játszik és semmi szüksége a nyers erőre, csakis a 3D, hogy menjen a krájszisz.

  • #65675776

    törölt tag

    válasz dezz #139 üzenetére

    Igazából kényszer is számukra. x86 licenc nélkül PC vonalon gyakorlatilag nincs esélyük rá, hogy érdemi tényező maradjanak. Így mindent csak kerülőúton tudnak megoldani.

  • #65675776

    törölt tag

    válasz dezz #133 üzenetére

    Igazából az nV akkor fog nagyot nézni ha a játékfejlesztők nekiállnak a GPU-t használni általános célokra is. Márpedig elkezdtek erre mozdulni, szóval pont akkor építi le ezen előnyét - sőt, fordítja hátrányba - amikor nem kellene. Megint az lesz a vége, hogy az AMD VGA-k időtállóbbak lesznek. Ahogy anno az általuk lenézett R580 a fejlődéssel rövid idő alatt utolérte az akkori csúcs GF-okat, majd eléjük is került nem kevéssel. (Az nV akkor a shaderek jelentőségének növekedését nem vette tudomásul.)

  • agressiv

    addikt

    válasz dezz #133 üzenetére

    agressiv: Rohadtul nem új irányvonal a GPGPU (a GPU általános számításokra való igénybevétele). Már vagy 10 évre tekint vissza a dolog... Mindig is ki szerették volna használni a GPU-k erejét más célokra is, csak korábban ez jóval komplikáltabb volt.

    Ki mondta, hogy az? :U Éppen azt próbáltam kifejteni, hogy már nem tegnap kezdték ezt kihasználni.

    Vagy nézzük más oldalról, ha ez magas volt: ha valóban kereskedő vagy (nem pedig csak egy csencselő kisgyerek), nem kerülheti el a figyelmedet, hogy nem is lehetne másként a dolog, mivel technológiai okokból megtorpant a CPU-k (jelentősebb) teljesítménynövekedése, így önmagukban nem lennének eladhatók desktop vonalon. Senki sem venne új procit 10% gyorsulásért... Hát így most lesz gyorsulás, nem is kicsi, csak a szoftver oldalon kell egy kicsit csavarni hozzá. (Kb. mint amikor annó elkezdték egyre jobban kihasználni az FPU-t, mert minden procinál adottá vált, a korábbi kevés konfigban megtalálható opcionális dolog helyett.)

    Hadd kérdezzem már meg, hogy irma néninek aki netezni akar, de még egy gémernek is hova kell a jelenlegi palettának a középkategóriájától erősebb CPU? Mindenre elég még sok is egy egyszerű 4 magos, vagy HT-s 2 magos processzor, mindenre. Akinek esetleg nem az úgyis megveszi a komolyabbat ez nyílvánvaló.

    "Az viszont, hogy az 5670 hozza a [8800] szintjét egyenesen nevetséges."

    Nos, mint kiderült, ez a mondat volt a nevetséges...

    Hát nem, lassabb. Hogy a felvett teljesítmény/számítási teljesítmény aránya rosszabb az tény, de nem is erről volt szó.

    Biztos megbízhatóbb az a no-name oldal a ki tudja milyen összesítésével, mint pl. az Anandtech részletes tesztjei...

    Én a saját tesztjeimnek hiszek. Az anand tech azt hiszem azt írta, hogy a 8800GT 125W-ot fogyaszt. Ha te kiérdemelted a szakértő "rangot" akkor talán tudod, hogy is lehet effelől megbizonyosodni, elő a műszerekkel, tessék megmérni, majd csodálkozni.

    Le merném fogadni, hogy a jelenlegi konfigom a húzott újragolyózott 9800GT-vel, alaplapostul ramostul, mindennel együtt kivéve a processzort nem nyel be 125W-ot, bár lehet, hogy még a procival sem menne sokkal feljebb (cerka G530).

    Ami a profi és a mainstream kártyák szétválasztását illeti: ez szerinted jó? Kizárólag játékra alkalmas kártyákat teríteni a desktopra (miközben az AMD OpenCL-es teljesítményben is jó kártyákat kínál)?

    A mostani, a tavalyi és a 4 évvel ezelőtti sem csak játékra alkalmas és jó ez így volt ez így. Még egy ilyen ezer éves szarral is tudom konvertálni a videót, semmi perc alatt.

    Apropó, (#127)+(#128): Hogy mindezek után még van képed ilyen stílusban írogatni daa-raa-nak, nos az egyenesen vérlázító...

    Tudod vannak emberek akiket nagyon könnyű rángatni és azt elhitetni velük amit akarnak. A különbség annyi, hogy amíg ti itt vitatkoztok és "teszteket" linkeltek én arra figyelek oda, hogy legközelebb, ha alkalmam nyílik rá el ne felejtsem kipróbálni, mert erre célóztam a kereskedővel (még tanulom a szakmát, de alakul :DDD ).

    Ami a hivatalos oldalak tesztjeit illeti, azt be kell látni, hogy minden gyártónak az a célja, hogy eladja a termékeit, és ha ehhez valami kis trükkre van szükség, hát még az is belefér.

    Csakis azért ekkora a pofám, mert a munkám miatt volt és van is lehetőségem benézni a színfalak mögé és semmivel sem szebb, mint a mindennapi politika.

    Azt elismerem, hogy lehet picit nehezen érthető a gondolatmenetem, mert te vagy megint a sokadik aki nem egészen fogja fel, hogy mire is próbálok kijukadni, persze lehet ez az én hibám.

Új hozzászólás Aktív témák

Hirdetés