Keresés

Hirdetés

Új hozzászólás Aktív témák

  • válasz gbors #82 üzenetére

    Ha nem hiszed látogass el a HD79xx Tropikba és kérdezz bárkit meg (aki tuningol) hogy megy e neki 1120.MHz(gyári ref 800.MHz+40.%) et a 7950 ese, mert én eddig rengeteg 7950.es eredményt nézem(és magam is teszteltem jó párat, PL a sajátomnak a gyári alapfesze 1,250.v és 925/1250 es órajelek társulnak hozzá gyárilag, csak érdekesség képen az 1150.MHz et alulfeszelve 1,150.v -al tudja, és a gyári alapfeszen pedig 1250.MHz -et megy) és ez a 1120.MHz simán borítékolható a 7950.es kártyák 99,9.% ánál :K A kicsit jobb példányok meg 1250-1300 -on is el ketyegnek

    Az egy dolog hogy neked az éppen tárgyalt 660Ti van és annak a pártját fogod, de olyanról nem kéne véleményezni amit nem próbáltál :O Ha meg ennyire tudatlan vagy 7950 témába akkor legalább nézzél/olvassál utána :R

    ****************************************************************************
    BeLucZ, radi8tor1, SzlobiG : hát ezen kicsit vitatkoznék és bátran ki merem jelenteni hogy minimum 4-5.X annyi 79xx et teszteltem saját magam mint az említett kolléga(hiába szakértő és van tisztába a szakmai dolgokkal) láttam én már 30.éves szakmai tapasztalattal rendelkező busz sofőrt is árokba borulni, tehát az lótúrót nem számít szakmailag mennyire ért hozzá, ha gyakorlatban meg volt a kezében 2.db 79xx kártya.
    De mondok jobbat mutass olyan kollégát a 79xx tropikba akinek nem megy 1120.MHz et a 7950 ese!

    [ Szerkesztve ]

  • daneeeeee

    aktív tag

    válasz gbors #88 üzenetére

    Szerintem ideje pontot tenni az ügy végére.
    Mérjétek össze a kártyák tudását néhány előre megbeszélt játékban/benchmarkban fixált beállításokkal.

    Addig fajult ez a vita, hogy most már mindenkit érdekelnek az eredmények (amúgy is erről szól ez a topic, nem?)

    [ Szerkesztve ]

  • kovsol

    titán

    válasz gbors #94 üzenetére

    Arról nem is beszélve, hogy az átlagember nem tuningol, vagy max egy kicsit feljebb húzza a driverben a csúszkát, de tuti nem +40% ban gondolkozik, hanem örül egy +10% tuning után is.

    May the Force be with you!

  • daneeeeee

    aktív tag

    válasz gbors #94 üzenetére

    Nyilván nem, viszont ettől függetlenül szerintem mindenkit érdekelnének az eredmények. Mondjuk max tuning mellet valami "köztes állapotban" is meg lehetne állapodni amit jó eséllyel már minden 7950/660Ti tud.

  • Abu85

    HÁZIGAZDA

    válasz gbors #119 üzenetére

    Meg, de a HD 3850 minden DX11-es játékba +25-40%-ot kap a DX10.1 leskálázás miatt. A DX10-re skálázás előnytelen a compute shader és a gather4 szempontjából. Mivel a leskálázásnál nem lehet kérni egy hardverre a DX10-et, így nem lehet kiütni a modernebb API előnyét.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #121 üzenetére

    Pont az a baj, hogy így nem tudjuk mérni. Én próbáltam, mert van egy gyűjtő spanom a nem túl messzi faluban. Nem tudom, hogy a 30-50% plusz minek tudható be, mert nyilván az, hogy a HD 3850 gather4-ezik míg a 9600GT nem az sokat számít.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • SzlobiG

    félisten

    válasz gbors #200 üzenetére

    Majd meglátom lesz-e kedvem hozzá, de tény hogy úgy látványosabb csak így összetettebb. :)

    (#201) daneeeeee Biztosan, de asszem volt már NV-s topikba SLI-s mérés is szal nem érdemes szórakozni vele. :)

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #343 üzenetére

    Az Anno 2070-hez hozzátartozik, hogy számunkra valóban kényszerű döntés volt. Egy stratégiát mindenképp akarunk tesztre, mert ez a műfaj is létezik. Ellenben a Shogun 2 az NV-n 8 hónapig problémásan futott. Jött egy driver, majd jött egy patch, ami ismét lerontotta a sebességet. Na most nekünk ez rémálom volt végig, így váltottunk Anno 2070-re, mert az kiszámíthatóbb.
    Az NV a DiRT-ben igen komoly optimalizálásokat kapott. A különbség oka szimplán hardveres. Az AMD-től mondta Dave, hogy ők lepődtek meg az első Kepler teszteken a legjobban. Máig nem értik, hogy az NV miért nem a fejlesztők által kért irányt vette alapul. Nem volt előlük eltitkolva semmi. Én egyedül a Tegra miatt láttam koncepciót, de most, hogy az is maradt az öreg architektúránál érthetetlen a Kepler.
    Lehet, hogy az NV azt gondolta, hogy a fejlesztők nem érdekeltek az új effektekben, ha csak az egyik architektúra veszi fel a kért irányt? Ez nem hangzik logikusan, illetve veszélyes is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #347 üzenetére

    De az FX-nek nem az volt a baja, hogy sokat akart, hanem, hogy rosszul akarta azt. Felkészítették a feldolgozókat a 32 bites feldolgozásra, de az adatutat 16 bit/operációra optimalizálták. Ha ez 32 bit/operáció lett volna, akkor tökéletesen helytállt volna a hardver. Persze ez nem kevés tranyót igényelt volna. Az FX túlteljesítette a DX precizitásra vonatkozó speckóját, ami nem baj, csak mi értelme ugye. Ezeket a GCN nem teljesíti túl, ugyanazt tudja, mint a Kepler, vagy mint a többi DX11-es hardver. Van amiben túlteljesíti persze, de azok konzol design wint hoztak. Ott a PRT. Egy jó darabig biztos nem lesz szabvány, mert nem olyan könnyű hatékonyan hardverbe implementálni, de DX kiterjesztése hamarosan lesz (OpenGL-re már van). Most mindenkinek, aki nem szoftveres megatextúrázást akar a játékban ezt támogatni kell, és ez tök kellemetlen dolog lesz a konkurenseknek. Le kell követni az AMD-t a nem szabványos technikákban, vagy számottevő hátrány lesz a PC-s portok alatt.
    A Doom 4 jó alap lehet erre, mert az a megatextúrázás hardveres implementációját PRT-n keresztül oldja meg. Ennek az egyik nagy hátulütője, hogy a szoftveres implementációt ehhez kell igazítani, és a szoftveres virtuális textúraméret esetében a 32k nem optimális. 64k lenne az, de azt nem támogatja a PRT, mert a hardvernek meg a 32k az optimális. A szoftveres megoldás húzta a rövidebbet, vagyis még rosszabb lesz az élmény, mint a Rage esetében.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #462 üzenetére

    Tudom, de az annyira nem észrevehető, maximum mérhető. Én is láttam ilyet a Boostos GTX 670-en. A Sleeping Dogs-ban, +/-150 MHz-eket ugrált a korábbi tesztkártyánk és hirtelen. Ezért lenne jobb hardveres turbóra váltani, mert ott a hardveres kiértékelés finomabb vezérlést tesz lehetővé.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #465 üzenetére

    A PowerTune az csak mínuszos módban kap engedélyt maximum 50 MHz-es órajelváltozásra. Normál módban maximum 10 MHz változás van engedélyezve egy váltás során. Plusszos módban van ez a limit feloldva, mert akkor már a hardver védelmére megy a rendszer. A normál mód eleve úgy van belőve, hogy sose változzon az órajel egy játékban.
    A Boost funkció képes többet csinálni. Az gyakorlatilag úgy van kalibrálva, hogy a state 3 (alapórajel) és 4 (Boost órajel) között ugorjon.
    Az új gen2 PowerTune bonyolultabb, az eleve nem is jelez vissza valós órajelet.

    Nekünk ez az NV által küldött kártya. Gondolhatod, hogy a legjobban boostolót adják ide. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #467 üzenetére

    A PowerTune profil driverenként változtatható. Ezt tölti be a hardver a Windows indításakor, és a profil leírása alapján dolgozik a továbbiakban. A profil változását nem jelzik, mert a normál módban eleve nincs hatása ezeknek a módosításoknak, hiszen ott nem skálázódhat az órajel, de az overdriver modul az elmúlt évben folyamatosan frissült. Még a 13.3-as driverben is változott. Ezért zseniális ez a rendszer, mert hardveresen működik, de ez szoftveresen paraméterezhető. Nem véletlenül nincs publikusan specifikálva, mert ma mindenki ezt akarja másolni.

    A FRAPS méréseknél lehet ezzel probléma, de az NVIDIA is a FRAPS latency mérések értelmetlenségét próbálja magyarázni a tesztelőknek. Ebből a szempontból az AMD-vel egyetértenek. A GPUView az erre való eszköz (vagy valami hasonló), a FRAPS túl általánosan kezeli a dolgokat.
    Igazából ahol ez tényleg gondot jelent, azok a Sleeping Dogs-féle igen szélsőséges terhelést kifejtő játékok. Ennél sokkal nagyobb gond például a Tomb Raider, ami agyonterheli a hardvert, és ez szoftveres védelmekkel necces. Gondolom olvastad, hogy az NV a fórumán a gyárilag tuningolt kártyák órajelének csökkentését javasolja, mert egyszerűen túlságosan terhel a játék. Erre be lehetne vetni egy Furmarkos lefojtó profilt, csak itt fps-ekért megy a harc.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #492 üzenetére

    Az a baj ezekkel az effektekkel, hogy ha a valósághoz közel viszed a minőségét, akkor nehezen látszanak, így inkább túllőnek azon, ami nem valósághű, de legalább látszik.
    Nézd meg a Tomb Raidert. Ott eléggé úgy van az egész dizájnolva, hogy ne legyen elrugaszkodva a valóságtól, viszont ritkán vehető észre, hogy vannak benne ezek a post-processek. Persze én ennek örültem, mert végre nem lőttek túl a célon, csak sokan úgy kapcsolgatják ki az effekteket, hogy befelezi az fps-t, de nem is látszik. :) Közben pedig csak úgy van megcsinálva, hogy ott látszódjon, ahol valóban van értelme, mert valósághűen van dizájnolva.

    (#493) Whit3Rav3n: Szerintem nehéz eldönteni, hogy az input lagra, vagy az frame smoothing a jobb. Főleg akkor, amikor 1000 Hz-es egereket használ a gémer, hogy 8 ms helyett 1 ms legyen a beviteli lagja. A frame smoothing AFR-től nem extra 7 ms-ot kapsz, hanem extra 15-20-at, ha 60 fps környékén van a sebesség. Ha esetleg 30 fps környékén van, akkor 30-40 ms-os többletről beszélünk. A gémerek szentül mondják, hogy ők a +7 ms-ot érzik a gamer egérrel, tehát logikus, hogy a ennek minimum a kétszeresét is érzik. Ez volt a CF kiindulópontja. És máig lehet olvasni, hogy pár gémer arról számol be, hogy a CF-fel jobb a gép reakciója. Ezért nem veszi ki az AMD ezt a módot, sőt, konkrétan ez marad az alapértelmezett, de a nem hardcore gémereknek lesz egy frame smoothing AFR, amivel az extra lagot megkapják. Ezt majd a reakcióra gyúró réteg nem fogja szeretni, de lehet majd választani a driverben.
    Egyébként önmagában az, hogy dönteni kell az input lag és a frame-ek egyenletes megjelenítése között elég komoly probléma. Bármelyik AFR opció is van kiválasztva annak meglesz a maga hátránya. Ebből a szempontból az AFR szerintem hosszútávon nem járható út. Már ma sem tekintem annak. A casual gamereknek elfogadható, de a hardcore rétegnek az egyik AFR irány sem elég jó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #507 üzenetére

    Pont ez a lényeg. Érdemes-e azt tovább növelni? Mi az a határ, aminél még jó? Nehéz kérdések. A megkerülő válasz erre, hogy gáz az AFR mód multi GPU-hoz. Mindegy, hogy hogyan csinálod meg, valahol kompromisszum kell. Azzal nem változik a helyzet, hogy az NV és az AMD a user kezébe adja a döntést, hogy hol legyen a kompromisszum. Ez az alapprobléma szőnyeg alá söprése. Itt nem a részproblémákat kellene orvosolni, hanem amiből ez az egész gond ered. Olyan, mint a körömgomba. Gyökerestől kell kezelni. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • TTomax

    nagyúr

    válasz gbors #512 üzenetére

    Ott a pont...amíg nincs közös címtér addig nem igazán lehet jobb megoldást kínálni az AFRnél...

    (#511) Abu85
    Aham,csak hát tudod ki fogja azt beépíteni amikor egy rendes portolással nem foglalkoznak konzolról...

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Abu85

    HÁZIGAZDA

    válasz gbors #512 üzenetére

    A mai GPU-kon is megoldható a közös címtér, mert a kártyákon ugyanaz a hardver van. Ami ezt lehetetlenné teszi, hogy az operációs rendszer nem kezeli a VRAM-ot direkten, így azt a driver mögé kell elrejteni. És ez sosem fog megváltozni, mert túl speciális a VRAM kezelése az operációs rendszer számára. A menedzsmenten szinte driverenként változtatnak valamennyit, szóval mindig el lesz rejtve a driver mögé.

    A parancslistás megoldással vesztesz 10-20%-ot teljesítményben, de cserébe mindennel kompatibilis lesz, minden AFR gond megszűnik, és az interframe kommunikáció sem jelent majd problémát, ami egyre több motorban egyre nagyobb adatmennyiségre valósul meg. Szerintem egyértelműen megéri.

    (#513) TTomax: Mit kell beépíteni azon, hogy a parancsokat szortírozod? Ez egy gyors folyamat a proci simán meg tudja csinálni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Loha

    veterán

    válasz gbors #516 üzenetére

    FCAT: The Evolution of Frame Interval Benchmarking
    Úgy néz ki NV kiad egy progit amivel minden eddiginél jobban lehet majd mérni a képkockák közti késleltetést, mikroszaggatás mértékét, meg sok minden mást is...

    [ Szerkesztve ]

  • SzlobiG

    félisten

    válasz gbors #544 üzenetére

    Nem hiába panaszkodnak a CF-es mikro laggokra hiába mondja Abu, hogy kettő lehetőség van az NV a jobbat választotta ez nem kérdés, mert ott nincs panasz ilyen mikro laggra.

    Jó tudom be lesz építve a választási lehetőség, de még nincs.

  • p87

    senior tag

    válasz gbors #544 üzenetére

    Nem akarok hülyeséget írni, mert ti sokkal jobban tudjátok ezt a témát mint én, de én arra gondoltam, hogy a Fraps-el mért értékeknek semmi köze a kártyához és driverhez mivel még jóval előttük kapcsolódik be folyamatba, ergo ezt nem lehet se NV-nek, se AMD-nek felróni ha valami furcsát látunk mert semmi közük hozzájuk.

    CF-et nem vitatom én sem.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #549 üzenetére

    A marketing ezeket nem vette elő újra. Nem is részletezte. Ezt a CF megoldást azért választották, mert a profi játékosok erre szavaztak. Semmi másért. Nekik is teljesen mindegy, hogy hogyan oldják meg, mert az fps alapján ugyanott lesznek. Egyszerűen dönteni kellett, és az AMD a játékosokra hallgatott. Nyilván az elméleti alapja megvan ennek, és ez a döntés így logikus volt. Most beépítik a másikat is a tesztelők kérelmének megfelelően.
    Igazából ez az egész tök lényegtelen, mert az már rég rossz, amikor dönteni kell, hogy egységes legyen a megjelenítés, vagy alacsony legyen az input lag.
    Egyébként a smoothingot úgy számold, hogy minden képkockát késleltetve kezd számolni, pont azért, hogy igazodjanak egymáshoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #551 üzenetére

    Input lagra gyúrt AFR mellett kb. olyan lagot kapsz, mint egy GPU-val. Picit többet. Amint kész az első GPU az első frame-mel rögtön fog nekifog a harmadiknak. Ami nagyjából olyan jelenetből jön, mintha az a második lenne egy GPU-s rendszernél.

    A smoothing esetében az első frame lesz normál lagos. Aztán a második egy kis eltolással lesz számolva. Ezután van két referenciaidőd, és ezekből lesz mindig számolva, hogy mekkora késleltetéssel lesznek számolva a következő páros és páratlan frame-ek, amelyeknek szintén lesz idejük, és így tovább. A cél az egyenletesség. Cserébe átlagosan 10-15 ms-os plusz lagot kapsz 60 fps mellett. Ha csak az egyik kártyát késlelteted, akkor sokszor az első kártya frame-jéből lesz kevés információ. A smoothingot általánosan kell csinálni, mindkét GPU-ra. Úgy lesz teljesen egyenletes.

    (#555) Loha: De könyörgöm jelöld már ki a képen, hogy hol méri az input lagot? Én csak frame time-ot látok. A frame time != input lag!

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #556 üzenetére

    Pont az a lényeg, hogy ki szerint mi a normális. Ez marad az alapértelmezett CF mód, míg a másik csak egy kiegészítő lesz, amire át lehet kapcsolni. Az AMD továbbra is úgy gondolja, hogy ez a jó mód.

    A smoothing esetén azért kell hangolni, mert ha fix értékkel tolod minden második frame számítását, akkor esély van rá, hogy rátolod a következő frame-re, és akkor lényegében nem tettél semmit. Ezért késleltet mindent a kiegyenlítés, így minden frame egyenletesen jelenik meg csak a normál AFR megoldás lagjához képest nagyobbal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #558 üzenetére

    Az átlag frametime az elég rossz ötlet, mert az a játékokban eléggé ingadozó lehet. Ha ez alapján smootholsz, akkor a smooth nem biztos, hogy smooth lesz. A legjobb megoldás az előző frame idejét mérni, de még azelőtt el kell kezdeni a munkát, mielőtt ez kiderülne. Ezek jelentik a nehézséget.
    Illetve a smoothing sémának vannak kellemetlenségei, mert növeli a driverben a hibalehetőséget. Ha több process fut, akkor a driver balanszírozhatja a teljesítményt. Ez multi-monitor környezetben kellemetlen, mert a hardver nem adja le a teljes sebességet minden kijelzőn. [link] - látható, hogy az alkalmazások nem futnak ugyanazzal a teljesítménnyel. És ez egy GTX 460 GPU. Ez az NV smoothing megoldása miatt van így. Ennek 400-500 fps között kellene mindegyik ablakot futtatni.

    Nem olyan egyszerű ez, mert megold egy jelenséget, aminek lesz némi ára, de ugyanakkor a multimonitor környezeteket eléggé furcsán balanszírozza. Ezért is ragaszkodik az AMD ahhoz, hogy alapértelmezett módban ne állítson fel ütemezést.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #595 üzenetére

    Azért olyan dolog nincs, ami PRT-vel megoldható, de nélküle már nem. A PRT előnye a sebességben lesz inkább. Itt főleg azokra gondolok, hogy a nextgen Radeon és GeForce VGA-k is támogatják majd ugyanazokat a pointereket, amiket a CPU használ, csak a Kaveri x86/AMD64, vagyis az ARMv8-at támogató GeForce-ok ezzel nem fognak úgy működni, mint az x86/AMD64-et támogató Radeonok.

    Jensen nem fog könnycseppeket hullatni. Ha őt a PC-s konzolportok érdekelnék, akkor nem építette volna már ma le a fejlesztői támogatást ezekre a játékokra. Az NV-t a felhő, a mobil, és a PC exkluzív F2P/MMO játékok érdeklik. Ezért engednek át szinte minden AAA PC portot az AMD-nek. Ezt az AMD sem titkolja. Roy Taylor pont mondta, hogy az NV már inkább egy smarthphone cég. Ez teljesen hihető, nyilván logikátlan azt gondolni, hogy a régebben mindent vivő TWIMTBP csupán egy év alatt leépült. Nem, ez a partnerprogram szándékosan koncentrál más területekre, és a Gaming Evolved ebből építkezik. Ha egységesen küzdenének ugyanazért a játékokért, akkor nem lenne ennyire egyoldalúan előretörő a Gaming Evolved a PC-s konzolportok területén.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #635 üzenetére

    Az AO-ra nem. A fake az nem jó szó. Az AO lehet scene space és screen space. Előbbi baromi jó, de ki tudja azt kiszámoltatni ugye. Utóbbi csak egy szimulált hatás, de nem fake ettől. A fake ott keletkezik, ha túlzott árnyékolásba megy át. A szimulálás jellemző minden SSAO-ra.
    A fake hatás az SSAO-nál ott lehet megemlíteni általánosan, hogy nem veszi figyelembe a fény színét. Erre való az SSDO. Az új Ruby demóban nagyon sok mintával lesz használva és teljes képernyőre, így ott durván látható lesz az előnye.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • SzlobiG

    félisten

    válasz gbors #656 üzenetére

    De mert gondolom a Power Tune miatt úgy ahogy a 6990 ez is be fog férni a 300W alá.

  • TTomax

    nagyúr

    válasz gbors #656 üzenetére

    Abban az esetben ha a bus 2.0-ás...ha csak 1.0a akkor ez 75Wal kevesebb...

    (#657) SzlobiG
    Jaja,biztosan így lesz mint a 6990nél,két állású bios... egyik 300W max a másik meg amit bir.... a pcb érdekesebb lenne...meg,hogy kell-e ehhez válogatott gpu,mert gyanítom igen..az asus ares II akkor ér révbe ha ez kijön és támogatni fogják... :U

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • ricshard444

    veterán

    válasz gbors #663 üzenetére

    Vagy a kis harcos GTX670
    Rettentően aranyos és ki is próbálnám :K

    Amúgy láttam, hogy szeretted volna a Frametime-kat a tesztből, de letöröltem az egészet sajnos, illetve formázva lett az ssd amelyiken tároltam az adatokat :(

    [ Szerkesztve ]

    Vannak dolgok...

  • HSM

    félisten

    válasz gbors #758 üzenetére

    Nem értek egyet azzal, hogy a kommunikációval lett volna a baj. Ugyanis szvsz maga a koncepció változott meg, és ez a nagy baj. Arra gondolok, hogy régen (a radeonoknál a 6900-akig minden GPU pl.) az volt a koncepció, hogy úgy építették meg a kártyát, hogy az mondjuk 700Mhz-et tudjon, és akkor az a 700Mhz-nek megfelelő teljesítményt adta le 10%-os terhelésen és Furmark 110%-os műterhelés alatt is. Ennek megfelelően kicsit túl is voltak ezek a kártyák tervezve, úgyértem erősebb hűtő és VRM volt rajtuk, mint arra a mindennapi átlagos felhasználás megkövetelt volna. Ez az új koncepció, ami a 290-ekben bontakozott ki teljesen, ezzel ellentétben úgy működik, hogy van egy GPU, ami mondjuk tud(na) 1000Mhz-et, de a kari többi részét nem úgy méretezik, mint eddig, hogy az minden körülmény között tudja az 1000Mhz-et, hanem azt mondják, jó, ez legyen max 250W, és fogják a VRM-et és hűtést, belövik 250W-ra, és csinálnak egy BIOS-limitet 250W-ra, és mondjuk ez az esetek 50%-ában elég lesz az 1000Mhz-re, a maradék 40%-ben elég lesz mondjuk 700-900Mhz-re, a maradék 10%-ban meg mondjuk 500Mhz-re, miközben a csip folyamatosan az "éppen nem sülök meg" állapottól van néhány foknyira az alultervezett hűtő alatt, majdnem mindig konstans 250W-ot fogyasztva. Itt némi gonoszság (parasztvakító faktor) is felfedezhető, ugyanis a tesztekben szereplő eredmények az 1000Mhz-be fognak inkább esni, mivel a tesztek között van ideje visszahűlni a VGA-nak, nemúgy, mint egy egyórás folyamatos játék alatt, ahol sokkal kevesebb lesz az 1Ghz-nél az átlagos órajel.

    Ez amúgy a kártyatervezők/gyártók szemszögéből állati jó, ugyanis előre, pontosan ismert, milyen teljesítményű VRM és hűtő fog kelleni, és nem kell véletlenül sem túltervezni a kártyát, ami nyilván költségcsökkentő és a piacra lépést is gyorsítja, egszerűsíti.
    Ugyanakkor ha a saját, gamer és tech-kedvelő szemszögömből nézek a dolgokra, akkor borzalmasan rossz dolognak látom, hogy alultervezett kártyákat adnak horror áron, ami helyettem akarja megmondani, hogy működjön.... :(

    Arról nem is beszélve, milyen rossz tud lenni, amikor az ember belövi a játékát egy beállításra, és mondjuk 3 perc múlva lőheti be újra, mert már csak a 80%-át tudja a VGA a korábbi sebességének. Ha meg jön a nyár, lőheti be megint újra, mert megint esett 10%-ot a VGA sebessége. :DDD Nem véletlen volt régebben fix a VGA-k órajele azért. Ilyen ugráló órajelek mellett hiába optimalizálják ki a játékot, hogy mondjuk egy beállítás ne essen 30FPS alá, ha hirtelen elfogy az erő a VGA-ból, mert beindult a sziréna, hogy állj, 95 fok elérve... :DD

    Remélem nem baj, hogy reagáltam, bár nem nekem írtad. :B

    [ Szerkesztve ]

  • HSM

    félisten

    válasz gbors #766 üzenetére

    Én se olvastam semmi ilyesmit. Ugyanis ez a saját véleményem. :P
    De szívesen megmutatom, miért gondolom így, bár nem biztos, hogy 100% tudományosan. :)
    Én először is a 7970 refiből indultam ki, amiről tudom (van olyan karim) hogy mire képes. Amúgy egy remekül megtervezett kari, simán bírja a gyári órajeleit mindenféle boost meg kutyafüle nélkül, power vírusokban is. Nem valami halk, de jól elbírja a hűtő, jól ki van találva, és megfelelő a VRM ereje is a GPU-hoz, még kisebb tuning mellett is. Nem kell 3000rpm körül járatni, mint a 290 és a 290x über módja, ami nekem már az elviselhetetlenül hangos turbinahang kategóriája.
    Neki így néz ki a VRM-je, a maga 6 fázisával: [link]. Volt belőle 2*8pines, 7 fázisos kiadás is, ami igencsak tuningbarát volt, tehát nem egy alulméretezett dolog volt ez. Namost itt van nekünk ez az új csoda, a 290X, másfélszer annyi tranzisztorral, 25%-al több memória-IC-vel, és még magasabb órajellel, és ugyanaz a 6 fázis mosolyog ránk: [link].
    Utánanéztem, nem volt egyszerű, de mindkettő kari ráadásul ugyanazon IRF6894-es MOSFET-eket használja, tehát ugyanaz a VRM vezényel a 290-eken másfélszeres tranzisztorállományt, ugyanazzal a platni-hűtéssel. Ígéretes. Ezenkívül a hűtők is ugyanazon Vapor-kamrás megoldások, ugyanazzal a bordázattal, felépítéssel, ventilátorral. [link] [link].

    Szóval, ha abból indulok ki, hogy a 7970 refi egy remekül megépített kari, megfelelő tartalékokkal, akkor ennek a másfélszeresének (mert ugye a gyártástechnológia nem változott, a tranzisztorok a hawaai-ban sem kérnek kevesebbet) ugyanazon hűtés és VRM édeskevés. Az AMD ezt megoldotta az eddigi "legfejlettebb" PowerTune technológiával, hogy ne okozzon gondot, mesteri módon egyensúlyozza a kártyát a működésképtelenség határán. :W Mérnöki szempontból ez bámulatos, hogy kb. azonos hűtéssel/VRM-el (költségmegtakarítás, nem kellett komolyabb PCB, VRM, hűtő) meghajtanak másfélszerennyi tranzisztort, de vajon jó ez a usernek? Nekem biztos nem.

    Az AMD szerint megfelelő a folyamatos 95 fok, de ha bárki utánanéz, mennyire jó ez a karin lévő kondenzátoroknak, nem fog szép dolgokat látni. Lejár a 2-3 év gari, és úgy fognak menni a kukába ezek a karik, hogy öröm (?) lesz nézni. Nem a GPU-nak lesz baja, hanem a tápkör fog elpukkanni, miután megszűnt a kondik töltéstároló képessége a kiszáradástól, és emiatt megsülnek a mosfet-ek. Arról nem beszélve, hogy a 95 fokos GPU-nál a kari hátulja/oldala/alja is mindenhol igencsak forró lesz, ami pedig a környezetében (alaplap) fogja megbosszulni magát, ha nincs tökéletes házhűtés, vagy még amellett is.

    Az "utolsó bekezdésről"... Szvsz ezek a refi 290-ek erődemonstrációnak jók, hogy az AMD velük megmutatta, milyen okos gyerekek, tudnak olyan fejlett energiamenedzsmentet, mint senki más, mert ez tényleg bődületes mérnöki teljesítmény, hogy bármilyen körülmények mellett tudja tartani a 95 fokot, se többet, se kevesebbet. Ettől függetlenül, mint VGA, szerintem alulméretezett, kerülendő termékek. Majd a rendes hűtéssel és VRM-el ellátott extra kiadások lesznek esetleg kicsit jobbak, minőségibb termékek. Kérdés, mennyire lehet majd szabadon állítani (vagy kikapcsolni) rajtuk a szuperfejlett energiakezelőjüket. :DDD

    Amúgy ami még érdekes olvasmány... [link] Bár erősen napellenzős PowerTune barát írás, de sok érdekes szempont van benne. Van egy újabb 2012-es kiadás, azt be se linkelem, marketing rizsa kb. már abban az egész. :DDD

  • Tirexi

    addikt

    válasz gbors #775 üzenetére

    Persze marhára büszke lehet valaki arra, hogy vizet kell összeraknia egy VGA-hoz mert a gyártó nem volt képes normális hűtést rárakni. Vagy nem tudott mert az egész architektúra el van rontva és melegedik meg zabál a kártya amennyit csak bír.
    Szal hiába az olcsó ár ha még rá kell költeni új vízhűtés esetén 100k-t vagy meglévő esetén 30k-t a blokkra.
    Továbbá majd lehet sz.pni az eladásnál mert ugrik a gari ahogy megbontod.
    Jelenleg a legtöbbet bukni ezen a VGA-n lehet mert alapból olcsó, használat után meg még olcsóbb lesz főleg gari nélkül örül neki majd az emberünk ha feléért el tudja majd adni mint amennyiért vette.

    Az a kártya tökéletes lenne ha nem lennének melegedési, hang és antiboostbeli problémái. Tökéletes az ár/teljesítmény aránya. Komolyan én is kipróbálnék egy CF-et belőle csak az a baj, hogy hajszárítóm már van egy a fürdőszobában és többre nincsen szükségem.

    Várjuk meg a Custom hűtést. Oké várjuk. Nagyon kíváncsi leszek rá milyen lesz főleg azért mert még se híre se hamva ennek a dolognak. Kíváncsi lennék miért nem jönnek már... Vajon mi lehet a gond?

  • HSM

    félisten

    válasz gbors #775 üzenetére

    Ami tény:
    A refi 7970 működik alulfeszelve olyan 35-38%-os ventivel, nyitott fülessel még éppen nem elviselhetetlenül hangosan, stabilan 80 fok alatt. Max 2000rpm, nem kellemes, de elmegy.
    A refi 290X a csendes BIOS-ával ugyanilyen hangos, de brutálisan antiboost-ol, és még így is konstans 95 fok. Ha pedig működni kezd (über bios), akkor megsüketülsz mellette, 2500rpm-en, amin megy ez is meg a 290 is, elviselhetetlenül hangos zárt füles vagy munkavédelmi fülvédő nélkül, a 95 fok pedig marad.

    Ezenkívül, ami tény: ha korábban volt dolgod passzív VGA-kártyákkal, akkor tudod, micsoda dolgokat tudnak művelni a maguk 80-100 fokos hőfokukkal a környezetükben és magukban is 2-3 éves távlatban, borzalom. Itt annyiból jobb a helyzet, hogy üresben nem 70-80 fok, hanem csak 40. Szóval, ha nem játszol sokat (napi 3-4 órát max) akkor azért olyan nagy baj nem lehet, de én ennél többet várnék egy csúcs-terméktől, minthogy 2-3 év alatt nem tesz komolyabb kárt a környező alkatrészeimben és önmagában. :U

    Ahogy írtam, nagyon bízom benne, hogy a gyártók fogják tudni ezt később orvosolni. Pl. egy Sapphire Toxic 7970 vagy Asus Matrix 7970 PCB/Hűtés szerintem elbírna már ezzel szörnnyel értelmes hőfokon, powertune disznólkodás nélkül is.

    (#776) Tirexi: "Vagy nem tudott mert az egész architektúra el van rontva és melegedik meg zabál a kártya amennyit csak bír."
    Nem az architektúra van elrontva, hanem a kártya VRM/hűtő része alulméretezve a refin. Kell rá rendes táp és hűtés. Ennyi.

    "Kíváncsi lennék miért nem jönnek már... Vajon mi lehet a gond?"
    Ugyanúgy, ahogy az NV csúcs-vgainál (emlékezz a Titán-ra vagy a 690-re) úgy itt is először csak refi kártyákat értékesíthetnek a partnerek. Aztán majd hirtelen jönnek a speckó kiadások, amint az AMD engedélyezi. Sajnos nem tudom, ez mikorra várható.

  • Malibutomi

    nagyúr

    válasz gbors #780 üzenetére

    Azt én sem értem miért nincs rajtuk jobb hűtés, azzal sem lett volna annyival drágább. Az meg nem igaz hogy olyan nehéz hűteni, bármely aftermarket hűtő kőnnyedén lehűti, sőt az egyik tesztoldalon átraktát a 7970 iceq hűtést rá, és az is simán megbirkózott a feladattal.

    Nekem fújhatja a levegőt a házba, van bent 6db venti elég nagy a huzat hogy kivigye. Ja és nem kell 2500-on menjen, mind le van szabályozva.

    [ Szerkesztve ]

  • Malibutomi

    nagyúr

    válasz gbors #793 üzenetére

    Nv inkább csak halkabb, az AMD is lehűti a kártyát hogy megáll 85 fok alatt simán, csak hangos a ventije.
    Amúgy megcsinálhatták volna rendesen, nem értem miért méretezték ennyire alul, mert ahogy fentebb irtam, annyira nem szörnyűség lehűteni a 290-et sem.

  • HSM

    félisten

    válasz gbors #793 üzenetére

    Pontosan. :K Egy jó nagy hőleadó felületű, sokhőcsöves hűtőt rá 2-3 axiális ventivel, és jó is. ;)

    A házhűtést kipróbáltam. Szerintem amúgy valahogy így kéne gyárilag kinézzen egy kártya, egy bő 20 perces műterhelés alatt (az alany egy Sapphire R9 280X Vapor-X alulfeszelve, fixált 55% ventivel): [link]
    Halkan megjegyzem, ez még a régi, 2.4.2-es kombustor, OpenGL2 módban, ami nagyobb felbontáson sokkal jobban izzaszt, mint az újabbak, és sokkal jobban, mint egy átlagos játék, és még egy átlagos GPGPU proginál is jobban.
    Ventilátor hasonló hangerejű volt, mint a refi 2000rpm-en, abszolút vállalható. Külön kiemelném bal felül a minimum/maximum FPS értékeket, és a szép vízszintes FPS logot jobbra, az AB monitorozó ablakában. Az órajelen is szépen látszik, hogy nem ugatot bele a dologba a Powertune (low level moitorozás volt).
    Így nézett ki a házban: [link] Szóval semmi extra, oldalról hangszigetelt habos oldallap, semmi trükk, a két 12-es venti pedig teljesen letakarékolva. Kábelek azért rendesen el voltak pakolva a légáramlat útjából, ez 2D-ben fotózva kevéssé látszik. :D
    Ja, igen, és 26 fok volt a szobában, látszik az SSD hőfokán, ami közvetlenül a gép aljában van, a bejövő levegőáram alatt. Szóval azt se mondhatjuk, hogy jégszekrény, meg tál, meg hasonlók.

    Természetesen ugyanezen beállítás játékok alatt jó 10 fokkal hűvösebb VRM-ek terén, és 2500 helyett 1600-at pörög a venti, néma csendben. Mondhatjuk, akkor nincs kihasználva a hűtés és VRM kapacitása. ;]

    Az infrás hőmérővel a legmelegebb, amit a kari mögött/körül mértem, 55 fok körül volt, picivel inkább alatta. A hűtőről olyan 50 fok körüli levegő távozott.

    Ami az NV bloweres megoldásait illeti, sajnos nem tudom, miben jobbak, ránézésre nem látszik lényeges különbség. Lehet, a Vapor kamrájuk erősebb, mert ami nekem nagyon fura, hogy lassan melegszik fel a refi 7970, és ha a hűtést feltekerem, lassan kezd el csökkenni a hőfok is, szóval úgy kicsit fura az egész, mintha lenne egy hőtároló középen, ami nem adná át elég jól a hőt a lamelláknak. De lehet, az NV-n a venti sokkal jobb, több levegőt mozgat talán halkan. Lehet a kettő együtt. De mondom, nincs NV-téren tapasztalatom, így csak találgatok, mi lehet.

    Ami azt illeti, azért az NV se az a hű, de csöndes kategória, ahogy láttam, pariban van a "csendes" 290x 2000rpm-jével gyárilag. Na, nekem az már nem kéne a játszós gépbe. :N A finomhangolt alulfeszelt Vapor összehasonlíthatatlanul halkabb, természetesen lassabb is. Csak arra célzok, azért az se maga a tökéletesség. Én sokkal jobban preferálok egy jóminőségű, halk, házba hűtős kártyát, amit szépen halkan könnyedén ki tudok szellőztetni, és akkor nem egy bővítőhelynyi helyen kell kipréselni a 300W hőt, hanem mondjuk elintézi a sok szellőző rács, meg a két 18cm átmérőjű venti. :)

    (#795) Abu85: Látom, továbbra is véded ezt a technikát. Kérdezem én, akkor amit írtam itt pár sorral feljebb, hogyan lehetséges? Érdekes, hogy a Tahiti se picike lapka, és mégis lehet olyan kártyát tervezni köré, ami műterhelés alatt sem sül meg, sőt, remekül elvan, igaz, nem is a legolcsóbb gagyi típus. A régi embereknek még volt annyi eszük, hogy a ventilátorral szabályozták a kártya hőfokát, normál terhelésen normál hangerőn ment, extrém terhelésen az idő mondjuk 1%-ban meg jól beindult a venti, és máris meg volt oldva a terhelésfüggő működés.
    Én továbbra is tartom, hogy az a kívánatos, hogy a kari teljesítménye úgy nézzen ki, ahogyan a linkelt képen látszik az AB monitorozó ablakában, nempedig úgy, ahogy a powertune mellett lenne, hogy addig vízszintes, amíg meg nem szólal a riasztó 95 fokon, és utána esés... :U

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #814 üzenetére

    Aki nem olvassa el a kézikönyvet azt nem érdekli hogy működik a hardver. Ennyire egyszerű. Egyébként egy kézikönyvet alap dolog elolvasni a mai világban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #818 üzenetére

    Miért kellene a vásárlókkal megértetni, hogy mit csinálnak? A vásárlóknak fogalmuk sincsen arról, hogy miképp működik egy ilyen hardver. Ők azt látják, hogy milyen teljesítményt ad le. Ennél tovább ezt nem kell ragozni, mert abból csak értetlenkedés lesz. Elég ha ezt a sokdiplomás mérnökök megértik, ők tudják, hogy mit miért csinálnak. Ez annyira mély információ, hogy felesleges is átadni a vásárlóknak, mert a többségük nem tanult egyetemi szinten fizikát.
    Aki meg bele akar képzelni ilyen-olyan dolgot, hát beleképzelheti. Az eredményeket a tesztekben ez sem befolyásolja, illetve ettől még ugyanúgy menni fog a Mantle is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #996 üzenetére

    A tökéletes drivernél nem lehetne jobbat írni semmilyen múltbeli, vagy jövőbeli játékhoz se, hiszen ha lehetne, akkor a tökéletes driver nem lett volna tökéletes. Csak arra céloztam, hogy erős túlzás bármilyen driverre azt mondani, hogy tökéletes, amikor maguk a szoftverfejlesztők is sokkal inkább arra törekszenek, hogy "elég jó" legyen a produktum... [link]

  • Abu85

    HÁZIGAZDA

    válasz gbors #998 üzenetére

    Ez csak akkor szokás, amikor a fejlesztő valami hatalmas butaságot csinál. Sajna van erre példa bőven, de nem általános.
    A driverbe a mai modern alkalmazásoknál főleg olyan dolgok kerülnek, mint a grafika és compute átlapolás (erre megy messze a legtöbb optimalizálás) specifikusan az alkalmazáshoz igazítva. Ott a Dirt: Showdown esete. Az azért gyorsult sokat GeForce-on, mert 8 hónapig csak ezen dolgozott egy fejlesztőcsoport. Ez lehetett a legdrágább driverprofil a történelemben. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #998 üzenetére

    Egy tökéletes világban lenne egy tökéletesen specifikált API, aminek minden funkcióját tökéletesen implementálja a driver a hardverre, és a játék és tökéletesen úgy használja, ahogy kell (ahogy specifikálva van).
    Hány sebből is vérzik ez az egész? :D

  • Abu85

    HÁZIGAZDA

    válasz gbors #1002 üzenetére

    Nem igazán a driver ennek a helye. A fejlesztők a DX11 megjelenésével elkezdték rágni az MS fülét, hogy compute mellett hülyeség, hogy a hardvernek csak egy parancslistája van és órajelenként csak egy parancsot fogad. Na most ez máig hiányzik a szabvány API-kból, így a program nem tud itt semmit átlapolni, adja a parancsokat az API és kész. A driverben lehet alkalmazásokra külön megoldani, hogy a compute és a grafikai meló legyen átlapolt. Ezt nehéz megcsinálni, de alapvető optimalizálásnak tekinthető, viszont ha kis átlapolásból mondjuk nagyot akarsz csinálni, akkor az több hónapos meló csupán egy alkalmazásra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #1008 üzenetére

    Az OpenGL valamivel kevesebbet kínál compute-ra, mint a DirectX 11.1. Szóval semmiképp nem jobb a helyzet.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #1086 üzenetére

    Szerintem pedig igencsak logikus... :U Ha kiadnak egy Mantle verziót, ami nemcsak gyorsabb, de sokkal stabilabb is, abból eléggé botrány lenne, hogy miért csak a legújabb AMD vasakon lehet normálisan játszani. Én is állati dühös lennék egy ilyenért, ha megvettem volna a játékot és nem GCN-em lenne, és azért kerülnék hátrányba a játékban, mert fos a DX mód. Így teljesen érthető, hogy először le kell tegyenek egy legalább elfogadható DX kódot, mielőtt elstartolják a Mantle-t.

    Amúgy az AMD mondott időt a mantle-re előre hivatalosan? Nem emlékszem, persze, lehet...

    (#1085) SzlobiG: Őszintén szólva, rövidtávon nem túlzottan izgat ez a Mantle, nem BF-ezek. :) Én amúgy is inkább a proci tehermentesítését tartom a legnagyobb előnyének, az pedig nem fog a szintetikus tesztből szépen átjönni. :) Szóval én majd az igazi pudingot kóstolnám majd meg. ;]

    [ Szerkesztve ]

  • HSM

    félisten

    válasz gbors #1092 üzenetére

    Szerintem egy online lövöldözős játéknál, aminek fő profilja a multi csapatjáték, elfogadhatatlan, ha az egyik usernek működik, míg a másiknak nem. :U Ha mindenkinek szar és fagyogat, meg eldobál, az nem gáz, de ha ez VgA függővé válik, az annál inkább. De ez csak az én véleményem, elfogadom, ha mellébeszélésnek tartod, pedig nem annak szántam. Nem vagyok az a típus, aki könnyen benyalja a marketingdumát. ;)

    1 hónap csúszás akkor. Tekintetbe véve a mantle-t használó progik csúszását, nem tartom vészesnek. Majd arra leszek kíváncsi, mennyire fog jól működni az elején.

  • Abu85

    HÁZIGAZDA

    válasz gbors #1094 üzenetére

    Eredetileg a Mantle driver a BF4 patch-csel jött volna. Nem szükséges azt külön meghajtóban szállítani. Mindig január végére volt tervezve az első Mantle driver a Catalystban.

    A stabilitás nem olyan kritikus most még. Egyelőre nem optimalizálják a végletekig a kódot. Az Oxide mondta, hogy a sebesség jön out-of-box, szóval egyelőre mindent a stabilitásra helyeznek. Az biztos marad benne tartalék, de ráérnek még kihasználni, ha lesz teljes dokumentáció, meg SDK, meg példák.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák