Keresés

Új hozzászólás Aktív témák

  • #40935168

    törölt tag

    válasz emvy #24459 üzenetére

    :K Én is így tudtam, AES-NI támogatással (ha a proci tudja, de már jó ideje sok képes erre) nem igazán oszt vagy szoroz. Klassz sebességeket mértem hdparm-al a már kódolt raid tömbökön, mikor kicsit megnéztem, mit bír a motyó - mindezt VM-ben (virtio mondjuk)..

  • #40935168

    törölt tag

    válasz devin77 #24457 üzenetére

    Igen, néztem én is ezt. Következő lépés ez. De egyelőre a /boot titkosítatlan, összes többi titkosított (swap is). Még a TRIM után guglizok, hogyan megy át, egyáltalán átmegy-e ezeken a logikai rétegeken, mondjuk pont az SSD nem lesz raid-ben + agyon nyúzva, de találtam egy érdekes cikket, ahol szoftveresen be lehet állítani a HDD-k (vagy bármilyen eszköz) elé az SSD-t cache-nek, ráadásul write-back és write-through stratégia egyaránt állítható. Érdekes :K

    Egyelőre csak egy VirtualBox homokozóban vagyok, szerintem ha mindent kiteszteltem, elkövetem élesben is a mókát, úgyis most migrálok a 3db nagy vinyómról 2db 2.5-ösre és mini ITX-re, konszolidálom a NAS-omat. Most 3 x 4TB-m van raid5-ben, ehelyett a fontos családi fotóknak + hobbi fotóknak lesz egy 2 diszkes raid1 partíció, nagyon ritka flac zenéknek szintén, minden egyéb újrabeszerezhető dolog raid0, mert nem fontos. SSD meg lehet nem is lesz, vagy a régi (de tök jó kondíciójú) 64GB-s SSD-met betolom cache-nek, az jó, mikor Photoshop/Lightroom elkezdi cibálni a 10GBe-t.

    Köszi mindenkinek a hsz-t és tippeket, maradok a raid-LUKS-LVM sorrendnél. :R

  • #40935168

    törölt tag

    válasz #40935168 #24453 üzenetére

    Illetve még egy kérdés: ha teljes boot meghajtót akarok titkosítani - ilyet nem tud a rendszer ? Kéri a Debian installer most tőlem, hogy ha a root fájlrendszert titkosítom, akkor egy titkosítatlan /boot-ot adnom kell neki azért, az induláshoz. Itt gondolom ügyeltek Linuxék arra, hogy érzékeny adat ne legyen még csak véletlen sem.

  • #40935168

    törölt tag

    Sziasztok,

    Nektek valszeg nagyon egyszerű kérdésem lenne megfejteni.
    Adott egy vas, benne egy SSD és két vinyó. Titkosítás, LVM és Raid egyaránt képbe jönne számomra. Kérdés, hogy melyik layer-t pakoljam melyikre ?

    Ez a leírás azt mutatja-mondja, hogy:
    - először a raid block device-t létrehozzuk
    - utána titkosítunk
    - utána LVM létrehozás

    A kérdésem csak az, hogy van-e ennek más útja, értelme, módja ? Csak mert én titkosítással kezdeném azonnal:
    - SSD titkosítás
    - HDD1 titkosítás
    - HDD2 titkosítás
    - LVM
    - Raid

    Vagy tök máshogy kellene ? LVM előre ? (Lehet hülyeséget kérdezek).

  • #40935168

    törölt tag

    válasz lionhearted #22157 üzenetére

    Semmi LVM, vagy ilyesmi. Pure natúr setup, ahogy megszületett. :D Összehekkeltem a motyót, backup-olgatok (még mindig, igen) :D és ma dél körül indítom a raid1 -> raid5 migrálást, adatvesztés nélkül.

    Legalábbis elméletileg, ezt írja az Intel doksi. Meglátjuk :)

  • #40935168

    törölt tag

    válasz lionhearted #22153 üzenetére

    Rapid Storage Technology. És az is imsm. ;) Nincs semmiféle "Legacy" itt :)

    Cache: passz. Még most ismerkedem vele.

    A vinyók 3 db Seagate NAS HDD (4TB egyenként), 150 Mb/sec körüli nettó sebességgel. Kiv leszek én is a raid5 speed-re, ha összeállt végre..

  • #40935168

    törölt tag

    válasz subset #22149 üzenetére

    Azért ez sem ennyire fekete fehér, a legbiztonságosabb módszer még mindig az, ha többféle megoldást kombinálunk, például logikai vagy user error esetén (=törlünk/törlődik vmi, vírus, egyéb) semmi sem véd. A rendszeres backup kell, de aki performance-t is szeretne, az azért menjen csak dedikált kontroller után, annak minden előnyével (ami van rendesen, első ugye a szünetmentes táp, aztán a cache memória, fejlettebb adatforgalom vezérlés, saját tápellátás totál áramkimaradás esetén, ilyesmik. Amik egy linuxos hobbi mdadm motyótól kissé messze állnak.

    @ lionhearted: dehogynem, most is épp mdadm alatt hekkelem az IMSM-et (amit Windows-ban hoztam létre, de már megy linuxban is). De migrálni a Raid1 tömbömet Raid5-é Win alatt fogom. Meg az SSD-mről átteszem a rendszert egy Raid5-ös particióra, GPT, stb, most jön csak a xopás és megnézzük, az SSD mit tud úgy, hogy beáll az array mögé cache-elni :U Gyanítom, jobban járok majd, ha játékokra meghagyom külön meghajtóként, mintsemhogy beáldozzam cache-be. De most megnézzük, az Intel mit tud. Úgyis csak Intelem lesz a jövőben is, a formátumot meg ismeri a linux is ha elfogyna az alaplap száz év múlva..

  • #40935168

    törölt tag

    válasz lionhearted #22146 üzenetére

    De. Na de hogy 0-1-2 drive-ok közül pont az 1-esen ne lássa a rajta lévő particiót .. :W Nagyon buta..

  • #40935168

    törölt tag

    válasz Vladi #22144 üzenetére

    Intel RST. Alaplapi fake cucc. De jónak mondják, meg platformfüggetlen, hát egy kalap xar.. :)
    Csak beköltöztem a NAS-omra.. (Gigabyte Z87X-D3H) és látni akarom a motyót.. sok-sok adatom..

    Hát .. ez lesz a megoldás :)

  • #40935168

    törölt tag

    válasz #40935168 #22137 üzenetére

    Istenem, de megagyökér ez az Intel Rapid Storage Raid vezérlőszoftver.. :W
    - 3 vinyómból egyiken vannak adatok, másik kettő töküres. (A rendszer külön SSD-n van).
    - Port 0 - üres vinyó
    - Port 1 - 98% tele vinyó
    - Port 2 - üres vinyó

    Ha őket az RST szoftverrel be akarom tenni raid5-be, felajánlja - amennyiben Port0 vagy Port2-es vinyón van adat - hogy mentse őket. A Port 1-en lévő tényleges adatokat meg nem látja, nem ajánlja fel rá a raid5 migrálás előtt, hogy tartsuk meg az adatokat és a másik két vinyót felülírhatja.

    Istenem, de kőbuta. :W De megcsináltam azt, hogy elkezdtem Port2-es vinyóra átmásolni Port1-es tartalmát, feléig jutottam a türelmem miatt. És arra bezzeg felajánlja, érzékelve, hogy van rajta adat, hogy azt tartsuk meg, vagy Port0-t, ha arra is csináltam egy bitnyi adatot, tökmindegy mit. De Port1-es majdnem tele vinyó dataira tojik..

    Áááá hagyom én ezt a szenvedést a picsbe, komolyan, ... :W

    Odaadom a 3 HDD-t direct access-be egy Virtualbox-os Debian VM-nek és mdadm-el megcsinálom. Nem gondoltam volna, hogy ezek az alaplapi megoldások ennyire de ennyire mocsok faék egyszerű kőbuta dolgok..

    Ja és amikor abort-oltam 0-ás és 2-es diszkekből egy raid1 kreálást, offline-ba lőtte a Winfos a 2-es diszket, mondván, hogy azonosító conflict van a 0-ás HDD-vel :W Omg.. mert ugye a raid1-el elkezdte tükrözni egyiket a másikra.. Na mondom oké, akkor keressünk valami kinullázást.. ja, hogy itt nincs dd .. lássuk csak lássuk csak .. áhh, HD Sentinel felület teszt.. desktruktív .. indít.. enged menni 10mp-ig ..

    .. és lám, már nincs is conflict, initialize, GPT és ollé.

    Istenverte barom MS, Intel, mindenki :W

    Linuuuux óhb*meg, I LOVE LINUX.

  • #40935168

    törölt tag

    válasz Jester01 #22136 üzenetére

    Hát puding próbája az evés nálam is, úgy érzem. :O Szóval.. majdcsak mond valamit a 2 vinyós felállásra, mikor raid5-be tenném.. Sztem sincs elvi akadálya amúgy. A BIOS lehet nem tudja, de a linux alatt lehet megoldanám és akkor alá tenném a harmadikat is kicsit később, sync, aztán hajrá Windows.

    Kiv. leszek.

  • #40935168

    törölt tag

    Sziasztok,

    imsm formátumú superblock-os (soft)raid kérdésem lenne :U
    Éspedig: lehetséges-e mdadm-el létrehozni egy imsm raid5 array-t ("volume"-t) degraded módban ?

    Az Intel RST doksi elmondja az alapokat, amit kb. tud is mindenki:

    1.
    First a container of Intel RAID metadata must be created.
    mdadm -C /dev/md/imsm /dev/sd[b-d] –n 3 –e imsm
    Continue creating array?
    y
    mdadm: container /dev/md/imsm prepared.
    The command creates a RAID container wi
    th Intel® RST metadata format. The
    device node for the container will be /d
    ev/md/imsm. In this
    example disks sdb,
    sdc, and sdd are used for this RAID set,
    and the total number of disks is 3.

    2.
    Next we create the RAID volume
    /dev/md/vol0
    mdadm -C /dev/md/vol0 /dev/md/imsm –n 3 –l 5
    mdadm: array /dev/md/vol0 started.

    Na ez eddig szuper is, én viszont egy "missing" paraméteres raid5 array-t szeretnék kreálni imsm superblock formátummal, hogy a Windows-om majd ismerje a megfelelő driverrel, egyelőre 2 HDD-vel, a harmadikat nem tenném még hozzá.

    A bajom az 1-es pont, azaz az imsm konténeres metadata létrehozása: ezt vajon engedi úgy létrehozni, hogy .... "/dev/sda /dev/sdb missing -n 3 -e imsm ? " Próbálta már ezt vki ?

    Thx.

  • #40935168

    törölt tag

    válasz tlac #20500 üzenetére

    #20485

    Röviden: Debian stable friss install, 3 HDD, mdadm soft raid 5 és a 3 HDD 2mp-enként seekelt egyet folyamatosan, idle módban is. LED lámpa villogott, tehát HDD hiba vagy vezérlés kizárva, vmit az OS írt rá folyton. Tippeltem már mindenre, végül kifogytam az ötletekből és átálltam btrfs-re, azzal nincs is semmi, full csend van, ha nem tölt a gép.

  • #40935168

    törölt tag

    válasz lionhearted #20497 üzenetére

    Nekem inkább kényszer. Az ext4 problémámra itt senki nem reagált, a neten sem lettem okosabb, most formázzam ntfs-re a raid tömböt ? :D (Megfordult a fejemben)..

    Na az morbid lenne (elvből) :)

  • #40935168

    törölt tag

    válasz lionhearted #20490 üzenetére

    Több ismert disztró is defaultból ajánlani fogja, még a hivatalosan stabillá tétel előtt. Szerintem túl van hype-olva az instabilitása (ami kezdetben valid volt amúgy), ettől függetlenül nem fogok megint ext4-et tenni rá, hogy hülyére seek-eljen 3 vinyó a semmire.. úgyhogy egyelőre igen, a raid5 md4p1 array-t ezzel formáztam le.

    4 másik külső HDD-n itt-ott megvan minden, egyelőre őket sem törlöm egy darabig (hátha meggondolom magam mégis).

  • #40935168

    törölt tag

    Megoldottam. Töröltem a teljes fájlrendszert és kapott egy btrfs-t az md4 array. (Egyelőre ahogy gugliztam, inkább softraid és arra btrfs még, mintsemhogy fájlrendszer szinten btrfs-ből raid5-özzek zfs raid-z1 módra). Nyugi is van, semmi sem írogat rá ha nem kell. Vmi hülyeség van ext4 körül..

  • #40935168

    törölt tag

    Talán még ez segíthet ?

    root@nas:~# mdadm -D /dev/md4p1
    /dev/md4p1:
    Version : 1.2
    Creation Time : Sun Jul 27 16:33:01 2014
    Raid Level : raid5
    Array Size : 7733497856 (7375.24 GiB 7919.10 GB)
    Used Dev Size : unknown
    Raid Devices : 3
    Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Tue Jul 29 22:29:19 2014
    State : clean
    Active Devices : 3
    Working Devices : 3
    Failed Devices : 0
    Spare Devices : 0

    Layout : left-symmetric
    Chunk Size : 4K

    Name : nas:4 (local to host nas)
    UUID : b3387dba:1f157a9d:cdca131e:f12e4b93
    Events : 829

    Number Major Minor RaidDevice State
    0 8 4 0 active sync /dev/sda4
    1 8 20 1 active sync /dev/sdb4
    3 8 36 2 active sync /dev/sdc4

  • #40935168

    törölt tag

    válasz Vladi #20486 üzenetére

    Semmi.. minden nullán áll, közben nulla és 1M/sec között váltakozik lustán a Total DISK Write.

    Total DISK READ: 0.00 B/s | Total DISK WRITE: 1016.31 K/s
    TID PRIO USER DISK READ DISK WRITE SWAPIN IO> COMMAND
    4096 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kworker/0:0]
    1 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % init [2]
    2 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kthreadd]
    3 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [ksoftirqd/0]
    6 rt/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [migration/0]
    7 rt/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [watchdog/0]
    8 rt/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [migration/1]
    10 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [ksoftirqd/1]
    12 rt/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [watchdog/1]
    13 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [cpuset]
    14 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [khelper]
    15 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kdevtmpfs]
    16 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [netns]
    17 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [sync_supers]
    18 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [bdi-default]
    19 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kintegrityd]
    20 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kblockd]
    21 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [khungtaskd]
    22 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kswapd0]
    23 be/5 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [ksmd]
    24 be/7 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [khugepaged]
    25 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [fsnotify_mark]
    26 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [crypto]
    2652 be/4 Debian-e 0.00 B/s 0.00 B/s 0.00 % 0.00 % exim4 -bd -q30m
    4103 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [flush-8:0]
    2604 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog
    4104 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % sshd: root@pts/0
    2150 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % supervising syslog-ng
    2625 be/4 messageb 0.00 B/s 0.00 B/s 0.00 % 0.00 % dbus-daemon --system
    2742 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % sshd
    589 be/0 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % [kpsmoused]
    4109 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.00 % -bash
    .
    .
    .

  • #40935168

    törölt tag

    Sziasztok,

    eldöntöttem, hogy itthonra a fotóim miatt Debian alapú NAS-ra állok rá a NAS4Free-ről, mert kell a pusztán NAS funkció mellé még rengeteg minden nekem..

    Röviden a problémám: a HDD-k seek-elnek, a LED villog. Üresjáratban is 2mp-enként pozicionál vagy hármat a fej a raid tömbön.

    Setup:
    - Gigabyte mezei alaplap (LGA1055, 6xSATA3)
    - Pentium proci
    - 8G RAM
    - 3 x 4TB Seagate NAS HDD

    A Seagate NAS HDD-k egyikéről fut a rendszer, a másik kettőre még nincs replikálva és raid-be téve az ottlévő partíció, csak elő van készítve (sfdisk-el backup-oltam az elsőről a teljes GPT part. táblát és ezt visszanyomtam a másik kettőre).

    Egyelőre /dev/sd[abc]4-ből csináltam egy raid5 arrayt, /dev/md4p1 néven. 3db totál egyező 3.9TB-s partíció, md4p1-et ext4-re formáztam.

    Minden csodálatos, minden szuper. Lefutott a szinkronizálás is, mdstat:

    root@nas:~# cat /proc/mdstat
    Personalities : [raid6] [raid5] [raid4]
    md4 : active raid5 sda4[0] sdc4[3] sdb4[1]
    7733499632 blocks super 1.2 level 5, 4k chunk, algorithm 2 [3/3] [UUU]

    unused devices: <none>

    Írási sebesség 1 HDD szintje körül van, olvasás elég gyors.
    Smart értékek abszolút jók, 3 vadonatúj HDD, mind 100/100, előbb HD Sentinellel néztem őket másik gépben, végül beszereltem ide.

    Mi lehet a seek-ek oka ? Nem sima HDD seek-ek, ami HDD hibára utalna, mivel a LED világít, tehát az OS-től jön-megy valami kérés a raid tömb irányába.

    - Ha az array-t umount-olom, megszűnik a seek-elés és tök csend és nyugi: a HDD-k pörögnek, a rendszer áll csendben és nem történik tényleg semmi.

    Ha az array-t mount-olom, indul a kb. 2 mp-enkénti seekelés, LED villogással együtt, tehát VALAMIT csinál az oprendszer az array-en. Ami nem a recovery/resync, mint látjuk fentebb az mdadm stat-ból.

    Egy külföldi fórumon egyedül ennyit találtam, mert más is küszködött már hasonlóval:
    - lehet kernel bug, de javították, enyém pedig friss wheezy (stable) és full up-to-date
    - tippelt valaki arra, hogy az array-en ext4 létrehozás gyorsan megtörténik, de ezután ténylegesen a rendszer csak később, működés közben incializálja az inode-okat, ez valami lazy-inode init ...és elvileg elmúlik idővel, ahogy végzett, csak hát itt most bárhogy nézem, közel 8 terát kell inicializálnia, ha ez a inode-os feltételezés igaz..

    Mount-olás noatime-al történik fstab-ból .. az ext4 journal sem lehet szerintem..

    Nem vagyok nagy guru, inkább amolyan lelkes kezdő-középhaladó. Lenne ötlet, mi dolgoztatja a HDD-ket felmountolt array esetén ? :F

  • #40935168

    törölt tag

    XEN-es kollégákhoz: hogyan tudom kikapcsolni (vagy kinullázni) a default network script-et, ami a virt-manager feltétele óta lefut ? Hol lehet ez, melyik fájl ? (Debian stable)

    Erre gondolok:
    # Generated by iptables-save v1.4.8 on Sun Feb 24 16:19:49 2013
    *nat
    :PREROUTING ACCEPT [9:708]
    :POSTROUTING ACCEPT [15:1088]
    :OUTPUT ACCEPT [10:704]
    -A POSTROUTING -s 192.168.1.0/24 ! -d 192.168.1.0/24 -p tcp -j MASQUERADE --to-ports 1024-65535
    -A POSTROUTING -s 192.168.1.0/24 ! -d 192.168.1.0/24 -p udp -j MASQUERADE --to-ports 1024-65535
    -A POSTROUTING -s 192.168.1.0/24 ! -d 192.168.1.0/24 -j MASQUERADE
    COMMIT
    # Completed on Sun Feb 24 16:19:49 2013
    # Generated by iptables-save v1.4.8 on Sun Feb 24 16:19:49 2013
    *filter
    :INPUT ACCEPT [534:42707]
    :FORWARD ACCEPT [64:5952]
    :OUTPUT ACCEPT [470:49173]
    -A INPUT -i virbr0 -p udp -m udp --dport 53 -j ACCEPT
    -A INPUT -i virbr0 -p tcp -m tcp --dport 53 -j ACCEPT
    -A INPUT -i virbr0 -p udp -m udp --dport 67 -j ACCEPT
    -A INPUT -i virbr0 -p tcp -m tcp --dport 67 -j ACCEPT
    -A FORWARD -d 192.168.1.0/24 -o virbr0 -m state --state RELATED,ESTABLISHED -j ACCEPT
    -A FORWARD -s 192.168.1.0/24 -i virbr0 -j ACCEPT
    -A FORWARD -i virbr0 -o virbr0 -j ACCEPT
    -A FORWARD -o virbr0 -j REJECT --reject-with icmp-port-unreachable
    -A FORWARD -i virbr0 -j REJECT --reject-with icmp-port-unreachable
    COMMIT
    # Completed on Sun Feb 24 16:19:49 2013

  • #40935168

    törölt tag

    válasz rt06 #16657 üzenetére

    :R ezeket megnézem.

    Tunnel-nél nem kell nagyon nyitogatni semmit, localhost-ról localhost-ra ACCEPT van mindenre és a tunnel arra hivatkozik amikor putty-ban megadom, tehát a szerver oldalon nem eth0 lesz, nem virbr0, sem egyéb más, hanem a tunnel vége is a localhost egy része kvázi. (Legalábbis így tudnám konyhanyelven elmondani).

  • #40935168

    törölt tag

    Ok, jó tippeket adtál, köszönöm ! Ennyi kb. már elég, kiásom a dió belét :K
    :R

  • #40935168

    törölt tag

    válasz bambano #16651 üzenetére

    Ok, mindenhez nem értek én sem. Cygwin-eztem régen, kb. rémlik, mit mondasz. Kérdés már csak az, hogyan kapcsolódom a host-hoz a Windows-os X-ből.

  • #40935168

    törölt tag

    válasz rt06 #16650 üzenetére

    Dom0, a host-ot. Új vagyok XEN-ben, egyelőre hülyét kapok a konzol alapú VM manageléstől úgy látom ez mélyvíz kissé..
    ..szükségem van gyorsan egy quick & dirty megoldásra. Ez lenne elképzelésem szerint a virt-manager (igazából még xfce4 sem kell hozzá, csak az ablak), vnc-vel.

    Szóval szeretnék összekattintgatni 1-2 VM-et, ennyi, aztán beleásom magam mélyebben a konzol alapú xen-ezésbe..

  • #40935168

    törölt tag

    Sziasztok,

    van egy szerverem valahol a neten, a távolban. Bérelt gép, Debian stable. Szükségem van grafikus felület elérésére VNC klienssel itthonról, néha. Kérdésem: HOGYAN ?

    - XEN virtualizálok rajta
    - xfce4-et preferálom, kicsi, gyors, jó
    - telepítettem, X is felment
    - gondolom, boot-nál már grafikusan indul a gép (reboot oké, túlélte)

    Kíváncsiságból beírtam az ssh session-ben, hogy startx, és megállt az élet. Vagy a hálózatot cseszte el, vagy szétfagyott, de utóbbit kétlem. Adtam neki a szolgáltató admin felületéről egy reboot-ot. :(((

    Két dolog érdekelne:

    1. mivel kézzel írt iptables scriptem van, nem szeretném, ha belekontárkodna. Ha így lenne mégis, hol kapcsolom ki, hogy az X ne bántsa a network script-eket ?

    2. vnc-n hogy érem el ? KVM-mel ez régen ment, de most netstat nem nagyon mutat semmi erre utalót, hogy figyelne-e valami VNC porton egy X session...

    Szóval egyelőre kéznél minden, de elakadtam. (A vnc-t ssh tunnelen viszem át, de egyelőre még ott tartok, hogy szerintem nem is hallgatózik semmi).

  • #40935168

    törölt tag

    válasz rt06 #16565 üzenetére

    Nalam semmi. Minden DROP-on. Meg ftp-t sem hasznalok, helyette a honlaphoz vagy barmi mashoz a feltoltest Samba-n csinalom - egy OpenVPN SSL tunnellel osszekotve a routerem es a szerver.

  • #40935168

    törölt tag

    :K (Nem szukseges, ha a FORWARD ACCEPT-en van, persze egy paranoid ember itt is szur) :)

  • #40935168

    törölt tag

    válasz rt06 #16561 üzenetére

    Nahh, klassz amit leírtál, köszi ! Meglett közben a nat verzió, most interfaces-em úgy néz ki, hogy loopback és eth0 statikusra benne van, de bridge és többi ilyesmi, semmi.

    Ezt külön húzza fel egy virtlib script a net-autostart miatt:

    # virsh net-define /usr/share/libvirt/networks/default.xml
    Definiálom a default network-öt, aztán net-edit-tel átírom benne ip-ket..
    # virsh net-autostart default
    Ez húzza fel a virt. if-et boot alatt
    # virsh net-start default
    Ez pedig most indítja el..

    Eredmény:
    # brctl show
    bridge name bridge id STP enabled interfaces
    virbr0 8000.000000000000 yes

    Illetve egy ifconfig új interfész:
    virbr0 Link encap:Ethernet HWaddr 8a:66:d9:73:8d:83
    inet addr:192.168.1.254 Bcast:192.168.1.255 Mask:255.255.255.0
    UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
    RX packets:0 errors:0 dropped:0 overruns:0 frame:0
    TX packets:0 errors:0 dropped:0 overruns:0 carrier:0

    Routing-hoz betettem a következőt /etc/sysctl.conf-ba:
    net.ipv4.ip_forward = 1
    de plusszban a Te parancsaid is lefutnak a tűzfal scriptemben.

    A guest OS-ek végül név alapján köthetők be a virtuális alhálóba (aminek a neve default de lehetne pityu is):
    <interface type='network'>
    <source network='default'/>
    <mac address='00:16:3e:1a:b3:4a'/>
    </interface>

    (Innentől kezdve a guest-ben dől el nyilván, hogy dhcp-n kap-e ip-t, vagy static).

    Soha nem csináltam még így, mint fentebb, mindig úgy szoktam, ahogy Te írtad. De most műx, már nyomtam egy reboot-ot is tesztelni a dolgot, tök jó ;)

    Ja, és a végén a nat dolgok, igen.

    Viszont a FORWARD csak szűr (éspedig mindkét irányba), kintről hogy egy virtuális gép az ip-jén látható legyen, PREROUTING kell és DNAT ;) - 80-as portra pont ezt csinálom, egy másik VM email-re.. stb. Alájuk meg kipublikálom a host /home mappájában lévő TrueCrypt konténereket :DDD

    No, mindenesetre thx :R

  • #40935168

    törölt tag

    Közben rábukkantam már egy libvirt cikkre, okosodom..

  • #40935168

    törölt tag

    Sziasztok,

    bérelek szervert a távolban és van egy eth0 interfész, rajta egy statikus ip, stb, ahogy kell, ennyi. Ez egy fizikai vas.

    Szeretnék rajta virtuális gépeket futtatni. Xen. Kernel megvan, betöltött, oké. Minden adott.
    Egy alap Debian, a minimumról tettem fel.

    Kérdésem a hálózatra vonatkozik: szeretnék létrehozni egy belső hálót (tipikus C osztályú 192.168.0.x-et) és az egyes VM-eknek ezt adni.

    A routing és egyéb része, iptables stb. okés lenne, de konkrétan bridge és hasonló szinten nem vagyok nagyon képben: a bridge (virtbr0 vagy br0 stb) tulképpen egy virtuális switch ?

    Szóval hogyan tudom azt az /etc/interfaces-ben definiálni, hogy eth0 mellett további virtuális interfészeim is megjelenjenek ? Nekik netet a host adna, szóval natolni szeretnék.

    Xen oldala azt írja, hogy eth0-t definiálni kell interfaces-ben de ip és egyebek nélkül, eth1-et is (ami passz, hogy fizikai-e vagy sem, nekem itt nyilván nem az kell) és a kettőt összeköti br0-ban, valahogy így:

    # This file describes the network interfaces available on your system
    # and how to activate them. For more information, see interfaces(5).

    # The loopback network interface
    auto lo br0
    iface lo inet loopback

    # Set up interfaces manually, avoiding conflicts with, e.g., network manager
    iface eth0 inet manual

    iface eth1 inet manual

    # Bridge setup
    iface br0 inet static
    bridge_ports eth0 eth1
    address 192.168.1.2
    broadcast 192.168.1.255
    netmask 255.255.255.0
    gateway 192.168.1.1

    Namost, annyit mond még az okosság, hogy eth0 ugye nem kap ip-t, ehelyett br0-nak kell felvennie a szolgáltatótól kapott ip címet. Na de ez sehogy nem áll össze a fejemben, akkor az olyan kvázi, mintha az egyik guest-em eth0-áját is a szolgáltató switch-ébe kötném, vagy rosszul látom ?

    Szóval nem kéne kizárnom magam a gépből, se a szolgáltatónál gubancot okoznom: egy eth0-tól teljesen izolált natolt belső hálózatra lenne szükségem, amiben a host belelógatja a lábát 192.168.1.1 ip-vel és csókolom, míg eth0 továbbra is kifele a külvilágra figyel.

    Ötlet ?

    Egy évvel ezelőtt KVM valahogy megcsinálta nekem jól, de ez most Xen..

  • #40935168

    törölt tag

    válasz bambano #16443 üzenetére

    Valszeg igen.. de eljátszottam a gondolattal.. biztos megfordult ez már másnak is a fejében..

  • #40935168

    törölt tag

    válasz Jester01 #16437 üzenetére

    Sztem ez kettes, nem ? (Hiába 3-asnak írja). Az USB3-ba nem fontos már az elektronika közé, de lehet csinálnak még ilyet.. hmm.. körbejárom, thx.

  • #40935168

    törölt tag

    válasz bambano #16428 üzenetére

    thx..
    elagyalgattam azon, 2-3 USB3 port trönkölve (2-3 interfész) milyen szépen tudna cibálni egy storage-ot apróért, úgy 10-11 Gigabit körül overhead-del mondjuk..

  • #40935168

    törölt tag

    válasz #40935168 #16424 üzenetére

    (Erről beszélek, az USB3 specifikáció engedi már, hogy két PC-t összekössünk ilyennel, de mint a fehér holló.. + akkor OS oldalon mi támogatja..) :F

  • #40935168

    törölt tag

    Sziasztok,

    adott két gép:
    - PC1, NAS
    - PC2, Workstation

    PC2-t szeretném PC1-el összekötni USB-n, kihasználva a mindkét oldalon USB3-as sebességet.
    Van ilyen megoldás, tudtok ilyenről .. ? Valami Ethernet over USB vagy IP over USB -nek lehetne hívni.

    Látok a neten mindenfélre próbálkozásokat, de olyat nem szeretnék, hogy veszek egy USB3-as HUB-ot, és hozzá 4-4 (=8) USB-s hálókártyát, amiket négy kábellel kötök és trunk-ölök, szóval ez így a nonszensz lenne.

    Tudtok tehát olyanról, ami két gép között USB kábelen valósít meg adatátvitelt ? (Erre még ha Network layer is rájön valami virtuális interfésszel mindkét oldalt, mmm).

    A gép Win7, a NAS egy Debian.

  • #40935168

    törölt tag

    válasz bambano #14011 üzenetére

    MErt kíváncsi vagyok és enterprise-éknál amúgyis külön storage-ra szokás tenni, persze ott üveg is van és komolyabb cucc alatta, de én most inkább tanulni akarok ezzel, semmi extra.

    Tehetném alájuk, de akkor 2 Apache -> 2 oldal, sync, stb, áh..

    katt

    Szerk2: foto blog is lenne, a sok-sok képet, stb. nem akarom duplázni :U

  • #40935168

    törölt tag

    válasz #40935168 #14009 üzenetére

    Ez lenne jó, vagy van más, amit inkább ajánlotok ?

    NFSv4

    Version 4 (RFC 3010, December 2000; revised in RFC 3530, April 2003), influenced by AFS and CIFS, includes performance improvements, mandates strong security, and introduces a stateful protocol.[3] Version 4 became the first version developed with the Internet Engineering Task Force (IETF) after Sun Microsystems handed over the development of the NFS protocols.

    NFS version 4.1 (RFC 5661, January 2010) aims to provide protocol support to take advantage of clustered server deployments including the ability to provide scalable parallel access to files distributed among multiple servers (pNFS extension).

  • #40935168

    törölt tag

    Sziasztok, elméleti tanácsot kérnék (Debian minden): milyen fájlrendszert ajánlanátok weboldalakhoz, ami hálózaton (UTP Gigabit réz) elmegy ?

    - adott egy HTTP proxy, ami két egyforma Apache kiszolgálóra mutat, load balancing-ot csinál
    - az Apache-ok még csak default beállításban vannak, tehát mindegyiken az "It works!" megy :) /var/www -ből
    - van egy harmadik, combos vas, rajta a tényleges weboldal, amit ki szeretnék publikálni a netre
    - ennek könyvtárát szeretném az egyes Apache-os Debianokban be mountolni a rendszerbe
    - és végül Apache-ok conf fájlját szerkesztve erre a könyvtárra mutatok, és ollé, jön a weboldal ahogy kell

    Tudom egyelőre értelmetlen úgy loadbalancolni, hogy a tartalom ismét csak 1 gép, de lesz nemsokára mégegy, egymással ők sync és akkor mindenki mindenkivel ..

    Szóval mi itt a kulcsszó ? Ami pl. támogatja azt is, hogy egyszerre mindkét Apache gép alá be legyen mount-olva, mert nyilván ez kell. Biztos van ilyen :U

    Köszi.

  • #40935168

    törölt tag

    válasz Speeedfire #13071 üzenetére

    Cégben vagyok, otthonról benézek SSH-n és kipróbálom.
    Köszönöm ! :R

  • #40935168

    törölt tag

    Sziasztok,

    Debian topic-ban nem kaptam erre választ, hátha itt:

    A /var/auth.log -om tele van ilyenekkel:

    Feb 8 20:17:01 kukacka CRON[17677]: pam_unix(cron:session): session opened for user root by (uid=0)
    Feb 8 20:17:01 kukacka CRON[17677]: pam_unix(cron:session): session closed for user rootFeb 8 21:17:01 kukacka CRON[17716]: pam_unix(cron:session): session opened for user root by (uid=0)
    Feb 8 21:17:01 kukacka CRON[17716]: pam_unix(cron:session): session closed for user rootFeb 8 22:17:01 kukacka CRON[17753]: pam_unix(cron:session): session opened for user root by (uid=0)
    Feb 8 22:17:01 kukacka CRON[17753]: pam_unix(cron:session): session closed for user root

    Mi erre a megoldás, hogy ne szemetelje a cron tele az auth.log- ot ? A logrotate ugyan elintézi a dolgot, de engem kb. "optikailag" iszonyatosan zavar.

    Szerk.: guglin már találtam mind Debilre, mind Redhat-re egy megoldást, de a Debian verzió nem hatott nálam, továbbra is ezt produkálja.

  • #40935168

    törölt tag

    Sziasztok,

    van egy vasam, amit betettem BIX-be. Elvan. Debil, stable, KVM alatt 4-5 VM fut rajta.

    Egyelőre játszadozom vele, de később komolyabb dolgokban szeretnék gondolkodni, emiatt mostanság is úgy építem fel az egész rendszert (host-ot és VM-eket), hogy skálázható legyen.

    Ami kb. azt jelenti, hogy ha egy VM-et egyszercsak úgy döntök, hogy kiteszek egy második fizikai gépre a host mellé, akkor ezt gyorsan meg tudjam tenni, különösebb szívás nélkül.

    Vagy ha a VM-et nem is, az általa használt fájlokat igen. Például ha ez egy webszerver, akkor az általa szolgáltatott honlapok fájljait .. tehát storage legyen a példa..

    És akkor jönne a kérdésem: hogyan osztanátok meg host-on lévő könyvtárat egy adott VM-mel ? Van ugyan rendesen overhead-je, de iscsi lenne, vagy mit választanátok, ha később a VM fizikai gépre költözik és minden egyéb marad ?

    Host és VM között ott a virtio p9 megosztás is, de - ugyan lassabb, de egyszerűbb - az iscsi fele kacsingatok erősen. Jó az irány, vagy van más ötlet ? :F

    Thx.

Új hozzászólás Aktív témák

Hirdetés