Hirdetés
- Nothing Phone 2a - semmi nem drága
- Bemutatkozott az Oppo kamerás csúcsmodellje
- Milyen okostelefont vegyek?
- Okosóra és okoskiegészítő topik
- Így spórolhat az Apple az iPhone 18 kijelzőin
- Yettel topik
- Fotók, videók mobillal
- Xiaomi 15 - kicsi telefon nagy energiával
- VoLTE/VoWiFi
- Android alkalmazások - szoftver kibeszélő topik
-
Mobilarena
"A Proxmox Virtual Environment (röviden: Proxmox VE, PVE vagy proxmox) egy szerver virtualizációra optimalizált nyilt forráskódú Debian alapú Linux disztribúció. Lehetővé teszi a virtuális gépek és konténerek egyszerű telepítését és kezelését web konzol és command line felülettel. A programcsomag két LXC és OpenVZ konténerek, valamint a KVM alapú virtualizáció kezelését támogatja" (Wikipédia)
Hivatalos oldal: https://proxmox.com/en/
Hivatalos fórum: https://forum.proxmox.com/
Backup center, mail gateway, proxmox hypervisor és datacenter letöltés: https://enterprise.proxmox.com/iso/Véreshurka hozzászólásából
Új hozzászólás Aktív témák
-
nerozol
tag
Sziasztok szeretnék segítséget kérni. Most fogok bele proxmox szerver építésébe. A konfigurációmban van egy samsung 860 EVO ssd 250 GB és van kettő 1 TB intel server magas írás-olvasást bíró ssd. Hogyan érdemes konfigurálni egy-két fórumon azt olvastam, hogy a zfs fájlrendszert nem érdemes samsungra rakni az intelek bírnák a strapát.
Lehet-e olyat beállítani, hogy a rendszer a samsungról bootoljon, a 2 db intel pedig legyen RAID1 ben?
Milyen fájlrendszert érdemes használni? -
válasz
tasiadam
#1798
üzenetére
OK, de a swappiness és a ram kihasználtság nem indokolta a swappolást, 24 GB ram van, elég bőven nekem. Amúgy nem vettem volna észre, ha nincs ez a betegségem, h végignézem naponta, h mi mennyit használ
Ez meg onnan jött, h PVE szerint a Casaa OS (ami csak egy web UI + docker manager a Buguntun) 80% felett használ ramot. Tudom, h az Ubuntu csak akkor pakolja ki a ramból a felesleget, ha kell a hely, ezért van a "hiba". De azé' ránézek mindig.
-
amargo
addikt
Itt hagyok én is egy kis infót, mert már többször észrevettem a logokban, de nem foglalkoztam vele, mert nem mindig volt jelen.
A lényeg, hogy LXC mentésekor, amiben használok docker-t ott fordult elő. Nálam egy ZFS-es pool-ba történik a rsync és onnen tömörít ugye (tar.zst).
Többször láttam ilyen hibaüzenetet az rsync-től:
rsync: [generator] set_acl: sys_acl_set_file(var/log/journal, ACL_TYPE_ACCESS): Operation not supported
failed: exit code 23A megoldás pedig, hogy be kell kapcsolni a tmp mappára, ahova történik az rsync a posixacl-t (
zfs set acltype=posixacl pool/tmp) -
válasz
tasiadam
#1795
üzenetére
hoston, a PVE töltötte meg a swapot. De így legalább Casa OS-re is ránéztem, az is csinált magának egy fain nagy swapfile-t, de minek? Van HDD, ott kapott swapot, ha a 10 GB ramból kifutna... a swapfilet nem fogom backupolni ezután.
Nem tudom, egy éve van Proxmox, kicsit több, ez most jelentkezett. Zram-ot majd megolvasom
-
Hááát, nálam mindig van valami furaság...

Ma ránézek, swap valami 90% felett, de a ram meg 42% használt... WTF?
Top szerint is ez a szituáció. Swappiness 10, meg minden a helyén, ahogy kell.
Casa OS-t leállítottam, mert annak a ram használatát szokta félrenézni.
Nem segített, 30% ram használat és 90% swap...
Akkor hardcore lettem
:swapoff -a
kicsi várás, kikapcsolta.swapon -a
Bódottá, swap üres. Még pár fontos parancs az utókornak:cat /proc/swaps
listázza a swap partíciókat, fájlokat.free -m
Nem tudom, h mi volt a hiba oka, az sem biztos, h hiba
talán csak a swap/ram démon tudná megmondani, esetleg a logok, de így nem fogom turkálni a múltat. 
-
-
-
-
inf3rno
nagyúr
Hátha később valakinek lesz ugyanez Mellanox kártyákkal. Nálam nagyjából ennyit kellett csinálni:
nano /etc/default/grub
GRUB_CMDLINE_LINUX_DEFAULT="pci=realloc=off"
Ha az elején az aborting-os hiba van dmesg-ben. [link]echo eth > /sys/bus/pci/devices/0000:0a:00.0/mlx4_port1
echo eth > /sys/bus/pci/devices/0000:0a:00.0/mlx4_port2
Ha nincs ETH mode-ban. Ugyanezekkel a fájlokkal lehet kiolvasni, hogy abban van e simán nanoval. Itt a "0000:0a:00.0" a PCIE eszköz neve, azt hiszem dmesg-ből jött. Sajnos nekem csak ez működött, ezzel viszont kell startup bash script, mert rebootnál elveszik a beállítás. Itt a teljes leírása: [link]ip link set dev enp10s0 up
ip link set dev enp10s0d1 up
Ha nem aktív, bár a GUI-ban ezzel sem lesz active, de létrejött nekem a kapcsolat. Az enp10s0 és enp10s0d1 a két port azonosítója a GUI-ból kiolvasható, de gondolom ip-vel hálózati eszközök listázásával is.Tesztelni ha 2-portos és saját magával van összekötve, akkor csak így lehet: [link]
Én közben eljutottam oda, hogy működik a kártya, viszont csak PCIE 1x sávszélességgel. Elég nagy csalódás ez nekem. Kénytelen vagyok másikat rendelni helyette. Már régóta próbálkozom ezzel a 40 vagy 56Gbps belső hálóval, de csak nem akar összejönni...

-
TheMiller
tag
válasz
wicktor93
#1783
üzenetére
Elsőként megpróbálnám privileged konténerrel, illetve a qbitorrentet is beállítanám rendesen (google/youtube segít), pl. használj incomplete könyvtárat ne a plex-et is használó könyvtárba tölts egyből, valamint a terület lefoglalást is állítsd be. Lehet ez mind megvan, nem tudom, nyilván nem látom, szóval csak szimpla ötlet.
-
jómunkások, nálam ennél jóval nagyobb a probléma!
Brave browserre váltottam pár hete, mert a Chrome sem az igazi.
Ennél viszont a PVE oldala néha visszakapcsol light témára, az oszlopaimat, stb. elfelejti, mintha a sütiket törölte volna. De már mindenféle kivételbe beraktam. Azt feldolgozom, h pár óránként újra be kell jelentkezni, de a light téma...
Valami javaslat, ötlet?
-
wicktor93
csendes tag
válasz
TheMiller
#1782
üzenetére
LXC a Helper Script alapbeállításaival (úgy látom unprivileged) és pct paranccsal csatoltam a teljesen üres ext4 HDD-t. Ilyenkor ugyanúgy nagy sebességgel kezd és végül lemegy kb 5MB/s-re, de nem látok semmi kiugrót a grafikonokon. Próbáltam úgyis, hogy csak ide volt csatolva, de a cél a lenne, hogy ugyanezt a mappát látja a jellyfin/plex lxc is.
Az OMV VM-ben próbáltam sata/scsi/virtio2 csatolással is, de ott a memóriát tömi meg, utána lassul be.
Ami furcsa, hogy az előző konfigban OMV alatt ez a hdd simán ment hosszabb ideig 80-nal, Proxmox alatt szenvedek most. -
TheMiller
tag
válasz
wicktor93
#1781
üzenetére
Akkor lxc-re raktad? Privileged a konténer? Hdd-t használja más is? Hogyan van hozzá csatolva? Mennyire van tele a HDD?
Amúgy ha ekkora CPU IO-d van akkor az biztosan storage probléma.Nekem pl. (privileged) Lxc-n van a qbit, 2mag, 2gb ram, ssd, storage-ként felcsatolva egy külön "eldobós" SSD-re tölt. Ha kész, megy át HDD-re. 80-ra van korlátozva a letöltés, ezt bármely erre képes torrent megosztás hozza. Ha nem korlátoznám, leszakadnának a smart cuccok itthon, szóval ki lehet bőven facsarni a maxot

-
wicktor93
csendes tag
Sziasztok,
Gondoltam beruházok egy HP 800 G4 SFF-be és Proxmox-szal kiváltom a jelenlegi OpenMediaVault szerverem és előkészülök a Home Assistant és egyéb jövőbeli projektekre.
Azzal szembesültem, hogy a Helper Script által telepített qBittorrent container idővel lecsökken 5-10MB/s-es sebességgre és semmi túlterhelés nem látható. Ha egy OMV VM-en belül telepítem dockerben, akkor az elején ki tudja használni a gigabites netet, Viszont elég hamar teleírja a memóriát (akár 12GB-t is), majd 40-60 MB/s sebességre beáll. Eközben a CPU IO delay 30-40%-ig is el tud menni.
Ami eddig találtam erről, hogy a jelenleg használt WD RED HDD-m SMR és nem CMR. Az előző konfigban ugyanezt a HDD-t 70-80 MB/s sebességgel tudtam írni tartósan.
Elképzelhető, hogy valóban a HDD a probléma, vagy esetleg más is szóba jöhet (pl. NIC) és érdemes lenne másik VE-t kipróbálni?
Előre is köszönöm.
-
rgqjx
aktív tag
Vadász, vadász....
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
inf3rno
nagyúr
Nekem összejött közben, Linux bridge kellett mindkét portra. Így már lehet pingelni, bár a portokat még mindig inaktívnak írja a proxmox. A sávszélesség is jónak tűnik 47Gbps.
-
válasz
TheMiller
#1768
üzenetére
Az OMV addig OK, amig az extras-t nem rakod fel...
Az a baj, h az OMV, csakúgy, mint a PVE lecseréli a fél Debiant. Lehet azokat a közös fájlokat is törölte. Ha van terminál, akkor azért megpróbálnám az újratelepítését: [link]
Elvileg a konfig fájlokat nem szedhette le az OMV, se mást, amihez nem volt köze. -
válasz
tasiadam
#1757
üzenetére
Jó kérdés... igazából az adta a kérdést, hogy ESXI alá ha feldobtam eddig bármit...win, bsd, linux...etc.. Akkor nagyon erősen javasolt volt a vmware tools vagy open-vm-tools... ha kintről akartam normálisan vezérelni a vm-et. Pl, egy restart vagy leállítás, hogy szabályosan menjen le a guest-en. És alapvetően az a kérdés, hogy proxmox, hogy kezeli a guest OS ilyen és egyéb szolgáltatásait? Itt is mondhatni kötelező egy open-vm-tools?
-
inf3rno
nagyúr
Na jó nálam ez marad holnapra. Azt írják, hogy konfigurálni kell a portokat, és akkor működni fog. Hát lövésem sincs hogyan kell, ennyire nem vagyok hálózatos guru... Odáig eljutottam, hogy látom a két portot, és van nevük a hálózatoknál, illetve adtam nekik IP-t, de pingelni már nem tudom őket, és nem aktívak. Gondolom valahogyan aktívvá lehet tenni őket. Ami jóval aggasztóbb, hogy azt írja csak 2 PCIE lane-t használ a 8-ból. Ha ez így marad, akkor visszasírom a 10Gbps kártyáimat, azokkal legalább nem volt szívás, mentek out of the box kb.
-
TheMiller
tag
Sziasztok,
A proxmoxban (host) van öngyógyítás mint az OMV-nél? Tegnap véletlen a host ablakában futtattam az OMV telepítést, amit uninstalláltam gyorsan ész nelkül, de egy mai restart után úgy látom jogosan megadta magát. (Pve mappa üres, GUI, tűzfal és pve net szolgáltatások failed-en)
Net és terminal van, és persze mindenről van mentés csak a hostról nem
Vagy csak a pendrive-s telepítés marad? -
inf3rno
nagyúr
Ezzel [link] valamelyest előrébb jutottam, de továbbra sem tűnik jónak:
dmesg | grep mlx4
[ 1.092182] mlx4_core: Mellanox ConnectX core driver v4.0-0
[ 1.092213] mlx4_core: Initializing 0000:0a:00.0
[ 9.512279] mlx4_core 0000:0a:00.0: DMFS high rate steer mode is: disabled performance optimized steering
[ 9.512482] mlx4_core 0000:0a:00.0: 15.752 Gb/s available PCIe bandwidth, limited by 8.0 GT/s PCIe x2 link at 0000:00:03.1 (capable of 63.008 Gb/s with 8.0 GT/s PCIe x8 link)
[ 9.613786] mlx4_en: Mellanox ConnectX HCA Ethernet driver v4.0-0
[ 9.613902] mlx4_en 0000:0a:00.0: Activating port:1
[ 9.615806] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 9.615814] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 9.616000] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 9.616267] mlx4_en 0000:0a:00.0: registered PHC clock
[ 9.617047] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 9.617899] <mlx4_ib> mlx4_ib_add: mlx4_ib: Mellanox ConnectX InfiniBand driver v4.0-0
[ 9.639778] <mlx4_ib> mlx4_ib_add: counter index 2 for port 1 allocated 1
[ 9.639783] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 14.168134] mlx4_en 0000:0a:00.0: removed PHC
[ 14.170863] mlx4_en 0000:0a:00.0: Activating port:2
[ 14.172633] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 14.172639] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 14.172828] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 14.173096] mlx4_en 0000:0a:00.0: registered PHC clock
[ 14.173573] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 14.173577] <mlx4_ib> mlx4_ib_add: counter index 3 for port 2 allocated 1
[ 14.174692] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 18.656484] mlx4_en 0000:0a:00.0: removed PHC
[ 18.659291] mlx4_en 0000:0a:00.0: Activating port:1
[ 18.660841] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 18.660845] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 18.661066] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 18.666007] mlx4_en 0000:0a:00.0: registered PHC clock
[ 18.666577] <mlx4_ib> mlx4_ib_add: counter index 4 for port 1 allocated 1
[ 18.666581] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 18.667812] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 22.873870] mlx4_en 0000:0a:00.0: removed PHC
[ 22.876841] mlx4_en 0000:0a:00.0: Activating port:2
[ 22.878478] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 22.878483] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 22.878669] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 22.880373] mlx4_en 0000:0a:00.0: registered PHC clock
[ 22.880904] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 22.880909] <mlx4_ib> mlx4_ib_add: counter index 5 for port 2 allocated 1
[ 22.882058] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 27.698321] mlx4_en 0000:0a:00.0: removed PHC
[ 27.701367] mlx4_en 0000:0a:00.0: Activating port:1
[ 27.702978] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 27.702983] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 27.703159] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 27.705446] mlx4_en 0000:0a:00.0: registered PHC clock
[ 27.705955] <mlx4_ib> mlx4_ib_add: counter index 6 for port 1 allocated 1
[ 27.705961] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 27.707053] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 32.658505] mlx4_en 0000:0a:00.0: removed PHC
[ 32.661345] mlx4_en 0000:0a:00.0: Activating port:2
[ 32.662944] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 32.662948] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 32.663136] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 32.665227] mlx4_en 0000:0a:00.0: registered PHC clock
[ 32.665701] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 32.665705] <mlx4_ib> mlx4_ib_add: counter index 7 for port 2 allocated 1
[ 32.666797] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 37.282530] mlx4_en 0000:0a:00.0: removed PHC
[ 37.285178] mlx4_en 0000:0a:00.0: Activating port:1
[ 37.286706] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 37.286712] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 37.286937] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 37.290885] mlx4_en 0000:0a:00.0: registered PHC clock
[ 37.291460] <mlx4_ib> mlx4_ib_add: counter index 8 for port 1 allocated 1
[ 37.291464] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 37.292595] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 42.174517] mlx4_en 0000:0a:00.0: removed PHC
[ 42.177403] mlx4_en 0000:0a:00.0: Activating port:2
[ 42.179000] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 42.179004] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 42.179192] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 42.180958] mlx4_en 0000:0a:00.0: registered PHC clock
[ 42.181436] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 42.181443] <mlx4_ib> mlx4_ib_add: counter index 9 for port 2 allocated 1
[ 42.182582] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 47.134568] mlx4_en 0000:0a:00.0: removed PHC
[ 47.137696] mlx4_en 0000:0a:00.0: Activating port:1
[ 47.139301] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 47.139306] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 47.139481] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 47.141685] mlx4_en 0000:0a:00.0: registered PHC clock
[ 47.142161] <mlx4_ib> mlx4_ib_add: counter index 10 for port 1 allocated 1
[ 47.142166] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 47.143364] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0Ami nekem fura: "15.752 Gb/s available PCIe bandwidth, limited by 8.0 GT/s PCIe x2 link at 0000:00:03.1 (capable of 63.008 Gb/s with 8.0 GT/s PCIe x8 link)" amikor egy fullos x16 PCIE slotban van benne...
-
inf3rno
nagyúr
A dmesg-ben ezt látom: "mlx4_core 0000:0a:00.0: Missing UAR, aborting"
0a:00.0 Network controller: Mellanox Technologies MT27520 Family [ConnectX-3 Pro]
mstflint -d 0a:00.0 q
Image type: FS2
FW Version: 2.42.5052
FW Release Date: 7.7.2019
Product Version: 02.42.50.52
Rom Info: version_id=8025 type=CLP
type=UEFI version=14.11.49 cpu=AMD64
type=PXE version=3.4.754
Device ID: 4103
Description: Node Port1 Port2 Sys image
GUIDs: ... ... ... ...
MACs: ... ...
VSD:
PSID: HP_1370110017Az 56G-t szerintem elfelejthetjük. Amúgy nem switch-el próbálom, hanem direktbe összekötve vele a gépeket, de nem fog menni. Inkább a 40, amire koncentrálok.
Akkor viszont elvileg működésre lehet bírni valahogyan, és nem is kell külön driver. Az jó hír.
-
válasz
inf3rno
#1762
üzenetére
Olvastad amit írtam fentebb? Milyen módban van a kártya? dmesg mit mond? Nem kell hozzá semmilyen gyártói driver külön, a nvidia sok éve biztosítja az un. "inbox" drivert a linux maninstream kernelekbe, az összes disztribúció használja, ezzel tökéletesen megy a CX3(pro). Egyébként az most ugrott be, hogy az 56G eleve egy zárt szabvány, az ethernet nem ismer ilyet, ezért csak Mellanox switch-el menne (CX3-al amúgy ez csak annyit jelentene hogy ezt a connection speedet látnád, de ~32G fölé nem igen tudnál menni, azt is csak sok szálas iperf-el, erős cpu-val, real world scenarioknál ennél jóval kevesebb hozható ki belőle).
Nem lehet, hogy IB módban van a kártyád? Van nálad /sys/bus/pci/devices/PCI_ID/mlx4_port* file?
PCI_ID: lspci | grep Mellanox megmondja.
-
inf3rno
nagyúr
válasz
inf3rno
#1762
üzenetére
Ja izé a hálókártya adatai:
Device #1:
----------
Device Type: ConnectX3Pro
Part Number: 764284-B21_Ax
Description: HP InfiniBand FDR/Ethernet 10Gb/40Gb 2-port 544+QSFP Adapter
PSID: HP_1370110017
PCI Device Name: /dev/mst/mt4103_pci_cr0
Port1 MAC: ...
Port2 MAC: ...
Versions: Current Available
FW 2.42.5052 N/A
CLP 8025 N/A
PXE 3.4.0754 N/A
UEFI 14.11.0049 N/A -
inf3rno
nagyúr
Lerántottam innen a Debian 11.3-as drivert, de nem megy. Elvileg a mostani Debian verzió 11.5 a Proxmox alatt, amihez nincsen Mellanox driver, legalábbis ezen az oldalon nem látok ilyen verziót. Esetleg meg tudja valaki erősíteni, hogy kuka a rendszer, ha ezzel a hálókártyával akarom járatni?
-
amargo
addikt
milyen címen próbálod meg elérni?
Ha megcsináltad, amit leírtak és a root CA bekerült a trusted store-ba, akkor utána, ha a cert-ed önmagában valid, azaz pl: nem járt le és megfelelő az url azaz a subject alternative names között ott van, akkor be kell jönnie az oldalnak. -
Proxmox esetében van olyan mint vmware vsphere(ESXI) esetében a vmware toolbox?
-
inf3rno
nagyúr
Az a baj, hogy nincs Windows PC-m.
Egyedül a laptop Windows, de az is csak azért, hogy legyen valami teszt rendszer a kódoknak.Az SSD-k SK Hynix PC801-esek, de csak Gen3 x4-es alaplapokban vannak. Szóval elvileg 32Gbps-nél nem fog többet tudni. Viszont zsigerből ez jön, hogy csináljam meg 56-osra, ahogy terveztem. Gondolom minél elcseszettebb valami, annál jobban vonzódok hozzá, vagy passz.

-
Shummo
senior tag
megoldható valahogy, hogy a böngészők ne problémázzanak a proxmoxxal, hogy nem biztonságos a https?
-
válasz
inf3rno
#1746
üzenetére
Van HPE firmware frissítés is, én a helyedben bedugnám egy Windows PC-be, arra telepíteném a latest hpe drivert, az meg fogja upgradelni a firmwaret is, illetve ha IB módban lenne, akkor itt át is fogod tudni kapcsolni könnyen ethernet módba. Utána mehet a linuxba, amit így nem kell már összekoszolni.
Amúgy milyen vas az, amiből 2x56G-t ki tudsz préselni? A CX3 eleve csak logikailag tudja ezt kezelni, mert nincs rajta annyi pci-e lane. Ha a csillagos eget is lehozod neki, RDMA/ROCE képes switchre dugod, RDMA-t tudó alkalmazásokkal, akkor úgy 32-36G-ig lehet vele elmenni. Persze azt is csak több szálon, megfelelő CPU-val és alkalmazással. A két port itt inkább a switchport és kábel redundancia biztosítása miatt van.
-
tasiadam
Topikgazda
válasz
code1005
#1745
üzenetére
https://prohardver.hu/tema/proxmox_ve/hsz_1676-1676.html
Itt a PVE server az az, ami bejön a proxmoxnál mint UI. Szóval megnyitod, és shell, beírod az ipvel és kész
-
code1005
senior tag
válasz
tasiadam
#1717
üzenetére
A beállítást nem értem (pedig egyszerűnek tűnik)
Van két jelenleg is létező node-om, pl.:
192.168.0.1
192.168.0.2
ide veszek be egy új külső szavazógépet, pl. egy PI-t, 192.168.0.100
Az összes node-ra fel kell tennem ezt corosync-qdevice, tehát a két első gépre (PI-re nem).
Szintén az első két gépen be kell ezt állítani: pvecm qdevice setup <QDEVICE-IP>.
Itt keresztben a másik node ip címét kell megadni?
Illetve, hol jön a képbe a PI? -
-
inf3rno
nagyúr
HP kártya, és egy ilyet szeretnék meglépni vele: [link] Utána egy Mellanox MCX354A-FCBT-nek felel majd meg, ha minden jól megy. Ehhez kéne driver. De majd inkább a hét vége felé lesz rá időm, vagy ha nagyon elegem lesz a melóból, és szünnapot tartok.
Érdekes ez a Netflixes sztori.
-
Megnéztem,
Ethernet controller: Mellanox Technologies MT27520 Family [ConnectX-3 Pro]
# ethtool ens1
Supported ports: [ FIBRE ]
Link partner advertised link modes: 40000baseCR4/Full
Link partner advertised pause frame use: No
Link partner advertised auto-negotiation: Yes
Link partner advertised FEC modes: Not reported
Speed: 40000Mb/s
Duplex: Full
Auto-negotiation: onAz "mlx4_en" gyári Proxmox (debian) kernel modullal megy PVE 7.3-4 alatt (5.15.83-1-pve #1 SMP PVE 5.15.83-1 (2022-12-15T00:00Z) x86_64 GNU/Linux), 1 node-os kis backup proxy, szinte default install.
Az fontos, hogy a kártya ne IB (infiniband) módban legyen, hanem ethernetben, lehet, hogy ez a gond nálad.
Az említett Netflixes előadás anyaga, érdemes megnézni mindenkinek akit érdekel kicsit is a téma, nagyon komoly tudás van ott: link És ez lassan egy 2 éves prezi, simán 1Tb/s felett járhatnak már.
-
válasz
inf3rno
#1740
üzenetére
Pedig sima úgy, sok Mellanox kártyát használok, most nincs meg fejből, de talán Proxmox alatt is van valahol egy régi Connect-X 3. Ha jól rémlik, alapból benne van a kernelben, a dedikált Mellanox kernel modul csak akkor kell, ha firmwaret akarsz upgradelni, esetleg RDMA-t használni (de ebben sem vagyok biztos). Ránézek majd ha lesz időm.
Fun fact: FreeBSD-nél azért simább ügy, mert a Netflix FreeBSD-t használ Mellanox NIC-ekkel, és szépen visszacsorgatják a közösségnek a saját fejlesztéseiket. Ha jól emlékszem akkor jelenleg 1db streamer node-juk 800Gbit-et tud kiszolgálni 8db 100G-s Mellanoxal, és nagyon rámentek arra, hogy ez ne csak negotiated link speed legyen, hanem ténylegesen ki is jöjjön belőle ennyi.
-
inf3rno
nagyúr
Itt azt írják az OFED nem támogatott Proxmoxnál, bármi is legyen az. [link] Amúgy érdekes, hogy FreeBSD-vel tök egyszerű volt lerántani hozzá a drivert, itt meg eléggé ezoterikusnak néz ki az egész, szinte valószínűtlen, hogy működésre fogom bírni valaha... :S Pedig olyan 10-15 éves technológia...
Lehet átrakom a kártyát másik gépbe először, aztán ott csinálok rajta egy firmware upgrade-et, aztán ha túléli valahogy, akkor szórakozok a driverrel. Elvileg a kártya 2x40Gbps-t tud, de ha csinálok firmware upgrade-et, akkor 2x56Gbps kisajtolható belőle, nem beszélve arról, hogy jobb driverek is elérhetőek lesznek. Elvileg. Gyakorlatilag megvan az esély, hogy kukázom az egészet, de legalább akkor nem kell szenvedni többet vele.
-
válasz
tasiadam
#1738
üzenetére
Chal-nál a megfejtés. A Telenoros modem is router, mert a nyomorult napelemnek nem jó a fix IP, DHCP-t akar, megkapja a routertől. Szal. jah, router után router... nem jó, de nem is tragikus.
Már nézegettem, h opnsense-ben DHCP-t lehet a WAN oldalon is bekapcsolni... de ez ismeretlen terület, nem piszkálom, nehogy nyissak valami kiskaput. -
-
inf3rno
nagyúr
Arról fel tudna valaki világosítani, hogyha nem veszem meg a cuccot, akkor nincs rá upgrade vagy mi a helyzet? Most írja, hogy nincs subscription key, és ezért nem tudja lerántani a frissítést a repoból...
Err:4 https://enterprise.proxmox.com/debian/pve bullseye InRelease 401 Unauthorized
szerk:
Közben megtaláltam, hogy a no subscription repot kell beállítani, és kikapcsolni az alap enterprise report, és így működik is. [link] -
inf3rno
nagyúr
válasz
tasiadam
#1726
üzenetére
Curl, GRUB, ilyesmik vannak benne, gondolom valami apt get upgrade jellegű. Közben megtaláltam, hogy új böngésző ablakba nyitotta. Meg hogy nem sikerült, mert nincs internet kapcsolat. Bármit ötlet, hogy mi miatt lehet? Jelenleg 192.168.1.124-en van fix IP-vel. Elérem a switchen keresztül, viszont a netet nem látja. A ping google.com nem megy neki. :S
-
inf3rno
nagyúr
Ha rendszer frissítés közben elnavigáltam, akkor tényleg nincs rá mód, hogy visszahozzam a frissítésről szóló shell ablakot? Érdekelne, hogy még meddig tart, vagy hogy egyáltalán megy e...
-
inf3rno
nagyúr
Közben már átraktam másik hálózatra.
Nincs baja a rendszernek, csak még a régi hálózaton lógott. Simán beállítottam statikus IP-re a laptopot is, aztán direktbe kötve elérhető volt a 192.168.0.124-en, ahogy régen. Már egy ideje nem kapcsoltam be. Van ezekre valami software update vagy ilyesmi?szerk: Megvan közben az is. :-)
-
válasz
tasiadam
#1715
üzenetére
Ez már 1x éve nem probléma, mert az összes ethernet interface (kártya, switch, akármi) auto MDI-X -es. Kb. a gigabittel jött be a dolog, azóta nem kell crosslink kábel két NIC összekötéséhez, megy sima "egyenes" kábellel is.
inf3rno: Persze ez nem fog segíteni, mert ahogy most nem éred el a hálózaton, úgy direktbe kötve se tudod, az az 1db switch ami most pluszban van a két gép között, nem számít semmit. Persze próbálkozni lehet, de ahhoz az kell, hogy működjön a mostani rendszer, és csak hálózati problémája legyen, abból is olyan jellegű ami miatt a másik gépről még el tudod érni.
Szóval vagy vegyél egy usb nvme adaptert és azon telepítsd újra a másik gépen a rendszert, vagy vegyél egy videokártyát. Az utóbbi talán jobb választás, hiszen lehet, hogy meg tudod javítani a rendszert ha lesz konzolod hozzá, és nem is kell újratelepíteni.
-
code1005
senior tag
Ezt valaki próbálta már?
-
inf3rno
nagyúr
Mi a helyzet akkor, ha direktbe összekötöm a két gépet? Úgy talán el tudom érni valahogy. Rohadtul nincs most kedvem újratelepíteni mindent.
-
inf3rno
nagyúr
válasz
tasiadam
#1712
üzenetére
Akkor veszek valami olcsó videokártyát hozzá, más ötletem nincs. Ez egy asztali gépbe való alaplap, csak tud ilyen extrákat, hogy minden nélkül bootol.
Másik gép azért nem játszik, mert ezen nincs két NVMe foglalat, SATA-t meg nem akarok rendszer meghajtónak, vagy úgy egyébként betenni ebbe a gépbe. Maximum azt lehetne, hogy átszerelem az NVMe SSD-t a másik gépbe, telepítek, aztán meg visszaszerelem, de úgy emlékszem rohadt macerás ezen a gépen, úgyhogy inkább nem.
-
inf3rno
nagyúr
Sziasztok!
Van rá lehetőség, hogy valahogy monitor nélkül újrarakjam a Proxmox szervert? Nem érem el egyáltalán, nem jelenik meg a hálózaton. Régen a 192.168.0.124-en volt, de azóta router csere volt, és minden a 192.168.1.x alá került. Lehet, hogy ragaszkodik a régi IP-jéhez, fogalmam sincs, de nincs a hálózaton. :S Monitor még csak-csak lenne a telepítéshez, de videokártyája nincs a gépnek, és csak emiatt nem is vennék hozzá, illetve szerelni sem akarom. -
válasz
tasiadam
#1709
üzenetére
Köszi, ezzel elvannak
Hááát, a gyermekem már futtatot pár helyen (free) szervereket, ahogy elnéztem nem sz@rral gurított a modoknál. Teljes új biomok, brutál barlangrendszerek, falvak, rengeteg állat és növény, jobb "grafika", stb... 2 GB felett is volt ram használat, pedig csak ketten vannak fent. -
Szilveszteri Proxmox kalandok...
Pár napja a gyerekek bánatosak voltak, az online free MC szerverükhöz nem lehetett csatlakozni. Mondom kell egy helyi Minecraft? Kell.
Meglepő módon van egy futó minimál Debian LXC installom, ami gyorsan indul, így a Home Assistant ide tud mentegetni. NAS esetén problémázott, mert a NAS és az SMB még sehol nem volt, HA szerint a backup helye nem elérhető, annyi. Manuál reload-al elérhető lett, de ezt elfelejtettem sokszor, így lett a Debian.Nah, vanilla Minacraft fel, egy napi játék után kitalálták, h Forge mod szerver kellene, mert moddolnának (kisebbik fiam benne van ezekben, nem voltam full vakon így).
Meglepő, a vanillára probléma nélkül felment a mod server, a világ is megmaradt. Nagyfiam eredeti Minecraftal használta a vanillát, ezt bukta, mod serverhez nem tudott csatlakozni. Sebaj, modok ki, belépésnél már nem volt gond, cuccait lepakolta, modok be és a modos kliensel új karakter be, cuccok felvesz, csak az XP-t bukta (nem is tudtam, h van itt...).Majd jöttek a gondok... a világ nőtt... a modok sokasodtak (és ez csak a második nap!). Hamar kellett a 2 CPU, 6 GB ram, a 6 GB lemezen már 4 GB foglalt... OK, ez egyszerű, PVE GUI, LXC, resources, Volume action, +Resize.
Na itt jött a bánat, nem figyeltem, h GB-ot kell megadni (logikusan), mivel ment a játék a partvonalról beütöttem a 10000-et, gondolva, h ez +10 GB.
A vicc az, h "megcsinálta". Nah ekkor szerver állj, mielőtt a tényleg virtuális térbe írna...
Leírom a lépéseket, hátha más is így jár.nano /etc/pve/lxc/102.conf
Itt átírtam (nálam a 102 ennek az azonosítója) a rootfs méretet 14 GB-re, de start után továbbra is marhaságot mutatott. Netezés, keresés... szerver állj.
Meg kell keresni a fizikai path-ot, nálam ez a /var/lib/vz/images/102 mappa.
Itt a vm-102-disk-0.raw a rootfs, ezzel kell babrálni:e2fsck -fy ./vm*resize2fs ./vm* 14G
ennek a két parancsnak megfelel a *-al
A következőnek minden kellett:lvreduce -L 14G /var/lib/vz/images/102/vm-102-disk-0.raw
De ez nem csinált semmit már.
Utána indítás és most a jó méretet írja.
Boldog Új Évet! -
válasz
Bornie127
#1706
üzenetére
Csak az én véleményem, többiek majd kiegészítik. Átlag desktop raid-ben nem bízok, ezt elengedném (PVE-nél, nem a NAS-nál). Amit leírtál, arra 1 db SSD elég, egy másikra mehet a backup. A leírásodból úgy tűnik, a NAS sebesség a fontosabb, oda raknám a másik 2 SSD-t, meg egy raklap ramot. Szerintem PVE-nél nem hozna annyit (sebességben) a raid, meghalni meg nem szokott (nálam is csak amikor elbaCCtam valamit, de ilyenkor a tükrözés sem segítene...).
-
Bornie127
aktív tag
Sziasztok!
Segtséget szeretnék kérni. Végigolvastam a fórumot hozzávetőlegesen az elejétől. Építem az új szervert, 4 db 500gb-s egyforma sata ssd lesz rajta, amivel tudok gazdálkodni, rendszernek, vm-nek, snapshotnak, backupnak.
Milyen felállásban telepítsem a proxmoxot? Egy lemez EXT4, erre menjen a rendszer, 2 lemez raid1, és egy lemez ext4 backupnak?
Vagy telepítésnél, RAIDZ1 3 lemezzel, ( a lemezgyilkolós logokat kapcsoljam ki), erre menne a rendszer, vm-ek, lxc-k, és egy lemez ext4 backupnak?
Mi lenne a legjobb kombináció?
Amit futtatni fogok, az egy xpenology 4 sata hdd lemez raid 5-ben hba-n keresztül, 4 lemezes raid 5 nvme háttér pcei-ben.
Ezen kívül home assistantt van egy win vm, de az csak ritkán megy ha nagyon kell, és még adguard fog majd menni.
Egyéb szolgáltatás, mint transmission valósznűleg xpenology alatt menne. ( ha jobb proxmox alatt akkor erre majd visszatérünk, ha már megy rendesen a gép.)
Köszönöm. -
paizinho
tag
válasz
paizinho
#1701
üzenetére
Sziasztok !
Köszönöm, ha gondolkodtatok a problémámon.
A mentések után nekiálltam és lépésenként törölgettem a VM-m diskjeit.
Ezen törlések (VM-Hadrware-Disk detach - remove) után a diszkterület felszabadult, ahogy azt vártam / szerettem volna.
Az első alkalommal az 50GB disk, kb 20GB-s foglalását a teljes VM törlésekor nem jelezte, ahogy az első kérdésemben is írtam.
De ez így most működött.
Remélem tudtam segíteni.
Szép napot/estét mindenkinek! -
-
Hááát... a Glances egyszerűbb szerintem, ha valaki nem akar ennyi scriptet írni.
RAM bajom van
PVE szerint 19 GB / 80% használatban, de összeadva nem jön ki a matek. Minden együtt olyan 7-8 GB használ. Most kivételesen a VM-ek ram fogyasztását is majdnem pontosan hozza. Mi a fene baja van?
3 napja volt frissítés, mentés és restart. Lehet éjjel újraindítom, hátha csak vmi bug.
top is fura, KVM-re ír sok ramot, meg a 261 óra is érdekes...
-
amargo
addikt
Na ez egy egyszerű megoldás: Easy Way To Monitor Proxmox Host Temperatures In Home Assistant: [link]
-
paizinho
tag
válasz
tasiadam
#1700
üzenetére
Igen, amikor létrehozol egy VM-t és hozzáadsz VM disk-t, akkor a méret a tényleges foglalással nő. Ezt a részét értem / tapasztaltam.
Azt nem értem, hogy a tényleges foglalással miért nem csökkent a szabad hely mérete? Semmit nem csökkent sem a %-s foglaltsági arány, sem az elfoglalt méret.
Attól tartok, ha az OMV6 nagyobb foglalását törlöm, akkor sem fog változni a helyzet.Köszönöm szépen az eddig válaszokat / segítséget.
Új hozzászólás Aktív témák
Hirdetés
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest

:

![;]](http://cdn.rios.hu/dl/s/v1.gif)
Egyedül a laptop Windows, de az is csak azért, hogy legyen valami teszt rendszer a kódoknak.
Nincs baja a rendszernek, csak még a régi hálózaton lógott. Simán beállítottam statikus IP-re a laptopot is, aztán direktbe kötve elérhető volt a 192.168.0.124-en, ahogy régen. Már egy ideje nem kapcsoltam be. Van ezekre valami software update vagy ilyesmi?

