Buenas noches , gracias a ambos por los oportunos consejos pero la solución fué realmente lo que yo sospechaba , agregar un disco duro y listo aunque en realidad tuvieron que ser 2 pues inicialmente ese ZFS es un mirror de 2 discos de 1 TB por ende para mantener la redundancia estaba obligado a agregar 2 discos.

Lamentablemente ni el minusculo pero potente editor de texto vim.tiny recomendado queria funcionar via SSH y por supeusto en la consola local los mensajes de systemd de que ni podia hacer logrotate ya me tenian loco y no me dejaban escribir.

En la lista cubacel el usuario Octavio recomendo este enlace que tiene varios comandos que son utiles pero eso tampoco me resolvia el problema puesto que en si no era bateo de tener enormes ficheros LOG sino el hecho de que yo habia la ultima VM creado usando el total del resto del disco duro disponible y por eso no deje ni 1 byte de espacio ni para hacer el simple comando apt update ni apt upgrade !!!!

https://blogdeanillas.wordpress.com/2020/03/05/limpiar-borrar-archivos-de-systemd-journal-log-y-otros-archivos-de-registro/

Muy util ese comando de Disk Use y muy util el de vacuum el journal pero eso lo que liberó fué apenas 1 GB segun recuerdo pero automaticamente el propio sistema PVE se traga eso para asignarselo a los volumenes o discos de todos los guest que tiene . No obstante al menos los 2 servicios wireguard funcionaban pues yo estuve enganchado a ellso todo el dia precisamente para probar cuando la cosa se ponia peor jejejeje

Realmente le compré 3 discos duros a 70 CAD en total impuestos incluidos al digamos suministrador o taller/tienda o revendedor de servidores y piezas de uso que siempre le compro pues al ser discos realmente SAS en vez de SATA originales de DELL fabricados por SEAGATE a 1 TB y a full 6 Gbps me parecieron un buen negocio y aproveché pero me he puesto fatal que 1 de los discos está defectuoso asi que tendré que volver ma`nana acambiarlo , Grrr !!!!! , que mal me cae eso compay jejejeje pero imaginate nada de eso es nuevo nuev ode fabrica pues son discos fabricados en 2014 realmente y por ende son simplemente recertificados por DELL y revendidos como de uso  o recertificados o refurbished. Pero hasta ahora nunca he tenido con ese suministrador.

El otro lio es que ese servidor nest yo habia olvidado que realmente su controladora RAID como es michi  michi y sin battery backup yo no la uso y la tengo configurada en modo HBA sato o sea que deje pasar el disco directo al sistema operativo por ende olvide que ese ZFS es realmente un mirror o RAID 1 asi que si sol oagrego 1 disco realmente el pool llamado rpool va a tener 1 TB adicional pero ese 1 TB n ova a tener respaldo o redundancia y el dia que ese disco se dañe entonces se pierde la mitad del pool acilmente jejeje por ende decidi ponerle 2 discos al nest como mirror y ahora el pool ZFS es de 2 TB aprox o mejor dicho 1.8 TB con los 4 discos de 1 TB pero pueden fallar 1 en cada mirror que el sistema sigue funcionando y ni requerieria restaurar backups.

Y lo otro que me pasó fue que empece poniendole 1 disco de 1 TB al server cave e igualmente como hay 1 dañado al ver el lio con el nest de tener que usar 2 discos tuve que eliminar el disco irtual que habia creado en cave y mover ese disco al nest.

Ni cave ni acuario tuve que hacerles reboot pues lo de crear los discos virtuales o raid en esos R430 se hace por el web gui del idrac remotamente pero el server nest R610 es tan viejo que su iDRAC no trae esa posibilidada ademas de que es el iDRAC 6 en modo normal , no es ni la licensia entreprise asi que quizas por eso tampoco permite via iDRAC manipular la controladora RAID si hubiera querido aunque realmente tampoco lo necesitaba. No obstante nest si tuve que reboot pues aunque si empezo a hacer muchas mas cosas y permitirme incluso ya localmente usar la consola peus dyua habia dejado de tirar mensajes del systemd constantes en la pantalla realmente seguia farruco en muchas otras cosas y ademas la VM quee s el PBS o servudor backup realmente ese si no queria responder n irevivir.

Los comandos en nest para manipular el ZFS Pool eran simples y con la ayuda del man zpool y man zpool-add pude resolver facilmente.

Basicamente

zpool add rpool mirror sdc sdd

fué todo lo que necesité despues de meter en caliente o hotplug ambos discos duros de 1 TB en los slots o bahia numero 2 y 3 pues siempre empeizan por 0

zpool list  ... ya comenzaba a mostrar que habian 1.8 TB ONLINE en el pool llamado rpool

zpool status   .... tambien ya decia que los 4 discos estaban ONLINE y que eran 2 discos en cada mirror y que no habia errores ni nada raro

por ende un simple REBOOT o comando shutdown -r via ese mismo sesion SSH resolvio todo despues.

Aunque realmente me hubiera gustado add los discos al pool usando el valor GUID que se obtiene con el switch -g pero bueno definirlos como sdc y sdd ambos discos duros es esencialmente lo mismo

Esta noche ya estan lso 5 posibles streams de juegos MLB en vivo funcionando assi que Enjoy The Show !!! jejeje ... bueno si es que funcionan jejeje

Cheers y Muchas Gracias por los consejos a Manresa y a Octavio

JJ


Buenas Noches: ‼️⚾️ MLB Ahora en VIVO ⚾️‼️

TSN1 tiene a los NYY
JSN1 tiene a los NY Mets
SN360 tiene a los Astros de Houston
WBN2 tiene a los Reales de Kansas City
WBN3 tiene a los White Sox pero como está lloviendo puse mientras CLE-CIN

TSN1 es     https://aguila.abroadtelecom.net/hls/TSN1.m3u8
JSN1 es     https://aguila.abroadtelecom.net/hls/JSN1.m3u8
SN360 es     https://aguila.abroadtelecom.net/hls/SN360.m3u8
WBN2 es     https://aguila.abroadtelecom.net/hls/WBN2.m3u8
WBN3 es     https://aguila.abroadtelecom.net/hls/WBN3.m3u8


On 9/24/2024 3:49 AM, Erki Polo Manresa wrote:
Buenos días, con referencia ha evitar que arranquen automáticamente los
servidores virtuales; te recomiendo lo siguiente:

cambia el valor de onboot a cero en el archivo de configuración del
servidor virtual, hospedado en:

vim.tiny /etc/pve/nodes/<<nombre_del_nodo>>/{lxc,qemu-server}/VMID.conf
onboot: 0


Attachment: OpenPGP_0x72E5F7A3C73029F2.asc
Description: OpenPGP public key

Attachment: OpenPGP_signature.asc
Description: OpenPGP digital signature

_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

Responder a