Re: Linux/Debian - email da console con relay tramite account gmail.com, e simili.

2022-11-07 Per discussione Giuseppe Sacco
Ciao Ennio,

Il giorno ven, 04/11/2022 alle 23.39 +0100, Ennio Sr ha scritto:
[...]
> E` possibile, secondo voi, inviare email da console avvalendosi come
> 'relayhost' di uno tra i vari fornitori di servizio di posta elettronica,
> quali ad es. 'gmail.com', 'tin.it', 'alice.it', presso i quali si abbia un
> indirizzo email?"

Se non ricordo male puoi farti un account gratuito e accessibile con
l'autenticazione PLAIN su autistici/inventati.
https://www.autistici.org/services/mail

Ciao,
Giuseppe



Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Diego Zuccato

Ciao.

IMO i nodi devono essere (o "è meglio che siano") in numero dispari, per 
evitare possibili split-brain (con 2) e non perdere funzionalità 
inutilmente.


Con 3 nodi, puoi averne uno guasto senza problemi: gli altri mantengono 
il quorum (2) e possono lavorare normalmente.
Con 4 nodi il quorum passa a 3, ma se perdi 2 nodi non puoi fare nulla 
(senza ridurlo). Con 5 nodi il quorum rimane 3 e puoi perdere 2 nodi 
continuando a lavorare sui rimanenti.


La rete del cluster puoi ridondarla senza particolari problemi. Io 
normalmente faccio girare tutto il traffico su un bond ALB di almeno 2 
interfacce. Il vantaggio è che le due interfacce possono essere 
collegate a switch diversi e anche a switch unmanaged.


Diego

Il 07/11/2022 16:29, Piviul ha scritto:

On 07/11/22 15:44, Daniele Piccoli wrote:

Ciao,
[...]
Non è un buon segno onestamente, se posso darti 3 consigli:

 - Magari non lo fai, ma evita di far girare traffico "pesante" sugli 
switch in cui comunica il cluster, tipo il traffico verso gli storage. 
Idealmente dovrebbe girarci solo il traffico del cluster


 - Considera la possibilità di ridondare la rete di cluster: 
https://pve.proxmox.com/wiki/Separate_Cluster_Network


ho già configurato proxmox in questo modo: ho uno switch e una rete per 
tutto il traffico PVE separato dal traffico LAN e dal traffico CEPH che 
ha un altro switch da 10Gb dedicato.



  - Aggiungi un 4° nodo al cluster, cosi da non perdere il quorum nel 
caso un nodo avesse un problema, ma anche banalmente per fare 
manutenzione/aggiornamenti senza fretta


Probabilmente i primi mesi del prossimo anno riuscirò ad aggiungere 
anche il 4° nodo anche se in questo caso non sarebbe cambiato nulla 
perché appunto è stato lo switch ad andare in zampanella quindi anche 
con un nodo in più avrebbe continuato a non dialogare essendo la rete di 
comunicazione dei PVE non funzionante.


Invece mi chiedevo: non sarebbe meglio ridondare gli switch? Si può 
fare? Non penso tanto a quello usato dalla rete di comunicazione del 
cluster proxmox che a quanto pare se smette di funzionare, certamente il 
cluster non funziona ma tutti i guests hosts e il traffico LAN continua 
a funzionare; penso soprattutto allo switch della rete ceph che se muore 
mi muoiono contemporaneamente tutti gli hosts virtuali...


Grazie Daniele!

Piviul



--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: Linux/Debian - email da console con relay tramite account gmail.com, e simili.

2022-11-07 Per discussione Ennio Sr
Johan Haggi ha scritto:
[cut]
Se ti interessa vedo di ritrovare come abilitare l'accesso con password
per yahoo.
--
Se sei sicuro che si possa utilizzare da console va bene e mi farebbe
piacere avere qualche suggerimento, anche perché, se ben ricordo, quando
qualche anno fa provai a creare un account email con Yahoo ebbi delle
difficoltà.
Grazie in anticipo,
Ennio



On Mon, Nov 7, 2022 at 7:24 PM Johan Haggi  wrote:

> lun 7 novembre 2022, alle 19:13 (GMT+0100), Ennio Sr ha scritto:
> > Potrebbe essere utile leggere:
> > https://mmogilvi.users.sourceforge.net/software/oauthbearer.html
> > https://developers.google.com/gmail/api/auth/web-server
> >
> > Ti ringrazio molto del suggerimento.
> > Da una prima rapida lettura capisco che dovrei anzitutto aggiornare il
> > sistema di due o tre versioni (sono rimasto fermo a Debian/Stretch) e
> forse
> > anche l'hardware... Ci penserò, ma con scarsa propensione, considerate le
> > motivazioni che mi indussero ad abbandonare Micro$oft per Linux-GNU tanti
> > anni fa, proprio per non essere costretto a comprare un PC nuovo ogni
> > anno...
> > Un cordiale saluto, Ennio
> > [mega cut]
>
> E aprire un account con yahoo?
> Da qualche parte nelle opzioni c'e` la possibilita` di abilitare per le
> mail l'accesso con SPOP con username/password e se oltre che con il PC
> vuoi gli avvisi con il cellulare il programma di gmail per android
> gestisce molto bene un ulterire account IMAP con yahoo.
>
> Se ti interessa vedo di ritrovare come abilitare l'accesso con password
> per yahoo.
> --
> Cura ut valeas
> Johan Haggi
> ante diem septimum Idus Novembres MMDCCLXXV ab Urbe condita
> OpenPGP key: https://keys.openpgp.org/search?q=orsogrigio%40disr.it
> Fingerprint: 60B3 42CB E145 F8E9 8132  6CDD 194E 4326 B645 F109
>


-- 
[Perche' usare Win$ozz (dico io) se ..."anche uno sciocco sa farlo.   \\?//
 Fa' qualche cosa di cui non sei capace!"  (diceva Henry Miller) ](°|°)
[Why use Win$ozz (I say) if ... "even a fool can do that.  )=(
 Do something you aren't good at!" (as Henry Miller used to say) ]


Re: [ITT] po-debconf://{brltty,kwartz-client,powerline,python-certbot}/it.po

2022-11-07 Per discussione Daniele Forsi
Il giorno sab 5 nov 2022 alle ore 23:02 Ceppo ha scritto:

> Non ho idea di cosa sia "Windows' neighborhood", con qualche ricerca nella
> documentazione di Samba [1] ho trovato un "Network Neighborhood" che sembra 
> uno
> strumento di gestione delle reti in Windows e sembra adatto al contesto, ma 
> non
> sono sicuro che sia la stessa cosa. Qualcuno ne sa di piů?

nella versione italiana di WIndows era "Risorse di rete",  una
finestra di "Esplora Risorse" per sfogliare ele condivisioni
più o meno quello che vediamo da Nautilus o Dolphin aprendo smb://

-- 
Daniele Forsi



Re: Linux/Debian - email da console con relay tramite account gmail.com, e simili.

2022-11-07 Per discussione Johan Haggi
lun 7 novembre 2022, alle 19:13 (GMT+0100), Ennio Sr ha scritto:
> Potrebbe essere utile leggere:
> https://mmogilvi.users.sourceforge.net/software/oauthbearer.html
> https://developers.google.com/gmail/api/auth/web-server
> 
> Ti ringrazio molto del suggerimento.
> Da una prima rapida lettura capisco che dovrei anzitutto aggiornare il
> sistema di due o tre versioni (sono rimasto fermo a Debian/Stretch) e forse
> anche l'hardware... Ci penserò, ma con scarsa propensione, considerate le
> motivazioni che mi indussero ad abbandonare Micro$oft per Linux-GNU tanti
> anni fa, proprio per non essere costretto a comprare un PC nuovo ogni
> anno...
> Un cordiale saluto, Ennio
> [mega cut]

E aprire un account con yahoo?
Da qualche parte nelle opzioni c'e` la possibilita` di abilitare per le
mail l'accesso con SPOP con username/password e se oltre che con il PC
vuoi gli avvisi con il cellulare il programma di gmail per android
gestisce molto bene un ulterire account IMAP con yahoo.

Se ti interessa vedo di ritrovare come abilitare l'accesso con password
per yahoo.
-- 
Cura ut valeas
Johan Haggi
ante diem septimum Idus Novembres MMDCCLXXV ab Urbe condita
OpenPGP key: https://keys.openpgp.org/search?q=orsogrigio%40disr.it
Fingerprint: 60B3 42CB E145 F8E9 8132  6CDD 194E 4326 B645 F109


signature.asc
Description: PGP signature


Re: Linux/Debian - email da console con relay tramite account gmail.com, e simili.

2022-11-07 Per discussione Ennio Sr
Potrebbe essere utile leggere:
https://mmogilvi.users.sourceforge.net/software/oauthbearer.html
https://developers.google.com/gmail/api/auth/web-server

Ti ringrazio molto del suggerimento.
Da una prima rapida lettura capisco che dovrei anzitutto aggiornare il
sistema di due o tre versioni (sono rimasto fermo a Debian/Stretch) e forse
anche l'hardware... Ci penserò, ma con scarsa propensione, considerate le
motivazioni che mi indussero ad abbandonare Micro$oft per Linux-GNU tanti
anni fa, proprio per non essere costretto a comprare un PC nuovo ogni
anno...
Un cordiale saluto, Ennio

On Mon, Nov 7, 2022 at 10:46 AM Diego Zuccato 
wrote:

> Il 05/11/2022 18:06, Ennio Sr ha scritto:
>
> > Ad. es. cosa c'è di sbagliato nelle mie righe significative:
> > - in /etc/postfix/main.cf :
> > . [cut]...
> > relayhost = [smtp.gmail.com ]:587
> >
> > - in /etc/postfix/password:
> > [smtp.gmail.com ]:587 nasr.la...@gmail.com
> > :"passwd-per-gmail"
> Direi che l'errore è che stai tentando di usare la normale password
> dell'account, non il token.
>
> Potrebbe essere utile leggere:
> https://mmogilvi.users.sourceforge.net/software/oauthbearer.html
> https://developers.google.com/gmail/api/auth/web-server
>
> --
> Diego Zuccato
> DIFA - Dip. di Fisica e Astronomia
> Servizi Informatici
> Alma Mater Studiorum - Università di Bologna
> V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
> tel.: +39 051 20 95786
>
>

-- 
[Perche' usare Win$ozz (dico io) se ..."anche uno sciocco sa farlo.   \\?//
 Fa' qualche cosa di cui non sei capace!"  (diceva Henry Miller) ](°|°)
[Why use Win$ozz (I say) if ... "even a fool can do that.  )=(
 Do something you aren't good at!" (as Henry Miller used to say) ]


Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Piviul

On 07/11/22 15:44, Daniele Piccoli wrote:

Ciao,
[...]
Non è un buon segno onestamente, se posso darti 3 consigli:

 - Magari non lo fai, ma evita di far girare traffico "pesante" sugli 
switch in cui comunica il cluster, tipo il traffico verso gli storage. 
Idealmente dovrebbe girarci solo il traffico del cluster


 - Considera la possibilità di ridondare la rete di cluster: 
https://pve.proxmox.com/wiki/Separate_Cluster_Network


ho già configurato proxmox in questo modo: ho uno switch e una rete per 
tutto il traffico PVE separato dal traffico LAN e dal traffico CEPH che 
ha un altro switch da 10Gb dedicato.



  - Aggiungi un 4° nodo al cluster, cosi da non perdere il quorum nel 
caso un nodo avesse un problema, ma anche banalmente per fare 
manutenzione/aggiornamenti senza fretta


Probabilmente i primi mesi del prossimo anno riuscirò ad aggiungere 
anche il 4° nodo anche se in questo caso non sarebbe cambiato nulla 
perché appunto è stato lo switch ad andare in zampanella quindi anche 
con un nodo in più avrebbe continuato a non dialogare essendo la rete di 
comunicazione dei PVE non funzionante.


Invece mi chiedevo: non sarebbe meglio ridondare gli switch? Si può 
fare? Non penso tanto a quello usato dalla rete di comunicazione del 
cluster proxmox che a quanto pare se smette di funzionare, certamente il 
cluster non funziona ma tutti i guests hosts e il traffico LAN continua 
a funzionare; penso soprattutto allo switch della rete ceph che se muore 
mi muoiono contemporaneamente tutti gli hosts virtuali...


Grazie Daniele!

Piviul



Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Daniele Piccoli

Ciao,

Il 07/11/22 11:56, Piviul ha scritto:

On 07/11/22 10:49, Diego Zuccato wrote:

Il 07/11/2022 08:23, Piviul ha scritto:

Corosync non ha problemi, l'ho riavviato su tutti e 3 i nodi e non ha 
dato problemi. Questo è l'output di pvecm status:

Lo hai riavviato ma *ha* problemi.
Infatti un nodo non viene visto.


più che altro vedeva solo se stesso


Nov  4 23:38:26 pve02 corosync[1703]: [KNET  ] link: host: 3 link: 0 
is down

Questa è un'ottima ragione.
Per caso hai cambiato una scheda di rete o modificato la 
configurazione? O anche solo fatto un aggiornamento del kernel?


no, era lo switch che si era incasinato, spegnendolo e riaccendendolo è 
tutto tornato a posto.


Non è un buon segno onestamente, se posso darti 3 consigli:

 - Magari non lo fai, ma evita di far girare traffico "pesante" sugli 
switch in cui comunica il cluster, tipo il traffico verso gli storage. 
Idealmente dovrebbe girarci solo il traffico del cluster


 - Considera la possibilità di ridondare la rete di cluster: 
https://pve.proxmox.com/wiki/Separate_Cluster_Network


 - Aggiungi un 4° nodo al cluster, cosi da non perdere il quorum nel 
caso un nodo avesse un problema, ma anche banalmente per fare 
manutenzione/aggiornamenti senza fretta


[cut]



Piviul



Ciao
Daniele



Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Piviul

On 07/11/22 10:49, Diego Zuccato wrote:

Il 07/11/2022 08:23, Piviul ha scritto:

Corosync non ha problemi, l'ho riavviato su tutti e 3 i nodi e non ha 
dato problemi. Questo è l'output di pvecm status:

Lo hai riavviato ma *ha* problemi.
Infatti un nodo non viene visto.


più che altro vedeva solo se stesso


Nov  4 23:38:26 pve02 corosync[1703]: [KNET  ] link: host: 3 link: 0 
is down

Questa è un'ottima ragione.
Per caso hai cambiato una scheda di rete o modificato la 
configurazione? O anche solo fatto un aggiornamento del kernel?


no, era lo switch che si era incasinato, spegnendolo e riaccendendolo è 
tutto tornato a posto.



Cercando in rete ho visto che non sono il solo ad avere questo 
problema e tutti indirizzano ad impostare il quorum a uno con pvecm 
expected 1 ma sono un po' preoccupato prima di fare qualunque cosa 
vorrei esserne ipercerto non avendo nemmeno il backup delle macchine 
virtuali!
Portare a 1 il quorum in un cluster è lo step appena prima del 
riformattare e reinstallare...
Intendiamoci, puoi farlo *sul solo nodo problematico* e solo per il 
tempo minimo necessario a fare un backup delle VM (spente, su supporto 
esterno). Poi IMO ti conviene reinstallare da capo il nodo (con 
delnode da uno degli altri, poi ricordati di rimuovere le chiavi ssh 
in /etc/ssh/ssh_known_hosts).


avevo immaginato... più che riformattare pensavo poi di dover rimouvere 
ogni songolo nodo dal cluster per poi riaggiungerlo


Mille grazie, tutto è bene ciò che finisce bene

Piviul




Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Piviul

On 07/11/22 10:57, Marco Ciampa wrote:

On Mon, Nov 07, 2022 at 08:51:32AM +0100, Piviul wrote:

Scusate, essendo un problema piuttosto grave e urgente mi sono permesso di
scrivere anche alla mailing list pve-u...@lists.proxmox.com; so che il cross
posting non è una buona pratica ma nel caso di sviluppi sull'altro thread
cercherò di tenere aggiornato anche questo.

Controlla che un backup non si sia bloccato per occupazione dello spazio
sullo storage che spesso porta alla corruzione della macchina virtuale
che rimane lock-ata.


Si, infatti il tutto si è bloccato durante il backup per cui in effetti 
una macchina era lockata e l'ho un-lockata.


Ciao e grazie!

Piviul




Re: update upgrade

2022-11-07 Per discussione Giuliano Grandin
Il Dom 6 Nov 2022, 18:31 Filippo Dal Bosco -  ha scritto:

> in debian 11
>
> apt-get update
> apt-get upgrade
>
> non aggiornano gli header ed i nuovi kernel ?
>
> quando do questi due comandi vengono aggiornati solo i programmi ma non
> header e kernel


Io ho installati linux-image-amd64 e linux-headers-amd64 che dipendono
dall'ultima versione del kernel e degli header

Giuliano


Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Piviul
Mi sono accorto che la rete di comunicazione dei PVE non funzionava più, 
ho risolto spegnendo e riaccendendo lo switch di comunicazione


Grazie a tutti quanti, problema rientrato

Piviul

On 07/11/22 08:51, Piviul wrote:
Scusate, essendo un problema piuttosto grave e urgente mi sono 
permesso di scrivere anche alla mailing list 
pve-u...@lists.proxmox.com; so che il cross posting non è una buona 
pratica ma nel caso di sviluppi sull'altro thread cercherò di tenere 
aggiornato anche questo.


Piviul

On 07/11/22 08:23, Piviul wrote:

Ciao Marco, anzitutto grazie!

On 05/11/22 22:00, Marco Gaiarin wrote:

[...]
Se non hai quorum (stile: hai tre nodi, quorum a 2 (il default) e un 
nodo

fermo) è normale che le macchine non partano.


dunque, forse non sono stato chiaro... i 3 nodi vanno tutti e 3. Mi 
posso connettere ad ognuno dei 3 nodi anche tramite interfaccia web 
ma da un nodo non si vedono gli altri 2. È il cluster che ha dei 
problemi. Il servizio che non riesce a partire è il "Proxmox VE 
replication runner" (pvesr), fra le altre cose non ho alcuna replica 
impostata a memoria, utilizzo solo ceph e mi sono liberato di zfs. 
Tutte gli host virtuali funzionano bene non hanno problemi tranne che 
non funziona più il backup e non funzionando il cluster non posso 
nemmeno migrarli di nodo; inoltre se spengo una macchina poi non 
riesco più a riaccenderla.



'pvesr' è il servizio di replicazione degli storage ZFS; se non hai 
ZFS o
non usi la replicazione, quel'errore è ininfluente (e comunque nulla 
centra

con il quorum).

A naso hai corosync fermo su un nodo, e magai ti basta riavviare 
quello (o

riavviare corosync su quello); prova a lanciare:

pvecm status

su tutti i nodi e vedi che ti dice.


Corosync non ha problemi, l'ho riavviato su tutti e 3 i nodi e non ha 
dato problemi. Questo è l'output di pvecm status:


# pvecm status
Cluster information
---
Name: CSA-cluster1
Config Version:   3
Transport:    knet
Secure auth:  on

Quorum information
--
Date: Mon Nov  7 08:11:51 2022
Quorum provider:  corosync_votequorum
Nodes:    1
Node ID:  0x0001
Ring ID:  1.91e
Quorate:  No

Votequorum information
--
Expected votes:   3
Highest expected: 3
Total votes:  1
Quorum:   2 Activity blocked
Flags:

Membership information
--
    Nodeid  Votes Name
0x0001  1 192.168.255.1 (local)

In syslog è pieno di  messaggi tipo:

Nov  7 08:14:33 pve01 pveproxy[2699797]: Cluster not quorate - 
extending auth key lifetime!
Nov  7 08:14:35 pve01 pveproxy[2699797]: Cluster not quorate - 
extending auth key lifetime!


Inoltre Tutto è iniziato venerdì sera e in syslog ho trovato:

4 23:37:01 pve02 systemd[1]: Started Proxmox VE replication runner.
Nov  4 23:37:01 pve02 CRON[2145590]: (root) CMD (if test -x 
/usr/sbin/apticron; then /usr/sbin/apticron --cron; else true; fi)
Nov  4 23:38:00 pve02 systemd[1]: Starting Proxmox VE replication 
runner...

Nov  4 23:38:01 pve02 systemd[1]: pvesr.service: Succeeded.
Nov  4 23:38:01 pve02 systemd[1]: Started Proxmox VE replication runner.
Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] link: host: 3 link: 
0 is down
Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] host: host: 3 
(passive) best link: 0 (pri: 1)
Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] host: host: 3 has no 
active links
Nov  4 23:38:28 pve02 corosync[1703]:   [TOTEM ] Token has not been 
received in 2737 ms
Nov  4 23:38:30 pve02 corosync[1703]:   [KNET  ] rx: host: 3 link: 0 
is up
Nov  4 23:38:30 pve02 corosync[1703]:   [KNET  ] host: host: 3 
(passive) best link: 0 (pri: 1)

Nov  4 23:38:32 pve02 corosync[1703]:   [QUORUM] Sync members[2]: 1 2
Nov  4 23:38:32 pve02 corosync[1703]:   [QUORUM] Sync left[1]: 3
Nov  4 23:38:32 pve02 corosync[1703]:   [TOTEM ] A new membership 
(1.873) was formed. Members left: 3
Nov  4 23:38:32 pve02 corosync[1703]:   [TOTEM ] Failed to receive 
the leave message. failed: 3
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: members: 1/1626, 
2/1578
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: starting data 
syncronisation
Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: members: 1/1626, 
2/1578
Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: starting data 
syncronisation

Nov  4 23:38:32 pve02 corosync[1703]:   [QUORUM] Members[2]: 1 2
Nov  4 23:38:32 pve02 corosync[1703]:   [MAIN  ] Completed service 
synchronization, ready to provide service.
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: received sync 
request (epoch 1/1626/0009)
Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: received sync 
request (epoch 1/1626/0009)

Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: received all states
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: leader is 1/1626
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: synced members: 
1/1626, 2/1578
Nov  4 23:38:32 pve02 pmxcfs[1578]: 

Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Marco Ciampa
On Mon, Nov 07, 2022 at 08:51:32AM +0100, Piviul wrote:
> Scusate, essendo un problema piuttosto grave e urgente mi sono permesso di
> scrivere anche alla mailing list pve-u...@lists.proxmox.com; so che il cross
> posting non è una buona pratica ma nel caso di sviluppi sull'altro thread
> cercherò di tenere aggiornato anche questo.

Controlla che un backup non si sia bloccato per occupazione dello spazio
sullo storage che spesso porta alla corruzione della macchina virtuale
che rimane lock-ata.

Il lock lo vedi con:

qm list

e lo togli con:

qm unlock VMID

dove VMID è l'ID della macchina virtuale ottenuto tramite qm list.

--

Amike,
Marco Ciampa



Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Diego Zuccato

Il 07/11/2022 08:23, Piviul ha scritto:

Corosync non ha problemi, l'ho riavviato su tutti e 3 i nodi e non ha 
dato problemi. Questo è l'output di pvecm status:

Lo hai riavviato ma *ha* problemi.
Infatti un nodo non viene visto.

Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] link: host: 3 link: 0 
is down

Questa è un'ottima ragione.
Per caso hai cambiato una scheda di rete o modificato la configurazione? 
O anche solo fatto un aggiornamento del kernel?


Cercando in rete ho visto che non sono il solo ad avere questo problema 
e tutti indirizzano ad impostare il quorum a uno con pvecm expected 1 ma 
sono un po' preoccupato prima di fare qualunque cosa vorrei esserne 
ipercerto non avendo nemmeno il backup delle macchine virtuali!
Portare a 1 il quorum in un cluster è lo step appena prima del 
riformattare e reinstallare...
Intendiamoci, puoi farlo *sul solo nodo problematico* e solo per il 
tempo minimo necessario a fare un backup delle VM (spente, su supporto 
esterno). Poi IMO ti conviene reinstallare da capo il nodo (con delnode 
da uno degli altri, poi ricordati di rimuovere le chiavi ssh in 
/etc/ssh/ssh_known_hosts).


--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: Linux/Debian - email da console con relay tramite account gmail.com, e simili.

2022-11-07 Per discussione Diego Zuccato

Il 05/11/2022 18:06, Ennio Sr ha scritto:


Ad. es. cosa c'è di sbagliato nelle mie righe significative:
- in /etc/postfix/main.cf :
. [cut]...
relayhost = [smtp.gmail.com ]:587

- in /etc/postfix/password:
[smtp.gmail.com ]:587 nasr.la...@gmail.com 
:"passwd-per-gmail"
Direi che l'errore è che stai tentando di usare la normale password 
dell'account, non il token.


Potrebbe essere utile leggere:
https://mmogilvi.users.sourceforge.net/software/oauthbearer.html
https://developers.google.com/gmail/api/auth/web-server

--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786



Re: Failed to start Proxmox VE replication runner

2022-11-07 Per discussione Piviul
Scusate, essendo un problema piuttosto grave e urgente mi sono permesso 
di scrivere anche alla mailing list pve-u...@lists.proxmox.com; so che 
il cross posting non è una buona pratica ma nel caso di sviluppi 
sull'altro thread cercherò di tenere aggiornato anche questo.


Piviul

On 07/11/22 08:23, Piviul wrote:

Ciao Marco, anzitutto grazie!

On 05/11/22 22:00, Marco Gaiarin wrote:

[...]
Se non hai quorum (stile: hai tre nodi, quorum a 2 (il default) e un 
nodo

fermo) è normale che le macchine non partano.


dunque, forse non sono stato chiaro... i 3 nodi vanno tutti e 3. Mi 
posso connettere ad ognuno dei 3 nodi anche tramite interfaccia web ma 
da un nodo non si vedono gli altri 2. È il cluster che ha dei 
problemi. Il servizio che non riesce a partire è il "Proxmox VE 
replication runner" (pvesr), fra le altre cose non ho alcuna replica 
impostata a memoria, utilizzo solo ceph e mi sono liberato di zfs. 
Tutte gli host virtuali funzionano bene non hanno problemi tranne che 
non funziona più il backup e non funzionando il cluster non posso 
nemmeno migrarli di nodo; inoltre se spengo una macchina poi non 
riesco più a riaccenderla.



'pvesr' è il servizio di replicazione degli storage ZFS; se non hai 
ZFS o
non usi la replicazione, quel'errore è ininfluente (e comunque nulla 
centra

con il quorum).

A naso hai corosync fermo su un nodo, e magai ti basta riavviare 
quello (o

riavviare corosync su quello); prova a lanciare:

pvecm status

su tutti i nodi e vedi che ti dice.


Corosync non ha problemi, l'ho riavviato su tutti e 3 i nodi e non ha 
dato problemi. Questo è l'output di pvecm status:


# pvecm status
Cluster information
---
Name: CSA-cluster1
Config Version:   3
Transport:    knet
Secure auth:  on

Quorum information
--
Date: Mon Nov  7 08:11:51 2022
Quorum provider:  corosync_votequorum
Nodes:    1
Node ID:  0x0001
Ring ID:  1.91e
Quorate:  No

Votequorum information
--
Expected votes:   3
Highest expected: 3
Total votes:  1
Quorum:   2 Activity blocked
Flags:

Membership information
--
    Nodeid  Votes Name
0x0001  1 192.168.255.1 (local)

In syslog è pieno di  messaggi tipo:

Nov  7 08:14:33 pve01 pveproxy[2699797]: Cluster not quorate - 
extending auth key lifetime!
Nov  7 08:14:35 pve01 pveproxy[2699797]: Cluster not quorate - 
extending auth key lifetime!


Inoltre Tutto è iniziato venerdì sera e in syslog ho trovato:

4 23:37:01 pve02 systemd[1]: Started Proxmox VE replication runner.
Nov  4 23:37:01 pve02 CRON[2145590]: (root) CMD (if test -x 
/usr/sbin/apticron; then /usr/sbin/apticron --cron; else true; fi)
Nov  4 23:38:00 pve02 systemd[1]: Starting Proxmox VE replication 
runner...

Nov  4 23:38:01 pve02 systemd[1]: pvesr.service: Succeeded.
Nov  4 23:38:01 pve02 systemd[1]: Started Proxmox VE replication runner.
Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] link: host: 3 link: 0 
is down
Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] host: host: 3 
(passive) best link: 0 (pri: 1)
Nov  4 23:38:26 pve02 corosync[1703]:   [KNET  ] host: host: 3 has no 
active links
Nov  4 23:38:28 pve02 corosync[1703]:   [TOTEM ] Token has not been 
received in 2737 ms
Nov  4 23:38:30 pve02 corosync[1703]:   [KNET  ] rx: host: 3 link: 0 
is up
Nov  4 23:38:30 pve02 corosync[1703]:   [KNET  ] host: host: 3 
(passive) best link: 0 (pri: 1)

Nov  4 23:38:32 pve02 corosync[1703]:   [QUORUM] Sync members[2]: 1 2
Nov  4 23:38:32 pve02 corosync[1703]:   [QUORUM] Sync left[1]: 3
Nov  4 23:38:32 pve02 corosync[1703]:   [TOTEM ] A new membership 
(1.873) was formed. Members left: 3
Nov  4 23:38:32 pve02 corosync[1703]:   [TOTEM ] Failed to receive the 
leave message. failed: 3
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: members: 1/1626, 
2/1578
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: starting data 
syncronisation
Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: members: 1/1626, 
2/1578
Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: starting data 
syncronisation

Nov  4 23:38:32 pve02 corosync[1703]:   [QUORUM] Members[2]: 1 2
Nov  4 23:38:32 pve02 corosync[1703]:   [MAIN  ] Completed service 
synchronization, ready to provide service.
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: received sync 
request (epoch 1/1626/0009)
Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: received sync 
request (epoch 1/1626/0009)

Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: received all states
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: leader is 1/1626
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: synced members: 
1/1626, 2/1578

Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: all data is up to date
Nov  4 23:38:32 pve02 pmxcfs[1578]: [dcdb] notice: dfsm_deliver_queue: 
queue length 2

Nov  4 23:38:32 pve02 pmxcfs[1578]: [status] notice: received all states
Nov  4 23:38:32 pve02