Al momento ho risolto utilizzando uno script per montare il filesystem impostandolo in crontab di root:
@reboot sleep 60 && /root/script/mountgluster.sh All'interno dello script verifico che il peer sia raggiungibile che il servizio glusterfs sia attivo prima di procedere al mount. Grazie a tutti per i consigli. Luca. Il giorno 11 ottobre 2016 16:07, emmanuel segura <emi2f...@gmail.com> ha scritto: > Ciao, > > Da un punto di vista logico, se fai riavvio di un nodo di un cluster, > prima che il nodo vada giu, il nodo del cluster comunica a gli altri > nodi, dicendo, sto andato giu, quindi un grateful shutdown, a questo > punto, gli altri nodi rimuovono il nodo dalla loro lista dei nodi > activi e lo mettono in stato dead. > > Quando il nodo parte e deve comunicare a gli altri che e tornato su, > questo sarebbe il processo di join di un nodo a un cluster. > > Quindi, non e detto che quando viene eseguito il mount, il nodo faccia > parte del cluster. > > > Il 11 ottobre 2016 15:50, Luca <l.ca...@gmail.com> ha scritto: > > Su rc.local avevo già provato, ma non funziona. > > > > Per cluster non ancora attivo cosa intendi? L'altro server è attivo, e > > glusterfs è stato inizializzato in precedenza. Il problema si pone solo > al > > reboot. > > > > Luca. > > > > Il giorno 11 ottobre 2016 15:45, Luca De Andreis <d...@corep.it> ha > scritto: > >> > >> Il 11 ottobre 2016 15:13:50 CEST, Walter Valenti < > waltervale...@yahoo.it> > >> ha scritto: > >> > > >> > > >> >> > >> >>ho il seguente problema nel montare il filesystem glusterfs al boot > >> >del server. > >> >>Se faccio il mount manuale tutto funziona, mentre al boot no. > >> >> > >> >> > >> >>root@ciotola:~# systemctl status db.mount > >> >>● db.mount - /db > >> >> Loaded: loaded (/etc/fstab) > >> >> Active: failed (Result: exit-code) since Tue 2016-10-11 14:25:35 > >> >CEST; 1min 34s ago > >> >> Where: /db > >> >> What: 127.0.0.1:/db_shared > >> >> Docs: man:fstab(5) > >> >> man:systemd-fstab-generator(8) > >> >> Process: 380 ExecMount=/bin/mount -n 127.0.0.1:/db_shared /db -t > >> >glusterfs -o defaults,_netdev (code=exited, status=1/FAILURE) > >> >> > >> >> > >> >>Oct 11 14:25:35 ciotola mount[380]: extra arguments at end (ignored) > >> >>Oct 11 14:25:35 ciotola mount[380]: Mount failed. Please check the log > >> >file for more details. > >> >>Oct 11 14:25:35 ciotola systemd[1]: db.mount mount process exited, > >> >code=exited status=1 > >> >>Oct 11 14:25:35 ciotola systemd[1]: Unit db.mount entered failed > >> >state. > >> >> > >> >> > >> >>/etc/fstab: > >> >> > >> >> > >> >>127.0.0.1:/db_shared /db glusterfs defaults,_netdev > >> > 0 0 > >> >> > >> > > >> > > >> > > >> >Non ho esperienze con glusterfs, ma a prima vista mi da l'idea che al > >> >boot, quando > >> >cerca di fare il mount gli manca qualcosa che non si è ancora avviato. > >> >Prova a fare il mount al boot da rc.local anziché come servizio systemd > >> >e vedi se te lo monta correttamente. > >> > > >> > > >> >Walter > >> > >> Giusterfs è un file system clusterizzato e come tale richiede che tutta > >> l'infrastruttura del cluster sia attiva ed il nodo quorato. > >> Non è che è solo un problema di cluster non (ancora) attivo? Spesso non > è > >> proprio immediato, specie "agganciare" lo stato quorato non è > rapidissimo e > >> se tu tenti di fare un mount prima... > >> > >> Luca > >> > > > > > > -- > .~. > /V\ > // \\ > /( )\ > ^`~'^ >