Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?
Le 03/12/20 à 8h04, professor geek a écrit : > Hello, > > Il y a quelque temps, Active Circle voulait se lancer dans ce créneau en > SaaS. > Je sais pas s’ils ont aboutit. la maison mere est oodrive. > Je les avais contacter pour un besoin WORM, mais le projet est tombé a > l’eau... Apparemment ils font https://active-circle.com/solutions/ mais je pense pas jouer dans la bonne cour ;-) -- Daniel Dieu a sagement agi en plaçant la naissance avant la mort; sans cela, que saurait-on de la vie ? Alphonse Allais ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] [*EXT*] [TECH] question gestion centralisée d’utilisateurs sur Apple
Bonjour, macOS Server est quasiment un abandonware. Il est déprécié par Apple et ne sera vraisemblablement pas porté sur BigSur. [ https://discussions.apple.com/thread/252086005 | https://discussions.apple.com/thread/252086005 ] Sinon les mac se joignent facilement à un ActiveDirectory. Pour les annuaires LDAP 'de base', c'est plus rock and roll via l'utilitaire d'annuaire et des réglages à la main. Sinon les outils type MDM comme JAMF sont taillés pour cela : [ https://www.jamf.com/fr/ | https://www.jamf.com/fr/ ] IG De: "Olivier Vailleau" À: "frsag" Envoyé: Jeudi 3 Décembre 2020 17:20:56 Objet: [*EXT*] [FRsAG] [TECH] question gestion centralisée d’utilisateurs sur Apple Bonjour la liste, Nous avons un petit paquet d'ordinateurs Apple utilisés dans un cadre pédagogique avec des élèves (adultes) pour du travail sur les suites Adobe et autres. Nous souhaitons pouvoir gérer ces élèves en tant qu'utilisateurs de façon à ce qu'ils puissent se connecter sur les Mac, via un outil comme ActiveDirectory dans le monde des pc. Apparemment, dans le monde Apple, c'est OpenDirectory. Est-ce que le service "Opendirectory" n'existe qu'à travers un apple server ? Est-ce que les clients Apple sont capables de se connecter à un autre annuaire, genre ActiveDirectory, ou autres annuaires LDAP annexes qu'on peut trouver dans des NAS comme le Directory Service de Synology ? Merci d'avance pour vos réponses, Olivier. ___ Liste de diffusion du FRsAG http://www.frsag.org/ -- 232 avenue Napoleon BONAPARTE 92500 RUEIL MALMAISON Capital EUR 219 300,00 - RCS Nanterre B 408 832 301 - TVA FR 09 408 832 301 ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] [TECH] question gestion centralisée d’utilisateurs sur Apple
Salut Olivier, OpenLDAP et Kerberos sont pris en charge par macOS. Exemple pour la configuration : https://wikispaces.psu.edu/display/clcmaclinuxwikipublic/macOS+Authentication+Configuration J'espère que ça t'aidera On Thu, Dec 3, 2020, 11:22 Olivier Vailleau wrote: > Bonjour la liste, > > Nous avons un petit paquet d'ordinateurs Apple utilisés dans un cadre > pédagogique avec des élèves (adultes) pour du travail sur les suites Adobe > et autres. > > Nous souhaitons pouvoir gérer ces élèves en tant qu'utilisateurs de façon > à ce qu'ils puissent se connecter sur les Mac, via un outil comme > ActiveDirectory dans le monde des pc. Apparemment, dans le monde Apple, > c'est OpenDirectory. > Est-ce que le service "Opendirectory" n'existe qu'à travers un apple > server ? > Est-ce que les clients Apple sont capables de se connecter à un autre > annuaire, genre ActiveDirectory, ou autres annuaires LDAP annexes qu'on > peut trouver dans des NAS comme le Directory Service de Synology ? > > Merci d'avance pour vos réponses, > Olivier. > > ___ > Liste de diffusion du FRsAG > http://www.frsag.org/ > ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] [TECH] question gestion centralisée d’utilisateurs sur Apple
Bonsoir, La dernière fois que je m’y suis intéressé (2013), j’avais pu connecter les Mac à Active Directory sans problème, c’était supporté sans difficultés de mémoire. — Kevin Labécot > Le 3 déc. 2020 à 17:20, Olivier Vailleau a écrit > : > > Bonjour la liste, > > Nous avons un petit paquet d'ordinateurs Apple utilisés dans un cadre > pédagogique avec des élèves (adultes) pour du travail sur les suites Adobe et > autres. > > Nous souhaitons pouvoir gérer ces élèves en tant qu'utilisateurs de façon à > ce qu'ils puissent se connecter sur les Mac, via un outil comme > ActiveDirectory dans le monde des pc. Apparemment, dans le monde Apple, c'est > OpenDirectory. > Est-ce que le service "Opendirectory" n'existe qu'à travers un apple server ? > Est-ce que les clients Apple sont capables de se connecter à un autre > annuaire, genre ActiveDirectory, ou autres annuaires LDAP annexes qu'on peut > trouver dans des NAS comme le Directory Service de Synology ? > > Merci d'avance pour vos réponses, > Olivier. > > ___ > Liste de diffusion du FRsAG > http://www.frsag.org/ ___ Liste de diffusion du FRsAG http://www.frsag.org/
[FRsAG] [TECH] question gestion centralisée d’utilisateurs sur Apple
Bonjour la liste, Nous avons un petit paquet d'ordinateurs Apple utilisés dans un cadre pédagogique avec des élèves (adultes) pour du travail sur les suites Adobe et autres. Nous souhaitons pouvoir gérer ces élèves en tant qu'utilisateurs de façon à ce qu'ils puissent se connecter sur les Mac, via un outil comme ActiveDirectory dans le monde des pc. Apparemment, dans le monde Apple, c'est OpenDirectory. Est-ce que le service "Opendirectory" n'existe qu'à travers un apple server ? Est-ce que les clients Apple sont capables de se connecter à un autre annuaire, genre ActiveDirectory, ou autres annuaires LDAP annexes qu'on peut trouver dans des NAS comme le Directory Service de Synology ? Merci d'avance pour vos réponses, Olivier. ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?
Hello, Il y a quelque temps, Active Circle voulait se lancer dans ce créneau en SaaS. Je sais pas s’ils ont aboutit. la maison mere est oodrive. Je les avais contacter pour un besoin WORM, mais le projet est tombé a l’eau... ++ On 3 December 2020 at 10:36:38, Benjamin AVET (benjamin.a...@gmail.com) wrote: Bonjour, Le glacier S3 de AWS est une solution de stockage à long terme. Vous pouvez chiffrer les données que vous uploader sur le glacier et lui imposer un cycle de vie qui inclut notamment la suppression au bout d'un certain nombre de jours. Ce que dit la doc AWS https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-lifecycle.html : *Under Lifecycle rule actions, choose the actions that you want your lifecycle rule to perform:* - *Transition current versions of objects between storage classes* - *Transition previous versions of objects between storage classes* - *Expire current versions of objects* - *Permanently delete previous versions of objects* - *Delete expired delete markers or incomplete multipart uploads* *Depending on the actions that you choose, different options appear.* Les documents sont versionnés chez AWS (comme chez GCP d'ailleurs). Autrement dit, si un document arrive avec un nom déjà existant, le premier n'est pas supprimé, il n'est juste plus visible par les outils par défaut. Il faut alors afficher les différentes versions. Ainsi vous réglez votre problème d'écriture sur les documents. Ceci dit, la solution que vous cherchez ressemble fortement à une solution d'archivage légale, il faudrait peut-être chercher de ce côté là. Le jeu. 3 déc. 2020 à 08:37, Daniel Caillibaud a écrit : > Le 02/12/20 à 16h41, Yann Pretot a écrit : > > Hello Daniel, > > > > AWS fait ça dans Glacier avec les Vault Locks. Tu peux définir une > > politique de conservation pour une durée donnée, et tant qu’elle n’expire > > pas, rien ni personne ne peut supprimer le contenu de tes archives. > > > > La FAQ donne un bon premier aperçu du fonctionnement : > > https://aws.amazon.com/glacier/faqs/?nc1=h_ls#Vault_Lock > > Merci Yann. > > À voir comment implémenter ça coté client, mais ça semble pas si compliqué > - créer un coffre-fort > > https://docs.aws.amazon.com/amazonglacier/latest/dev/creating-vaults-cli.html > > - envoyer dedans des fichiers chiffrés > > https://docs.aws.amazon.com/cli/latest/reference/glacier/upload-archive.html > > - verrouiller le coffre-fort > > https://docs.aws.amazon.com/cli/latest/reference/glacier/initiate-vault-lock.html > > https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-access-policy.html > https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-lock-policy.html > > https://docs.aws.amazon.com/cli/latest/reference/glacier/complete-vault-lock.html > > Reste à voir la gestion de la durée de vie, pas vu si on devait mettre le > TTL sur le vault ou sur chaque archive qu'on envoie dedans, mais ça doit > pas être si compliqué (dans les exemple trouvés on interdit l'effacement > pendant une durée mais ensuite faut le lancer). > > Sur https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-lock.html > et > https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-lock-policy.html > ils expliquent comment verrouiller les droits d'accès du vault, mais ça > parle pas d'expiration et suppression automatique. > > Par ailleurs, d'après ce que je comprends, si le propio du compte aws > arrête de payer ça supprime tout (mais ça c'est le cas partout). > > > Reste à demander à ceux qui se disent "S3 compliant" s'ils implémentent > tout ça (pas sûr, S3 ≠ S3 glacier), et choisir le presta. > > -- > Daniel > > L’arithmétique, c’est être capable de compter jusqu’à vingt > sans enlever ses chaussures. > Walt Disney > ___ > Liste de diffusion du FRsAG > http://www.frsag.org/ > ___ Liste de diffusion du FRsAG http://www.frsag.org/ ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)
'jour > Je vais essayer d'être un peu plus pénible avec Ceph en provoquant des > coupures > brutales à des moments différents. Il me semble avoir lu sur le forum Proxmox que leurs devs conseillent de mettre 5 noeuds Ceph dans un cluster (hyperconvergé ou dédié Ceph). Comme ça, on peut en perdre 2 en même temps (coupure brutale) et on peut continuer en R/W (si le nombre de réplicant est suffisant bien sûr, il faut écrire les données sur trois noeuds). Il faut donc aussi au moins trois monitors et trois managers. Je les ai bêtement suivi leur conseil et ça fonctionne plutôt bien. Par contre, avec 5 noeuds et 40 OSD (8 SSD 2TB par noeuf), le facteur limitant en IOps c'est le réseau : deux ports 10 Gbps LACP dédiés pour le trafic Ceph c'est pas assez. Le bench rados le montre clairement (60 secondes, 16 threads 4 MB) : Total time run: 60.055428 Total writes made: 14405 Write size: 4194304 Object size:4194304 Bandwidth (MB/sec): 959.447 Stddev Bandwidth: 24.6301 Max bandwidth (MB/sec): 1008 Min bandwidth (MB/sec): 892 Average IOPS: 239 Stddev IOPS:6 Max IOPS: 252 Min IOPS: 223 Average Latency(s): 0.066696 Stddev Latency(s): 0.0290787 Max latency(s): 0.361495 Min latency(s): 0.0267153 Il faudrait taper dans du 40 Gbps et diminuer la latence. David ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] cold backup, vous connaissez du "vrai" glacier ?
Bonjour, Le glacier S3 de AWS est une solution de stockage à long terme. Vous pouvez chiffrer les données que vous uploader sur le glacier et lui imposer un cycle de vie qui inclut notamment la suppression au bout d'un certain nombre de jours. Ce que dit la doc AWS https://docs.aws.amazon.com/AmazonS3/latest/user-guide/create-lifecycle.html : *Under Lifecycle rule actions, choose the actions that you want your lifecycle rule to perform:* - *Transition current versions of objects between storage classes* - *Transition previous versions of objects between storage classes* - *Expire current versions of objects* - *Permanently delete previous versions of objects* - *Delete expired delete markers or incomplete multipart uploads* *Depending on the actions that you choose, different options appear.* Les documents sont versionnés chez AWS (comme chez GCP d'ailleurs). Autrement dit, si un document arrive avec un nom déjà existant, le premier n'est pas supprimé, il n'est juste plus visible par les outils par défaut. Il faut alors afficher les différentes versions. Ainsi vous réglez votre problème d'écriture sur les documents. Ceci dit, la solution que vous cherchez ressemble fortement à une solution d'archivage légale, il faudrait peut-être chercher de ce côté là. Le jeu. 3 déc. 2020 à 08:37, Daniel Caillibaud a écrit : > Le 02/12/20 à 16h41, Yann Pretot a écrit : > > Hello Daniel, > > > > AWS fait ça dans Glacier avec les Vault Locks. Tu peux définir une > > politique de conservation pour une durée donnée, et tant qu’elle n’expire > > pas, rien ni personne ne peut supprimer le contenu de tes archives. > > > > La FAQ donne un bon premier aperçu du fonctionnement : > > https://aws.amazon.com/glacier/faqs/?nc1=h_ls#Vault_Lock > > Merci Yann. > > À voir comment implémenter ça coté client, mais ça semble pas si compliqué > - créer un coffre-fort > > https://docs.aws.amazon.com/amazonglacier/latest/dev/creating-vaults-cli.html > > - envoyer dedans des fichiers chiffrés > > https://docs.aws.amazon.com/cli/latest/reference/glacier/upload-archive.html > > - verrouiller le coffre-fort > > https://docs.aws.amazon.com/cli/latest/reference/glacier/initiate-vault-lock.html > > https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-access-policy.html > https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-lock-policy.html > > https://docs.aws.amazon.com/cli/latest/reference/glacier/complete-vault-lock.html > > Reste à voir la gestion de la durée de vie, pas vu si on devait mettre le > TTL sur le vault ou sur chaque archive qu'on envoie dedans, mais ça doit > pas être si compliqué (dans les exemple trouvés on interdit l'effacement > pendant une durée mais ensuite faut le lancer). > > Sur https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-lock.html > et > https://docs.aws.amazon.com/amazonglacier/latest/dev/vault-lock-policy.html > ils expliquent comment verrouiller les droits d'accès du vault, mais ça > parle pas d'expiration et suppression automatique. > > Par ailleurs, d'après ce que je comprends, si le propio du compte aws > arrête de payer ça supprime tout (mais ça c'est le cas partout). > > > Reste à demander à ceux qui se disent "S3 compliant" s'ils implémentent > tout ça (pas sûr, S3 ≠ S3 glacier), et choisir le presta. > > -- > Daniel > > L’arithmétique, c’est être capable de compter jusqu’à vingt > sans enlever ses chaussures. > Walt Disney > ___ > Liste de diffusion du FRsAG > http://www.frsag.org/ > ___ Liste de diffusion du FRsAG http://www.frsag.org/
Re: [FRsAG] Single node Ceph (Was: Re: Proxmox 6.3-2 et Pool LVM-Thin)
Bonjour, Le 02/12/2020 à 16:05, Stéphane Rivière a écrit : > Je n'utilise pas CEPH. Voilà le notes que j'avais pris à l'époque. > Aucune idée de la pertinence. Ces colistiers ont du vécu :) Leurs > messages m'ont semblé assez clairs. > > 3Incident > > wall...@morkitu.org : Ceph sur trois noeuds dans le moule Proxmox, ça > marche quand tout est ok. Si tu perds un nœud le quorum en prend un coup > comme pour Proxmox mais ça passe. > > On a découvert avec douleur qu'un cluster Proxmox trois nœuds qui > démarre à froid (coupure courant de nuit dans une entreprise malgré > l'onduleur ça n'a pas tenu jusqu'au matin) et qui a un nœud ceph mort > (l'équipe sur place faisait une maintenance sur les disques la veille) > refuse de démarrer et donc tu ne peux pas faire repartir. Comme pour le lvm-thin, ce retour d'expérience est précieux pour construire et faire évoluer les infrastructures Proxmox et Ceph. Sur le lvm-thin, on va mettre une supervision sur ce point précis :-) J'ai testé le même type d'incident (coupure de courant) avec 5 serveurs Proxmox (6.3) dont 3 noeuds Ceph (15.2). J'ai cassé un serveur Proxmox et un noeud Ceph avant de couper brutalement le courant. Au redémarrage, J'ai allumé 2 serveurs Proxmox ayant 2 noeuds Ceph: -> J'ai eu droit un beau message du contrôleur RAID du genre "flushing cache", car il y avait des données dans la mémoire du contrôleur lors de l'arrêt brutal, et donc il a écrit les données sur les disques au rallumage. -> Le Ceph a un peu rallé avec "Health Warning" (active+undersized), mais il était accessible -> Le Proxmox a refusé de démarrer les VMs car le quorum n'était pas là. J'ai rallumé un Proxmox supplémentaire (pour arriver à 3): -> Les VMs sont reparties. J'ai rallumé le reste : dernier noeud Ceph et 2 derniers proxmox: -> Après quelques minutes, le Ceph est repassé en Health OK -> Le proxmox cassé ne s'est pas réintégré (différence de numéro de version dans corosync) Je vais essayer d'être un peu plus pénible avec Ceph en provoquant des coupures brutales à des moments différents. -- *Emmanuel DECAEN* ___ Liste de diffusion du FRsAG http://www.frsag.org/