Ressources :
Nous décrivons ci-dessous comment créer l'instance "bkp-srv" depuis l'instance "web-srv" :
Le transfert d'une sauvegarde d'un datacentre à un autre nécessite l'utilisation de fonctionnalité d'OpenStack non accessible directement depuis le manager d'OVH. Afin de pouvoir accéder à ces fonctionnalités, il est nécessaire d'instance les utilitaires Glance, Nova et OpenStack. Ces outils vont nous permettre de manipuler les instances, les volumes et les images (sauvegardes). Ils peuvent être installé sur une machine locale ou sur une instance selon les besoins.
Pour télécharger localement une sauvegarde d'instance :
glance image-list glance image-show --human-readable <image-ID> glance image-show <image-ID> | grep -P "(?:created_at|updated_at)" glance image-show --human-readable <image-ID> | grep "size" glance image-download <image-ID> --progress --file ./<mon-fichier-de-sauvegarde-web-srv>.qcow2 Pour transférer une sauvegarde d'instance d'un datacentre à un autre dans le même projet Public Cloude (ce qui est notre cas) :
openstack image list openstack image save --file <mon-fichier-de-sauvegarde-web-srv>.qcow <image-ID> ~/<mon-dossier-de-stockage>/ovh-openstack/sinp-<region>-<abréviation-datacentre>/ ~/Applications/ovh-openstack/sinp-paca-UK1/cp ~/Applications/ovh-openstack/sinp-paca-GRA7/openrc.sh ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh OS_REGION_NAME. Ex. : vi ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh GRA7 par UK1 cd ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh source ~/Applications/ovh-openstack/sinp-paca-UK1/openrc.sh openstack image create --disk-format qcow2 --container-format bare --file ~/<mon-dossier-de-stockage>/ovh-openstack/sinp-<region>-<abréviation-datacentre-principal>/<mon-fichier-de-sauvegarde-web-srv>.qcow <nom-image-web-srv> openstack image create --disk-format qcow2 --container-format bare --file ~/Applications/ovh-openstack/sinp-paca-GRA7/2021-03-29_web-srv.qcow2 copy_web-srv_for_bkp-srv Il n'est pas possible de télécharger directement un volume (bootable ou pas). Il est nécessaire de créer une image à partir du snapshot du volume pour ensuite télécharger localement l'image :
openstack volume list openstack volume show <volume-id> openstack image create --volume <nom-volume> <nom-image> openstack image create --volume db-storage 2021-03-26_db-storage_before_deleting openstack image list | grep "<nom-image>" openstack image list | grep "2021-03-26_db-storage_before_deleting" active atteint, l'image est téléchargeable localement avec : openstack image save --file ./<nom-image-locale>.raw <image-ID> Il faut uploader l'image locale du volume puis la transformer en volume sur le datacentre choisi :
openrc.sh correspondant au datacentre sur lequel vous souhaitez uploader le volume : cd source openrc.sh openstack image create --container-format bare --disk-format qcow2 --file <nom-fichier-image-local> <nom-image> <nom-image> que vous venez d'uploader sur le datacentre : openstack image list <image-ID>), sa taille en Giga-Octets ( <taille-en-Go>) et le nom du volume que vous souhaitez créeer (<volume-nom>) : openstack volume create --image <image-ID> --size <taill-en-Go> <volume-nom> Lors de la création de la nouvelle instance :
copy_web-srv_for_bkp-srvAprès la création de la nouvelle instance dans le Manager d'OVH, il est nécessaire de :
vi /etc/hostnameweb-aura-sinp) par le nouveau : bkp-<region>-sinpvi /etc/hostsens3 et ens4 (anciennement eth0, eth1) :systemctl reboot firewall-cmd --zone=public --permanent --add-port=<port-ssh-bkp>/tcp firewall-cmd --zone=internal --permanent --add-port=<port-ssh-bkp>/tcp firewall-cmd --zone=internal --permanent --add-port=8086/tcp firewall-cmd --zone=internal --permanent --add-port=8089/udp firewall-cmd --reload firewall-cmd --zone=public --permanent --remove-port=<port-ssh-web>/tcp firewall-cmd --zone=internal --permanent --remove-port=<port-ssh-web>/tcp firewall-cmd --reload /etc/postfix/main.cf, le fichier /etc/postfix/smtp_header_checks et dans le fichier /etc/mailname. Voir la doc sur la config de Postfix. passwd passwd geonat /var/log/ et plus spécifiquement les logs /var/log/nginxVérifications :
10.0.1.30 sur l'interface ens4 (anciennement eth1) : ip a ifup ens4 ou ifup eth1 ping 10.0.1.20