infra/README.md

410 lines
12 KiB
Markdown
Raw Normal View History

2019-12-16 22:58:06 +00:00
# Survol des playbooks Ansible
2019-12-16 21:27:58 +00:00
On découpe nos *playbooks* Ansible par rôles :
- `pycon.yml`: Pour les pycon.fr
- `backup.yml`: Configure rsnapshot pour sauvegarder nos serveurs.
2019-12-18 19:20:22 +00:00
- ...
2019-12-16 21:27:58 +00:00
En partant de là, on peut utiliser les commandes suivantes :
2019-12-16 21:27:58 +00:00
Après avoir cloné ce repo, installé Ansible (dans un venv), installez
2019-12-17 10:57:23 +00:00
les roles nécessaires via :
2019-12-16 21:27:58 +00:00
2022-01-30 09:53:31 +00:00
- ansible-galaxy install julienpalard.nginx
2019-12-16 21:27:58 +00:00
Récupérez le secret dans [afpy/pass](https://github.com/AFPy/pass/):
git clone https://github.com/AFPy/pass/
PASSWORD_STORE_DIR=pass/infra pass Ansible-Vault > ~/.ansible-afpy-vault
2019-12-16 21:27:58 +00:00
Puis pour jouer les *playbooks* :
- Pour tout relancer : `ansible-parallel *.yml`
2019-12-16 21:27:58 +00:00
- Pour configurer les PyCons : `ansible-playbook pycons.yml`
2018-10-09 19:43:40 +00:00
2019-12-16 22:58:06 +00:00
## Faire, ne pas faire
Faire : Configurer les machines :
- `apt install`,
- fichiers de configuration,
- créer les utilisateurs,
- éventuellement un premier `git clone` pour que ça marche si c'est un site statique.
2019-12-16 22:58:06 +00:00
Ne pas faire :
- Deployer. En dehors de l'éventuel premier git clone,
c'est le rôle de la CI (Github Actions, ...), pas de nos playbooks.
2019-03-22 08:57:51 +00:00
2019-07-04 20:24:35 +00:00
2019-12-16 22:58:06 +00:00
# Servers
2021-11-17 16:31:32 +00:00
La distinction services/serveurs :
2018-12-20 22:54:21 +00:00
- Un serveur contient un nombre dans son nom : deb2.afpy.org,
2021-11-17 16:31:32 +00:00
bbb2.afpy.org, …
- Un service ne contient pas de chiffre dans son hostname :
discuss.afpy.org, bbb.afpy.org, www.afpy.org, …
2019-12-16 22:58:06 +00:00
2021-11-17 16:31:32 +00:00
## deb2.afpy.org
2019-12-16 22:58:06 +00:00
2021-11-17 16:31:32 +00:00
♥ Machine sponsorisée par Gandi ♥
2019-12-16 22:58:06 +00:00
2021-11-17 16:31:32 +00:00
C'est un VPS `V-R4 2 CPUs · 4 GB RAM`.
2018-12-20 22:54:21 +00:00
2021-11-17 16:31:32 +00:00
Elle héberge les services suivants :
2018-12-21 11:32:09 +00:00
2021-11-17 16:31:32 +00:00
- https://www.afpy.org ([source](https://github.com/AFPy/site))
- [https://*.pycon.fr/*](https://pycon.fr/) (que des sites statiuques)
- Alain le bot IRC du canal #afpy ([source](https://github.com/AFPy/alain))
- La gate [IRC](https://afpy.org/irc)—[Discord](https://afpy.org/discord)
- https://dl.afpy.org: un *directory listing* nginx des vidéos de nos conférences.
- https://logs.afpy.org: Les logs du salon IRC #afpy ([source](https://github.com/AFPy/AfpyLogs/))
- https://munin.afpy.org
2018-12-20 22:54:21 +00:00
2021-11-17 16:31:32 +00:00
## bbb2.afpy.org
2018-12-20 22:54:21 +00:00
2021-11-17 16:31:32 +00:00
♥ Machine sponsorisée par Gandi ♥
2019-07-04 21:30:06 +00:00
2021-11-17 16:31:32 +00:00
C'est un VPS `V-R8 4 CPUs · 8 GB RAM`.
2018-10-09 19:43:40 +00:00
## backup1.afpy.org
♥ Machine sponsorisée par Gandi ♥
C'est un « Gandi Cloud V5 » à Bissen au Luxembourg avec 512MB de RAM
et 512GB de disque, il sauvegarde (via rsnapshot) les autres machines
(voir `backup.yml`).
2023-01-02 15:30:03 +00:00
Dernière vérification de `backup1.afpy.org` le 2 janvier 2023 via :
ssh root@backup1.afpy.org sh check-afpy.sh
Dernière vérification de `silence` (chez Julien) le 2 janvier 2023 via :
ssh root@silence sh /srv/backups/check-afpy.sh
## gitea1.afpy.org
♥ Machine sponsorisée par Gandi ♥
Cest un « Gandi VPS V-R1 » 1 CPU, 1 GB RAM, 25 GB disk.
Cest la machine derrière `git.afpy.org`, déployée via `gitea.yml`.
### Mise à jour
Pour faire une mise à jour, se connecter en root à la machine puis exécuter :
systemctl start gitea-backup.service
backupopts="-c /etc/gitea/app.ini --file /var/backups/gitea/before-upgrade.zip" gitea-upgrade.sh
(Oui, je sais, ça fait deux sauvegardes, une par nous (avec un
`pg_dump`), une par le script de gitea dont le SQL nest pas aussi
propre que celui généré par `pg_dump`).
Une fois la mise à jour terminée, il est de bon goût de mettre à jour
`gitea_version` dans `gitea.yml`.
### Sauvegardes
Les données sont sauvegardées automatiquement via rsync sur
`backup1.afpy.org` (voir `backup.yml`).
Côté VPS Gandi on a aussi un snapshot du volume tous les jours.
### Restaurer une sauvegarde
Procédure testée le 2022-11-29 par [mdk](https://git.afpy.org/mdk).
Voici la procédure pour restaurer une sauvegarde sur une nouvelle
machine « from scratch ».
#### Commander une nouvelle machine
Typiquement chez Gandi une `V-R1: 1 CPU · 1 GB RAM`, avec une Debian
11, n'oubliez pas d'y mettre une clé SSH.
#### Nommer la machine
Typiquement `gitea2.afpy.org`, configurer les DNS, en profiter pour
réduire le TTL de git.afpy.org puisqu'il faudra le changer à la fin.
#### Autoriser à se ssh en root
ssh debian@giteatest.afpy.org sudo cp /home/debian/.ssh/authorized_keys /root/.ssh/
#### Ajouter la machine dans l'inventaire Ansible
Ça devra donc ressembler à :
```ini
[gitea]
gitea2.afpy.org
```
On peut probablement supprimer l'autre qui ne marche plus...
#### Lancer Ansible
`ansible-playbook gitea.yml`
#### rsync la sauvegarde
J'utilise du `ssh agent forwarding`, si vous n'en utilisez-pas vous
aurez peut-être à rsync sur votre machine d'abord.
Adapté de : https://docs.gitea.io/en-us/backup-and-restore/#restore-command-restore
Donc, depuis gitea2:
cd /var/lib/gitea/
rsync -vah backup1.afpy.org:/srv/backups/rsnapshot_afpy/daily.0/git.afpy.org/var/backups/gitea/ ./
systemctl stop gitea
rm -fr data custom
unzip gitea.zip
rm gitea.zip
mv app.ini /etc/gitea/app.ini
mv repos data/gitea-repositories
chown -R git:git .
sudo --user git psql -d gitea < gitea.sql
rm gitea.sql
Puis passer le playbook `gitea.yml` pour remettre les bons droits partout (le playbook démarrera aussi `gitea`).
#### Tester et mettre à jour git.afpy.org
Un rapide test peut être effectué via :
curl --resolve git.afpy.org:IP_DE_LA_NOUVELLE_MACHINE https://git.afpy.org
Puis il faut mettre à jour le CNAME de git.afpy.org pour le faire pointer vers la nouvelle machine.
2023-02-01 07:28:20 +00:00
## discourse1.afpy.org
♥ Machine sponsorisée par Gandi ♥
C'est un VPS `V-R4 2 CPUs · 4 GB RAM`.
Elle héberge https://discuss.afpy.org une instance Discourse.
### Déplacement du Discourse vers une nouvelle machine
Le 31 janvier 2023 Julien a déplacé le Discourse de deb2 à discourse1.
<details>
<summary>
Voici la procédure
</summary>
- Ajouter les enregistrements A et AAAA de la machine.
- Baisser le TTL du CNAME `discuss.afpy.org`.
- Mettre à jour le SPF pendant qu'on y est.
- Configurer le reverse DNS de la nouvelle machine.
- Côté Ansible, ajouter la machine au groupe `[discourse]` dans le fichier `inventory`.
- Copier sa clé ssh sur la machine dans `/root/.ssh/authorized_keys`.
- Lancer `ansible-playbook discuss.yml`.
- Lancer à la main dans `/var/discourse/`: `./launcher rebuild app` (ça prend ~10mn).
- Sur l'ancienne machine, faire une sauvegarde, soit via https://discuss.afpy.org/admin/backups, soit :
```
./launcher enter app
discourse backup
exit
```
- Copier une sauvegarde dans `/var/discourse/shared/standalone/backups/default/`.
- Restaurer la sauvegarde :
```
cd /var/discourse
./launcher enter app
discourse enable_restore
discourse restore afpy-2023-01-31-215204-v20230130053144.tar.gz
exit
```
Bien tester lenvoi demails.
</details>
2018-12-21 11:32:09 +00:00
# Ansible
2018-10-09 19:43:40 +00:00
2018-12-21 11:32:09 +00:00
On utilies ces rôles Ansible :
2018-10-09 19:43:40 +00:00
2021-11-18 05:30:59 +00:00
## roles/nginx
Ce rôle configure un nginx avec Letsencrypt en DNS-01 via l'API Gandi (nos domaines étant chez Gandi).
L'avantage du DNS-01 c'est qu'on peut configurer un nouveau serveur **avant** que le DNS ne pointe sur lui.
2019-12-18 12:41:45 +00:00
## julienpalard.nginx
2018-10-09 19:43:40 +00:00
2021-11-18 05:30:59 +00:00
Ce rôle configure un nginx avec Letsencrypt en HTTP-01, on l'utilise
assez peu maintenant, on l'utilise là où on ne peut pas faire de
DNS-01 (pour `fr.pycon.org` par exemple).
2019-12-18 12:41:45 +00:00
Voir la [doc](https://github.com/JulienPalard/ansible-role-nginx).
2018-10-09 19:43:40 +00:00
2018-12-21 11:32:09 +00:00
## common
2018-10-09 19:43:40 +00:00
2018-12-21 11:32:09 +00:00
*common* est un rôle "de base" permettant d'avoir une conf "normale"
sur toutes nos machines (emacs et vim installés, nos authorized-keys,
2019-12-18 12:41:45 +00:00
pas de mlocate, hostname propre, firewall, ce genre de broutilles).
2019-03-06 23:08:06 +00:00
2020-11-02 10:04:50 +00:00
## BBB
2021-11-17 16:31:32 +00:00
Hébergé sur bbb2.afpy.org chez Gandi.
2021-05-12 14:42:30 +00:00
J'y ai appliqué un poil de ssh-hardening :
AuthenticationMethods publickey
LogLevel VERBOSE
Ensuite j'ai [rsync les enregistrements depuis le bbb
précédent](https://docs.bigbluebutton.org/2.2/customize.html#transfer-published-recordings-from-another-server).
Puis j'ai sauvegardé/restauré la DB de greenlight :
# Sur l'ancienne machine :
docker exec greenlight_db_1 /usr/bin/pg_dumpall -U postgres -f /var/lib/postgresql/data/dump.sql
# Sur la nouvelle machine :
# Copier la sauvegarde sur le nouveau serveur :
cd ~root/greenlight
rsync bbb.afpy.org:/root/greenlight/db/production/dump.sql ./
docker-compose down
rm -fr db
# Configurer le même mot de passe dans .env et docker-compose.yml que l'ancienne machine
# En profiter pour vérifier le SAFE_HOSTS dans le .env.
docker-compose up -d
# Attendre un peu avec un top sous les yeux que ça se termine vraiment
docker exec greenlight_db_1 /usr/local/bin/psql -U postgres -c "DROP DATABASE greenlight_production;"
mv dump.sql db/production/
docker exec greenlight_db_1 /usr/local/bin/psql -U postgres -f /var/lib/postgresql/data/dump.sql
rm db/production/dump.sql
docker-compose down
docker-compose up -d # Il va s'occuper de la migration
docker-compose logs -f # pour voir si tout va bien
`rsync` des certificats TLS aussi :
rsync -vah bbb.afpy.org:/etc/letsencrypt/ /etc/letsencrypt/
Ça a pris un petit :
sed s/sd-106563.dedibox.fr/bbb.afpy.org/ /etc/nginx/sites-available/bigbluebutton
Il faut attendre un moment avec un `top` qui tourne, ruby a tout plein
de truc a faire avant de démarrer.
2022-04-03 14:12:31 +00:00
### BBB password reset
Pour accepter le password reset, BBB doit avoir :
ALLOW_MAIL_NOTIFICATIONS=true
dans /root/greenlight/.env
(Pour relire le `.env`: `cd /root/greenlight; docker-compose down && docker-compose up -d`)
Pour vérifier la conf :
docker run --rm --env-file .env bigbluebutton/greenlight:v2 bundle exec rake conf:check
Il y a des chances que ça ne passe pas, il faut laisser les mails
sortir de leur conteneur Docker (par défaut il utilise sendmail DANS
le conteneur).
Il faut configurer le `.env` tel que:
SMTP_SERVER=172.17.0.1
SMTP_PORT=25
SMTP_DOMAIN=greenlight.afpy.org
SMTP_SENDER=bbb@afpy.org
Puis vérifier qu'exim et le firewall (attention c'est peut-être `ufw`)
les acceptent.
### Configuration TURN/STUN
2022-04-03 14:12:31 +00:00
L'installation de BBB n'étant pas gérée par Ansible, pour le moment la
conf TURN/STUN est faite à la main, c'est la seule chose à faire, elle
ressemble à :
```xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.springframework.org/schema/beans
http://www.springframework.org/schema/beans/spring-beans-2.5.xsd
">
<bean id="stun0" class="org.bigbluebutton.web.services.turn.StunServer">
<constructor-arg index="0" value="stun:turn.afpy.org"/>
</bean>
<bean id="turn0" class="org.bigbluebutton.web.services.turn.TurnServer">
<constructor-arg index="0" value="[redacte]"/>
<constructor-arg index="1" value="turns:turn.afpy.org:443?transport=tcp"/>
<constructor-arg index="2" value="86400"/>
</bean>
<bean id="stunTurnService" class="org.bigbluebutton.web.services.turn.StunTurnService">
<property name="stunServers">
<set>
<ref bean="stun0" />
</set>
</property>
<property name="turnServers">
<set>
<ref bean="turn0" />
</set>
</property>
<property name="remoteIceCandidates">
<set>
</set>
</property>
</bean>
</beans>
```
dans `/usr/share/bbb-web/WEB-INF/classes/spring/turn-stun-servers.xml`.
2022-10-07 14:25:05 +00:00
# DKIM
Le playbook exim configure une clé DKIM et signe les mails avec. Mais un humain doit la propager sur les DNS.
Le nom d'hote est le nom du serveur, donc pour `deb2`,
`d=deb2.afpy.org`, et le selecteur vaut le nom de domaine avec des
`-`, soit `s=deb2-afpy-org`.
TL;DR la configuration qu'il faut faire ressemble à :
deb2-afpy-org._domainkey.deb2.afpy.org. IN TXT "v=DKIM1; k=rsa; p=MIG...QAB"
La clé publique se situe dans `/etc/exim4/dkim/*.pem` et est donc récupérable via :
ssh root@deb2.afpy.org cat /etc/exim4/dkim/deb2-afpy-org.pem | grep -v ^- | tr -d '\n'