2019-12-16 22:58:06 +00:00
|
|
|
|
# Survol des playbooks Ansible
|
2019-12-16 21:27:58 +00:00
|
|
|
|
|
|
|
|
|
On découpe nos *playbooks* Ansible par rôles :
|
|
|
|
|
|
|
|
|
|
- `pycon.yml`: Pour les pycon.fr
|
|
|
|
|
- `backup.yml`: Configure rsnapshot pour sauvegarder nos serveurs.
|
2019-12-18 19:20:22 +00:00
|
|
|
|
- ...
|
2019-12-16 21:27:58 +00:00
|
|
|
|
|
2022-10-05 14:57:38 +00:00
|
|
|
|
En partant de là, on peut utiliser les commandes suivantes :
|
2019-12-16 21:27:58 +00:00
|
|
|
|
|
2022-10-05 14:57:38 +00:00
|
|
|
|
Après avoir cloné ce repo, installé Ansible (dans un venv), installez
|
2019-12-17 10:57:23 +00:00
|
|
|
|
les roles nécessaires via :
|
2019-12-16 21:27:58 +00:00
|
|
|
|
|
2022-01-30 09:53:31 +00:00
|
|
|
|
- ansible-galaxy install julienpalard.nginx
|
2019-12-16 21:27:58 +00:00
|
|
|
|
|
2022-05-10 06:42:14 +00:00
|
|
|
|
Récupérez le secret dans [afpy/pass](https://github.com/AFPy/pass/):
|
|
|
|
|
|
|
|
|
|
git clone https://github.com/AFPy/pass/
|
|
|
|
|
PASSWORD_STORE_DIR=pass/infra pass Ansible-Vault > ~/.ansible-afpy-vault
|
|
|
|
|
|
2019-12-16 21:27:58 +00:00
|
|
|
|
Puis pour jouer les *playbooks* :
|
|
|
|
|
|
2021-12-30 20:33:48 +00:00
|
|
|
|
- Pour tout relancer : `ansible-parallel *.yml`
|
2019-12-16 21:27:58 +00:00
|
|
|
|
- Pour configurer les PyCons : `ansible-playbook pycons.yml`
|
|
|
|
|
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
2019-12-16 22:58:06 +00:00
|
|
|
|
## Faire, ne pas faire
|
|
|
|
|
|
2022-10-05 14:57:38 +00:00
|
|
|
|
Faire : Configurer les machines :
|
|
|
|
|
- `apt install`,
|
|
|
|
|
- fichiers de configuration,
|
|
|
|
|
- créer les utilisateurs,
|
|
|
|
|
- éventuellement un premier `git clone` pour que ça marche si c'est un site statique.
|
2019-12-16 22:58:06 +00:00
|
|
|
|
|
2022-10-05 14:57:38 +00:00
|
|
|
|
Ne pas faire :
|
|
|
|
|
- Deployer. En dehors de l'éventuel premier git clone,
|
|
|
|
|
c'est le rôle de la CI (Github Actions, ...), pas de nos playbooks.
|
2019-03-22 08:57:51 +00:00
|
|
|
|
|
2019-07-04 20:24:35 +00:00
|
|
|
|
|
2019-12-16 22:58:06 +00:00
|
|
|
|
# Servers
|
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
La distinction services/serveurs :
|
2018-12-20 22:54:21 +00:00
|
|
|
|
|
2022-10-05 14:57:38 +00:00
|
|
|
|
- Un serveur contient un nombre dans son nom : deb2.afpy.org,
|
2021-11-17 16:31:32 +00:00
|
|
|
|
bbb2.afpy.org, …
|
|
|
|
|
- Un service ne contient pas de chiffre dans son hostname :
|
|
|
|
|
discuss.afpy.org, bbb.afpy.org, www.afpy.org, …
|
2019-12-16 22:58:06 +00:00
|
|
|
|
|
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
## deb2.afpy.org
|
2019-12-16 22:58:06 +00:00
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
♥ Machine sponsorisée par Gandi ♥
|
2019-12-16 22:58:06 +00:00
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
C'est un VPS `V-R4 2 CPUs · 4 GB RAM`.
|
2018-12-20 22:54:21 +00:00
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
Elle héberge les services suivants :
|
2018-12-21 11:32:09 +00:00
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
- https://www.afpy.org ([source](https://github.com/AFPy/site))
|
|
|
|
|
- https://discuss.afpy.org une instance Discourse.
|
|
|
|
|
- [https://*.pycon.fr/*](https://pycon.fr/) (que des sites statiuques)
|
|
|
|
|
- Alain le bot IRC du canal #afpy ([source](https://github.com/AFPy/alain))
|
|
|
|
|
- La gate [IRC](https://afpy.org/irc)—[Discord](https://afpy.org/discord)
|
|
|
|
|
- https://dl.afpy.org: un *directory listing* nginx des vidéos de nos conférences.
|
|
|
|
|
- https://logs.afpy.org: Les logs du salon IRC #afpy ([source](https://github.com/AFPy/AfpyLogs/))
|
|
|
|
|
- https://pydocteur.afpy.org: Un bot utilisé dans le repo de la traduction ([source](https://github.com/AFPy/PyDocTeur))
|
2018-12-20 22:54:21 +00:00
|
|
|
|
|
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
## bbb2.afpy.org
|
2018-12-20 22:54:21 +00:00
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
♥ Machine sponsorisée par Gandi ♥
|
2019-07-04 21:30:06 +00:00
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
C'est un VPS `V-R8 4 CPUs · 8 GB RAM`.
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
|
|
|
|
|
2022-10-05 14:57:38 +00:00
|
|
|
|
## backup1.afpy.org
|
|
|
|
|
|
|
|
|
|
♥ Machine sponsorisée par Gandi ♥
|
|
|
|
|
|
|
|
|
|
C'est un « Gandi Cloud V5 » à Bissen au Luxembourg avec 512MB de RAM
|
|
|
|
|
et 512GB de disque, il sauvegarde (via rsnapshot) les autres machines
|
|
|
|
|
(voir `backup.yml`).
|
|
|
|
|
|
2022-12-14 14:34:38 +00:00
|
|
|
|
Dernière vérification de `backup1.afpy.org` le 14 décembre 2022 :
|
2022-11-01 19:55:36 +00:00
|
|
|
|
|
2022-12-14 14:34:38 +00:00
|
|
|
|
- 53% du disque utilisé (stable)
|
2022-11-01 19:55:36 +00:00
|
|
|
|
- Dans `/srv/backups/rsnapshot_afpy/daily.0/`:
|
2022-12-14 14:34:38 +00:00
|
|
|
|
- Stocke 7.2GB de bbb.afpy.org
|
|
|
|
|
- Stocke 405MB de git.afpy.org
|
|
|
|
|
- Stocke 233GB de deb2.afpy.org
|
2022-11-01 19:55:36 +00:00
|
|
|
|
- `deb.afpy.org/var/discourse/shared/standalone/backups/default/` contient bien des sauvegardes récentes.
|
|
|
|
|
- `deb.afpy.org/var/www/logs.afpy.org/` contient bien des fichiers récents.
|
2022-12-14 14:34:38 +00:00
|
|
|
|
- `git.afpy.org/var/backups/gitea/` contient bien des fichiers récents.
|
2022-11-01 19:55:36 +00:00
|
|
|
|
|
2022-12-14 14:34:38 +00:00
|
|
|
|
Julien Palard a aussi un rsnapshot sur `silence.palard.fr`, vérifié le 14 décembre 2022 :
|
2022-11-01 19:55:36 +00:00
|
|
|
|
|
2022-12-14 14:34:38 +00:00
|
|
|
|
- 55% du disque utilisé
|
2022-11-01 19:55:36 +00:00
|
|
|
|
- Dans `/srv/backups/rsnapshot/daily.0/`:
|
2022-12-14 14:34:38 +00:00
|
|
|
|
- Stocke 7.2GB de bbb.afpy.org
|
|
|
|
|
- Stocke 234GB de deb2.afpy.org
|
|
|
|
|
- Stocke 406MB de git.afpy.org
|
|
|
|
|
- `deb.afpy.org/var/discourse/shared/standalone/backups/default/` contient bien les sauvegardes récentes.
|
|
|
|
|
- `deb.afpy.org/var/www/logs.afpy.org/` contient bien des fichiers récents.
|
|
|
|
|
- `git.afpy.org/var/backups/gitea/` contient bien des fichiers récents.
|
2022-10-05 14:57:38 +00:00
|
|
|
|
|
|
|
|
|
|
2022-10-15 16:34:20 +00:00
|
|
|
|
## gitea1.afpy.org
|
|
|
|
|
|
|
|
|
|
♥ Machine sponsorisée par Gandi ♥
|
|
|
|
|
|
|
|
|
|
C’est un « Gandi VPS V-R1 » 1 CPU, 1 GB RAM, 25 GB disk.
|
|
|
|
|
|
|
|
|
|
C’est la machine derrière `git.afpy.org`, déployée via `gitea.yml`.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### Mise à jour
|
|
|
|
|
|
|
|
|
|
Pour faire une mise à jour, se connecter en root à la machine puis exécuter :
|
|
|
|
|
|
|
|
|
|
systemctl start gitea-backup.service
|
|
|
|
|
backupopts="-c /etc/gitea/app.ini --file /var/backups/gitea/before-upgrade.zip" gitea-upgrade.sh
|
|
|
|
|
|
|
|
|
|
(Oui, je sais, ça fait deux sauvegardes, une par nous (avec un
|
|
|
|
|
`pg_dump`), une par le script de gitea dont le SQL n’est pas aussi
|
|
|
|
|
propre que celui généré par `pg_dump`).
|
|
|
|
|
|
|
|
|
|
Une fois la mise à jour terminée, il est de bon goût de mettre à jour
|
|
|
|
|
`gitea_version` dans `gitea.yml`.
|
|
|
|
|
|
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
### Sauvegardes
|
|
|
|
|
|
|
|
|
|
Les données sont sauvegardées automatiquement via rsync sur
|
|
|
|
|
`backup1.afpy.org` (voir `backup.yml`).
|
|
|
|
|
|
|
|
|
|
Côté VPS Gandi on a aussi un snapshot du volume tous les jours.
|
|
|
|
|
|
|
|
|
|
|
2022-10-15 16:34:20 +00:00
|
|
|
|
### Restaurer une sauvegarde
|
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
Procédure testée le 2022-11-29 par [mdk](https://git.afpy.org/mdk).
|
2022-10-15 16:34:20 +00:00
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
Voici la procédure pour restaurer une sauvegarde sur une nouvelle
|
|
|
|
|
machine « from scratch ».
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### Commander une nouvelle machine
|
|
|
|
|
|
|
|
|
|
Typiquement chez Gandi une `V-R1: 1 CPU · 1 GB RAM`, avec une Debian
|
|
|
|
|
11, n'oubliez pas d'y mettre une clé SSH.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### Nommer la machine
|
|
|
|
|
|
|
|
|
|
Typiquement `gitea2.afpy.org`, configurer les DNS, en profiter pour
|
|
|
|
|
réduire le TTL de git.afpy.org puisqu'il faudra le changer à la fin.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### Autoriser à se ssh en root
|
|
|
|
|
|
|
|
|
|
ssh debian@giteatest.afpy.org sudo cp /home/debian/.ssh/authorized_keys /root/.ssh/
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### Ajouter la machine dans l'inventaire Ansible
|
2022-10-15 16:34:20 +00:00
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
Ça devra donc ressembler à :
|
2022-10-15 16:34:20 +00:00
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
```ini
|
|
|
|
|
[gitea]
|
|
|
|
|
gitea2.afpy.org
|
|
|
|
|
```
|
2022-10-15 16:34:20 +00:00
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
On peut probablement supprimer l'autre qui ne marche plus...
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### Lancer Ansible
|
|
|
|
|
|
|
|
|
|
`ansible-playbook gitea.yml`
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### rsync la sauvegarde
|
|
|
|
|
|
|
|
|
|
J'utilise du `ssh agent forwarding`, si vous n'en utilisez-pas vous
|
|
|
|
|
aurez peut-être à rsync sur votre machine d'abord.
|
|
|
|
|
|
|
|
|
|
Adapté de : https://docs.gitea.io/en-us/backup-and-restore/#restore-command-restore
|
|
|
|
|
|
|
|
|
|
Donc, depuis gitea2:
|
|
|
|
|
|
|
|
|
|
cd /var/lib/gitea/
|
|
|
|
|
rsync -vah backup1.afpy.org:/srv/backups/rsnapshot_afpy/daily.0/git.afpy.org/var/backups/gitea/ ./
|
2022-10-15 16:34:20 +00:00
|
|
|
|
systemctl stop gitea
|
2022-11-29 15:46:16 +00:00
|
|
|
|
rm -fr data custom
|
2022-10-15 16:34:20 +00:00
|
|
|
|
unzip gitea.zip
|
2022-11-29 15:46:16 +00:00
|
|
|
|
rm gitea.zip
|
2022-10-15 16:34:20 +00:00
|
|
|
|
mv app.ini /etc/gitea/app.ini
|
2022-11-29 15:46:16 +00:00
|
|
|
|
mv repos data/gitea-repositories
|
|
|
|
|
chown -R git:git .
|
2022-10-15 16:34:20 +00:00
|
|
|
|
sudo --user git psql -d gitea < gitea.sql
|
2022-11-29 15:46:16 +00:00
|
|
|
|
rm gitea.sql
|
2022-10-15 16:34:20 +00:00
|
|
|
|
|
|
|
|
|
Puis passer le playbook `gitea.yml` pour remettre les bons droits partout (le playbook démarrera aussi `gitea`).
|
|
|
|
|
|
|
|
|
|
|
2022-11-29 15:46:16 +00:00
|
|
|
|
#### Tester et mettre à jour git.afpy.org
|
|
|
|
|
|
|
|
|
|
Un rapide test peut être effectué via :
|
|
|
|
|
|
|
|
|
|
curl --resolve git.afpy.org:IP_DE_LA_NOUVELLE_MACHINE https://git.afpy.org
|
|
|
|
|
|
|
|
|
|
Puis il faut mettre à jour le CNAME de git.afpy.org pour le faire pointer vers la nouvelle machine.
|
|
|
|
|
|
|
|
|
|
|
2018-12-21 11:32:09 +00:00
|
|
|
|
# Ansible
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
2018-12-21 11:32:09 +00:00
|
|
|
|
On utilies ces rôles Ansible :
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
2021-11-18 05:30:59 +00:00
|
|
|
|
|
|
|
|
|
## roles/nginx
|
|
|
|
|
|
|
|
|
|
Ce rôle configure un nginx avec Letsencrypt en DNS-01 via l'API Gandi (nos domaines étant chez Gandi).
|
|
|
|
|
|
|
|
|
|
L'avantage du DNS-01 c'est qu'on peut configurer un nouveau serveur **avant** que le DNS ne pointe sur lui.
|
|
|
|
|
|
|
|
|
|
|
2019-12-18 12:41:45 +00:00
|
|
|
|
## julienpalard.nginx
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
2021-11-18 05:30:59 +00:00
|
|
|
|
Ce rôle configure un nginx avec Letsencrypt en HTTP-01, on l'utilise
|
|
|
|
|
assez peu maintenant, on l'utilise là où on ne peut pas faire de
|
|
|
|
|
DNS-01 (pour `fr.pycon.org` par exemple).
|
|
|
|
|
|
2019-12-18 12:41:45 +00:00
|
|
|
|
Voir la [doc](https://github.com/JulienPalard/ansible-role-nginx).
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
|
|
|
|
|
2018-12-21 11:32:09 +00:00
|
|
|
|
## common
|
2018-10-09 19:43:40 +00:00
|
|
|
|
|
2018-12-21 11:32:09 +00:00
|
|
|
|
*common* est un rôle "de base" permettant d'avoir une conf "normale"
|
|
|
|
|
sur toutes nos machines (emacs et vim installés, nos authorized-keys,
|
2019-12-18 12:41:45 +00:00
|
|
|
|
pas de mlocate, hostname propre, firewall, ce genre de broutilles).
|
2019-03-06 23:08:06 +00:00
|
|
|
|
|
|
|
|
|
|
2020-11-02 10:04:50 +00:00
|
|
|
|
## BBB
|
|
|
|
|
|
2021-11-17 16:31:32 +00:00
|
|
|
|
Hébergé sur bbb2.afpy.org chez Gandi.
|
2021-05-12 14:42:30 +00:00
|
|
|
|
|
|
|
|
|
J'y ai appliqué un poil de ssh-hardening :
|
|
|
|
|
|
|
|
|
|
AuthenticationMethods publickey
|
|
|
|
|
LogLevel VERBOSE
|
|
|
|
|
|
|
|
|
|
Ensuite j'ai [rsync les enregistrements depuis le bbb
|
|
|
|
|
précédent](https://docs.bigbluebutton.org/2.2/customize.html#transfer-published-recordings-from-another-server).
|
|
|
|
|
|
|
|
|
|
Puis j'ai sauvegardé/restauré la DB de greenlight :
|
|
|
|
|
|
|
|
|
|
# Sur l'ancienne machine :
|
|
|
|
|
docker exec greenlight_db_1 /usr/bin/pg_dumpall -U postgres -f /var/lib/postgresql/data/dump.sql
|
|
|
|
|
|
|
|
|
|
# Sur la nouvelle machine :
|
|
|
|
|
# Copier la sauvegarde sur le nouveau serveur :
|
|
|
|
|
cd ~root/greenlight
|
|
|
|
|
rsync bbb.afpy.org:/root/greenlight/db/production/dump.sql ./
|
|
|
|
|
|
|
|
|
|
docker-compose down
|
|
|
|
|
rm -fr db
|
|
|
|
|
# Configurer le même mot de passe dans .env et docker-compose.yml que l'ancienne machine
|
|
|
|
|
# En profiter pour vérifier le SAFE_HOSTS dans le .env.
|
|
|
|
|
docker-compose up -d
|
|
|
|
|
# Attendre un peu avec un top sous les yeux que ça se termine vraiment
|
|
|
|
|
docker exec greenlight_db_1 /usr/local/bin/psql -U postgres -c "DROP DATABASE greenlight_production;"
|
|
|
|
|
mv dump.sql db/production/
|
|
|
|
|
docker exec greenlight_db_1 /usr/local/bin/psql -U postgres -f /var/lib/postgresql/data/dump.sql
|
|
|
|
|
rm db/production/dump.sql
|
|
|
|
|
docker-compose down
|
|
|
|
|
docker-compose up -d # Il va s'occuper de la migration
|
|
|
|
|
docker-compose logs -f # pour voir si tout va bien
|
|
|
|
|
|
|
|
|
|
`rsync` des certificats TLS aussi :
|
|
|
|
|
|
|
|
|
|
rsync -vah bbb.afpy.org:/etc/letsencrypt/ /etc/letsencrypt/
|
|
|
|
|
|
|
|
|
|
Ça a pris un petit :
|
|
|
|
|
|
|
|
|
|
sed s/sd-106563.dedibox.fr/bbb.afpy.org/ /etc/nginx/sites-available/bigbluebutton
|
|
|
|
|
|
|
|
|
|
Il faut attendre un moment avec un `top` qui tourne, ruby a tout plein
|
|
|
|
|
de truc a faire avant de démarrer.
|
2022-04-03 14:12:31 +00:00
|
|
|
|
|
|
|
|
|
|
2022-06-03 10:52:22 +00:00
|
|
|
|
### BBB password reset
|
|
|
|
|
|
|
|
|
|
Pour accepter le password reset, BBB doit avoir :
|
|
|
|
|
|
|
|
|
|
ALLOW_MAIL_NOTIFICATIONS=true
|
|
|
|
|
|
|
|
|
|
dans /root/greenlight/.env
|
|
|
|
|
|
|
|
|
|
(Pour relire le `.env`: `cd /root/greenlight; docker-compose down && docker-compose up -d`)
|
|
|
|
|
|
|
|
|
|
Pour vérifier la conf :
|
|
|
|
|
|
|
|
|
|
docker run --rm --env-file .env bigbluebutton/greenlight:v2 bundle exec rake conf:check
|
|
|
|
|
|
|
|
|
|
Il y a des chances que ça ne passe pas, il faut laisser les mails
|
|
|
|
|
sortir de leur conteneur Docker (par défaut il utilise sendmail DANS
|
|
|
|
|
le conteneur).
|
|
|
|
|
|
|
|
|
|
Il faut configurer le `.env` tel que:
|
|
|
|
|
|
|
|
|
|
SMTP_SERVER=172.17.0.1
|
|
|
|
|
SMTP_PORT=25
|
|
|
|
|
SMTP_DOMAIN=greenlight.afpy.org
|
|
|
|
|
SMTP_SENDER=bbb@afpy.org
|
|
|
|
|
|
|
|
|
|
Puis vérifier qu'exim et le firewall (attention c'est peut-être `ufw`)
|
|
|
|
|
les acceptent.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
### Configuration TURN/STUN
|
2022-04-03 14:12:31 +00:00
|
|
|
|
|
|
|
|
|
L'installation de BBB n'étant pas gérée par Ansible, pour le moment la
|
|
|
|
|
conf TURN/STUN est faite à la main, c'est la seule chose à faire, elle
|
|
|
|
|
ressemble à :
|
|
|
|
|
|
|
|
|
|
```xml
|
|
|
|
|
<?xml version="1.0" encoding="UTF-8"?>
|
|
|
|
|
<beans xmlns="http://www.springframework.org/schema/beans"
|
|
|
|
|
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
|
|
|
|
|
xsi:schemaLocation="http://www.springframework.org/schema/beans
|
|
|
|
|
http://www.springframework.org/schema/beans/spring-beans-2.5.xsd
|
|
|
|
|
">
|
|
|
|
|
|
|
|
|
|
<bean id="stun0" class="org.bigbluebutton.web.services.turn.StunServer">
|
|
|
|
|
<constructor-arg index="0" value="stun:turn.afpy.org"/>
|
|
|
|
|
</bean>
|
|
|
|
|
|
|
|
|
|
<bean id="turn0" class="org.bigbluebutton.web.services.turn.TurnServer">
|
|
|
|
|
<constructor-arg index="0" value="[redacte]"/>
|
|
|
|
|
<constructor-arg index="1" value="turns:turn.afpy.org:443?transport=tcp"/>
|
|
|
|
|
<constructor-arg index="2" value="86400"/>
|
|
|
|
|
</bean>
|
|
|
|
|
|
|
|
|
|
<bean id="stunTurnService" class="org.bigbluebutton.web.services.turn.StunTurnService">
|
|
|
|
|
<property name="stunServers">
|
|
|
|
|
<set>
|
|
|
|
|
<ref bean="stun0" />
|
|
|
|
|
</set>
|
|
|
|
|
</property>
|
|
|
|
|
<property name="turnServers">
|
|
|
|
|
<set>
|
|
|
|
|
<ref bean="turn0" />
|
|
|
|
|
</set>
|
|
|
|
|
</property>
|
|
|
|
|
<property name="remoteIceCandidates">
|
|
|
|
|
<set>
|
|
|
|
|
</set>
|
|
|
|
|
</property>
|
|
|
|
|
</bean>
|
|
|
|
|
</beans>
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
dans `/usr/share/bbb-web/WEB-INF/classes/spring/turn-stun-servers.xml`.
|
2022-10-07 14:25:05 +00:00
|
|
|
|
|
|
|
|
|
|
|
|
|
|
# DKIM
|
|
|
|
|
|
|
|
|
|
Le playbook exim configure une clé DKIM et signe les mails avec. Mais un humain doit la propager sur les DNS.
|
|
|
|
|
|
|
|
|
|
Le nom d'hote est le nom du serveur, donc pour `deb2`,
|
|
|
|
|
`d=deb2.afpy.org`, et le selecteur vaut le nom de domaine avec des
|
|
|
|
|
`-`, soit `s=deb2-afpy-org`.
|
|
|
|
|
|
|
|
|
|
TL;DR la configuration qu'il faut faire ressemble à :
|
|
|
|
|
|
|
|
|
|
deb2-afpy-org._domainkey.deb2.afpy.org. IN TXT "v=DKIM1; k=rsa; p=MIG...QAB"
|
|
|
|
|
|
|
|
|
|
La clé publique se situe dans `/etc/exim4/dkim/*.pem` et est donc récupérable via :
|
|
|
|
|
|
|
|
|
|
ssh root@deb2.afpy.org cat /etc/exim4/dkim/deb2-afpy-org.pem | grep -v ^- | tr -d '\n'
|