Skip to content

Commit deda877

Browse files
New Crowdin updates (#2393)
* New translations proton.md (French) * New translations hpe_amsd.md (French) * New translations xfce_installation.md (French) * New translations mate_installation.md (French) * New translations kde_installation.md (French) * New translations 00-toc.md (French) * New translations 00-toc.md (French) * New translations 01-install.md (French) * New translations accel-ppp_pppoe_server.md (French) * New translations 02-zfs_setup.md (French) * New translations 05-incus_images.md (French) * New translations wireguard_vpn.md (German)
1 parent dbaf70d commit deda877

11 files changed

+1156
-21
lines changed

docs/books/incus_server/00-toc.fr.md

Lines changed: 84 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,84 @@
1+
---
2+
title: Serveur Incus. Introduction
3+
author: Steven Spencer
4+
contributors: Ezequiel Bruni, Ganna Zhyrnova
5+
tested_with: 9.4
6+
tags:
7+
- lxd
8+
- incus
9+
- entreprise
10+
---
11+
12+
## Création d'un serveur Incus
13+
14+
### Présence de `Incus` sur Rocky Linux
15+
16+
Il y a plus d'un an maintenant – 2023 –, l'annonce suivante est sortie sur la liste de diffusion lxc-users :
17+
18+
> Canonical, the creator and main contributor of the LXD project has decided that after over 8 years as part of the Linux Containers community, the project would now be better served directly under Canonical’s own set of projects.
19+
>
20+
> Canonical, le créateur et principal contributeur du projet LXD, a décidé qu'après plus de 8 ans au sein de la communauté Linux Containers, le projet serait désormais mieux servi directement dans le cadre du propre ensemble de projets de Canonical.
21+
>
22+
23+
L’un des facteurs décisifs a été la démission de certains développeurs principaux de LXD. Ces développeurs ont ensuite bifurqué LXD vers Incus, annonçant le fork en août 2023. Une version de publication (0.1) est sortie en octobre 2023, et les développeurs ont depuis rapidement développé cette version avec des versions progressives jusqu'à la 0.7 (en mars 2024). La sortie de la version de support à long terme (6.0 LTS) a suivi la sortie de la version 0.7. 2024-09-25 : La version actuelle est 6.5.
24+
25+
Tout au long du processus, Canonical était censé continuer à maintenir des liens vers les images de conteneurs fournies par Linux Containers. Cependant, un [changement de licence](https://stgraber.org/2023/12/12/lxd-now-re-licensed-and-under-a-cla/) a rendu impossible pour Linux Containers de continuer à proposer les images de conteneurs dans LXD. Cela signifie que LXD aura des images de conteneur, mais elles ne seront pas ce à quoi vous pourriez vous attendre. Linux Containers continue d'héberger et de prendre en charge leurs images si vous utilisez Incus.
26+
27+
Ce document est une conversion du [livre LXD](../lxd_server/00-toc.md) vers Incus. Depuis la création d'un référentiel par le co-responsable de l'infrastructure du projet Rocky Linux [Neil Hanlon](https://wiki.rockylinux.org/team/infrastructure/), vous avez la possibilité d'installer Incus avant son inclusion dans le référentiel EPEL (Extra Packages for Enterprise Linux).
28+
29+
!!! warning "Le serveur Incus n'est pas disponible sur Rocky Linux 8"
30+
31+
```
32+
L'installation du serveur Incus n'est disponible que pour Rocky Linux 9.x et est actuellement testée sur Rocky Linux 9.4. Si vous avez besoin de quelque chose qui fonctionne sur Rocky Linux 8.x, utilisez la [procédure LXD mentionnée précédemment](../lxd_server/00-toc.md).
33+
```
34+
35+
## Introduction
36+
37+
Incus est le mieux décrit sur le [site officiel](https://linuxcontainers.org/incus/), mais considérez-le comme un système de conteneur offrant les avantages des serveurs virtuels dans un conteneur.
38+
39+
Il est très puissant, et avec le matériel approprié et configuré, peut être mis à profit pour exécuter beaucoup d'instances de serveurs sur un seul matériel. Si vous associez cela à un serveur de snapshot, vous avez également un ensemble de conteneurs que vous pouvez faire tourner presque immédiatement si votre serveur principal se trouve déconnecté.
40+
41+
!!! warning "Ceci n'est pas une sauvegarde"
42+
43+
```
44+
Il ne faut pas considérer cela comme une sauvegarde traditionnelle. Vous avez toujours besoin d'un système de sauvegarde classique, tel que [rsnapshot](../../guides/backup/rsnapshot_backup.md).
45+
```
46+
47+
La courbe d'apprentissage d'Incus peut être raide, mais ce livre tentera de vous donner les connaissances nécessaires pour vous aider à déployer et à utiliser `Incus` sur Rocky Linux.
48+
49+
Pour ceux qui souhaitent utiliser Incus comme environnement de laboratoire sur leurs ordinateurs portables ou leurs postes de travail, voir [Annexe A : Configuration du poste de travail](30-appendix_a.md).
50+
51+
## Prérequis
52+
53+
- Un serveur Rocky Linux 9, configuré de manière adéquate. Envisagez un disque dur séparé pour l’espace disque ZFS dans un environnement de production (vous devez le faire si vous utilisez ZFS). En effet un des prérequis ici est un serveur bare metal, et non pas un VPS (Virtual Private Server).
54+
- C'est un sujet avancé, mais pas très difficile à comprendre. Si vous suivez ces instructions dès le début, vous devriez réussir. Cela dit, avoir quelques notions de base sur la gestion des conteneurs sera très utile.
55+
- Vous devriez maîtriser la ligne de commande sur chaque machine et pouvoir utiliser un éditeur de texte comme `vi` (par exemple). (L'auteur utilise _vi_ dans ces exemples, mais vous pouvez le remplacer par votre éditeur préféré.)
56+
- Il suffit d'être un utilisateur sans privilège pour la majeure partie de ces procédures. Pour les premières étapes de configuration, vous devrez être connecté en tant qu'utilisateur root ou pouvoir utiliser `sudo` pour le devenir. Tout au long de ces chapitres, nous supposons que votre utilisateur non privilégié est `incusadmin`. Vous devrez créer ce compte utilisateur ultérieurement dans le processus.
57+
- Pour ZFS, vérifiez que le démarrage sécurisé d'UEFI n'est PAS activé. Sinon, vous devrez signer cryptographiquement le module ZFS pour pouvoir le charger.
58+
- Nous utilisons principalement des conteneurs basés sur Rocky Linux
59+
60+
!!! info "Info"
61+
62+
```
63+
L'auteur inclut une méthodologie pour utiliser un système de fichiers ZFS. Veuillez noter que le projet Incus recommande BTRFS comme système de fichiers pour un serveur Incus. (ZFS est toujours une option de système de fichiers.) BTRFS, cependant, n'est pas du tout disponible sur Rocky Linux 9.4. Jusqu'à ce qu'il soit approuvé par le système en amont et publié, votre seule option est d'utiliser ZFS ou un autre système de fichiers inclus. Pour en savoir plus sur les options du système de fichiers Incus, consultez [le document officiel du projet ici.](https://linuxcontainers.org/incus/docs/main/reference/storage_dir/)
64+
```
65+
66+
## Synopsis
67+
68+
- **Chapitre 1 : Installation et configuration** traite de l’installation du serveur principal. Généralement, la bonne façon de mettre en œuvre Incus en production est d'avoir un serveur principal et un serveur d'instantanés.
69+
- **Chapitre 2 : Configuration de ZFS** décrit la configuration et l’installation de ZFS. ZFS est un gestionnaire de volume logique et système de fichiers open-source créé par Sun Microsystems, à l'origine pour son système d'exploitation Solaris.
70+
- **Chapitre 3 : Initialisation d'Incus et configuration de l'utilisateur** traite de l'initialisation et des options de base, ainsi que de la configuration de votre utilisateur non privilégié que vous utiliserez pendant la majeure partie du reste de la procédure
71+
- **Chapitre 4 : Configuration du pare-feu** Contient les options de configuration `firewalld`
72+
- **Chapitre 5 : Configuration et gestion des images** décrit la procédure d'installation des images de système d'exploitation dans un conteneur et leur configuration
73+
- **Chapitre 6 : Profils** traite de l'ajout de profils et de leur application aux conteneurs et couvre principalement `macvlan` et son importance pour l'adressage IP sur votre LAN ou WAN
74+
- **Chapitre 7 : Options de configuration des conteneurs** couvre brièvement certaines des options de configuration de base des conteneurs et décrit certains avantages et effets secondaires pour la modification des options de configuration
75+
- **Chapitre 8 : Snapshots de conteneurs** détaille le principe d'instantané pour les conteneurs sur le serveur principal
76+
- **Chapitre 9 : Le serveur de snapshots** couvre l'installation et la configuration du serveur de snapshots et comment créer la relation symbiotique entre le serveur principal et le serveur de snapshots
77+
- **Chapitre 10 : Automatisation des Snapshots** couvre l'automatisation de la création d'instantanés et le remplissage du serveur d'instantanés avec des Snapshots
78+
- **L'annexe A : Configuration du poste de travail** ne fait techniquement pas partie des documents du serveur de production. Cette annexe présente une solution pour les personnes qui souhaitent créer un laboratoire de conteneurs `Incus` sur leurs ordinateurs portables ou leurs postes de travail.
79+
80+
## Conclusion
81+
82+
Vous pouvez utiliser ces chapitres pour configurer efficacement une paire de serveurs `Incus` primaire et de Snapshots au niveau d'entreprise. Ce faisant, vous en apprendrez énormément sur `Incus`. Sachez simplement qu’il y a encore beaucoup à apprendre et considérez ces documents comme un point de départ.
83+
84+
L’avantage le plus significatif d’Incus est qu’il est économique à utiliser sur un serveur, qu’il vous permet de lancer rapidement des installations de systèmes d’exploitation et qu’il permet à de nombreux serveurs d’applications autonomes de s’exécuter sur un seul matériel, en exploitant ce matériel pour une utilisation optimale.
Lines changed: 185 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,185 @@
1+
---
2+
title: "Chapitre 1 : Installation et Configuration"
3+
author: Steven Spencer
4+
contributors: Ezequiel Bruni, Ganna Zhyrnova
5+
tested_with: 9.4
6+
tags:
7+
- incus
8+
- entreprise
9+
- installation d'incus
10+
---
11+
12+
Tout au long de ce chapitre, vous devez être l'utilisateur root ou pouvoir utiliser _sudo_ pour avoir les privilèges nécessaires.
13+
14+
## Installation des référentiels EPEL et OpenZFS
15+
16+
Incus nécessite le dépôt EPEL (Extra Packages for Enterprise Linux), qui est facile à installer avec la commande suivante :
17+
18+
```bash
19+
dnf install epel-release -y
20+
```
21+
22+
Une fois installé, vérifiez qu'il n'y a pas de mises à jour en attente :
23+
24+
```bash
25+
dnf upgrade
26+
```
27+
28+
Si des mises à jour du noyau ont été effectuées pendant le processus de mise à niveau, redémarrez le serveur.
29+
30+
### Le Dépôt OpenZFS
31+
32+
Installez le dépôt OpenZFS en utilisant la commande suivante :
33+
34+
```bash
35+
dnf install https://zfsonlinux.org/epel/zfs-release-2-2$(rpm --eval "%{dist}").noarch.rpm
36+
```
37+
38+
## Installation de `dkms`, `vim` et `kernel-devel`
39+
40+
Installation de paquets nécessaires :
41+
42+
```bash
43+
dnf install dkms vim kernel-devel bash-completion
44+
```
45+
46+
## Installation d'Incus
47+
48+
Vous aurez besoin du référentiel CRB disponible pour certains packages spéciaux et du COPR (Cool Other Package Repo) de Neil Hanlon :
49+
50+
```bash
51+
dnf config-manager --enable crb
52+
dnf copr enable neil/incus
53+
dnf install incus incus-tools
54+
```
55+
56+
Activez et démarrez le service `incus`  :
57+
58+
```bash
59+
systemctl enable incus --now
60+
```
61+
62+
Relancez le serveur maintenant avant de continuer.
63+
64+
## Installation d'OpenZFS
65+
66+
```bash
67+
dnf install zfs
68+
```
69+
70+
## Configuration de l'Environnement
71+
72+
L'exécution de nombreux conteneurs nécessite davantage de paramètres que la plupart des paramètres du noyau du serveur. Si nous supposons dès le début que nous utiliserons notre serveur en production, alors nous devons faire ces changements avant pour éviter que des erreurs telles que `Too many open files` ne se produisent.
73+
74+
Heureusement, peaufiner les paramètres d’Incus n’est pas difficile avec quelques modifications de fichiers et un redémarrage.
75+
76+
### Modification de `limits.conf`
77+
78+
Le premier fichier que vous devez modifier est `limits.conf`. Ce fichier est autodocumenté. Examinez les explications dans les commentaires du fichier pour comprendre à quoi sert ce fichier. Pour effectuer vos modifications, saisissez :
79+
80+
```bash
81+
vi /etc/security/limits.conf
82+
```
83+
84+
La plus grande partie de ce fichier est constitué de commentaires et, en bas, affiche les paramètres par défaut actuels. Vous devez ajouter les paramètres personnalisés dans l'espace vide au-dessus de la fin du marqueur de fichier (#Fin du fichier). La fin du fichier ressemblera à ceci lorsque vous aurez terminé :
85+
86+
```text
87+
# Modifications made for LXD
88+
89+
* soft nofile 1048576
90+
* hard nofile 1048576
91+
root soft nofile 1048576
92+
root hard nofile 1048576
93+
* soft memlock unlimited
94+
* hard memlock unlimited
95+
```
96+
97+
Enregistrez vos modifications et quittez l'éditeur (++shift+colon+"w"+"q"+exclam++ pour _vi_).
98+
99+
### Modification de `sysctl.conf` avec `90-incus-override.conf`
100+
101+
Avec _systemd_, vous pouvez modifier la configuration globale de votre système et les options du noyau _sans_ modifier le fichier de configuration principal. Au lieu de cela, vous mettrez vos paramètres dans un fichier séparé qui remplacera les paramètres particuliers dont vous avez besoin.
102+
103+
Pour effectuer ces modifications du noyau, vous créerez un fichier appelé `90-incus-override.conf` dans le répertoire `/etc/sysctl.d`. Pour ce faire, tapez ce qui suit :
104+
105+
```bash
106+
vi /etc/sysctl.d/90-incus-override.conf
107+
```
108+
109+
Placez le contenu suivant dans le fichier. Notez que si vous vous demandez comment faire ici, le contenu du fichier est auto-documenté :
110+
111+
```bash
112+
## The following changes have been made for LXD ##
113+
114+
# fs.inotify.max_queued_events specifies an upper limit on the number of events that can be queued to the corresponding inotify instance
115+
- (default is 16384)
116+
117+
fs.inotify.max_queued_events = 1048576
118+
119+
# fs.inotify.max_user_instances This specifies an upper limit on the number of inotify instances that can be created per real user ID -
120+
(default value is 128)
121+
122+
fs.inotify.max_user_instances = 1048576
123+
124+
# fs.inotify.max_user_watches specifies an upper limit on the number of watches that can be created per real user ID - (default is 8192)
125+
126+
fs.inotify.max_user_watches = 1048576
127+
128+
# vm.max_map_count contains the maximum number of memory map areas a process may have. Memory map areas are used as a side-effect of cal
129+
ling malloc, directly by mmap and mprotect, and also when loading shared libraries - (default is 65530)
130+
131+
vm.max_map_count = 262144
132+
133+
# kernel.dmesg_restrict denies container access to the messages in the kernel ring buffer. Please note that this also will deny access t
134+
o non-root users on the host system - (default is 0)
135+
136+
kernel.dmesg_restrict = 1
137+
138+
# This is the maximum number of entries in ARP table (IPv4). You should increase this if you create over 1024 containers.
139+
140+
net.ipv4.neigh.default.gc_thresh3 = 8192
141+
142+
# This is the maximum number of entries in ARP table (IPv6). You should increase this if you plan to create over 1024 containers.Not nee
143+
ded if not using IPv6, but...
144+
145+
net.ipv6.neigh.default.gc_thresh3 = 8192
146+
147+
# This is a limit on the size of eBPF JIT allocations which is usually set to PAGE_SIZE * 40000. Set this to 1000000000 if you are running Rocky Linux 9.x
148+
149+
net.core.bpf_jit_limit = 1000000000
150+
151+
# This is the maximum number of keys a non-root user can use, should be higher than the number of containers
152+
153+
kernel.keys.maxkeys = 2000
154+
155+
# This is the maximum size of the keyring non-root users can use
156+
157+
kernel.keys.maxbytes = 2000000
158+
159+
# This is the maximum number of concurrent async I/O operations. You might need to increase it further if you have a lot of workloads th
160+
at use the AIO subsystem (e.g. MySQL)
161+
162+
fs.aio-max-nr = 524288
163+
```
164+
165+
Enregistrez vos modifications et quittez l'éditeur.
166+
167+
À ce stade, vous devriez redémarrer le serveur.
168+
169+
### Vérification des variables dans `sysctl.conf`
170+
171+
Une fois le redémarrage terminé, reconnectez-vous sur le serveur. Nous devons vérifier que notre fichier de remplacement a effectivement fait le travail.
172+
173+
Ce n'est pas difficile à faire. Il n'est pas nécessaire de vérifier tous les paramètres, sauf si vous le souhaitez, mais en vérifier quelques-uns permettra de s'assurer que les paramètres sont enregistrés. Pour ce faire, utilisez la commande `sysctl` :
174+
175+
```bash
176+
sysctl net.core.bpf_jit_limit
177+
```
178+
179+
Pour obtenir la ligne suivante :
180+
181+
```bash
182+
net.core.bpf_jit_limit = 1000000000
183+
```
184+
185+
Faites la même chose avec quelques autres paramètres dans le fichier de substitution pour vérifier que des modifications ont été apportées.
Lines changed: 64 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,64 @@
1+
---
2+
title: "Chapitre 2 : ZFS Setup"
3+
author: Steven Spencer
4+
contributors: Ezequiel Bruni, Ganna Zhyrnova
5+
tested_with: 9.4
6+
tags:
7+
- incus
8+
- entreprise
9+
- incus zfs
10+
---
11+
12+
# Chapitre 2 : ZFS Setup
13+
14+
Tout au long de ce chapitre, vous devez être l'utilisateur root ou pouvoir utiliser `sudo` pour obtenir les privilèges nécessaires.
15+
16+
Si vous avez déjà installé ZFS, cette section vous guidera tout au long de la configuration de ZFS.
17+
18+
## Activation de ZFS et configuration du `pool`
19+
20+
Tout d'abord, entrez la commande suivante :
21+
22+
```bash
23+
/sbin/modprobe zfs
24+
```
25+
26+
S'il n'y a pas d'erreur, iel reviendra à l'invite sans afficher quoi que ce soit. Si vous obtenez une erreur, vous pouvez arrêter maintenant et commencer à trouver une solution. Encore une fois, assurez-vous que l'amorçage sécurisé est désactivé. C'est le coupable le plus probable.
27+
28+
Ensuite, vous devez examiner les disques de notre système, découvrir où se trouve le système d’exploitation et déterminer ce qui est disponible pour le pool ZFS. Pour ce faire utilisez `lsblk` :
29+
30+
```bash
31+
lsblk
32+
```
33+
34+
Ce qui renverra quelque chose comme ceci (sur votre système ce sera différent !) :
35+
36+
```bash
37+
AME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
38+
loop0 7:0 0 32.3M 1 loop /var/lib/snapd/snap/snapd/11588
39+
loop1 7:1 0 55.5M 1 loop /var/lib/snapd/snap/core18/1997
40+
loop2 7:2 0 68.8M 1 loop /var/lib/snapd/snap/lxd/20037
41+
sda 8:0 0 119.2G 0 disk
42+
├─sda1 8:1 0 600M 0 part /boot/efi
43+
├─sda2 8:2 0 1G 0 part /boot
44+
├─sda3 8:3 0 11.9G 0 part [SWAP]
45+
├─sda4 8:4 0 2G 0 part /home
46+
└─sda5 8:5 0 103.7G 0 part /
47+
sdb 8:16 0 119.2G 0 disk
48+
├─sdb1 8:17 0 119.2G 0 part
49+
└─sdb9 8:25 0 8M 0 part
50+
sdc 8:32 0 149.1G 0 disk
51+
└─sdc1 8:33 0 149.1G 0 part
52+
```
53+
54+
Cette liste montre que le système d'exploitation utilise _/dev/sda_. Vous pouvez utiliser _/dev/sdb_ pour le `zpool`. Notez que si vous avez beaucoup de disques durs disponibles, vous pouvez envisager d'utiliser raidz (un logiciel de raid spécialement conçu pour ZFS).
55+
56+
Cela n’entre pas dans le cadre de ce document mais devra être pris en compte pour la production. Il offre de meilleures performances et une meilleure redondance. Pour l'instant, créez votre pool sur le seul disque que vous avez identifié :
57+
58+
```bash
59+
zpool create storage /dev/sdb
60+
```
61+
62+
Cela indique de créer un pool appelé `storage` qui est ZFS sur le périphérique _/dev/sdb_.
63+
64+
Une fois le pool créé, redémarrez à nouveau le serveur.

0 commit comments

Comments
 (0)