Introduction aux techniques de deep learning et formation à pytorch et à la logique modulaire.
Ces tutoriels sont directement inspirés de la documentation officielle pytorch, qui est très bien faite: lien
En alternative à ce git: parmi les plus jolis cours sur pytorch: lien
- Notebook 0: Nouvelle structure de données (tensor) [pour ceux qui ne connaissent pas numpy]
- Notebook 1_1: Tensor, plus d'opérateurs, quelques petits exercices
- Notebook 1_2: Définition du gradient et différentiation automatique
- Graphe de calcul, gradient et propagation de l'erreur
- Optimisation
- Application sur le cas de la régression logistique
- Notebook 1_3: Construction d'un réseau de neurone simple
- Checkpointing
- Tensorboard
- Notebook 1_4: Outils connexes et modules avancés
- Chaine d'apprentissage standard
- Régularisation
En version colab pour ceux qui ont des problèmes d'installation:
- Notebook 0: qu'est ce qu'une convolution, comment paramétrer le module, comment jouer avec?
- Notebook 1: première(s) architecture(s) à convolution
- Cas MNIST: récupération des données
- Notebook 2: introspection des modèles et interprétation post-hoc
Apprendre des représentations continues (et optimisables) pour tous les objets qui nous intéressent, en particulier les objets discrets (mots, utilisateurs, produits)
- Notebook 1: Système de recommandation
- Notebook 2: Apprentissage de représentation des mots
Idéales pour traiter des séquences et en particulier des séquences de longueurs variables d'un exemple à l'autre.
- Notebook 1: Représentation d'une chaine de caractères