From 3b60990c138f849615f53117c22e239b074c5af0 Mon Sep 17 00:00:00 2001 From: Fred Pauchet Date: Fri, 14 Feb 2020 21:31:08 +0100 Subject: [PATCH] migrate rst structure to adoc --- adoc/bonus/code-snippets.adoc | 4 +- .../cicd}/gitlab_web_hook.png | Bin .../integration.rst => adoc/cicd/jenkins.adoc | 19 +- .../cicd}/jenkins_build_script.png | Bin .../cicd}/jenkins_build_with_url.png | Bin .../integration => adoc/cicd}/jenkins_git.png | Bin .../cicd}/jenkins_new_project.png | Bin adoc/deploy/centos.adoc | 50 +- adoc/deploy/index.adoc | 2 +- adoc/gwift/specs.adoc | 0 adoc/main.adoc | 54 +- adoc/main.html | 2687 +++++++++++++++++ adoc/models/admin.adoc | 61 +- adoc/models/forms.adoc | 106 + adoc/models/migrations.adoc | 6 + adoc/models/models.adoc | 9 + .../models/querysets.adoc | 5 +- adoc/toolchain/12-factors.adoc | 6 +- .../toolchain/django.adoc | 35 +- .../toolchain/documentation.adoc | 4 +- adoc/toolchain/external_tools.adoc | 10 +- adoc/toolchain/maintainable-applications.adoc | 36 + adoc/toolchain/tools.adoc | 209 +- adoc/toolchain/venvs.adoc | 144 +- source/admin.rst | 5 - source/admin/advices.rst | 66 - source/admin/annex.rst | 21 - source/forms.rst | 24 - source/forms/05-forms.rst | 53 - source/forms/clean.rst | 5 - source/forms/crispy-forms.rst | 19 - source/intro.rst | 24 - source/intro/01-prerequisites.rst | 172 -- source/intro/03-before-going-further.rst | 261 -- 34 files changed, 3349 insertions(+), 748 deletions(-) rename {source/integration => adoc/cicd}/gitlab_web_hook.png (100%) rename source/integration.rst => adoc/cicd/jenkins.adoc (85%) rename {source/integration => adoc/cicd}/jenkins_build_script.png (100%) rename {source/integration => adoc/cicd}/jenkins_build_with_url.png (100%) rename {source/integration => adoc/cicd}/jenkins_git.png (100%) rename {source/integration => adoc/cicd}/jenkins_new_project.png (100%) create mode 100644 adoc/gwift/specs.adoc create mode 100644 adoc/main.html create mode 100644 adoc/models/forms.adoc create mode 100644 adoc/models/migrations.adoc create mode 100644 adoc/models/models.adoc rename source/orm/queryset.rst => adoc/models/querysets.adoc (90%) rename source/intro/02-create-django-app.rst => adoc/toolchain/django.adoc (90%) rename source/intro/04-docs.rst => adoc/toolchain/documentation.adoc (99%) create mode 100644 adoc/toolchain/maintainable-applications.adoc delete mode 100644 source/admin.rst delete mode 100644 source/admin/advices.rst delete mode 100644 source/admin/annex.rst delete mode 100644 source/forms.rst delete mode 100644 source/forms/05-forms.rst delete mode 100644 source/forms/clean.rst delete mode 100644 source/forms/crispy-forms.rst delete mode 100644 source/intro.rst delete mode 100644 source/intro/01-prerequisites.rst delete mode 100644 source/intro/03-before-going-further.rst diff --git a/adoc/bonus/code-snippets.adoc b/adoc/bonus/code-snippets.adoc index 72ea2e9..605b00a 100644 --- a/adoc/bonus/code-snippets.adoc +++ b/adoc/bonus/code-snippets.adoc @@ -1,6 +1,6 @@ -=== Snippets utiles (et forcément dispensables) +== Snippets utiles (et forcément dispensables) -==== Récupération du dernier tag Git en Python +=== Récupération du dernier tag Git en Python L'idée ici est simplement de pouvoir afficher le numéro de version ou le hash d'exécution du code, sans avoir à se connecter au dépôt. Cela apporte une certaine transparence, *sous réserve que le code soit géré par Git*. Si vous suivez scrupuleusement les 12 facteurs, la version de l'application déployée n'est plus sensée conserver un lien avec votre dépôt d'origine... Si vous déployez votre code en utilisant un `git fetch` puis un `git checkout `, le morceau de code ci-dessous pourra vous intéresser :-) diff --git a/source/integration/gitlab_web_hook.png b/adoc/cicd/gitlab_web_hook.png similarity index 100% rename from source/integration/gitlab_web_hook.png rename to adoc/cicd/gitlab_web_hook.png diff --git a/source/integration.rst b/adoc/cicd/jenkins.adoc similarity index 85% rename from source/integration.rst rename to adoc/cicd/jenkins.adoc index d49d41e..cfd0914 100644 --- a/source/integration.rst +++ b/adoc/cicd/jenkins.adoc @@ -1,16 +1,12 @@ -==================== -Intégration continue -==================== +== Intégration continue avec Jenkins Le but de l'intégration est continue est de nous permettre de tester automatiquement notre développement chaque fois que le code est mis à jour et ainsi éviter les régressions. Ceci nécessite de mettre à jour régulièrement les tests et d'utiliser un serveur d'intégration. Dans notre cas, nous allons utiliser jenkins. -Nous considérons aussi que le code est hébergé sur gitlab (par exemple celui de `framasof `_) +Nous considérons aussi que le code est hébergé sur Gitlab. -*********************** -Installation de jenkins -*********************** +=== Installation de Jenkins Jenkins fournit des paquets d'installation pour presque tous les systèmes d'exploitation sur leur site: `https://jenkins-ci.org/ `_. @@ -19,9 +15,7 @@ Par exemple, dans le cas de debian, il suffit de suivre les instructions sur `ht Comme nous utilisons git, il faut veiller à activer le plugin correspondant: `Git plugin `_. Ce dernier peut directement être installé depuis le panneau de gestion des plugins de jenkins. -******************** -Création d'un projet -******************** +=== Création d'un projet Depuis la page principale de jenkins, on crée un nouveau projet en cliquant sur *Nouveau Item* et on donne un nom à notre nouveau projet: @@ -40,9 +34,8 @@ Finalement, on écrit le petit script permettant de lancer le build: Et on sauve le tout. -********************* -Lien gitlab - jenkins -********************* + +=== Lien gitlab - jenkins Pour que le build du projet que nous avons créé dans jenkins soit exécuté automatiquement, il est nécessaire d'autoriser le lancement du build via une url sur jenkins, cette dernière étant appelée depuis gitlab. diff --git a/source/integration/jenkins_build_script.png b/adoc/cicd/jenkins_build_script.png similarity index 100% rename from source/integration/jenkins_build_script.png rename to adoc/cicd/jenkins_build_script.png diff --git a/source/integration/jenkins_build_with_url.png b/adoc/cicd/jenkins_build_with_url.png similarity index 100% rename from source/integration/jenkins_build_with_url.png rename to adoc/cicd/jenkins_build_with_url.png diff --git a/source/integration/jenkins_git.png b/adoc/cicd/jenkins_git.png similarity index 100% rename from source/integration/jenkins_git.png rename to adoc/cicd/jenkins_git.png diff --git a/source/integration/jenkins_new_project.png b/adoc/cicd/jenkins_new_project.png similarity index 100% rename from source/integration/jenkins_new_project.png rename to adoc/cicd/jenkins_new_project.png diff --git a/adoc/deploy/centos.adoc b/adoc/deploy/centos.adoc index a1cc086..1307d4b 100644 --- a/adoc/deploy/centos.adoc +++ b/adoc/deploy/centos.adoc @@ -1,4 +1,4 @@ -### Connexion et préparation du serveur +== Déploiement sur CentOS [source,bash] ---- @@ -8,9 +8,9 @@ groupadd --system gunicorn_sockets useradd --system --gid webapps --shell /bin/bash --home /home/medplan medplan mkdir -p /home/medplan chown medplan:webapps /home/medplan ---- +---- -### Installation des dépendances systèmes +=== Installation des dépendances systèmes [source,bash] ---- @@ -22,7 +22,7 @@ wget https://kojipkgs.fedoraproject.org//packages/sqlite/3.8.11/1.fc21/x86_64/sq sudo yum install sqlite-3.8.11-1.fc21.x86_64.rpm sqlite-devel-3.8.11-1.fc21.x86_64.rpm -y ---- -### Préparation de l'environnement utilisateur +=== Préparation de l'environnement utilisateur [source,bash] ---- @@ -55,7 +55,7 @@ cd webapps/medplan gunicorn config.wsgi:application --bind localhost:3000 --settings=config.settings_production ---- -### Configuration de l'application +=== Configuration de l'application [source,bash] ---- @@ -64,22 +64,30 @@ ALLOWED_HOSTS=* STATIC_ROOT=/var/www/medplan/static ---- -### Création des répertoires de logs +=== Création des répertoires de logs [source,text] ---- mkdir -p /var/www/medplan/static ---- -### Création du répertoire pour le socket +=== Création du répertoire pour le socket -Dans le fichier /etc/tmpfiles.d/medplan.conf: +Dans le fichier `/etc/tmpfiles.d/medplan.conf`: + +[source,text] +---- D /var/run/webapps 0775 medplan gunicorn_sockets - +---- Suivi de la création par systemd : -systemd-tmpfiles --create -### Gunicorn +[source,text] +---- +systemd-tmpfiles --create +---- + +=== Gunicorn [source,bash] ---- @@ -111,14 +119,14 @@ exec gunicorn ${DJANGO_WSGI_MODULE}:application \ --log-file=- ---- -### Supervision +=== Supervision [source,bash] ---- yum install supervisor -y ---- -On crée ensuite le fichier /etc/supervisord.d/medplan.ini: +On crée ensuite le fichier `/etc/supervisord.d/medplan.ini`: [source,bash] ---- @@ -130,11 +138,15 @@ autostart=true autorestart=unexpected redirect_stdout=true redirect_stderr=true +---- Et on crée les répertoires de logs, on démarre supervisord et on vérifie qu'il tourne correctement: + +[source,bash] +---- mkdir /var/log/medplan chown medplan:nagios /var/log/medplan - + systemctl enable supervisord systemctl start supervisord.service systemctl status supervisord.service @@ -154,7 +166,7 @@ systemctl status supervisord.service ls /var/run/webapps/ ---- -### Ouverture des ports +=== Ouverture des ports [source,text] ---- @@ -163,7 +175,7 @@ firewall-cmd --permanent --zone=public --add-service=https firewall-cmd --reload ---- -### Installation d'Nginx +=== Installation d'Nginx [source] ---- @@ -171,7 +183,7 @@ yum install nginx -y usermod -a -G gunicorn_sockets nginx ---- -On configure ensuite le fichier /etc/nginx/conf.d/medplan.conf: +On configure ensuite le fichier `/etc/nginx/conf.d/medplan.conf`: ---- upstream medplan_app { @@ -213,9 +225,9 @@ server { } ---- -### Configuration des sauvegardes +=== Configuration des sauvegardes -Les sauvegardes ont été configurées avec borg: yum install borgbackup. +Les sauvegardes ont été configurées avec borg: `yum install borgbackup`. C'est l'utilisateur medplan qui s'en occupe. @@ -230,4 +242,4 @@ Et dans le fichier crontab : ---- 0 23 * * * /home/medplan/bin/backup.sh ----- \ No newline at end of file +---- diff --git a/adoc/deploy/index.adoc b/adoc/deploy/index.adoc index 55ebc5c..3dedfea 100644 --- a/adoc/deploy/index.adoc +++ b/adoc/deploy/index.adoc @@ -1,4 +1,4 @@ -== Déploiement +== Un peu de théorie... Les principales étapes On va déjà parler de déploiement. Si vous avez suivi les étapes jusqu'ici, vous devriez à peine disposer d'un espace de travail proprement configuré, d'un modèle relativement basique et d'une configuration avec une base de données simpliste. En bref, vous avez quelque chose qui fonctionne, mais qui ressemble de très loin à ce que vous souhaitez au final. diff --git a/adoc/gwift/specs.adoc b/adoc/gwift/specs.adoc new file mode 100644 index 0000000..e69de29 diff --git a/adoc/main.adoc b/adoc/main.adoc index 0775ec7..bba1ac0 100644 --- a/adoc/main.adoc +++ b/adoc/main.adoc @@ -1,4 +1,4 @@ -= Deep dive into Django += Minor swing with Django Cédric Declerfayt ; Fred Pauchet :doctype: book :toc: @@ -13,37 +13,75 @@ L'idée du texte ci-dessous est de jeter les bases d'un bon développement, en s Ces idées ne s'appliquent pas uniquement à Django et à son cadre de travail, ni même au langage Python. Juste que ces deux bidules sont de bons candidats et que le cadre de travail est bien défini et suffisamment flexible. +Django se présente comme un `Framework Web pour perfectionnistes ayant des deadlines `_. + +Django suit quelques principes : + + * Faible couplage et forte cohésion, pour que chaque composant ait son indépendance. + * Moins de code, plus de fonctionnalités. + * `Don't repeat yourself `_: ne pas se répéter! + * Rapidité du développement (après une courbe d'apprentissage relativement ardue, malgré tout) + +Mis côté à côté, l'application de ces principes permet une meilleure stabilité du projet. Dans la suite de ce chapitre, on verra comment configurer l'environnement, comment installer Django de manière isolée et comment démarrer un nouveau projet. On verra comment gérer correctement les dépendances, les versions et comment applique un score sur note code. + +Finalement, on verra aussique la configuration proposée par défaut par le framework n'est pas idéale pour la majorité des cas. + Pour cela, on présentera différents outils (mypy, flake8, black, ...), la rédaction de tests unitaires et d'intégration pour limiter les régressions, les règles de nomenclature et de contrôle du contenu, ainsi que les bonnes étapes à suivre pour arriver à un déploiement rapide et fonctionnel avec peu d'efforts. Et tout ça à un seul et même endroit. Oui. :-) Bonne lecture. -== Environnement de travail += Environnement de travail + +Avant de démarrer le développement, il est nécessaire de passer un peu de temps sur la configuration de l'environnement. + +Les morceaux de code seront développés pour Python3.4+ et Django 1.8+. Ils nécessiteront peut-être quelques adaptations pour fonctionner sur une version antérieure. + +**Remarque** : les commandes qui seront exécutés dans ce livre le seront depuis un shell sous GNU/Linux. Certaines devront donc être adaptées si vous êtes dans un autre environnemnet. include::toolchain/12-factors.adoc[] include::toolchain/venvs.adoc[] +include::toolchain/django.adoc[] + +include::toolchain/maintainable-applications.adoc[] + include::toolchain/tools.adoc[] include::toolchain/external_tools.adoc[] -== Déploiement += Déploiement Et sécurisation du serveur. include::deploy/index.adoc[] include::deploy/centos.adoc[] -== Modélisation += Modélisation + +Dans ce chapitre, on va parler de plusieurs concepts utiles au développement rapide d'une application. On parlera de modélisation, de migrations, d'administration auto-générée. + +include::models/models.adoc[] + +include::models/querysets.adoc[] + +include::models/forms.adoc[] + +include::models/migrations.adoc[] include::models/admin.adoc[] -== Go Live ! -Et supervision. += Go Live ! -== En bonus +== Supervision des logs -include::tools/code-snippets.adoc[] +== feedbacks utilisateurs + + + += En bonus + +include::bonus/code-snippets.adoc[] diff --git a/adoc/main.html b/adoc/main.html new file mode 100644 index 0000000..090a8b1 --- /dev/null +++ b/adoc/main.html @@ -0,0 +1,2687 @@ + + + + + + + + +Minor swing with Django + + + + + +
+
+
+
+

On ne va pas se mentir: il existe enormément de tutoriaux très bien réalisés sur "Comment réaliser une application Django" et autres "Déployer votre code en 2 minutes". On se disait juste que ces tutoriaux restaient relativement haut-niveau et se limitaient à un contexte donné.

+
+
+

L’idée du texte ci-dessous est de jeter les bases d’un bon développement, en survolant l’ensemble des outils permettant de suivre des lignes directrices reconnues, de maintenir une bonne qualité de code au travers des différentes étapes (du développement au déploiement) et de s’assurer du maintient correct de la base de code, en permettant à n’importe qui de reprendre le développement.

+
+
+

Ces idées ne s’appliquent pas uniquement à Django et à son cadre de travail, ni même au langage Python. Juste que ces deux bidules sont de bons candidats et que le cadre de travail est bien défini et suffisamment flexible.

+
+
+

Django se présente comme un `Framework Web pour perfectionnistes ayant des deadlines <https://www.djangoproject.com/>`_.

+
+ +
+
    +
  • +

    Faible couplage et forte cohésion, pour que chaque composant ait son indépendance.

    +
  • +
  • +

    Moins de code, plus de fonctionnalités.

    +
  • +
  • +

    `Don’t repeat yourself <https://fr.wikipedia.org/wiki/Sec>`_: ne pas se répéter!

    +
  • +
  • +

    Rapidité du développement (après une courbe d’apprentissage relativement ardue, malgré tout)

    +
  • +
+
+
+

Mis côté à côté, l’application de ces principes permet une meilleure stabilité du projet. Dans la suite de ce chapitre, on verra comment configurer l’environnement, comment installer Django de manière isolée et comment démarrer un nouveau projet. On verra comment gérer correctement les dépendances, les versions et comment applique un score sur note code.

+
+
+

Finalement, on verra aussique la configuration proposée par défaut par le framework n’est pas idéale pour la majorité des cas.

+
+
+

Pour cela, on présentera différents outils (mypy, flake8, black, …​), la rédaction de tests unitaires et d’intégration pour limiter les régressions, les règles de nomenclature et de contrôle du contenu, ainsi que les bonnes étapes à suivre pour arriver à un déploiement rapide et fonctionnel avec peu d’efforts.

+
+
+

Et tout ça à un seul et même endroit. Oui. :-)

+
+
+

Bonne lecture.

+
+
+
+

Environnement de travail

+
+
+
+

Avant de démarrer le développement, il est nécessaire de passer un peu de temps sur la configuration de l’environnement.

+
+
+

Les morceaux de code seront développés pour Python3.4+ et Django 1.8+. Ils nécessiteront peut-être quelques adaptations pour fonctionner sur une version antérieure.

+
+
+

Remarque : les commandes qui seront exécutés dans ce livre le seront depuis un shell sous GNU/Linux. Certaines devront donc être adaptées si vous êtes dans un autre environnemnet.

+
+
+
+
+

1. Méthodologie de travail

+
+
+

Pour la méthode de travail et de développement, on va se baser sur les The Twelve-factor App - ou plus simplement les 12 facteurs.

+
+
+

L’idée derrière cette méthode consiste à pousser les concepts suivants (repris grossièrement de la page d’introduction :

+
+
+
    +
  1. +

    Faciliter la mise en place de phases d’automatisation; plus simplement, faciliter les mises à jour applicatives, simplifier la gestion de l’hôte, diminuer la divergence entre les différents environnements d’exécution et offrir la possibilité d’intégrer le projet dans un processus d’intégration continue/déploiement continu

    +
  2. +
  3. +

    Faciliter la mise à pied de nouveaux développeurs ou de personnes souhaitant rejoindre le projet.

    +
  4. +
  5. +

    Faciliter

    +
  6. +
  7. +

    Augmenter l’agilité générale du projet, en permettant une meilleure évolutivité architecturale et une meilleure mise à l’échelle - Vous avez 5000 utilisateurs en plus? Ajoutez un serveur et on n’en parle plus ;-).

    +
  8. +
+
+
+

En pratique, les idées planquées derrière les quelques phrases ci-dessus permettront de monter facilement un nouvel environnement - qu’il soit sur la machine du petit nouveau ou sur un serveur Azure, Heroku, Digital Ocean ou votre nouveau Raspberry Pi Zéro caché à la cave.

+
+
+

Pour reprendre de manière très brute les différentes idées derrière cette méthode, on a:

+
+
+ + + + + +
+
Note
+
+pensez à retravailler la partie ci-dessous; la version anglophone semble plus compréhensible…​ :-/ +
+
+
+
    +
  1. +

    Une base de code suivie avec un système de contrôle de version, plusieurs déploiements

    +
  2. +
  3. +

    Déclarez explicitement et isolez les dépendances

    +
  4. +
  5. +

    Stockez la configuration dans l’environnement

    +
  6. +
  7. +

    Traitez les services externes comme des ressources attachées

    +
  8. +
  9. +

    Séparez strictement les étapes d’assemblage et d’exécution

    +
  10. +
  11. +

    Exécutez l’application comme un ou plusieurs processus sans état

    +
  12. +
  13. +

    Exportez les services via des associations de ports

    +
  14. +
  15. +

    Grossissez à l’aide du modèle de processus

    +
  16. +
  17. +

    Maximisez la robustesse avec des démarrages rapides et des arrêts gracieux

    +
  18. +
  19. +

    Gardez le développement, la validation et la production aussi proches que possible

    +
  20. +
  21. +

    Traitez les logs comme des flux d’évènements

    +
  22. +
  23. +

    Lancez les processus d’administration et de maintenance comme des one-off-processes

    +
  24. +
+
+ + +++++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
Table 1. Concrètement

Concept

Outil

Description

Base de code suivie avec un système de contrôle de version

Git, Mercurial, SVN, …​

Chaque déploiement démarre à partir d’une base de code unique. Il n’y pas de dépôt "Prod", "Staging" ou "Dev". Il n’y en a qu’un et un seul.

Déclaration explicite et isolation des dépendances

Pyenv, environnements virtuels, RVM, …​

Afin de ne pas perturber les dépendances systèmes, chaque application doit disposer d’un environnement sain par défaut.

Configuration dans l’environnement

Fichiers .ENV

Toute clé de configuration (nom du serveur de base de données, adresse d’un service Web externe, clé d’API pour l’interrogation d’une ressource, …​) sera définie directement au niveau de l’hôte - à aucun moment, on ne doit trouver un mot de passe en clair dans le dépôt source ou une valeur susceptible d’évoluer, écrite en dur dans le code.

Services externes = ressources locales

Fichiers .ENV

Chaque ressource doit pouvoir être interchangeable avec une autre, sans modification du code source. La solution consiste à passer toutes ces informations (nom du serveur et type de base de données, clé d’authentification, …​) directement via des variables d’environnement.

Bien séparer les étapes de construction des étapes de mise à disposition

Capistrano, Gitea, un serveur d’artefacts, …​

L’idée est de pouvoir récupérer une version spécifique du code, sans que celle-ci ne puisse avoir été modifiée. Git permet bien de gérer des versions (au travers des tags), mais ces éléments peuvent sans doute être modifiés directement au travers de l’historique.

+
+
+
+

2. Environnements virtuels

+
+
+

On va commencer avec la partie la moins funky, mais la plus utile, dans la vie d’un développeur: la gestion et l’isolation des dépendances.

+
+
+

Il est tout à fait possible de s’en passer complètement dans le cadre de "petits" projets ou d’applications déployées sur des machines dédiées, et de fonctionner à grand renforts de "sudo" et d’installation globale des dépendances. Cette pratique est cependant fortement déconseillée pour plusieurs raisons:

+
+
+
    +
  1. +

    Pour la reproductibilité d’un environnement spécifique. Cela évite notamment les réponses type "Ca juste marche chez moi", puisqu’on a la possibilité de construire un environnement sain et appliquer des dépendances identiques, quelle que soit la machine hôte.

    +
  2. +
  3. +

    Il est tout à fait envisagable que deux applications soient déployées sur un même hôte, et nécessitent chacune deux versions différentes d’une même dépendance.

    +
  4. +
+
+
+
+
+

But it works on my machine! Then, we’ll ship your machine.

+
+
+
+— A famous meme
+And this is how Docker was born. +
+
+
+

Nous allons utiliser le module venv afin de créer un `environnement virtuel <http://sametmax.com/les-environnement-virtuels-python-virtualenv-et-virtualenvwrapper/>`_ pour python.

+
+
+ + + + + +
+
Note
+
+auparavant, on utilisait virtualenvwrapper. mais cela fait plusieurs années que je ne l’utilise plus. On l’intègre quand même ? +
+
+
+

2.1. Création de l’environnement virtuel

+
+

Commencons par créer un environnement virtuel, afin d’y stocker les dépendances. Lancez python3 -m venv gwift-env.

+
+
+
+
---
+Intégrer les résultats de la création de l'environnement
+---
+
+
+
+

Ceci créera l’arborescence de fichiers suivante, qui peut à nouveau être un peu différente en fonction du système d’exploitation:

+
+
+
    +
  1. +

    code-block:: shell

    +
    +
    +
    $ ls .virtualenvs/gwift-env
    +bin include lib
    +
    +
    +
  2. +
+
+
+

Nous pouvons ensuite l’activer grâce à la commande source gwift-env.

+
+
+
+
---
+Intégrer les résultats de l'accès de l'environnement
+---
+
+
+
+

Le shell signale que nous sommes bien dans l’environnement gwift-env en l’affichant avant le $. Par la suite, nous considérerons que l’environnement virtuel est toujours activé, même si gwift-env n’est pas présent devant chaque $.

+
+
+

A présent, tous les binaires de cet environnement prendront le pas sur les binaires du système. De la même manière, une variable PATH propre est définie et utilisée, afin que les librairies Python y soient stockées. C’est donc dans cet environnement virtuel que nous retrouverons le code source de Django, ainsi que des librairies externes pour Python une fois que nous les aurons installées.

+
+
+

Pour désactiver l’environnement virtuel, il suffira d’utiliser la commande deactivate

+
+
+
+

2.2. Installation de Django et création du répertoire de travail

+
+

Comme l’environnement est activé, on peut à présent y installer Django. La librairie restera indépendante du reste du système, et ne polluera pas les autres projets.

+
+
+

C’est parti: pip install django!

+
+
+
    +
  1. +

    code-block:: shell

    +
    +
    +
    $ pip install django
    +Collecting django
    +  Downloading Django-X.Y.Z
    +100% |################################|
    +Installing collected packages: django
    +Successfully installed django-X.Y.Z
    +
    +
    +
  2. +
+
+
+

Les commandes de création d’un nouveau site sont à présent disponibles, la principale étant django-admin startproject. Par la suite, nous utiliserons manage.py, qui constitue un wrapper autour de django-admin.

+
+
+

Pour démarrer notre projet, nous lançons donc django-admin startproject gwift.

+
+
+
+
$ django-admin startproject gwift
+
+
+
+

Cette action a pour effet de créer un nouveau dossier gwift, dans lequel on trouve la structure suivante:

+
+
+
+
$ tree gwift
+gwift
+├── gwift
+│   ├── __init__.py
+│   ├── settings.py
+│   ├── urls.py
+│   └── wsgi.py
+└── manage.py
+
+
+
+

C’est sans ce répertoire que vont vivre tous les fichiers liés au projet. Le but est de faire en sorte que toutes les opérations (maintenance, déploiement, écriture, tests, …​) puissent se faire à partir d’un seul point d’entrée. Tant qu’on y est, nous pouvons rajouter les répertoires utiles à la gestion de notre projet, à savoir la documentation, les dépendances et le README:

+
+
+
+
$ mkdir docs requirements
+$ touch docs/README.md
+
+
+
+
+
$ tree gwift
+gwift
+├── gwift
+│   ├── __init__.py
+│   ├── settings.py
+│   ├── urls.py
+│   └── wsgi.py
+└── manage.py
+|-- docs/
+|-- requirements/
+|-- README
+
+
+
+

Chacun de ces fichiers sert à:

+
+
+
    +
  • +

    settings.py contient tous les paramètres globaux à notre projet.

    +
  • +
  • +

    urls.py contient les variables de routes, les adresses utilisées et les fonctions vers lesquelles elles pointent.

    +
  • +
  • +

    manage.py, pour toutes les commandes de gestion.

    +
  • +
  • +

    wsgi.py contient la définition de l’interface `WSGI <https://en.wikipedia.org/wiki/Web_Server_Gateway_Interface>`_, qui permettra à votre serveur Web (Nginx, Apache, …​) de faire un pont vers votre projet.

    +
  • +
+
+
+ + + + + +
+
Note
+
+déplacer la configuration dans un répertoire config à part. +
+
+
+
+

2.3. Gestion des dépendances

+
+

Comme nous venons d’ajouter une dépendance à notre projet, nous allons créer un fichier reprenant tous les dépendances de notre projet. Celles-ci sont normalement placées dans un fichier requirements.txt. Dans un premier temps, ce fichier peut être placé directement à la racine du projet, mais on préférera rapidement le déplacer dans un sous-répertoire spécifique (requirements), afin de grouper les dépendances en fonction de leur utilité:

+
+
+
    +
  • +

    base.txt

    +
  • +
  • +

    dev.txt

    +
  • +
  • +

    staging.txt

    +
  • +
  • +

    production.txt

    +
  • +
+
+
+

Au début de chaque fichier, il suffira d’ajouter la ligne -r base.txt, puis de lancer l’installation grâce à un pip install -r <nom du fichier>. De cette manière, il est tout à fait acceptable de n’installer flake8 et django-debug-toolbar qu’en développement par exemple. Dans l’immédiat, ajoutez simplement django dans le fichier requirements/base.txt.

+
+
+
+
$ echo django >> requirements/base.txt
+
+
+
+

Par la suite, il vous faudra absolument spécifier les versions à utiliser: les librairies que vous utilisez comme dépendances évoluent, de la même manière que vos projets. Des fonctions sont cassées, certaines signatures sont modifiées, des comportements sont altérés, etc. Si vous voulez être sûr et certain que le code que vous avez écrit continue à fonctionner, spécifiez la version de chaque librairie de dépendances. Avec les mécanismes d’intégration continue et de tests unitaires, on verra plus loin comment se prémunir d’un changement inattendu.

+
+
+
+

2.4. Structure finale de l’environnement

+
+

Nous avons donc la strucutre finale pour notre environnement de travail:

+
+
+
+
$ tree ~/gwift-project
+gwift
+├── docs
+│   └── README.md
+├── gwift
+│   ├── __init__.py
+│   ├── settings.py
+│   ├── urls.py
+│   └── wsgi.py
+│   manage.py
+└── requirements
+    └── base.txt
+
+
+
+
+
+
+

3. Django

+
+
+

Comme on l’a vu ci-dessus, django-admin permet de créer un nouveau projet. On fait ici une distinction entre un projet et une application:

+
+
+
    +
  • +

    Projet: ensemble des applications, paramètres, pages HTML, middlwares, dépendances, etc., qui font que votre code fait ce qu’il est sensé faire.

    +
  • +
  • +

    Application: contexte éventuellement indépendant, permettant d’effectuer une partie isolée de ce que l’on veut faire.

    +
  • +
+
+
+

Pour gwift, on va notamment avoir une application pour la gestion des listes de souhaits et des éléments, une deuxième application pour la gestion des utilisateurs, voire une troisième application qui gérera les partages entre utilisateurs et listes.

+
+
+

On voit bien ici le principe de contexte: l’application viendra avec son modèle, ses tests, ses vues et son paramétrage. Elle pourra éventuellement être réutilisée dans un autre projet. C’est en ça que consistent les `paquets Django <https://www.djangopackages.com/>`_ déjà disponibles: ce sont simplement de petites applications empaquetées pour être réutilisées (eg. `Django-Rest-Framework <https://github.com/tomchristie/django-rest-framework>`, `Django-Debug-Toolbar <https://github.com/django-debug-toolbar/django-debug-toolbar>`, …​).

+
+
+

3.1. Gestion

+
+

Comme expliqué un peu plus haut, le fichier manage.py est un wrapper sur les commandes django-admin. A partir de maintenant, nous n’utiliserons plus que celui-là pour tout ce qui touchera à la gestion de notre projet:

+
+
+
    +
  • +

    manage.py check pour vérifier (en surface…​) que votre projet ne rencontre aucune erreur

    +
  • +
  • +

    manage.py runserver pour lancer un serveur de développement

    +
  • +
  • +

    manage.py test pour découvrir les tests unitaires disponibles et les lancer.

    +
  • +
+
+
+

La liste complète peut être affichée avec manage.py help. Vous remarquerez que ces commandes sont groupées selon différentes catégories:

+
+
+
    +
  • +

    auth: création d’un nouveau super-utilisateur, changer le mot de passe pour un utilisateur existant.

    +
  • +
  • +

    django: vérifier la compliance du projet, lancer un shell, dumper les données de la base, effectuer une migration du schéma, …​

    +
  • +
  • +

    sessions: suppressions des sessions en cours

    +
  • +
  • +

    staticfiles: gestion des fichiers statiques et lancement du serveur de développement.

    +
  • +
+
+
+

Nous verrons plus tard comment ajouter de nouvelles commandes.

+
+
+
+

3.2. Structure d’une application

+
+

Maintenant que l’on a vu à quoi servait manage.py, on peut créer notre nouvelle application grâce à la commande manage.py startapp <label>.

+
+
+

Cette application servira à structurer les listes de souhaits, les éléments qui les composent et les parties que chaque utilisateur pourra offrir. Essayez de trouver un nom éloquent, court et qui résume bien ce que fait l’application. Pour nous, ce sera donc wish. C’est parti pour manage.py startapp wish!

+
+
+
+
$ python manage.py startapp wish
+
+
+
+

Résultat? Django nous a créé un répertoire wish, dans lequel on trouve les fichiers suivants:

+
+
+
+
$ ls -l wish
+admin.py  __init__.py  migrations  models.py  tests.py  views.py
+
+
+
+

En résumé, chaque fichier a la fonction suivante:

+
+
+
    +
  • +

    admin.py servira à structurer l’administration de notre application. Chaque information peut en effet être administrée facilement au travers d’une interface générée à la volée par le framework. On y reviendra par la suite.

    +
  • +
  • +

    init.py pour que notre répertoire wish soit converti en package Python.

    +
  • +
  • +

    migrations/, dossier dans lequel seront stockées toutes les différentes migrations de notre application.

    +
  • +
  • +

    models.py pour représenter et structurer nos données.

    +
  • +
  • +

    tests.py pour les tests unitaires.

    +
  • +
+
+
+
+

3.3. Tests unitaires

+
+

Plein de trucs à compléter ici ;-) Est-ce qu’on passe par pytest ou par le framework intégré ? Quels sont les avantages de l’un % à l’autre ? + * views.py pour définir ce que nous pouvons faire avec nos données.

+
+
+
+
+
+

4. Construire des applications maintenables

+
+
+

Pour cette section, je me base d’un résumé de l’ebook Building Maintenable Software disponible chez `O’Reilly <http://shop.oreilly.com/product/0636920049555.do`_ qui vaut clairement le détour pour poser les bases d’un projet.

+
+
+

Ce livre répartit un ensemble de conseils parmi quatre niveaux de composants:

+
+
+
    +
  • +

    Les méthodes et fonctions

    +
  • +
  • +

    Les classes

    +
  • +
  • +

    Les composants

    +
  • +
  • +

    Et de manière plus générale.

    +
  • +
+
+
+

4.1. Au niveau des méthodes et fonctions

+
+
    +
  • +

    Gardez vos méthodes/fonctions courtes. Pas plus de 15 lignes, en comptant les commentaires. Des exceptions sont possibles, mais dans une certaine mesure uniquement (pas plus de 6.9% de plus de 60 lignes; pas plus de 22.3% de plus de 30 lignes, au plus 43.7% de plus de 15 lignes et au moins 56.3% en dessous de 15 lignes). Oui, c’est dur à tenir, mais faisable.

    +
  • +
  • +

    Conserver une complexité de McCabe en dessous de 5, c’est-à-dire avec quatre branches au maximum. A nouveau, si on a une méthode avec une complexité cyclomatique de 15, la séparer en 3 fonctions avec une complexité de 5 conservera globalement le nombre 15, mais rendra le code de chacune de ces méthodes plus lisible, plus maintenable.

    +
  • +
  • +

    N’écrivez votre code qu’une seule fois: évitez les duplications, copie, etc., c’est juste mal: imaginez qu’un bug soit découvert dans une fonction; il devra alors être corrigé dans toutes les fonctions qui auront été copiées/collées. C’est aussi une forme de régression.

    +
  • +
  • +

    Conservez de petites interfaces. Quatre paramètres, pas plus. Au besoin, refactorisez certains paramètres dans une classe, plus facile à tester.

    +
  • +
+
+
+
+

4.2. Au niveau des classes

+
+
    +
  • +

    Privilégiez un couplage faible entre vos classes. Ceci n’est pas toujours possible, mais dans la mesure du possible, éclatez vos classes en fonction de leur domaine de compétences. L’implémentation du service UserNotificationsService ne doit pas forcément se trouver embarqué dans une classe UserService. De même, pensez à passer par une interface (commune à plusieurs classes), afin d’ajouter une couche d’abstraction. La classe appellante n’aura alors que les méthodes offertes par l’interface comme points d’entrée.

    +
  • +
+
+
+
+

4.3. Au niveau des composants

+
+
    +
  • +

    Tout comme pour les classes, il faut conserver un couplage faible au niveau des composants également. Une manière d’arriver à ce résultat est de conserver un nombre de points d’entrée restreint, et d’éviter qu’on ne puisse contacter trop facilement des couches séparées de l’architecture. Pour une architecture n-tiers par exemple, la couche d’abstraction à la base de données ne peut être connue que des services; sans cela, au bout de quelques semaines, n’importe quelle couche de présentation risque de contacter directement la base de données, "juste parce qu’elle en a la possibilité". Vous pourrez également passer par des interfaces, afin de réduire le nombre de points d’entrée connus par un composant externe (qui ne connaîtra par exemple que IFileTransfer avec ses méthodes put et get, et non pas les détails d’implémentation complet d’une classe FtpFileTransfer ou SshFileTransfer).

    +
  • +
  • +

    Conserver un bon balancement au niveau des composants: évitez qu’un composant A ne soit un énorme mastodonte, alors que le composant juste à côté n’est capable que d’une action. De cette manière, les nouvelles fonctionnalités seront mieux réparties parmi les différents systèmes, et les responsabilités plus faciles à gérer. Un conseil est d’avoir un nombre de composants compris entre 6 et 12 (idéalement, 12), et que ces composants soit approximativement de même taille.

    +
  • +
+
+
+
+

4.4. De manière plus générale

+
+
    +
  • +

    Conserver une densité de code faible: il n’est évidemment pas possible d’implémenter n’importe quelle nouvelle fonctionnalité en moins de 20 lignes de code; l’idée ici est que la réécriture du projet ne prenne pas plus de 20 hommes/mois. Pour cela, il faut (activement) passer du temps à réduire la taille du code existant: soit en faisant du refactoring (intensif?), soit en utilisant des librairies existantes, soit en explosant un système existant en plusieurs sous-systèmes communiquant entre eux. Mais surtout en évitant de copier/coller bêtement du code existant.

    +
  • +
  • +

    Automatiser les tests, ajouter un environnement d’intégration continue dès le début du projet et vérifier par des outils les points ci-dessus.

    +
  • +
+
+
+
+

4.5. En pratique

+
+

Par rapport aux points repris ci-dessus, l’environnement Python et le framework Django proposent un ensemble d’outils intégrés qui permettent de répondre à chaque point. Avant d’aller plus loin, donc, un petit point sur les conventions, les tests (unitaires, orientés comportement, basés sur la documentation, …​), la gestion de version du code et sur la documentation. Plus que dans tout langage compilé, ceux-ci sont pratiquement obligatoires. Vous pourrez les voir comme une perte de temps dans un premier temps, mais nous vous promettons qu’ils vous en feront gagner par la suite.

+
+
+
+
+
+

5. Chaîne d’outils

+
+
+

Le langage Python fonctionne avec un système d’améliorations basées sur des propositions: les PEP, ou “Python Enhancement Proposal”.

+
+
+

Celle qui va nous intéresser pour cette section est la PEP 8 — Style Guide for Python Code. Elle spécifie comment du code Python doit être organisé ou formaté, quelles sont les conventions pour l’indentation, le nommage des variables et des classes, … En bref, elle décrit comment écrire du code proprement pour que d’autres développeurs puissent le reprendre facilement, ou simplement que votre base de code ne dérive lentement vers un seuil de non-maintenabilité.

+
+
+

5.1. PEP8

+
+

Le langage Python fonctionne avec un système d’améliorations basées sur des propositions: les PEP, ou "Python Enhancement Proposal". Chacune d’entre elles doit être approuvée par le `Benevolent Dictator For Life <http://fr.wikipedia.org/wiki/Benevolent_Dictator_for_Life>`_.

+
+
+

La PEP qui nous intéresse plus particulièrement pour la suite est la `PEP-8 <https://www.python.org/dev/peps/pep-0008/>`_, ou "Style Guide for Python Code". Elle spécifie des conventions d’organisation et de formatage de code Python, quelles sont les conventions pour l’indentation, le nommage des variables et des classes, etc. En bref, elle décrit comment écrire du code proprement pour que d’autres développeurs puissent le reprendre facilement, ou simplement que votre base de code ne dérive lentement vers un seuil de non-maintenabilité.

+
+
+

Sur cette base, un outil existe et listera l’ensemble des conventions qui ne sont pas correctement suivies dans votre projet: pep8. Pour l’installer, passez par pip. Lancez ensuite la commande pep8 suivie du chemin à analyser (., le nom d’un répertoire, le nom d’un fichier .py, …​). Si vous souhaitez uniquement avoir le nombre d’erreur de chaque type, saisissez les options --statistics -qq.

+
+
+
    +
  1. +

    code-block:: shell

    +
    +
    +
    $ pep8 . --statistics -qq
    +
    +
    +
    +
    +
    7       E101 indentation contains mixed spaces and tabs
    +6       E122 continuation line missing indentation or outdented
    +8       E127 continuation line over-indented for visual indent
    +23      E128 continuation line under-indented for visual indent
    +3       E131 continuation line unaligned for hanging indent
    +12      E201 whitespace after '{'
    +13      E202 whitespace before '}'
    +86      E203 whitespace before ':'
    +
    +
    +
  2. +
+
+
+

Si vous ne voulez pas être dérangé sur votre manière de coder, et que vous voulez juste avoir un retour sur une analyse de votre code, essayez pyflakes: il analysera vos sources à la recherche de sources d’erreurs possibles (imports inutilisés, méthodes inconnues, etc.).

+
+
+

Finalement, la solution qui couvre ces deux domaines existe et s’intitule `flake8 <https://github.com/PyCQA/flake8>`_. Sur base la même interface que pep8, vous aurez en plus tous les avantages liés à pyflakes concernant votre code source.

+
+
+

5.1.1. PEP257

+
+
    +
  1. +

    todo:: à remplir avec pydocstyle.

    +
  2. +
+
+
+
+

5.1.2. Tests

+
+

Comme tout bon framework qui se respecte, Django embarque tout un environnement facilitant le lancement de tests; chaque application est créée par défaut avec un fichier tests.py, qui inclut la classe TestCase depuis le package django.test:

+
+
+
    +
  1. +

    code-block:: python

    +
    +
    +
    from django.test import TestCase
    +
    +
    +
    +
    +
    class TestModel(TestCase):
    +    def test_str(self):
    +        raise NotImplementedError('Not implemented yet')
    +
    +
    +
  2. +
+
+
+

Idéalement, chaque fonction ou méthode doit être testée afin de bien en valider le fonctionnement, indépendamment du reste des composants. Cela permet d’isoler chaque bloc de manière unitaire, et permet de ne pas rencontrer de régression lors de l’ajout d’une nouvelle fonctionnalité ou de la modification d’une existante. Il existe plusieurs types de tests (intégration, comportement, …​); on ne parlera ici que des tests unitaires.

+
+
+

Avoir des tests, c’est bien. S’assurer que tout est testé, c’est mieux. C’est là qu’il est utile d’avoir le pourcentage de code couvert par les différents tests, pour savoir ce qui peut être amélioré.

+
+
+
+

5.1.3. Couverture de code

+
+

La couverture de code est une analyse qui donne un pourcentage lié à la quantité de code couvert par les tests. Attention qu’il ne s’agit pas de vérifier que le code est bien testé, mais juste de vérifier quelle partie du code est testée. En Python, il existe le paquet `coverage <https://pypi.python.org/pypi/coverage/>`_, qui se charge d’évaluer le pourcentage de code couvert par les tests. Ajoutez-le dans le fichier requirements/base.txt, et lancez une couverture de code grâce à la commande coverage. La configuration peut se faire dans un fichier .coveragerc que vous placerez à la racine de votre projet, et qui sera lu lors de l’exécution.

+
+
+
    +
  1. +

    code-block:: shell

    +
    +
    +
    # requirements/base.text
    +[...]
    +coverage
    +django_coverage_plugin
    +
    +
    +
  2. +
  3. +

    code-block:: shell

    +
    +
    +
    # .coveragerc to control coverage.py
    +[run]
    +branch = True
    +omit = ../*migrations*
    +plugins =
    +    django_coverage_plugin
    +
    +
    +
    +
    +
    [report]
    +ignore_errors = True
    +
    +
    +
    +
    +
    [html]
    +directory = coverage_html_report
    +
    +
    +
  4. +
  5. +

    todo:: le bloc ci-dessous est à revoir pour isoler la configuration.

    +
  6. +
  7. +

    code-block:: shell

    +
    +
    +
    $ coverage run --source "." manage.py test
    +$ coverage report
    +
    +
    +
    +
    +
    Name                      Stmts   Miss  Cover
    +---------------------------------------------
    +gwift\gwift\__init__.py       0      0   100%
    +gwift\gwift\settings.py      17      0   100%
    +gwift\gwift\urls.py           5      5     0%
    +gwift\gwift\wsgi.py           4      4     0%
    +gwift\manage.py               6      0   100%
    +gwift\wish\__init__.py        0      0   100%
    +gwift\wish\admin.py           1      0   100%
    +gwift\wish\models.py         49     16    67%
    +gwift\wish\tests.py           1      1     0%
    +gwift\wish\views.py           6      6     0%
    +---------------------------------------------
    +TOTAL                        89     32    64%
    +
    +
    +
    +
    +
    $ coverage html
    +
    +
    +
  8. +
+
+
+

Ceci vous affichera non seulement la couverture de code estimée, et générera également vos fichiers sources avec les branches non couvertes. Pour gagner un peu de temps, n’hésitez pas à créer un fichier Makefile que vous placerez à la racine du projet. L’exemple ci-dessous permettra, grâce à la commande make coverage, d’arriver au même résultat que ci-dessus:

+
+
+
    +
  1. +

    code-block:: shell

    +
    +
    +
    # Makefile for gwift
    +#
    +
    +
    +
    +
    +
    # User-friendly check for coverage
    +ifeq ($(shell which coverage >/dev/null 2>&1; echo $$?), 1)
    +  $(error The 'coverage' command was not found. Make sure you have coverage installed)
    +endif
    +
    +
    +
    +
    +
    .PHONY: help coverage
    +
    +
    +
    +
    +
    help:
    +	@echo "  coverage to run coverage check of the source files."
    +
    +
    +
    +
    +
    coverage:
    +	coverage run --source='.' manage.py test; coverage report; coverage html;
    +	@echo "Testing of coverage in the sources finished."
    +
    +
    +
  2. +
+
+
+
+

5.1.4. Complexité de McCabe

+
+

La `complexité cyclomatique <https://fr.wikipedia.org/wiki/Nombre_cyclomatique>`_ (ou complexité de McCabe) peut s’apparenter à mesure de difficulté de compréhension du code, en fonction du nombre d’embranchements trouvés dans une même section. Quand le cycle d’exécution du code rencontre une condition, il peut soit rentrer dedans, soit passer directement à la suite. Par exemple:

+
+
+
    +
  1. +

    code-block:: python

    +
    +
    +
    if True == True:
    +    pass # never happens
    +
    +
    +
    +
    +
    # continue ...
    +
    +
    +
  2. +
+
+
+

La condition existe, mais on ne passera jamais dedans. A l’inverse, le code suivant aura une complexité pourrie à cause du nombre de conditions imbriquées:

+
+
+
    +
  1. +

    code-block:: python

    +
    +
    +
    def compare(a, b, c, d, e):
    +    if a == b:
    +        if b == c:
    +            if c == d:
    +                if d == e:
    +                    print('Yeah!')
    +                    return 1
    +
    +
    +
  2. +
+
+
+

Potentiellement, les tests unitaires qui seront nécessaires à couvrir tous les cas de figure seront au nombre de quatre: le cas par défaut (a est différent de b, rien ne se passe), puis les autres cas, jusqu’à arriver à l’impression à l’écran et à la valeur de retour. La complexité cyclomatique d’un bloc est évaluée sur base du nombre d’embranchements possibles; par défaut, sa valeur est de 1. Si on rencontre une condition, elle passera à 2, etc.

+
+
+

Pour l’exemple ci-dessous, on va en fait devoir vérifier au moins chacun des cas pour s’assurer que la couverture est complète. On devrait donc trouver:

+
+
+
    +
  1. +

    Un test pour entrer (ou non) dans la condition a == b

    +
  2. +
  3. +

    Un test pour entrer (ou non) dans la condition b == c

    +
  4. +
  5. +

    Un test pour entrer (ou non) dans la condition c == d

    +
  6. +
  7. +

    Un test pour entrer (ou non) dans la condition d == e

    +
  8. +
  9. +

    Et s’assurer que n’importe quel autre cas retournera la valeur None.

    +
  10. +
+
+
+

On a donc bien besoin de minimum cinq tests pour couvrir l’entièreté des cas présentés.

+
+
+

Le nombre de tests unitaires nécessaires à la couverture d’un bloc est au minimum égal à la complexité cyclomatique de ce bloc. Une possibilité pour améliorer la maintenance du code est de faire baisser ce nombre, et de le conserver sous un certain seuil. Certains recommandent de le garder sous une complexité de 10; d’autres de 5.

+
+
+
    +
  1. +

    note::

    +
    +
    +
    Evidemment, si on refactorise un bloc pour en extraire une méthode, cela   n'améliorera pas sa complexité cyclomatique globale
    +
    +
    +
  2. +
+
+
+

A nouveau, un greffon pour flake8 existe et donnera une estimation de la complexité de McCabe pour les fonctions trop complexes. Installez-le avec pip install mccabe, et activez-le avec le paramètre --max-complexity. Toute fonction dans la complexité est supérieure à cette valeur sera considérée comme trop complexe.

+
+
+
+

5.1.5. Documentation

+
+

Il existe plusieurs manières de générer la documentation d’un projet. Les plus connues sont `Sphinx <http://sphinx-doc.org/>`_ et `MkDocs <http://www.mkdocs.org/>`. Le premier a l’avantage d’être plus reconnu dans la communauté Python que l’autre, de pouvoir parser le code pour en extraire la documentation et de pouvoir lancer des `tests orientés documentation <https://duckduckgo.com/?q=documentation+driven+development&t=ffsb>`. A contrario, votre syntaxe devra respecter `ReStructuredText <https://en.wikipedia.org/wiki/ReStructuredText>`_. Le second a l’avantage d’avoir une syntaxe plus simple à apprendre et à comprendre, mais est plus limité dans son résultat.

+
+
+

Dans l’immédiat, nous nous contenterons d’avoir des modules documentés (quelle que soit la méthode Sphinx/MkDocs/…​). Dans la continuié de Flake8, il existe un greffon qui vérifie la présence de commentaires au niveau des méthodes et modules développés.

+
+
+
    +
  1. +

    note::

    +
    +
    +
    voir si il ne faudrait pas mieux passer par pydocstyle.
    +
    +
    +
  2. +
  3. +

    code-block:: shell

    +
    +
    +
    $ pip install flake8_docstrings
    +
    +
    +
  4. +
+
+
+

Lancez ensuite flake8 avec la commande flake8 . --exclude="migrations". Sur notre projet (presque) vide, le résultat sera le suivant:

+
+
+
    +
  1. +

    code-block:: shell

    +
    +
    +
    $ flake8 . --exclude="migrations"
    +.\src\manage.py:1:1: D100  Missing docstring in public module
    +.\src\gwift\__init__.py:1:1: D100  Missing docstring in public module
    +.\src\gwift\urls.py:1:1: D400  First line should end with a period (not 'n')
    +.\src\wish\__init__.py:1:1: D100  Missing docstring in public module
    +.\src\wish\admin.py:1:1: D100  Missing docstring in public module
    +.\src\wish\admin.py:1:1: F401 'admin' imported but unused
    +.\src\wish\models.py:1:1: D100  Missing docstring in public module
    +.\src\wish\models.py:1:1: F401 'models' imported but unused
    +.\src\wish\tests.py:1:1: D100  Missing docstring in public module
    +.\src\wish\tests.py:1:1: F401 'TestCase' imported but unused
    +.\src\wish\views.py:1:1: D100  Missing docstring in public module
    +.\src\wish\views.py:1:1: F401 'render' imported but unused
    +
    +
    +
  2. +
+
+
+

Bref, on le voit: nous n’avons que très peu de modules, et aucun d’eux n’est commenté.

+
+
+

En plus de cette méthode, Django permet également de rendre la documentation accessible depuis son interface d’administration.

+
+
+
+
+

5.2. pep8, flake8, pylint

+
+

Un outil existe et listera l’ensemble des conventions qui ne sont pas correctement suivies dans votre projet: pep8. Pour l’installer, passez par pip. Lancez ensuite la commande pep8 suivie du chemin à analyser (., le nom d’un répertoire, le nom d’un fichier .py, …​).

+
+
+

Si vous ne voulez pas être dérangé sur votre manière de coder, et que vous voulez juste avoir un retour sur une analyse de votre code, essayez pyflakes: il analaysera vos sources à la recherche d’erreurs (imports inutilsés, méthodes inconnues, etc.).

+
+
+

Et finalement, si vous voulez grouper les deux, il existe flake8. Sur base la même interface que pep8, vous aurez en plus des avertissements concernant le code source.

+
+
+
+
from datetime import datetime
+
+"""On stocke la date du jour dans la variable ToD4y"""
+
+ToD4y = datetime.today()
+
+def print_today(ToD4y):
+    today = ToD4y
+    print(ToD4y)
+
+def GetToday():
+    return ToD4y
+
+
+if __name__ == "__main__":
+    t =   Get_Today()
+    print(t)
+
+
+
+

L’exécution de la commande flake8 . retourne ceci:

+
+
+
+
test.py:7:1: E302 expected 2 blank lines, found 1
+test.py:8:5: F841 local variable 'today' is assigned to but never used
+test.py:11:1: E302 expected 2 blank lines, found 1
+test.py:16:8: E222 multiple spaces after operator
+test.py:16:11: F821 undefined name 'Get_Today'
+test.py:18:1: W391 blank line at end of file
+
+
+
+

On trouve des erreurs:

+
+
+
    +
  • +

    de conventions: le nombre de lignes qui séparent deux fonctions, le nombre d’espace après un opérateur, une ligne vide à la fin du fichier, …​ Ces erreurs n’en sont pas vraiment, elles indiquent juste de potentiels problèmes de communication si le code devait être lu ou compris par une autre personne.

    +
  • +
  • +

    de définition: une variable assignée mais pas utilisée ou une lexème non trouvé. Cette dernière information indique clairement un bug potentiel.

    +
  • +
+
+
+

L’étape d’après consiste à invoquer pylint. Lui, il est directement moins conciliant:

+
+
+
+
$ pylint test.py
+************* Module test
+test.py:16:6: C0326: Exactly one space required after assignment
+    t =   Get_Today()
+      ^ (bad-whitespace)
+test.py:18:0: C0305: Trailing newlines (trailing-newlines)
+test.py:1:0: C0114: Missing module docstring (missing-module-docstring)
+test.py:3:0: W0105: String statement has no effect (pointless-string-statement)
+test.py:5:0: C0103: Constant name "ToD4y" doesn't conform to UPPER_CASE naming style (invalid-name)
+test.py:7:16: W0621: Redefining name 'ToD4y' from outer scope (line 5) (redefined-outer-name)
+test.py:7:0: C0103: Argument name "ToD4y" doesn't conform to snake_case naming style (invalid-name)
+test.py:7:0: C0116: Missing function or method docstring (missing-function-docstring)
+test.py:8:4: W0612: Unused variable 'today' (unused-variable)
+test.py:11:0: C0103: Function name "GetToday" doesn't conform to snake_case naming style (invalid-name)
+test.py:11:0: C0116: Missing function or method docstring (missing-function-docstring)
+test.py:16:4: C0103: Constant name "t" doesn't conform to UPPER_CASE naming style (invalid-name)
+test.py:16:10: E0602: Undefined variable 'Get_Today' (undefined-variable)
+
+--------------------------------------------------------------------
+Your code has been rated at -5.45/10
+
+
+
+

En gros, j’ai programmé comme une grosse bouse anémique (et oui, le score d’évaluation du code permet bien d’aller en négatif). En vrac, on trouve des problèmes liés:

+
+
+
    +
  • +

    au nommage (C0103) et à la mise en forme (C0305, C0326, W0105)

    +
  • +
  • +

    à des variables non définies (E0602)

    +
  • +
  • +

    de la documentation manquante (C0114, C0116)

    +
  • +
  • +

    de la redéfinition de variables (W0621).

    +
  • +
+
+
+

Pour reprendre la documentation, chaque code possède sa signification (ouf!):

+
+
+
    +
  • +

    C convention related checks

    +
  • +
  • +

    R refactoring related checks

    +
  • +
  • +

    W various warnings

    +
  • +
  • +

    E errors, for probable bugs in the code

    +
  • +
  • +

    F fatal, if an error occurred which prevented pylint from doing further* processing.

    +
  • +
+
+
+

PyLint est la version ++, pour ceux qui veulent un code propre et sans bavure.

+
+
+
+

5.3. Black

+ +
+
+

5.4. pytest

+ +
+
+

5.5. mypy

+ +
+
+
+
+

6. Git

+
+
+ + + + + +
+
Note
+
+insérer ici une description de Gitflow + quelques exemples types création, ajout, suppression, historique, branches, …​ et quelques schémas qui-vont-bien. +
+
+
+

Il existe plusiseurs outils permettant de gérer les versions du code, dont les plus connus sont `git <https://git-scm.com/>`_ et `mercurial <https://www.mercurial-scm.org/>`_.

+
+
+

Dans notre cas, nous utilisons git et hebergons le code et le livre directement sur le gitlab de `framasoft <https://git.framasoft.org/>`_

+
+
+
+
+

7. graphviz

+
+
+

En utilisant django_extensions (! bien suivre les étapes d’installation !).

+
+
+
+
 C:\app\graphviz\bin\dot.exe graph.dot -Tpng -o graph.png
+
+
+
+
+

Déploiement

+
+
+Et sécurisation du serveur. +
+
+
+

8. Un peu de théorie…​ Les principales étapes

+
+
+

On va déjà parler de déploiement. Si vous avez suivi les étapes jusqu’ici, vous devriez à peine disposer d’un espace de travail proprement configuré, d’un modèle relativement basique et d’une configuration avec une base de données simpliste. En bref, vous avez quelque chose qui fonctionne, mais qui ressemble de très loin à ce que vous souhaitez au final.

+
+
+

Il y a une raison très simple à aborder le déploiement dès maintenant: à trop attendre et à peaufiner son développement en local, on en oublie que sa finalité sera de se retrouver exposé sur un serveur. On risque d’avoir oublié une partie des désidérata, d’avoir zappé une fonctionnalité essentielle ou simplement de passer énormément de temps à adapter les sources pour qu’elles fonctionnent sur un environnement en particulier.

+
+
+

Aborder le déploiement maintenant permet également de rédiger dès le début les procédures d’installation, de mise à jour et de sauvegardes. Déploier une nouvelle version sera aussi simple que de récupérer la dernière archive depuis le dépôt, la placer dans le bon répertoire, appliquer des actions spécifiques (et souvent identiques entre deux versions), puis redémarrer les services adéquats.

+
+
+

Dans cette partie, on abordera les points suivants:

+
+
+
    +
  • +

    La définition de l’infrastructure nécessaire à notre application

    +
  • +
  • +

    La configuration de l’hôte, qui hébergera l’application: dans une machine physique, virtuelle ou dans un container. On abordera aussi rapidement les déploiements via Ansible, Chef, Puppet ou Salt.

    +
  • +
  • +

    Les différentes méthodes de supervision de l’application: comment analyser les fichiers de logs et comment intercepter correctement une erreur si elle se présente et comment remonter l’information.

    +
  • +
  • +

    Une partie sur la sécurité et la sécurisation de l’hôte.

    +
  • +
+
+
+

8.1. Définition de l’infrastructure

+
+

Comme on l’a vu dans la première partie, Django est un framework complet, intégrant tous les mécanismes nécessaires à la bonne évolution d’une application. On peut ainsi commencer petit, et suivre l’évolution des besoins en fonction de la charge estimée ou ressentie, ajouter un mécanisme de mise en cache, des logiciels de suivi, …​

+
+
+
+

8.2. Configuration et sécurisation de la machine hôte

+
+

Supervisor, nginx, gunicorn, utilisateurs, groupes, …​

+
+
+
+
+

entity Nginx +entity "Gunicorn (sockets/HTTP)" as gunicorn +database PGSQL

+
+
+
+
+

Aussi : Docker, Heroku, Digital Ocean, Scaleway, OVH, …​ Bref, sur Debian et CentOS pour avoir un panel assez large. On oublie Windows.

+
+
+
+

8.3. Mise à jour

+
+

Script de mise à jour.

+
+
+
+

8.4. Supervision

+
+

Qu’est-ce qu’on fait des logs après ? :-)

+
+
+
+
+
+

9. Déploiement sur CentOS

+
+
+
+
yum update
+groupadd --system webapps
+groupadd --system gunicorn_sockets
+useradd --system --gid webapps --shell /bin/bash --home /home/medplan medplan
+mkdir -p /home/medplan
+chown medplan:webapps /home/medplan
+
+
+
+

9.1. Installation des dépendances systèmes

+
+
+
yum install python36 git tree -y
+
+# CentOS 7 ne dispose que de la version 3.7 d'SQLite. On a besoin d'une version 3.8 au minimum:
+wget https://kojipkgs.fedoraproject.org//packages/sqlite/3.8.11/1.fc21/x86_64/sqlite-devel-3.8.11-1.fc21.x86_64.rpm
+wget https://kojipkgs.fedoraproject.org//packages/sqlite/3.8.11/1.fc21/x86_64/sqlite-3.8.11-1.fc21.x86_64.rpm
+sudo yum install sqlite-3.8.11-1.fc21.x86_64.rpm sqlite-devel-3.8.11-1.fc21.x86_64.rpm -y
+
+
+
+
+

9.2. Préparation de l’environnement utilisateur

+
+
+
su - medplan
+cp /etc/skel/.bashrc .
+cp /etc/skel/.bash_profile .
+ssh-keygen
+mkdir bin
+mkdir .venvs
+mkdir webapps
+python3.6 -m venv .venvs/medplan
+source .venvs/medplan/bin/activate
+cd /home/medplan/webapps
+git clone git@vmwmedtools:institutionnel/medplan.git
+
+
+
+

La clé SSH doit ensuite être renseignée au niveau du dépôt, afin de pouvoir y accéder.

+
+
+

A ce stade, on devrait déjà avoir quelque chose de fonctionnel en démarrant les commandes suivantes:

+
+
+
+
# en tant qu'utilisateur 'medplan'
+
+source .venvs/medplan/bin/activate
+pip install -U pip
+pip install -r requirements/base.txt
+pip install gunicorn
+cd webapps/medplan
+gunicorn config.wsgi:application --bind localhost:3000 --settings=config.settings_production
+
+
+
+
+

9.3. Configuration de l’application

+
+
+
SECRET_KEY=<set your secret key here>
+ALLOWED_HOSTS=*
+STATIC_ROOT=/var/www/medplan/static
+
+
+
+
+

9.4. Création des répertoires de logs

+
+
+
mkdir -p /var/www/medplan/static
+
+
+
+
+

9.5. Création du répertoire pour le socket

+
+

Dans le fichier /etc/tmpfiles.d/medplan.conf:

+
+
+
+
D /var/run/webapps 0775 medplan gunicorn_sockets -
+
+
+
+

Suivi de la création par systemd :

+
+
+
+
systemd-tmpfiles --create
+
+
+
+
+

9.6. Gunicorn

+
+
+
#!/bin/bash
+
+# defines settings for gunicorn
+NAME="Medplan"
+DJANGODIR=/home/medplan/webapps/medplan
+SOCKFILE=/var/run/webapps/gunicorn_medplan.sock
+USER=medplan
+GROUP=gunicorn_sockets
+NUM_WORKERS=5
+DJANGO_SETTINGS_MODULE=config.settings_production
+DJANGO_WSGI_MODULE=config.wsgi
+
+echo "Starting $NAME as `whoami`"
+
+source /home/medplan/.venvs/medplan/bin/activate
+cd $DJANGODIR
+export DJANGO_SETTINGS_MODULE=$DJANGO_SETTINGS_MODULE
+export PYTHONPATH=$DJANGODIR:$PYTHONPATH
+
+exec gunicorn ${DJANGO_WSGI_MODULE}:application \
+--name $NAME \
+--workers $NUM_WORKERS \
+--user $USER \
+--bind=unix:$SOCKFILE \
+--log-level=debug \
+--log-file=-
+
+
+
+
+

9.7. Supervision

+
+
+
yum install supervisor -y
+
+
+
+

On crée ensuite le fichier /etc/supervisord.d/medplan.ini:

+
+
+
+
[program:medplan]
+command=/home/medplan/bin/start_gunicorn.sh
+user=medplan
+stdout_logfile=/var/log/medplan/medplan.log
+autostart=true
+autorestart=unexpected
+redirect_stdout=true
+redirect_stderr=true
+
+
+
+

Et on crée les répertoires de logs, on démarre supervisord et on vérifie qu’il tourne correctement:

+
+
+
+
mkdir /var/log/medplan
+chown medplan:nagios /var/log/medplan
+
+systemctl enable supervisord
+systemctl start supervisord.service
+systemctl status supervisord.service
+● supervisord.service - Process Monitoring and Control Daemon
+   Loaded: loaded (/usr/lib/systemd/system/supervisord.service; enabled; vendor preset: disabled)
+   Active: active (running) since Tue 2019-12-24 10:08:09 CET; 10s ago
+  Process: 2304 ExecStart=/usr/bin/supervisord -c /etc/supervisord.conf (code=exited, status=0/SUCCESS)
+ Main PID: 2310 (supervisord)
+   CGroup: /system.slice/supervisord.service
+           ├─2310 /usr/bin/python /usr/bin/supervisord -c /etc/supervisord.conf
+           ├─2313 /home/medplan/.venvs/medplan/bin/python3 /home/medplan/.venvs/medplan/bin/gunicorn config.wsgi:...
+           ├─2317 /home/medplan/.venvs/medplan/bin/python3 /home/medplan/.venvs/medplan/bin/gunicorn config.wsgi:...
+           ├─2318 /home/medplan/.venvs/medplan/bin/python3 /home/medplan/.venvs/medplan/bin/gunicorn config.wsgi:...
+           ├─2321 /home/medplan/.venvs/medplan/bin/python3 /home/medplan/.venvs/medplan/bin/gunicorn config.wsgi:...
+           ├─2322 /home/medplan/.venvs/medplan/bin/python3 /home/medplan/.venvs/medplan/bin/gunicorn config.wsgi:...
+           └─2323 /home/medplan/.venvs/medplan/bin/python3 /home/medplan/.venvs/medplan/bin/gunicorn config.wsgi:...
+ls /var/run/webapps/
+
+
+
+
+

9.8. Ouverture des ports

+
+
+
firewall-cmd --permanent --zone=public --add-service=http
+firewall-cmd --permanent --zone=public --add-service=https
+firewall-cmd --reload
+
+
+
+
+

9.9. Installation d’Nginx

+
+
+
yum install nginx -y
+usermod -a -G gunicorn_sockets nginx
+
+
+
+

On configure ensuite le fichier /etc/nginx/conf.d/medplan.conf:

+
+
+
+
upstream medplan_app {
+        server unix:/var/run/webapps/gunicorn_medplan.sock fail_timeout=0;
+}
+
+server {
+        listen 80;
+        server_name <server_name>;
+        root /var/www/medplan;
+        error_log /var/log/nginx/medplan_error.log;
+        access_log /var/log/nginx/medplan_access.log;
+
+        client_max_body_size 4G;
+        keepalive_timeout 5;
+
+        gzip on;
+        gzip_comp_level 7;
+        gzip_proxied any;
+        gzip_types gzip_types text/plain text/css text/xml text/javascript application/x-javascript application/xml;
+
+
+        location /static/ {
+                access_log off;
+                expires 30d;
+                add_header Pragma public;
+                add_header Cache-Control "public";
+                add_header Vary "Accept-Encoding";
+                try_files $uri $uri/ =404;
+        }
+
+        location / {
+                proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
+                proxy_set_header Host $http_host;
+                proxy_redirect off;
+
+                proxy_pass http://medplan_app;
+        }
+}
+
+
+
+
+

9.10. Configuration des sauvegardes

+
+

Les sauvegardes ont été configurées avec borg: yum install borgbackup.

+
+
+

C’est l’utilisateur medplan qui s’en occupe.

+
+
+
+
mkdir -p /home/medplan/borg-backups/
+cd /home/medplan/borg-backups/
+borg init medplan.borg -e=none
+borg create medplan.borg::{now} ~/bin ~/webapps
+
+
+
+

Et dans le fichier crontab :

+
+
+
+
0 23 * * * /home/medplan/bin/backup.sh
+
+
+
+
+
+

Modélisation

+
+
+Dans ce chapitre, on va parler de plusieurs concepts utiles au développement rapide d’une application. On parlera de modélisation, de migrations, d’administration auto-générée. +
+
+
+

10. Modélisation

+
+
+

On va aborder la modélisation des objets en elle-même, qui s’apparente à la conception de la base de données.

+
+
+

Django utilise un modèle ORM - c’est-à-dire que chaque objet peut s’apparenter à une table SQL, mais en ajoutant une couche propre au paradigme orienté objet. Il sera ainsi possible de définir facilement des notions d’héritage (tout en restant dans une forme d’héritage simple), la possibilité d’utiliser des propriétés spécifiques, des classes intermédiaires, …​

+
+
+

L’avantage de tout ceci est que tout reste au niveau du code. Si l’on revient sur la méthodologie des douze facteurs, ce point concerne principalement la minimisation de la divergence entre les environnements d’exécution. Déployer une nouvelle instance de l’application pourra être réalisé directement à partir d’une seule et même commande, dans la mesure où tout est embarqué au niveau du code.

+
+
+

Assez de blabla, on démarre !

+
+
+
+
+

11. Queryset & managers

+
+
+

L’ORM de Django propose par défaut deux objets hyper importants:

+
+
+
    +
  • +

    Les managers, qui consistent en un point d’entrée pour accéder aux objets persistants

    +
  • +
  • +

    Les querysets, qui permettent de filtrer des ensembles ou sous-ensemble d’objets. Les querysets peuvent s’imbriquer, pour ajouter +d’autres filtres à des filtres existants.

    +
  • +
+
+
+

En plus de cela, il faut bien tenir compte des propriétés Meta de la classe: si elle contient déjà un ordre par défaut, celui-ci +sera pris en compte pour l’ensemble des requêtes effectuées sur cette classe.

+
+
+
+
+

12. Forms

+
+
+

Ou comment valider proprement des données entrantes.

+
+
+ + + + + +
+
Note
+
+intégrer le dessin XKCD avec Little Bobby Table sur l’assainissement des données en entrée :-p +
+
+
+

Quand on parle de forms, on ne parle pas uniquement de formulaires Web. On pourrait considérer qu’il s’agit de leur objectif principal, mais on peut également voir un peu plus loin: on peut en fait voir les forms comme le point d’entrée pour chaque donnée arrivant dans notre application: il s’agit en quelque sorte d’un ensemble de règles complémentaires à celles déjà présentes au niveau du modèle.

+
+
+

L’exemple le plus simple est un fichier .csv: la lecture de ce fichier pourrait se faire de manière très simple, en récupérant les valeurs de chaque colonne et en l’introduisant dans une instance du modèle.

+
+
+

Mauvaise idée.

+
+
+

Les données fournies par un utilisateur doivent toujours être validées avant introduction dans la base de données. Notre base de données étant accessible ici par l’ORM, la solution consiste à introduire une couche supplémentaire de validation.

+
+
+

Le flux à suivre est le suivant:

+
+
+
    +
  1. +

    Création d’une instance grâce à un dictionnaire

    +
  2. +
  3. +

    Validation des données et des informations reçues

    +
  4. +
  5. +

    Traitement, si la validation a réussi.

    +
  6. +
+
+
+

Ils jouent également plusieurs rôles:

+
+
+
    +
  1. +

    Validation des données, en plus de celles déjà définies au niveau du modèle

    +
  2. +
  3. +

    Contrôle sur le rendu à appliquer aux champs

    +
  4. +
+
+
+

Ils agissent come une glue entre l’utilisateur et la modélisation de vos structures de données.

+
+
+

12.1. Dépendance avec le modèle

+
+

Un form peut dépendre d’une autre classe Django. Pour cela, il suffit de fixer l’attribut model au niveau de la class Meta dans la définition.

+
+
+
+
from django import forms
+
+from wish.models import Wishlist
+
+class WishlistCreateForm(forms.ModelForm):
+    class Meta:
+        model = Wishlist
+        fields = ('name', 'description')
+
+
+
+

De cette manière, notre form dépendra automatiquement des champs déjà déclarés dans la classe Wishlist. Cela suit le principe de DRY <don’t repeat yourself>`_, et évite qu’une modification ne pourrisse le code: en testant les deux champs présent dans l’attribut `fields, nous pourrons nous assurer de faire évoluer le formulaire en fonction du modèle sur lequel il se base.

+
+
+
+

12.2. Rendu et affichage

+
+

Le formulaire permet également de contrôler le rendu qui sera appliqué lors de la génération de la page. Si les champs dépendent du modèle sur lequel se base le formulaire, ces widgets doivent être initialisés dans l’attribut Meta. Sinon, ils peuvent l’être directement au niveau du champ.

+
+
+
+
from django import forms
+from datetime import date
+from .models import Accident
+
+class AccidentForm(forms.ModelForm):
+    class Meta:
+        model = Accident
+        fields = ('gymnast', 'educative', 'date', 'information')
+        widgets = {
+            'date' : forms.TextInput(
+                     attrs={
+                        'class' : 'form-control',
+                        'data-provide' : 'datepicker',
+                        'data-date-format' : 'dd/mm/yyyy',
+                        'placeholder' : date.today().strftime("%d/%m/%Y")
+                     }),
+            'information' : forms.Textarea(
+                            attrs={
+                                'class' : 'form-control',
+                                'placeholder' : 'Context (why, where, ...)'
+                            })
+
+
+
+
+

12.3. Squelette par défaut

+
+

On a d’un côté le {{ form.as_p }} ou {{ form.as_table }}, mais il y a beaucoup mieux que ça ;-) Voir les templates de Vitor.

+
+
+
+

12.4. Crispy-forms

+
+

Comme on l’a vu à l’instant, les forms, en Django, c’est le bien. Cela permet de valider des données reçues en entrée et d’afficher (très) facilement des formulaires à compléter par l’utilisateur.

+
+
+

Par contre, c’est lourd. Dès qu’on souhaite peaufiner un peu l’affichage, contrôler parfaitement ce que l’utilisateur doit remplir, modifier les types de contrôleurs, les placer au pixel près, …​ Tout ça demande énormément de temps. Et c’est là qu’intervient `Django-Crispy-Forms <http://django-crispy-forms.readthedocs.io/en/latest/>`_. Cette librairie intègre plusieurs frameworks CSS (Bootstrap, Foundation et uni-form) et permet de contrôler entièrement le layout et la présentation.

+
+
+

(c/c depuis le lien ci-dessous)

+
+
+

Pour chaque champ, crispy-forms va :

+
+
+
    +
  • +

    utiliser le verbose_name comme label.

    +
  • +
  • +

    vérifier les paramètres blank et null pour savoir si le champ est obligatoire.

    +
  • +
  • +

    utiliser le type de champ pour définir le type de la balise <input>.

    +
  • +
  • +

    récupérer les valeurs du paramètre choices (si présent) pour la balise <select>.

    +
  • +
+
+ +
+
+
+
+

13. Validation des données

+
+
+ + + + + +
+
Note
+
+parler ici des méthodes clean. +
+
+
+
+
+

14. En conclusion

+
+
+
    +
  1. +

    Toute donnée entrée par l’utilisateur doit passer par une instance de form.

    +
  2. +
  3. +

    euh ?

    +
  4. +
+
+
+
+
+

15. Migrations

+
+
+

Les migrations (comprendre les "migrations du schéma de base de données") sont intimement liées à la représentation d’un contexte fonctionnel. L’ajout d’une nouvelle information, d’un nouveau champ ou d’une nouvelle fonction peut s’accompagner de tables de données à mettre à jour ou de champs à étendre.

+
+
+

Toujours dans une optique de centralisation, les migrations sont directement embarquées au niveau du code. Le développeur s’occupe de créer les migrations en fonction des actions à entreprendre; ces migrations peuvent être retravaillées, squashées, …​ et feront partie intégrante du processus de mise à jour de l’application.

+
+
+
+
+

16. Administration

+
+
+

Woké. On va commencer par la partie à ne surtout (surtout !!) pas faire en premier dans un projet Django. Mais on va la faire quand même. La raison principale est que cette partie est tellement puissante et performante, qu’elle pourrait laisser penser qu’il est possible de réaliser une application complète rien qu’en configurant l’administration.

+
+
+

C’est faux.

+
+
+

L’administration est une sorte de tour de contrôle évoluée; elle se base sur le modèle de données programmé et construit dynamiquement les formulaires qui lui est associé. Elle joue avec les clés primaires, étrangères, les champs et types de champs par introspection.

+
+
+

Son problème est qu’elle présente une courbe d’apprentissage asymptotique. Il est très facile d’arriver rapidement à un bon résultat, au travers d’un périmètre de configuration relativement restreint. Mais quoi que vous fassiez, il y a un moment où la courbe de paramétrage sera tellement ardue que vous aurez plus facile à développer ce que vous souhaitez ajouter en utilisant les autres concepts de Django.

+
+
+

Elle doit rester dans les mains d’administrateurs ou de gestionnaires, et dans leurs mains à eux uniquement: il n’est pas question de donner des droits aux utilisateurs finaux (même si c’est extrêment tentant durant les premiers tours de roues). Indépendamment de la manière dont vous allez l’utiliser et la configurer, vous finirez par devoir développer une "vraie" application, destinée aux utilisateurs classiques, et répondant à leurs besoins uniquement.

+
+
+

Une bonne idée consiste à développer l’administration dans un premier temps, en gardant en tête qu’il sera nécessaire de développer des concepts spécifiques. Dans cet objectif, l’administration est un outil exceptionel, qui permet de valider un modèle, de créer des objets rapidement et de valider les liens qui existent entre eux. C’est un excellent outil de prototypage et de preuve de concept.

+
+
+

16.1. Quelques conseils

+
+
    +
  1. +

    Surchargez la méthode str(self) pour chaque classe que vous aurez définie dans le modèle. Cela permettra de construire une représentation textuelle qui représentera l’instance de votre classe. Cette information sera utilisée un peu partout dans le code, et donnera une meilleure idée de ce que l’on manipule. En plus, cette méthode est également appelée lorsque l’administration historisera une action (et comme cette étape sera inaltérable, autant qu’elle soit fixée dans le début).

    +
  2. +
  3. +

    La méthode get_absolute_url(self) retourne l’URL à laquelle on peut accéder pour obtenir les détails d’une instance. Par exemple:

    +
  4. +
+
+
+
+
def get_absolute_url(self):
+    return reverse('myapp.views.details', args=[self.id])
+
+
+
+
    +
  1. +

    Les attributs Meta:

    +
  2. +
+
+
+
+
class Meta:
+	ordering = ['-field1', 'field2']
+	verbose_name = 'my class in singular'
+	verbose_name_plural = 'my class when is in a list!'
+
+
+
+
    +
  1. +

    Le titre:

    +
    +
      +
    • +

      Soit en modifiant le template de l’administration

      +
    • +
    • +

      Soit en ajoutant l’assignation suivante dans le fichier urls.py: admin.site.site_header = "SuperBook Secret Area.

      +
    • +
    +
    +
  2. +
  3. +

    Prefetch

    +
  4. +
+
+ + +
+

En gros, le problème de l’admin est que si on fait des requêtes imbriquées, on va flinguer l’application et le chargement de la page. +La solution consiste à utiliser la propriété list_select_related de la classe d’Admin, afin d’appliquer une jointure par défaut et +et gagner en performances.

+
+
+
+
+

Go Live !

+
+

17. Supervision des logs

+
+ +
+
+
+

18. feedbacks utilisateurs

+
+ +
+
+

En bonus

+
+

19. Snippets utiles (et forcément dispensables)

+
+
+

19.1. Récupération du dernier tag Git en Python

+
+

L’idée ici est simplement de pouvoir afficher le numéro de version ou le hash d’exécution du code, sans avoir à se connecter au dépôt. Cela apporte une certaine transparence, sous réserve que le code soit géré par Git. Si vous suivez scrupuleusement les 12 facteurs, la version de l’application déployée n’est plus sensée conserver un lien avec votre dépôt d’origine…​ Si vous déployez votre code en utilisant un git fetch puis un git checkout <tag_name>, le morceau de code ci-dessous pourra vous intéresser :-)

+
+
+
+
+
+
+
+
+
+
+ + + + \ No newline at end of file diff --git a/adoc/models/admin.adoc b/adoc/models/admin.adoc index ca18b06..d1581a3 100644 --- a/adoc/models/admin.adoc +++ b/adoc/models/admin.adoc @@ -1,27 +1,4 @@ -== Modélisation et conception avancée - -Dans ce chapitre, on va parler de plusieurs concepts utiles au développement rapide d'une application. On parlera de modélisation, de migrations, d'administration auto-générée. - -=== Modélisation - -On va aborder la modélisation des objets en elle-même, qui s'apparente à la conception de la base de données. - -Django utilise un modèle https://fr.wikipedia.org/wiki/Mapping_objet-relationnel[ORM] - c'est-à-dire que chaque objet peut s'apparenter à une table SQL, mais en ajoutant une couche propre au paradigme orienté objet. Il sera ainsi possible de définir facilement des notions d'héritage (tout en restant dans une forme d'héritage simple), la possibilité d'utiliser des propriétés spécifiques, des classes intermédiaires, ... - -L'avantage de tout ceci est que tout reste au niveau du code. Si l'on revient sur la méthodologie des douze facteurs, ce point concerne principalement la minimisation de la divergence entre les environnements d'exécution. Déployer une nouvelle instance de l'application pourra être réalisé directement à partir d'une seule et même commande, dans la mesure où *tout est embarqué au niveau du code*. - -Assez de blabla, on démarre ! - - -=== Migrations - -Les migrations (comprendre les "migrations du schéma de base de données") sont intimement liées à la représentation d'un contexte fonctionnel. L'ajout d'une nouvelle information, d'un nouveau champ ou d'une nouvelle fonction peut s'accompagner de tables de données à mettre à jour ou de champs à étendre. - -Toujours dans une optique de centralisation, les migrations sont directement embarquées au niveau du code. Le développeur s'occupe de créer les migrations en fonction des actions à entreprendre; ces migrations peuvent être retravaillées, _squashées_, ... et feront partie intégrante du processus de mise à jour de l'application. - - - -=== Administration +== Administration Woké. On va commencer par la *partie à ne _surtout_ (__surtout__ !!) pas faire en premier dans un projet Django*. Mais on va la faire quand même. La raison principale est que cette partie est tellement puissante et performante, qu'elle pourrait laisser penser qu'il est possible de réaliser une application complète rien qu'en configurant l'administration. @@ -35,3 +12,39 @@ Elle doit rester dans les mains d'administrateurs ou de gestionnaires, et dans l Une bonne idée consiste à développer l'administration dans un premier temps, en *gardant en tête qu'il sera nécessaire de développer des concepts spécifiques*. Dans cet objectif, l'administration est un outil exceptionel, qui permet de valider un modèle, de créer des objets rapidement et de valider les liens qui existent entre eux. C'est un excellent outil de prototypage et de preuve de concept. +=== Quelques conseils + +. Surchargez la méthode `__str__(self)` pour chaque classe que vous aurez définie dans le modèle. Cela permettra de construire une représentation textuelle qui représentera l'instance de votre classe. Cette information sera utilisée un peu partout dans le code, et donnera une meilleure idée de ce que l'on manipule. En plus, cette méthode est également appelée lorsque l'administration historisera une action (et comme cette étape sera inaltérable, autant qu'elle soit fixée dans le début). + +. La méthode `get_absolute_url(self)` retourne l'URL à laquelle on peut accéder pour obtenir les détails d'une instance. Par exemple: + +[source,python] +---- +def get_absolute_url(self): + return reverse('myapp.views.details', args=[self.id]) +---- + +. Les attributs `Meta`: + +[source,python] +---- +class Meta: + ordering = ['-field1', 'field2'] + verbose_name = 'my class in singular' + verbose_name_plural = 'my class when is in a list!' +---- + +. Le titre: + + * Soit en modifiant le template de l'administration + * Soit en ajoutant l'assignation suivante dans le fichier `urls.py`: `admin.site.site_header = "SuperBook Secret Area`. + +. Prefetch + +https://hackernoon.com/all-you-need-to-know-about-prefetching-in-django-f9068ebe1e60?gi=7da7b9d3ad64 + +https://medium.com/@hakibenita/things-you-must-know-about-django-admin-as-your-app-gets-bigger-6be0b0ee9614 + +En gros, le problème de l'admin est que si on fait des requêtes imbriquées, on va flinguer l'application et le chargement de la page. +La solution consiste à utiliser la propriété `list_select_related` de la classe d'Admin, afin d'appliquer une jointure par défaut et +et gagner en performances. diff --git a/adoc/models/forms.adoc b/adoc/models/forms.adoc new file mode 100644 index 0000000..c2bf7cd --- /dev/null +++ b/adoc/models/forms.adoc @@ -0,0 +1,106 @@ +== Forms + +Ou comment valider proprement des données entrantes. + +NOTE: intégrer le dessin XKCD avec Little Bobby Table sur l'assainissement des données en entrée :-p + +Quand on parle de `forms`, on ne parle pas uniquement de formulaires Web. On pourrait considérer qu'il s'agit de leur objectif principal, mais on peut également voir un peu plus loin: on peut en fait voir les `forms` comme le point d'entrée pour chaque donnée arrivant dans notre application: il s'agit en quelque sorte d'un ensemble de règles complémentaires à celles déjà présentes au niveau du modèle. + +L'exemple le plus simple est un fichier `.csv`: la lecture de ce fichier pourrait se faire de manière très simple, en récupérant les valeurs de chaque colonne et en l'introduisant dans une instance du modèle. + +Mauvaise idée. + +Les données fournies par un utilisateur **doivent** **toujours** être validées avant introduction dans la base de données. Notre base de données étant accessible ici par l'ORM, la solution consiste à introduire une couche supplémentaire de validation. + +Le flux à suivre est le suivant: + +. Création d'une instance grâce à un dictionnaire +. Validation des données et des informations reçues +. Traitement, si la validation a réussi. + + +Ils jouent également plusieurs rôles: + +. Validation des données, en plus de celles déjà définies au niveau du modèle +. Contrôle sur le rendu à appliquer aux champs + +Ils agissent come une glue entre l'utilisateur et la modélisation de vos structures de données. + +=== Dépendance avec le modèle + +Un **form** peut dépendre d'une autre classe Django. Pour cela, il suffit de fixer l'attribut `model` au niveau de la `class Meta` dans la définition. + +[source,python] +---- +from django import forms + +from wish.models import Wishlist + +class WishlistCreateForm(forms.ModelForm): + class Meta: + model = Wishlist + fields = ('name', 'description') +---- + +De cette manière, notre form dépendra automatiquement des champs déjà déclarés dans la classe `Wishlist`. Cela suit le principe de `DRY `_, et évite qu'une modification ne pourrisse le code: en testant les deux champs présent dans l'attribut `fields`, nous pourrons nous assurer de faire évoluer le formulaire en fonction du modèle sur lequel il se base. + +=== Rendu et affichage + +Le formulaire permet également de contrôler le rendu qui sera appliqué lors de la génération de la page. Si les champs dépendent du modèle sur lequel se base le formulaire, ces widgets doivent être initialisés dans l'attribut `Meta`. Sinon, ils peuvent l'être directement au niveau du champ. + +[source,python] +---- + +from django import forms +from datetime import date +from .models import Accident + +class AccidentForm(forms.ModelForm): + class Meta: + model = Accident + fields = ('gymnast', 'educative', 'date', 'information') + widgets = { + 'date' : forms.TextInput( + attrs={ + 'class' : 'form-control', + 'data-provide' : 'datepicker', + 'data-date-format' : 'dd/mm/yyyy', + 'placeholder' : date.today().strftime("%d/%m/%Y") + }), + 'information' : forms.Textarea( + attrs={ + 'class' : 'form-control', + 'placeholder' : 'Context (why, where, ...)' + }) +---- + +=== Squelette par défaut + +On a d'un côté le {{ form.as_p }} ou {{ form.as_table }}, mais il y a beaucoup mieux que ça ;-) Voir les templates de Vitor. + +=== Crispy-forms + +Comme on l'a vu à l'instant, les forms, en Django, c'est le bien. Cela permet de valider des données reçues en entrée et d'afficher (très) facilement des formulaires à compléter par l'utilisateur. + +Par contre, c'est lourd. Dès qu'on souhaite peaufiner un peu l'affichage, contrôler parfaitement ce que l'utilisateur doit remplir, modifier les types de contrôleurs, les placer au pixel près, ... Tout ça demande énormément de temps. Et c'est là qu'intervient `Django-Crispy-Forms `_. Cette librairie intègre plusieurs frameworks CSS (Bootstrap, Foundation et uni-form) et permet de contrôler entièrement le *layout* et la présentation. + +(c/c depuis le lien ci-dessous) + +Pour chaque champ, crispy-forms va : + + * utiliser le `verbose_name` comme label. + * vérifier les paramètres `blank` et `null` pour savoir si le champ est obligatoire. + * utiliser le type de champ pour définir le type de la balise ``. + * récupérer les valeurs du paramètre `choices` (si présent) pour la balise ```. - * récupérer les valeurs du paramètre ``choices`` (si présent) pour la balise ``