gwift-book/source/part-1-workspace/environment/_index.adoc

41 KiB
Raw Blame History

Boite à outils

Python

Le langage Python est un langage de programmation interprété, interactif, orienté objet (souvent), fonctionnel (parfois), open source, multi-plateformes, flexible, facile à apprendre et difficile à maîtriser.

A première vue, certains concepts restent difficiles à aborder: lindentation définit létendue dun bloc (classe, fonction, méthode, boucle, condition, …​), il ny a pas de typage fort des variables et le compilateur nest pas là pour assurer le filet de sécurité avant la mise en production (puisquil ny a pas de compilateur 😛). Et malgré ces quelques points, Python reste un langage généraliste accessible et "bon partout", et de pouvoir se reposer sur un écosystème stable et fonctionnel.

Il fonctionne avec un système daméliorations basées sur des propositions: les PEP, ou "Python Enhancement Proposal". Chacune dentre elles doit être approuvée par le Benevolent Dictator For Life.

Si vous avez besoin dun aide-mémoire ou dune liste exhaustive des types et structures de données du langage, référez-vous au lien suivant: Python Cheat Sheet.

Note
Le langage Python utilise un typage dynamique appelé duck typing: "When I see a bird that quacks like a duck, walks like a duck, has feathers and webbed feet and associates with ducks — Im certainly going to assume that he is a duck" Source: Wikipedia.

The Zen of Python

>>> import this
The Zen of Python, by Tim Peters

Beautiful is better than ugly.
Explicit is better than implicit.
Simple is better than complex.
Complex is better than complicated.
Flat is better than nested.
Sparse is better than dense.
Readability counts.
Special cases aren't special enough to break the rules.
Although practicality beats purity.
Errors should never pass silently.
Unless explicitly silenced.
In the face of ambiguity, refuse the temptation to guess.
There should be one-- and preferably only one --obvious way to do it.
Although that way may not be obvious at first unless you're Dutch.
Now is better than never.
Although never is often better than *right* now.
If the implementation is hard to explain, it's a bad idea.
If the implementation is easy to explain, it may be a good idea.
Namespaces are one honking great idea -- let's do more of those!

PEP8 - Style Guide for Python Code

La première PEP qui va nous intéresser est la PEP 8Style Guide for Python Code. Elle spécifie comment du code Python doit être organisé ou formaté, quelles sont les conventions pour lindentation, le nommage des variables et des classes, …​ En bref, elle décrit comment écrire du code proprement, afin que dautres développeurs puissent le reprendre facilement, ou simplement que votre base de code ne dérive lentement vers un seuil de non-maintenabilité.

Dans cet objectif, un outil existe et listera lensemble des conventions qui ne sont pas correctement suivies dans votre projet: pep8. Pour linstaller, passez par pip. Lancez ensuite la commande pep8 suivie du chemin à analyser (., le nom dun répertoire, le nom dun fichier .py, …​). Si vous souhaitez uniquement avoir le nombre derreur de chaque type, saisissez les options --statistics -qq.

$ pep8 . --statistics -qq

7       E101 indentation contains mixed spaces and tabs
6       E122 continuation line missing indentation or outdented
8       E127 continuation line over-indented for visual indent
23      E128 continuation line under-indented for visual indent
3       E131 continuation line unaligned for hanging indent
12      E201 whitespace after '{'
13      E202 whitespace before '}'
86      E203 whitespace before ':'

Si vous ne voulez pas être dérangé sur votre manière de coder, et que vous voulez juste avoir un retour sur une analyse de votre code, essayez pyflakes: cette librairie analysera vos sources à la recherche de sources derreurs possibles (imports inutilisés, méthodes inconnues, etc.).

PEP257 - Docstring Conventions

Python étant un langage interprété fortement typé, il est plus que conseillé, au même titre que les tests unitaires que nous verrons plus bas, de documenter son code. Cela impose une certaine rigueur, mais améliore énormément la qualité (et la reprise) du code par une tierce personne. Cela implique aussi de tout documenter: les modules, les paquets, les classes, les fonctions, méthodes, …​ Tout doit avoir un docstring associé :-).

Warning
Documentation: be obsessed!

Il existe plusieurs types de conventions de documentation:

  1. PEP 257

  2. Numpy

  3. Google Style (parfois connue sous lintitulé Napoleon)

  4. …​

Les conventions proposées par Google nous semblent plus faciles à lire que du RestructuredText, mais sont parfois moins bien intégrées que les docstrings officiellement supportées (typiquement, par exemple par clize qui ne reconnait que du RestructuredText). Lexemple donné dans les styleguide est celui-ci:

def fetch_smalltable_rows(table_handle: smalltable.Table,
                          keys: Sequence[Union[bytes, str]],
                          require_all_keys: bool = False,
) -> Mapping[bytes, Tuple[str]]:
    """Fetches rows from a Smalltable.

    Retrieves rows pertaining to the given keys from the Table instance
    represented by table_handle.  String keys will be UTF-8 encoded.

    Args:
        table_handle: An open smalltable.Table instance.
        keys: A sequence of strings representing the key of each table
          row to fetch.  String keys will be UTF-8 encoded.
        require_all_keys: Optional; If require_all_keys is True only
          rows with values set for all keys will be returned.

    Returns:
        A dict mapping keys to the corresponding table row data
        fetched. Each row is represented as a tuple of strings. For
        example:

        {b'Serak': ('Rigel VII', 'Preparer'),
         b'Zim': ('Irk', 'Invader'),
         b'Lrrr': ('Omicron Persei 8', 'Emperor')}

        Returned keys are always bytes.  If a key from the keys argument is
        missing from the dictionary, then that row was not found in the
        table (and require_all_keys must have been False).

    Raises:
        IOError: An error occurred accessing the smalltable.
    """

Cest-à-dire:

  1. Une courte ligne dintroduction, descriptive, indiquant ce que la fonction ou la méthode réalise. Attention, la documentation ne doit pas indiquer comment la fonction/méthode est implémentée, mais ce quelle fait concrètement (et succintement).

  2. Une ligne vide

  3. Une description plus complète et plus verbeuse

  4. Une ligne vide

  5. La description des arguments et paramètres, des valeurs de retour (+ exemples) et les exceptions qui peuvent être levées.

Un exemple (encore) plus complet peut être trouvé dans le dépôt sphinxcontrib-napoleon.

Pour ceux que cela pourrait intéresser, il existe une extension pour Codium, comme nous le verrons juste après, qui permet de générer automatiquement le squelette de documentation dun bloc de code:

python docstring vscode
Figure 2. autodocstring
Note
Nous le verrons plus loin, Django permet de rendre la documentation immédiatement accessible depuis son interface dadministration.

Linters

Il existe plusieurs niveaux de linters:

  1. Le premier niveau concerne pycodestyle (anciennement, pep8 justement…), qui analyse votre code à la recherche derreurs de convention.

  2. Le deuxième niveau concerne pyflakes. Pyflakes est un simple [1] programme qui recherchera des erreurs parmi vos fichiers Python.

  3. Le troisième niveau est Flake8, qui regroupe les deux premiers niveaux, en plus dy ajouter flexibilité, extensions et une analyse de complexité de McCabe.

  4. Le quatrième niveau [2] est PyLint.

PyLint est le meilleur ami de votre moi futur, un peu comme quand vous prenez le temps de faire la vaisselle pour ne pas avoir à la faire le lendemain: il rendra votre code soyeux et brillant, en posant des affirmations spécifiques. A vous de les traiter en corrigeant le code ou en apposant un tag indiquant que vous avez pris connaissance de la remarque, que vous en avez tenu compte, et que vous choisissez malgré tout de faire autrement.

Pour vous donner une idée, voici ce que cela pourrait donner avec un code pas très propre et qui ne sert à rien:

from datetime import datetime

"""On stocke la date du jour dans la variable ToD4y"""

ToD4y = datetime.today()

def print_today(ToD4y):
    today = ToD4y
    print(ToD4y)

def GetToday():
    return ToD4y


if __name__ == "__main__":
    t =   Get_Today()
    print(t)

Avec Flake8, nous obtiendrons ceci:

test.py:7:1: E302 expected 2 blank lines, found 1
test.py:8:5: F841 local variable 'today' is assigned to but never used
test.py:11:1: E302 expected 2 blank lines, found 1
test.py:16:8: E222 multiple spaces after operator
test.py:16:11: F821 undefined name 'Get_Today'
test.py:18:1: W391 blank line at end of file

Nous trouvons des erreurs:

  • de conventions: le nombre de lignes qui séparent deux fonctions, le nombre despace après un opérateur, une ligne vide à la fin du fichier, …​ Ces erreurs nen sont pas vraiment, elles indiquent juste de potentiels problèmes de communication si le code devait être lu ou compris par une autre personne.

  • de définition: une variable assignée mais pas utilisée ou une lexème non trouvé. Cette dernière information indique clairement un bug potentiel. Ne pas en tenir compte nuira sans doute à la santé de votre code (et risque de vous réveiller à cinq heures du mat', quand votre application se prendra méchamment les pieds dans le tapis).

Létape daprès consiste à invoquer pylint. Lui, il est directement moins conciliant:

$ pylint test.py
************* Module test
test.py:16:6: C0326: Exactly one space required after assignment
    t =   Get_Today()
      ^ (bad-whitespace)
test.py:18:0: C0305: Trailing newlines (trailing-newlines)
test.py:1:0: C0114: Missing module docstring (missing-module-docstring)
test.py:3:0: W0105: String statement has no effect (pointless-string-statement)
test.py:5:0: C0103: Constant name "ToD4y" doesn't conform to UPPER_CASE naming style (invalid-name)
test.py:7:16: W0621: Redefining name 'ToD4y' from outer scope (line 5) (redefined-outer-name)
test.py:7:0: C0103: Argument name "ToD4y" doesn't conform to snake_case naming style (invalid-name)
test.py:7:0: C0116: Missing function or method docstring (missing-function-docstring)
test.py:8:4: W0612: Unused variable 'today' (unused-variable)
test.py:11:0: C0103: Function name "GetToday" doesn't conform to snake_case naming style (invalid-name)
test.py:11:0: C0116: Missing function or method docstring (missing-function-docstring)
test.py:16:4: C0103: Constant name "t" doesn't conform to UPPER_CASE naming style (invalid-name)
test.py:16:10: E0602: Undefined variable 'Get_Today' (undefined-variable)

--------------------------------------------------------------------
Your code has been rated at -5.45/10

En gros, jai programmé comme une grosse bouse anémique (et oui: le score dévaluation du code permet bien daller en négatif). En vrac, nous trouvons des problèmes liés:

  • au nommage (C0103) et à la mise en forme (C0305, C0326, W0105)

  • à des variables non définies (E0602)

  • de la documentation manquante (C0114, C0116)

  • de la redéfinition de variables (W0621).

Pour reprendre la documentation, chaque code possède sa signification (ouf!):

  • C convention related checks

  • R refactoring related checks

  • W various warnings

  • E errors, for probable bugs in the code

  • F fatal, if an error occurred which prevented pylint from doing further* processing.

TODO: Expliquer comment faire pour tagger une explication.

TODO: Voir si la sortie de pylint est obligatoirement 0 sil y a un warning

TODO: parler de pylint --errors-only

Formatage de code

Nous avons parlé ci-dessous de style de codage pour Python (PEP8), de style de rédaction pour la documentation (PEP257), dun linter pour nous indiquer quels morceaux de code doivent absolument être revus, …​ Reste que ces tâches sont parfois (très) souvent fastidieuses: écrire un code propre et systématiquement cohérent est une tâche ardue. Heureusement, il existe des outils pour nous aider (un peu).

A nouveau, il existe plusieurs possibilités de formatage automatique du code. Même si elle nest pas parfaite, Black arrive à un compromis entre clarté du code, facilité dinstallation et dintégration et résultat.

Est-ce que ce formatage est idéal et accepté par tout le monde ? Non. Même Pylint arrivera parfois à râler. Mais ce formatage conviendra dans 97,83% des cas (au moins).

By using Black, you agree to cede control over minutiae of hand-formatting. In return, Black gives you speed, determinism, and freedom from pycodestyle nagging about formatting. You will save time and mental energy for more important matters.

Black makes code review faster by producing the smallest diffs possible. Blackened code looks the same regardless of the project youre reading. Formatting becomes transparent after a while and you can focus on the content instead.

Traduit rapidement à partir de la langue de Batman: "En utilisant Black, vous cédez le contrôle sur le formatage de votre code. En retour, Black vous fera gagner un max de temps, diminuera votre charge mentale et fera revenir lêtre aimé". Mais la partie réellement intéressante concerne le fait que "Tout code qui sera passé par Black aura la même forme, indépendamment du project sur lequel vous serez en train de travailler. Létape de formatage deviendra transparente, et vous pourrez vous concentrer sur le contenu".

Complexité cyclomatique

A nouveau, un greffon pour flake8 existe et donnera une estimation de la complexité de McCabe pour les fonctions trop complexes. Installez-le avec pip install mccabe, et activez-le avec le paramètre --max-complexity. Toute fonction dans la complexité est supérieure à cette valeur sera considérée comme trop complexe.

Typage statique - PEP585

Nous vous disions ci-dessus que Python était un langage dynamique interprété. Concrètement, cela signifie que des erreurs pouvant être détectées à la compilation avec dautres langages, ne le sont pas avec Python.

Il existe cependant une solution à ce problème, sous la forme de Mypy, qui peut (sous vous le souhaitez ;-)) vérifier une forme de typage statique de votre code source, grâce à une expressivité du code, basée sur des annotations (facultatives, elles aussi).

Ces vérifications se présentent de la manière suivante:

from typing import List


def first_int_elem(l: List[int]) -> int:
    return l[0] if l else None


if __name__ == "__main__":
    print(first_int_elem([1, 2, 3]))
    print(first_int_elem(['a', 'b', 'c']))

Est-ce que le code ci-dessous fonctionne correctement ? Oui:

λ python mypy-test.py
1
a

Malgré que nos annotations déclarent une liste dentiers, rien ne nous empêche de lui envoyer une liste de caractères, sans que cela ne lui pose de problèmes.

Est-ce que Mypy va râler ? Oui, aussi. Non seulement nous retournons la valeur None si la liste est vide alors que nous lui annoncions un entier en sortie, mais en plus, nous lappelons avec une liste de caractères, alors que nous nous attendions à une liste dentiers:

λ mypy mypy-test.py
mypy-test.py:7: error: Incompatible return value type (got "Optional[int]", expected "int")
mypy-test.py:12: error: List item 0 has incompatible type "str"; expected "int"
mypy-test.py:12: error: List item 1 has incompatible type "str"; expected "int"
mypy-test.py:12: error: List item 2 has incompatible type "str"; expected "int"
Found 4 errors in 1 file (checked 1 source file)

Pour corriger ceci, nous devons:

  1. Importer le type Optional et lutiliser en sortie de notre fonction first_int_elem

  2. Eviter de lui donner de mauvais paramètres ;-)

from typing import List, Optional


def first_int_elem(l: List[int]) -> Optional[int]:
    return l[0] if l else None


if __name__ == "__main__":
    print(first_int_elem([1, 2, 3]))
λ mypy mypy-test.py
Success: no issues found in 1 source file

Tests unitaires

→ PyTest

Comme tout bon framework qui se respecte, Django embarque tout un environnement facilitant le lancement de tests; chaque application est créée par défaut avec un fichier tests.py, qui inclut la classe TestCase depuis le package django.test:

from django.test import TestCase


class TestModel(TestCase):
    def test_str(self):
        raise NotImplementedError('Not implemented yet')

Idéalement, chaque fonction ou méthode doit être testée afin de bien en valider le fonctionnement, indépendamment du reste des composants. Cela permet disoler chaque bloc de manière unitaire, et permet de ne pas rencontrer de régression lors de lajout dune nouvelle fonctionnalité ou de la modification dune existante. Il existe plusieurs types de tests (intégration, comportement, …​); on ne parlera ici que des tests unitaires.

Avoir des tests, cest bien. Sassurer que tout est testé, cest mieux. Cest là quil est utile davoir le pourcentage de code couvert par les différents tests, pour savoir ce qui peut être amélioré.

Comme indiqué ci-dessus, Django propose son propre cadre de tests, au travers du package django.tests. Une bonne pratique (parfois discutée) consiste cependant à switcher vers pytest, qui présente quelques avantages:

  • Une syntaxe plus concise (au prix de quelques conventions, même si elles restent configurables): un test est une fonction, et ne doit pas obligatoirement faire partie dune classe héritant de TestCase - la seule nécessité étant que cette fonction fasse partie dun module commençant ou finissant par "test" (test_example.py ou example_test.py).

  • Une compatibilité avec du code Python "classique" - vous ne devrez donc retenir quun seul ensemble de commandes ;-)

  • Des fixtures faciles à réutiliser entre vos différents composants

  • Une compatibilité avec le reste de lécosystème, dont la couverture de code présentée ci-dessous.

Ainsi, après installation, il nous suffit de créer notre module test_models.py, dans lequel nous allons simplement tester laddition dun nombre et dune chaîne de caractères (oui, cest complètement biesse; on est sur la partie théorique ici):

def test_add():
    assert 1 + 1 == "argh"

Forcément, cela va planter. Pour nous en assurer (dès fois que quelquun en doute), il nous suffit de démarrer la commande pytest:

λ pytest
============================= test session starts ====================================
platform ...
rootdir: ...
plugins: django-4.1.0
collected 1 item

gwift\test_models.py F                                                          [100%]

================================== FAILURES ==========================================
_______________________________ test_basic_add _______________________________________

    def test_basic_add():
>       assert 1 + 1 == "argh"
E       AssertionError: assert (1 + 1) == 'argh'

gwift\test_models.py:2: AssertionError

=========================== short test summary info ==================================
FAILED gwift/test_models.py::test_basic_add - AssertionError: assert (1 + 1) == 'argh'
============================== 1 failed in 0.10s =====================================

Couverture de code

La couverture de code est une analyse qui donne un pourcentage lié à la quantité de code couvert par les tests. Attention quil ne sagit pas de vérifier que le code est bien testé, mais juste de vérifier quelle partie du code est testée. Le paquet coverage se charge dévaluer le pourcentage de code couvert par les tests.

Avec pytest, il convient dutiliser le paquet pytest-cov, suivi de la commande pytest --cov=gwift tests/.

Si vous préférez rester avec le cadre de tests de Django, vous pouvez passer par le paquet django-coverage-plugin Ajoutez-le dans le fichier requirements/base.txt, et lancez une couverture de code grâce à la commande coverage. La configuration peut se faire dans un fichier .coveragerc que vous placerez à la racine de votre projet, et qui sera lu lors de lexécution.

# requirements/base.text
[...]
django_coverage_plugin
# .coveragerc to control coverage.py
[run]
branch = True
omit = ../*migrations*
plugins =
    django_coverage_plugin

[report]
ignore_errors = True

[html]
directory = coverage_html_report
$ coverage run --source "." manage.py test
$ coverage report

    Name                      Stmts   Miss  Cover
    ---------------------------------------------
    gwift\gwift\__init__.py       0      0   100%
    gwift\gwift\settings.py      17      0   100%
    gwift\gwift\urls.py           5      5     0%
    gwift\gwift\wsgi.py           4      4     0%
    gwift\manage.py               6      0   100%
    gwift\wish\__init__.py        0      0   100%
    gwift\wish\admin.py           1      0   100%
    gwift\wish\models.py         49     16    67%
    gwift\wish\tests.py           1      1     0%
    gwift\wish\views.py           6      6     0%
    ---------------------------------------------
    TOTAL                        89     32    64%
    ----

$ coverage html

←-- / partie obsolète --→

Ceci vous affichera non seulement la couverture de code estimée, et générera également vos fichiers sources avec les branches non couvertes.

Matrice de compatibilité

Lintérêt de la matrice de compatibilité consiste à spécifier un ensemble de plusieurs versions dun même interpréteur (ici, Python), afin de sassurer que votre application continue à fonctionner. Nous sommes donc un cran plus haut que la spécification des versions des librairies, puisque nous nous situons directement au niveau de linterpréteur.

Loutil le plus connu est Tox, qui consiste en un outil basé sur virtualenv et qui permet:

  1. de vérifier que votre application sinstalle correctement avec différentes versions de Python et dinterpréteurs

  2. de démarrer des tests parmi ces différents environnements

# content of: tox.ini , put in same dir as setup.py
[tox]
envlist = py36,py37,py38,py39
skipsdist = true

[testenv]
deps =
    -r requirements/dev.txt
commands =
    pytest

Démarrez ensuite la commande tox, pour démarrer la commande pytest sur les environnements Python 3.6, 3.7, 3.8 et 3.9, après avoir installé nos dépendances présentes dans le fichier requirements/dev.txt.

Warning
pour que la commande ci-dessus fonctionne correctement, il sera nécessaire que vous ayez les différentes versions dinterpréteurs installées. Ci-dessus, la commande retournera une erreur pour chaque version non trouvée, avec une erreur type ERROR: pyXX: InterpreterNotFound: pythonX.X.

Configuration globale

Décrire le fichier setup.cfg

$ touch setup.cfg

Dockerfile

# Dockerfile

# Pull base image
#FROM python:3.8
FROM python:3.8-slim-buster

# Set environment variables
ENV PYTHONDONTWRITEBYTECODE 1
ENV PYTHONUNBUFFERED 1
ENV DEBIAN_FRONTEND noninteractive
ENV ACCEPT_EULA=Y

# install Microsoft SQL Server requirements.
ENV ACCEPT_EULA=Y
RUN apt-get update -y && apt-get update \
  && apt-get install -y --no-install-recommends curl gcc g++ gnupg


# Add SQL Server ODBC Driver 17
RUN curl https://packages.microsoft.com/keys/microsoft.asc | apt-key add -
RUN curl https://packages.microsoft.com/config/debian/10/prod.list > /etc/apt/sources.list.d/mssql-release.list
RUN apt-get update \
  && apt-get install -y msodbcsql17 unixodbc-dev

# clean the install.
RUN apt-get -y clean

# Set work directory
WORKDIR /code

# Install dependencies
COPY ./requirements/base.txt /code/requirements/
RUN pip install --upgrade pip
RUN pip install -r ./requirements/base.txt

# Copy project
COPY . /code/

Makefile

Pour gagner un peu de temps, nhésitez pas à créer un fichier Makefile que vous placerez à la racine du projet. Lexemple ci-dessous permettra, grâce à la commande make coverage, darriver au même résultat que ci-dessus:

# Makefile for gwift
#

# User-friendly check for coverage
ifeq ($(shell which coverage >/dev/null 2>&1; echo $$?), 1)
    $(error The 'coverage' command was not found. Make sure you have coverage installed)
endif

.PHONY: help coverage

help:
    @echo "  coverage to run coverage check of the source files."

coverage:
    coverage run --source='.' manage.py test; coverage report; coverage html;
    @echo "Testing of coverage in the sources finished."

Pour la petite histoire, make peu sembler un peu désuet, mais reste extrêmement efficace.

Environnement de développement

Concrètement, nous pourrions tout à fait nous limiter à Notepad ou Notepad++. Mais à moins daimer se fouetter avec un câble USB, nous apprécions la complétion du code, la coloration syntaxique, lintégration des tests unitaires et dun debugger, ainsi que deux-trois sucreries qui feront plaisir à nimporte quel développeur.

Si vous manquez didées ou si vous ne savez pas par où commencer:

Si vous hésitez, et même si Codium nest pas le plus léger (la faute à Electron…​), il fera correctement son travail (à savoir: faciliter le vôtre), en intégrant suffisament de fonctionnalités qui gâteront les papilles émoustillées du développeur impatient.

codium
Figure 3. Codium en action

Un terminal

A priori, les IDE [3] proposés ci-dessus fournissent par défaut ou via des greffons un terminal intégré. Ceci dit, disposer dun terminal séparé facilite parfois certaines tâches.

A nouveau, si vous manquez didées:

  1. Si vous êtes sous Windows, téléchargez une copie de Cmder. Il nest pas le plus rapide, mais propose une intégration des outils Unix communs (ls, pwd, grep, ssh, git, …​) sans trop se fouler.

  2. Pour tout autre système, vous devriez disposer en natif de ce quil faut.

terminal
Figure 4. Mise en abîme

Un gestionnaire de base de données

Django gère plusieurs moteurs de base de données. Certains sont gérés nativement par Django (PostgreSQL, MariaDB, SQLite); a priori, ces trois-là sont disponibles pour tous les systèmes dexploitation. Dautres moteurs nécessitent des librairies tierces (Oracle, Microsoft SQL Server).

Il nest pas obligatoire de disposer dune application de gestion pour ces moteurs: pour les cas dutilisation simples, le shell Django pourra largement suffire (nous y reviendrons). Mais pour faciliter la gestion des bases de données elles-même, et si vous nêtes pas à laise avec la ligne de commande, choisissez lune des applications dadministration ci-dessous en fonction du moteur de base de données que vous souhaitez utiliser.

Un gestionnaire de mots de passe

Nous en auront besoin pour gé(né)rer des phrases secrètes pour nos applications. Si vous nen utilisez pas déjà un, partez sur KeepassXC: il est multi-plateformes, suivi et sintègre correctement aux différents environnements, tout en restant accessible.

keepass

Un système de gestion de versions

Il existe plusieurs systèmes de gestion de versions. Le plus connu à lheure actuelle est Git, notamment pour sa (très) grande flexibilité et sa rapidité dexécution. Il est une aide précieuse pour développer rapidement des preuves de concept, switcher vers une nouvelle fonctionnalité, un bogue à réparer ou une nouvelle release à proposer au téléchargement. Ses deux plus gros défauts concerneraient peut-être sa courbe dapprentissage pour les nouveaux venus et la complexité des actions quil permet de réaliser.

Même pour un développeur solitaire, un système de gestion de versions (quel quil soit) reste indispensable.

Chaque "branche" correspond à une tâche à réaliser: un bogue à corriger (Hotfix A), une nouvelle fonctionnalité à ajouter ou un "truc à essayer" [4] (Feature A et Feature B).

Chaque "commit" correspond à une sauvegarde atomique dun état ou dun ensemble de modifications cohérentes entre elles.[5] De cette manière, il est beaucoup plus facile pour le développeur de se concenter sur un sujet en particulier, dans la mesure où celui-ci ne doit pas obligatoirement être clôturé pour appliquer un changement de contexte.

git workflow
Figure 6. Git en action

Cas pratique: vous développez cette nouvelle fonctionnalité qui va révolutionner le monde de demain et daprès-demain, quand, tout à coup (!), vous vous rendez compte que vous avez perdu votre conformité aux normes PCI parce les données des titulaires de cartes ne sont pas isolées correctement. Il suffit alors de:

  1. sauver le travail en cours (git add . && git commit -m [WIP])

  2. revenir sur la branche principale (git checkout main)

  3. créer un "hotfix" (git checkout -b hotfix/pci-compliance)

  4. solutionner le problème (sans doute un ; en trop ?)

  5. sauver le correctif sur cette branche (git add . && git commit -m "Did it!")

  6. récupérer ce correctif sur la branche principal (git checkout main && git merge hotfix/pci-compliance)

  7. et revenir tranquillou sur votre branche de développement pour fignoler ce générateur de noms de dinosaures rigolos que lunivers vous réclame à cor et à a cri (git checkout features/dinolol)

Finalement, sachez quil existe plusieurs manières de gérer ces flux dinformations. Les plus connus sont Gitflow et Threeflow.

Décrire ses changements

La description dun changement se fait via la commande git commit. Il est possible de lui passer directement le message associé à ce changement grâce à lattribut -m, mais cest une pratique relativement déconseillée: un commit ne doit effectivement pas obligatoirement être décrit sur une seule ligne. Une description plus complète, accompagnée des éventuels tickets ou références, sera plus complète, plus agréable à lire, et plus facile à revoir pour vos éventuels relecteurs.

De plus, la plupart des plateformes de dépôts présenteront ces informations de manière ergonomique. Par exemple:

gitea commit message
Figure 7. Un exemple de commit affiché dans Gitea

La première ligne est reprise comme titre (normalement, sur 50 caractères maximum); le reste est repris comme de la description.

Un système de virtualisation

Par "système de virtualisation", nous entendons nimporte quel application, système dexploitation, système de containeurisation, …​ qui permette de créer ou recréer un environnement de développement aussi proche que celui en production. Les solutions sont nombreuses:

Ces quelques propositions se situent un cran plus loin que la "simple" isolation dun environnement, puisquelles vous permettront de construire un environnement complet. Elles constituent donc une étape supplémentaires dans la configuration de votre espace de travail, mais en amélioreront la qualité.

Dans la suite, nous détaillerons Vagrant et Docker, qui constituent deux solutions automatisables et multiplateformes, dont la configuration peut faire partie intégrante de vos sources.

Vagrant

Vagrant consiste en un outil de création et de gestion denvironnements virtualisés, en respectant toujours une même manière de travailler, indépendamment des choix techniques et de linfrastructure que vous pourriez sélectionner.

Vagrant is a tool for building and managing virtual machine environments in a single workflow. With an easy-to-use workflow and focus on automation, Vagrant lowers development environment setup time, increases production parity, and makes the "works on my machine" excuse a relic of the past. [6]

La partie la plus importante de la configuration de Vagrant pour votre projet consiste à placer un fichier Vagrantfile - a priori à la racine de votre projet - et qui contiendra les information suivantes:

  • Le choix du fournisseur (provider) de virtualisation (Virtualbox, Hyper-V et Docker sont natifs; il est également possible de passer par VMWare, AWS, etc.)

  • Une box, qui consiste à lui indiquer le type et la version attendue du système virtualisé (Debian 10, Ubuntu 20.04, etc. - et il y a du choix).

  • La manière dont la fourniture (provisioning) de lenvironnement doit être réalisée: scripts Shell, fichiers, Ansible, Puppet, Chef, …​ Choisissez votre favori :-) même sil est toujours possible de passer par une installation et une maintenance manuelle, après sêtre connecté sur la machine.

  • Si un espace de stockage doit être partagé entre la machine virtuelle et lhôte

  • Les ports qui doivent être transmis de la machine virtuelle vers lhôte.

La syntaxe de ce fichier Vagrantfile est en Ruby. Vous trouverez ci-dessous un exemple, généré (et nettoyé) après avoir exécuté la commande vagrant init:

# -*- mode: ruby -*-
# vi: set ft=ruby :
Vagrant.configure("2") do |config|

  config.vm.box = "ubuntu/bionic64"

  config.vm.network "forwarded_port", guest: 80, host: 8080, host_ip: "127.0.0.1"

  config.vm.provider "virtualbox" do |vb|
    vb.gui = true
    vb.memory = "1024"
  end

  config.vm.provision "shell", inline: <<-SHELL
    apt-get update
    apt-get install -y nginx
  SHELL
end

Dans le fichier ci-dessus, nous créons:

  • Une nouvelle machine virtuelle (ie. invitée) sous Ubuntu Bionic Beaver, en x64

  • Avec une correspondance du port 80 de la machine vers le port 8080 de lhôte, en limitant laccès à celui-ci - accédez à localhost:8080 et vous accéderez au port 80 de la machine virtuelle.

  • En utilisant Virtualbox comme backend - la mémoire vive allouée sera limitée à 1Go de RAM et nous ne voulons pas voir linterface graphique au démarrage

  • Et pour finir, nous voulons appliquer un script de mise à jour apt-get update et installer le paquet nginx

Note
Par défaut, le répertoire courant (ie. le répertoire dans lequel notre fichier Vagrantfile se trouve) sera synchronisé dans le répertoire /vagrant sur la machine invitée.

Docker

(copié/collé de cookie-cutter-django)

version: '3'

volumes:
  local_postgres_data: {}
  local_postgres_data_backups: {}

services:
  django: &django
    build:
      context: .
      dockerfile: ./compose/local/django/Dockerfile
    image: khana_local_django
    container_name: django
    depends_on:
      - postgres
    volumes:
      - .:/app:z
    env_file:
      - ./.envs/.local/.django
      - ./.envs/.local/.postgres
    ports:
      - "8000:8000"
    command: /start

  postgres:
    build:
      context: .
      dockerfile: ./compose/production/postgres/Dockerfile
    image: khana_production_postgres
    container_name: postgres
    volumes:
      - local_postgres_data:/var/lib/postgresql/data:Z
      - local_postgres_data_backups:/backups:z
    env_file:
      - ./.envs/.local/.postgres

  docs:
    image: khana_local_docs
    container_name: docs
    build:
      context: .
      dockerfile: ./compose/local/docs/Dockerfile
    env_file:
      - ./.envs/.local/.django
    volumes:
      - ./docs:/docs:z
      - ./config:/app/config:z
      - ./khana:/app/khana:z
    ports:
      - "7000:7000"
    command: /start-docs

  redis:
    image: redis:5.0
    container_name: redis

  celeryworker:
    <<: *django
    image: khana_local_celeryworker
    container_name: celeryworker
    depends_on:
      - redis
      - postgres

    ports: []
    command: /start-celeryworker

  celerybeat:
    <<: *django
    image: khana_local_celerybeat
    container_name: celerybeat
    depends_on:
      - redis
      - postgres

    ports: []
    command: /start-celerybeat

  flower:
    <<: *django
    image: khana_local_flower
    container_name: flower
    ports:
      - "5555:5555"
    command: /start-flower
# docker-compose.yml
version: '3.8'

services:
  web:
    build: .
    command: python /code/manage.py runserver 0.0.0.0:8000
    volumes:
      - .:/code
    ports:
      - 8000:8000
    depends_on:
      - slqserver
  slqserver:
    image: mcr.microsoft.com/mssql/server:2019-latest
    environment:
      - "ACCEPT_EULA=Y"
      - "SA_PASSWORD=sqklgjqihagrtdgqk12§!"
    ports:
      - 1433:1433
    volumes:
      - ../sqlserver/data:/var/opt/mssql/data
      - ../sqlserver/log:/var/opt/mssql/log
      - ../sqlserver/secrets:/var/opt/mssql/secrets
FROM python:3.8-slim-buster

ENV PYTHONUNBUFFERED 1
ENV PYTHONDONTWRITEBYTECODE 1

RUN apt-get update \
  # dependencies for building Python packages
  && apt-get install -y build-essential \
  # psycopg2 dependencies
  && apt-get install -y libpq-dev \
  # Translations dependencies
  && apt-get install -y gettext \
  # cleaning up unused files
  && apt-get purge -y --auto-remove -o APT::AutoRemove::RecommendsImportant=false \
  && rm -rf /var/lib/apt/lists/*

# Requirements are installed here to ensure they will be cached.
COPY ./requirements /requirements
RUN pip install -r /requirements/local.txt

COPY ./compose/production/django/entrypoint /entrypoint
RUN sed -i 's/\r$//g' /entrypoint
RUN chmod +x /entrypoint

COPY ./compose/local/django/start /start
RUN sed -i 's/\r$//g' /start
RUN chmod +x /start

COPY ./compose/local/django/celery/worker/start /start-celeryworker
RUN sed -i 's/\r$//g' /start-celeryworker
RUN chmod +x /start-celeryworker

COPY ./compose/local/django/celery/beat/start /start-celerybeat
RUN sed -i 's/\r$//g' /start-celerybeat
RUN chmod +x /start-celerybeat

COPY ./compose/local/django/celery/flower/start /start-flower
RUN sed -i 's/\r$//g' /start-flower
RUN chmod +x /start-flower

WORKDIR /app

ENTRYPOINT ["/entrypoint"]
Note
Voir comment nous pouvons intégrer toutes ces commandes au niveau de la CI et au niveau du déploiement (Docker-compose ?)

1. Ce nest pas moi qui le dit, cest la doc du projet
2. Oui, en Python, il ny a que quatre cercles à lEnfer
3. Integrated Development Environment
4. Oui, comme dans "Attends, jessaie vite un truc, si ça marche, cest beau."
5. Il convient donc de sabstenir de modifier le CSS dune application et la couche daccès à la base de données, sous peine de se faire huer par ses relecteurs au prochain stand-up.