Travail distribué en Python SANS Celery 6


[three_fourth_last]Quand on veut effectuer une même tâche un très grand nombre de fois, on peut utiliser une boucle comme un gros bourrin et effectuer la tâches dedans.

Mais il faut alors gérer:

  • le cas où le processus s’interrompt et sa reprise;
  • le parallélisme.

Le premier cas n’est guère que du travail en plus, et pas insurmontable. Le deuxième cas est plus compliqué: les threads sont inéficaces en Python pour tout ce qui n’est pas limité par l’IO et l’alternative d’utiliser des processus séparés est énormément de boulot.

Du coup généralement on ne le fait pas, et tout est traité en une fois, alors qu’on pourrait aller 4 fois plus vite avec 4 traitements en parallèle.

Kombu et Celery

Il existe des outils très puissants pour faire des queues en Python, notamment la library Celery, qui utilise elle-même la bibliothèque Kombu. Mais quand on veut juste faire un petit job rapide, les mettre en oeuvre, c’est pas mal de temps. Celery brille pour mettre dans une queue plein de tâches issues de processus externes concurrents, mais rapidement mettre en place un traitement de masse, ce n’est pas son point fort.

C’est pour ici qu’intervient un article de David Cramer, de l’équipe des petits gars de chez Disqus. Les mecs sont doués, utilisent massivement Django et Python, et chez eux les bases de données ont des milliards d’entrées. Bref, ils ont plein de choses interessantes à dire.

En l’occurence, ils ont créé ce petit outil pour leurs migrations: le task master.

Capture d'écran de la sortie de taskmaster

Et en prime, on a un bel écran de progression

Utilisation du task master

Imaginez : vous avez besoin de transcoder des images, renommer des fichiers ou mettre à jour toutes les entrées de votre base de données. Ca va prendre 3 heures, et ça risque de planter. Ce cas de figure est exactement celui dans lequel brille le task master.

On install ça (exemple sous Ubuntu) et avec pip:

sudo apt-get install libzmq-dev libevent-dev python-dev
pip install taskmaster

Puis on créé un fichier tasks.py:

def get_jobs(last=0):
    for valeurs_traiter in liste_de_valeurs:
        yield valeurs_traiter
 
def handle_job(valeurs_traiter):
    print valeurs_traiter

Les fonctions seront autodétectées si elles portent ce nom.

handle_job est la fonction qui va faire votre tâche. Par exemple mettre à jour un objet de votre base de données, encoder une vidéo, etc.

Attention, en cas de reprise des tâches, la première peut être exécutée deux fois. Il faut donc que votre fonction gère ce cas.

get_jobs doit retourner un itérable dont chaque élément sera passé à handle_job. Par exemple, yield retournera le nom d’une vidéo, ou d’un fichier.

Ensuite on lance le controlleur:

tm-master tasks.py

On on créé autant de workers que l’on souhaite, ici 4:

tm-spawn tasks.py 4

Dans ce cas, 4 processus vont vider l’itérable de get_jobs de la liste de valeurs à traiter, et appliquer handle_jobs dessus. Si vous arrêtez le controller ou les workers, vous pouvez les relancer plus tard : ils reprendront là où ils se sont arrêtés.

Si vous avez un processeur avec quatre coeurs, le travail est effectué presque 4 fois plus vite qu’avec un script tout simple et une boucle for. On peut aussi installer les workers sur des machines séparées, et les faire communiquer avec le controlleur en leur donnant son adresse IP et un port, distribuant ainsi le travail sur de nombreux ordinateurs.

Et en prime, contrairement à celery, toutes les tâches ne sont pas listées en mémoire, mais seulement une partie (que l’on peut définir en paramètre).

6 thoughts on “Travail distribué en Python SANS Celery

  • Laurent

    Merci pour vos articles sur python. En tant que débutant sur ce langage je les trouve très didactiques et agréables à lire.
    Je me sens un peu perdu dès fois dans l’écosystème gigantesque de python et j’espère en voir régulièrement comme celui la.
    J’ai aussi beaucoup apprécié ceux sur les décorateurs et les listes en intention.
    J’aime aussi les articles de cul je vous rassure ;)

    • Sam Post author

      Heureusement ! On ne devient pas un bon programmeur Python sans levrette au baby oil. C’est démontré scientifiquement.

  • fero14041

    Typo dans le titre et l’URL du billet: il manque un “r” à “Celey”. Ce commentaire est supprimable dès correction ;-)

    • Sam Post author

      Nan, on supprime pas ce genre de commentaires pour le moment car on a la chance de ne pas avoir trop de boulot de modération. Et ça permet de dire merci :-)

      Mais le jour où on sera débordé par les comments, on le fera.

  • Bejazzy

    En commençant à lire l’article, ça m’a fait penser à ZeroMQ. Dans ma tête, et toujours en lisant la suite du billet, je me suis dit “tiens, je vais laisser un commentaire pour parler de zmq”. Mais après, j’ai lu:

    sudo apt-get install libzmq-dev 

    .
    Pour les lecteurs de commentaires qui ne connaissent pas, ça se passe ici http://www.zeromq.org/ et c’est ‘achement efficace.
    PS: j’aime bien vos articles. Keep going (boïng boïng).

    • Sam Post author

      Oui, toute la partie communication utilise zeromq, l’intéressant c’est que ça évite tout le boiler plate qui vient avec la mise en oeuvre d’un worker zeromq.

      A noter qu’un mec travaille sur un concept similaire à zeromq en pur Python: http://www.snakemq.net/

      P.S: moi aussi j’aime bien nos articles

Leave a comment

Your email address will not be published. Required fields are marked *

Utilisez <pre lang='python'>VOTRE CODE</pre> pour insérer un block de code coloré

Des questions Python sans rapport avec l'article ? Posez-les sur IndexError.