user! 2019 : Qu’attendre et comment se préparer pour la conférence ?

Pour la première fois cette année, je vais participer à la conférence useR! !

Et je ne sais pas trop à quoi m’attendre..

La dernière fois que je suis allé à une conférence comme ça, c’était la SSC (pour Statistical Society of Canada) pour leur meeting annuel en 2015.

À l’époque, j’étais encore étudiant en doctorat.

Et je comprenais pas grand chose aux différentes présentations.

En fait, ça m’excitait pas plus que ça.

Là, c’est différent.

Cette fois, j’ai choisi d’aller à useR!2019 parce que je commence à avoir une certaine expérience de R et ça fait plusieurs années que je l’utilise pour mes clients.

En fait, j’ai vraiment l’impression de faire partie du monde de R.

Du coup, j’ai essayé de me préparer et d’écrire mes attentes pour cette conf.

J’ai trouvé trois thèmes principaux :

  • Apprendre
  • Découvrir
  • Rencontrer

C’est parti.

1. Tutorials : Apprendre

La liste des tutorials est disponible ici : Tutorials

Quasiment chaque jour où j’utilise R, je me rends compte qu’il y a des choses que je ne connais pas.

Alors, certes, il y a aussi des choses que je maîtrise, comme dplyr, data.table, shiny, …

Il y a aussi des notions que je connais, que j’ai déjà appliquées, mais que je ne maîtrise pas totalement, comme plumber, golem, shinyproxy, …

Et finalement..

Il y a les trucs qui me sont complètement inconnus, comme H20, bookdown, purrr, …

C’est impossible de tout savoir.

Sauf que là ça me fait de plus en plus un gros syndrôme de l’imposteur quand je découvrer la masse de choses que je ne connais pas.

Alors, oui, j’ai envie d’apprendre.

Mais trouver le temps, entre deux clients, ou deux articles, c’est dur.

Là, pendant useR:2019, on m’a offert la possibilité d’avoir une journée complète avec le cul sur une chaise pour écouter un expert.

Alors j’ai saisi l’opportunité.

J’ai dit oui et je me suis inscrit à deux tutorials :

Automatic and Explainable Machine Learning with H20 in R.

Celui sur H20 me plaît beaucoup parce que je ne connais quasi rien en AutoML.

Et rien du tout sur H20 non plus, évidemment.

Et comme je fais du ML, ça me paraît un peu bête.. (vous le sentez le syndrôme là ?)

Alors 4 heures à écouter un expert, j’espère que ça me permettra au moins de démarrer et d’apprendre rapidement à l’utiliser pour mes clients.

Docker for Data Science: R, ShinyProxy and more.

Alors, Docker je connais un peu.

J’ai utilisé des images et je les ai installées sur des serveurs.

Mais la dernière fois que j’ai utilisé ShinyProxy, j’ai pas mal galéré et à la fin ça marchait pas bien.

L’idée, c’est que plutôt que de perdre mon temps tout seul devant mon ordi, je préférerais que quelqu’un me montre un process qui marche.

Il y a des tonnes de trucs que je veux apprendre, mais là, déjà, en 1 journée, je vais voir des nouveaux concepts que j’ai envie d’apprendre depuis super longtemps !

2. Conférences: Découvrir

La liste des conférences est ici : Conférences

Ce sont de courtes présentations d’environ 15 minutes.

Idéal pour découvrir un sujet, et le potasser plus tard à la maison si vraiment ça nous intéresse.

Au moins on a vu la base et on sait à quoi ça sert.

Je me souviens quand j’étais étudiant et que j’allais à une conférence comme ça. Je regardais la liste des conférences et y’avait rien qui me parlait. Et quand j’y allais, j’étais perdu au bout de 3 slides.

C’est tellement différent maintenant !

Là je regarde la liste, et j’ai envie de TOUT voir !

Bon, ok, peut-être pas tout, mais y’a quand même beaucoup de présentations qui m’ont vraiment hypé.

Mercredi matin : Shiny 1

Shiny 1, c’est :

  • Logging and Analyzing Events in Complex Shiny Apps
  • mwshiny: Connecting Shiny Across Multiple Windows
  • Shiny app deployment and integration into a custom website gallery
  • Automated Surveys and Reports for Expert Elicitation with Shiny

(Je vous laisse les titres originaux.)

À chaque session, on a le choix en gros entre 6 thèmes. C’est possible de changer de thème pendant une session, mais il faut changer de salle, déranger tout le monde, et le temps de bouger, on peut facilement louper une présentation entière.

Du coup j’ai plutôt décidé de choisir des thèmes entiers.

Là, c’est tout du Shiny.

Shiny c’est super important pour moi puisque la plupart de mes clients en veulent (qui n’en voudrait pas de toute façon ?!).

Là où je suis super curieux, c’est sur le dernier talk : Automated Surveys and Reports for Expert Elicitation with Shiny

J’ai lu l’abstract et… c’est quasi identique à une mission que j’ai faite pour un client l’année dernière ! Pourtant je vois pas trop de lien entre le présentateur et mon client.

Bon, on verra. Mais du coup, ça promet !

Mercredi après-midi : Shiny 2

Shiny 2, c’est :

  • Golem: A framework for Building Robust & Production Ready Shiny Apps
  • Art of the Feature Toggle: Patterns for maintaining and improving Shiny applications over time
  • Data for all: Empowering teams with scalable Shiny applications
  • Best practices for building Shiny enterprise applications

Encore du Shiny !

Là je veux surtout apprendre sur Golem.

J’ai commencé à l’utiliser, mais pour l’instant ça me semble à la fois pratique et un peu bancal en même temps.

Je ne sais pas trop encore quoi en penser.

Et je pense qu’il faut juste s’habituer. Y’a plein de fonctions qui vont avec et que je ne connais pas encore, donc c’est clair qu’il faut un peu de temps pour s’y mettre.

Mais je pense qu’avoir un framework bien précis avec des fonctions qui évitent de recopier les mêmes trucs tout le temps, bah.. c’est forcément pratique.

Jeudi matin : Text mining

Text mining, c’est :

  • {polite} - web etiquette for R users
  • The R Package sentometrics to Compute, Aggregate and Predict with Textual Sentiment
  • BibliographeR: a set of tools to help your bibliographic research
  • ggwordcloud: a word cloud geometry for ggplot2
  • Die nutella oder Das Nutella? Grammatical Gender Prediction of German Nouns
  • Implementing a Classification and Filtering App for Multilingual Facebook Comments - A Use Case of Data for Good with R

Le text mining, j’en fais surtout avec un client, chercheur en sciences politiques.

Au début je faisais surtout du web scraping, et peu à peu j’ai été amené à développer des algos de text mining.

Et oui j’ai fait beaucoup de web scraping. Du scraping brutal et pas très propre. Pas très poli, sans doute. Je pense qu’il y a des bonnes manières à apprendre avant d’aspirer un site, donc je veux écouter ce que les auteurs de polite ont créé.

L’autre talk qui attise ma curiosité, c’est celui sur la prédiction du genre des noms en allemands. Ceux qui ont fait allemand savent à quel point c’est perturbant d’avoir 3 genres en allemand (masculin, féminin, neutre) qui n’ont rien à voir avec les genres en France. Chez nous, une table c’est féminin, et chez eux c’est masculin. Pourquoi ? Eh bien il semblerait qu’un algo ait réussi à prédire le genre d’un nom en allemand.

Jeudi après-midi : Data mining

Data mining, c’est :

  • Machine Learning with R: do it with a framework
  • Building and Benchmarking Automatic Machine Learning Systems
  • mlr3: A new modular framework for machine learning with R
  • mlr3pipelines: Machine Learning Pipelines as Graphs

Le Machine Learning, ça m’intéresse forcément. J’en fais pour mes clients. Et puis c’est juste chouette tout court.

Jusqu’ici, j’ai soit utilisé des bibliothèques en Python (comme scikit-learn), soit le package caret en R. Ou alors la myriade de packages tous spécialisés sur UN seul type d’algorithme avec aucune cohérence entre les packages.

J’ai toujours trouvé ça un peu galère de faire du ML en R. Et pourtant j’adore R !

Donc j’aimerais bien connaître les nouveaux outils qui ont été développés.

Jeudi après-midi : Operations & data products

Operations & data products, c’est :

  • How a non-profit uses R for its daily operations
  • rjenkins and rrundeck: Coordinating Continuous Integration and Delivery with R
  • Advanced Git Integrations for Automating the Delivery of Reproducible Data Products in R
  • Github actions for R

Cette session est moins passionnante que le reste (de mon point de vue), et en plus je serai probablement fatigué après 4 jours de conf, mais bon, ça peut être un bonus sympa.

Quand il s’agit d’intégration continue, d’automatiser des tâches, ou juste de rendre mon travail plus efficace, je suis en général toujours là.

3. Les enthousiastes de R : Rencontrer

Ça se dit, un enthousiaste de R, en français ?

Bon.

Clairement, un des gros avantages d’une conférence, c’est quand même de rencontrer du monde.

Là on a des top experts de R qui vont venir du monde entier.

Probablement aussi des gens comme moi, un peu perdus, mais curieux.

Et plein d’autres.

En fait je ne sais pas trop à quoi m’attendre.

J’ai hâte de découvrir tout cet écosystème de R que j’ai jusqu’ici regarder surtout de loin.

J’ai déjà fait une petite liste des gens que j’aimerais rencontrer.

D’abord il y a les ThinkR, une petite agence française spécialisée en R. Et au passage auteurs de golem et d’autres outils bien pratiques pour Shiny.

Et puis Ardata aussi.

Et des freelancers, comme Dacta.

Bref, que du beau monde, et probablement plein d’autres personnes que je ne connais pas encore !

C’est difficile de se fixer un objectif ou d’avoir des attentes, mais une chose est sûre.. j’ai hâte d’y être !

À bientôt pour un retour d’expérience (;

Mis à jour :

Commentaires

Laisser un commentaire

Les champs obligatoires sont marqués *

Chargement...

Les commentaires sont validés manuellement. La page va se rafraîchir après envoi.