Nicolas Kayser-Bril est une des références internationales du data journalisme. Une pratique qui a fait de nombreux adeptes de par le monde, et qui a introduit, au sein de nombreuses rédactions, une nouvelle manière de faire du journalisme d’investigation. C’est d’ailleurs pour tous ceux qui voulaient s’initier à la pratique que Rue 89, du 6 au 31 octobre dernier, a organisé et hébergé le premier Mooc (Massive Open Online Course)- Cours en Ligne Ouvert et Massif (CLOM) en français- entièrement dédié à la pratique.
Le Mooc de Rue 89 » Comment devenir un bon Data journaliste » a eu lieu du 6 au 31 octobre dernier, vous avez été chargé de le concevoir et de le réaliser. Pouvez-vous nous en dire un peu plus sur les différents objectifs de ce cours et ses modalités ?
Le cours vise à donner aux participants les clés pour comprendre les enjeux du data journalisme, donner de nombreux exemples, des techniques, et permettre à ceux qui souhaitent d’aller plus loin avec des tutoriels. J’ai séparé le fond du cours, qui restera valide dans plusieurs années, de la technique la plus précise, car les outils que l’on utilise aujourd’hui auront évolué dans quelques mois, voire, auront été remplacés.
Vous êtes le cofondateur de l’agence Journalism++. Parlez-nous un peu de la genèse de ce projet, de l’implantation de votre agence ainsi que de ses principales activités aujourd’hui ?
Journalism++ est une agence de récit par les données (data-driven storytelling), que j’ai cofondée en 2011. Nos clients sont des médias, que ce soient des journaux, des chaînes de télévision, des institutions, des ONG ou des entreprises. Nous les aidons à trouver les histoires les plus intéressantes dans leurs données et à les mettre en scène.
Avec Journalism++, nous développons Detective.io, un outil qui permet de travailler de manière simple dans des structures de données extrêmement complexes. Pour faire la promotion de l’outil, rien de tel que de montrer ce qu’il permet de faire en menant des enquêtes à forte visibilité auprès de notre cible comme The Migrant Files ou encore Belarus Networks, une enquête sur les liens de pouvoir en Biélorussie.
Revenons à votre parcours, expliquez nous comment êtes vous arrivé à devenir l’une des références du journalisme de données en France mais aussi à l’international ?
Je suis tombé par hasard dans le journalisme, par le jeu des contacts, fin 2009, en commençant une mission chez OWNI, alors un site d’actualité basé à Paris. Fin juin 2010, Wikileaks a publié les documents afghans. Nous étions alors, chez OWNI, quasiment les seuls en France à les connaitre, si bien que nous avons publié notre propre application interactive et nos propres articles sur le sujet, notamment à propos de l’implication française dans l’opération Enduring Freedom. Par la suite, j’ai eu la chance d’être invité à la table ronde sur le data journalisme organisée par le European Journalism Center en août 2010 à Amsterdam, où se réunissaient pour la première fois des data journalistes européens et américains. C’est à partir de ce moment là que le Data journalisme est devenu un sujet pour les rédactions. Grâce à quelques contacts et beaucoup de chance, j’ai pu faire partie des pionniers de la discipline.
Comment définiriez-vous le data journalisme ? Quelles capacités et compétences doit avoir un journaliste de données ?
Le journalisme de données, c’est le processus de création d’un récit à partir d’informations structurées. Derrière cette définition un peu aride se cachent de multiples compétences. Pour amasser des données structurées, il faut pouvoir les aspirer et connaître un peu de programmation informatique. Pour les comprendre et les analyser, il faut comprendre la statistique. Pour les mettre en forme, il faut connaître le design graphique, et la programmation si l’on veut de l’interactivité. Tout au long du processus, il faut garder en tête l’angle que l’on veut transmettre et vérifier l’information, deux tâches typiquement journalistiques. Pour faire travailler ensemble ces compétences, il faut enfin et surtout être un bon chef de projet.
Qu’apporte le data journalisme à l’analyse et au récit journalistique ?
Tout d’abord, les techniques du data journalisme permettent de travailler directement la matière première de nombreuses industries, comme la finance par exemple, où les chiffres sont rois. Un journaliste qui ne maîtrise pas les logiciels de tableurs ou de bases de données ne pourra jamais comprendre les documents que lui envoi une source qui travaille dans une banque, par exemple. Par ailleurs, le data journalisme permet à un média de créer ses propres statistiques, de mesurer soi-même telle ou telle réalité. En cela, le journaliste s’érige en véritable contre-pouvoir, car c’est en mesurant précisément que l’on peut juger de l’action d’un gouvernement ou d’une entreprise. La collecte de données sur l’inflation, la corruption, la violence etc. redonne au journalisme son rôle de quatrième pouvoir.
Qu’est-ce qui explique, selon vous, que cette pratique journalistique soit de plus en plus rependue aujourd’hui ?
Le point de basculement en Europe, c’est 2010. Pour la première fois, avec Wikileaks, une affaire d’importance mondiale démarrait avec un fichier SQL (un format de base de données). Ne serait-ce que pour ouvrir le fichier, il fallait des compétences en informatique qui dépassaient largement celles de la plupart des journalistes. Parallèlement, l’abondance des données, due à la diminution du coût de stockage (cela coûte moins cher aujourd’hui de tout stocker plutôt que de décider quoi stocker) et de la puissance de calcul permet à toute personne connectée à internet de faire des analyses qui auraient coûté plusieurs millions de dollars il y a quelques années. Cette combinaison de progrès technique et de prise de conscience des décideurs a propulsé le data journalisme sur le devant de la scène en Europe.
Vous avez donc été l’un des premiers journalistes français à prendre connaissance des données Wikileaks liées aux dossiers afghans et irakiens. Pouvez-vous nous resituer le contexte et qu’avez-vous réalisé par la suite avec ces données ?
Fin juin 2010, nous avons vu que Der Spiegel, The Guardian et The New-York Times publiaient des documents sur la guerre en Afghanistan et que quasiment l’ensemble de la base de données qu’ils avaient utilisée était disponible en téléchargement. C’était un dimanche soir. Le lundi matin, chez OWNI, nous avions déjà retrouvé les informations concernant l’armée française et traduit en français les révélations les plus fracassantes sur l’échec total de la mission de l’OTAN dans le pays. Le mardi, nous avons mis en ligne une application interactive qui permettait de consulter les documents, de les commenter et de les noter pour faire émerger les plus intéressants. Après avoir vu ce projet, Julian Assange, le rédacteur en chef de Wikileaks, nous a invités à réaliser le même genre d’application pour les documents irakiens, qui sont sortis en octobre de la même année.
En dehors de cette épisode, quel autre projet vous a marqué et pourquoi ?
Le projet dont je suis le plus fier reste The Migrants Files. Avec une équipe d’une dizaine de journalistes européens, nous avons créé une base de données des réfugiés et migrants morts en essayant de rejoindre ou de rester en Europe depuis l’an 2000. Toutes les morts sont datées et géo-localisées, si bien que l’on a pu estimer précisément pour la première fois le nombre de réfugiés morts à cause des politiques migratoires mises en place par les états-membres de l’Union Européenne. Au delà du succès d’audience, ce projet continue à être mis à jour et il est utilisé par plusieurs ONG et organisations internationales, qui se contentaient auparavant d’anecdotes mais ne connaissait pas précisément l’ampleur du problème. En le mesurant, nous avons donné aux activistes et aux administrations le moyen de le réduire.
Et pour finir, de nombreux médias internationaux ont des équipes dédiées intégrées au sein même de leur rédaction. Qu’en est-il en France aujourd’hui ? Quel état des lieux faites-vous de la situation du data journalisme hexagonal ?
Après avoir expérimenté en 2010/2011 en embauchant des journalistes touche-à-tout, hybrides entre développeurs informatiques et journalistes traditionnels, de nombreuses rédactions dans le monde ont pris la décision de créer des postes dédiés au data journalisme, le plus souvent une équipe avec un chef de projet (le journaliste) un ou deux développeur et un designer.
En institutionnalisant la pratique, ces rédactions se sont assurées de gagner de l’expérience (si quelqu’un part, le poste reste et peut être remplacé). Depuis le Los Angeles Times jusqu’à Gazeta Wyborcza à Varsovie, on voit de plus en plus d’équipes apparaître. Ce n’est pas une question de budget: Avec une seule personne et un budget de 30,000€ par an pour du travail en freelance, on peut faire n’importe quel projet. C’est une question de vision.
Il faut pour réaliser cet investissement que les dirigeants acceptent de remplacer un poste par celui d’un data journaliste. Cette décision difficile, de nombreux médias l’ont prise, parce qu’ils savent qu’il est nécessaire d’investir pour continuer à être pertinent dans quelques années. En France, quasiment aucune rédaction n’a franchi cette étape. La plupart restent au stade de l’expérimentation, sans créer de poste, si bien que toute l’expérience acquise par un journaliste est perdue lorsqu’il ou elle décide d’aller voir ailleurs.
Propos recueillis par Alexander Paull