En ces temps de disette pour la presse et le journalisme, 42mag.fr a rendu visite à la rédaction de OWNI, le média pionnier du data journalisme hexagonal, pour aller chercher un peu d’espoir du côté des nouvelles formes d’exercice du métier. Traitement des données, fact checking, modèle français de la presse, entretien sans bullshit avec le pool de data journalistes qui signe sous le nom Paule d’Atha : Julien Goetz, Sylvain Lapoix et Nicolas Patte. (A voir en intégralité dans la vidéo ci-dessus).
NP : Woaw… C’est une pratique du journalisme… qui consiste à ne pas partir en Afghanistan ou dans les stades. Mais à se retrouver derrière une feuille XLS la plupart du temps, à extraire des données qui sont globalement imbitables et à en faire un papier pour illustrer ce qui se passe dans le monde à travers ces chiffres là.
(…) Le journaliste, son job, c’est de ne pas donner ses sources. Nous, le nôtre, c’est le contraire. Si on ne donne pas nos sources en tant que datajournaliste, on est mort, on n’a pas de crédibilité. C’est vraiment la grosse différence.
Un pool de datajournaliste, c’est trois personnes, c’est obligatoire ? Pourquoi ?
NP : On est trois parce que c’est comme ça. En revanche, est-ce qu’on a besoin d’être plusieurs ? Clairement non ! Parce qu’il y a vraiment des journalistes qui travaillent seuls, parce qu’ils ont acquis des compétences qui leur permettent d’être à la fois développeurs, graphistes et qu’en plus ils ont une belle plume…
C’est parce que vous n’êtes pas assez bons ?
NP : oui, c’est parce qu’on est plutôt mauvais globalement…
Il y a une vision du datajournalisme qui consiste à dire « bite / couteau, et puis moi je vais tout faire tout seul ». Et puis, il y a l’autre vision, que nous défendons, parce que c’est comme ça que ça nous fait marrer de travailler… Il n’y a rien de mieux que de se retrouver dans une salle comme ça à brainstrormer sur un sujet data et mélanger trois cerveaux. Et c’est pour ça qu’on signe très souvent nos papiers Paule D’Atha. Il y a aussi des exceptions. Par exemple, on a mis une interview d’un gars qui fait de l’open data en Uruguay. Là, c’est Sylvain qui a mené son truc tout seul. Dans ce cas, il ne va pas signer Paule D’Atha…
Ok, on comprend le journaliste, on comprend le graphiste. Mais pourquoi le développeur ? Pourquoi ne pas s’appuyer sur les outils existants ?
JG : L’un n’empêche pas l’autre. On travaille avec les outils existants, mais ils nécessitent de connaître un peu le code. Soit on a les connaissances chacun, soit on travaille avec des gens qui les ont… On le fait souvent par nous même. Mais après, les outils de visualisation de données qui existent, via Google ou autres, si certains sont facilement prenables en main, on a très vite envie d’être plus précis, plus pointus et de faire des choses plus adaptées concrètement au sujet qu’on traite. Donc, on est amené à mettre les mains dans le code ou au moins à avoir une connaissance de ce qui se passe, pour comprendre pourquoi les choses s’affichent comme ça…
SL : Typiquement, moi, je ne connais pas du tout le code. J’ai commencé à y toucher un petit peu à travers des bases de données pour le véritomètre et là je me suis mis à tripatouiller un peu de Java Script. C’est des balbutiements, mais cela m’est nécessaire et utile en tant que journaliste, parce que je pars d’une démarche d’enquête, de recherches de données sur des sujets divers et variés. Par exemple, on a travaillé avec Nicolas sur la banquise et on a fouillé des données d’un observatoire des pôles qui donne des surfaces de glace, des contours qu’on peut ensuite reprojeter sur d’autres outils de visualisation cartographique. Sauf que ça nécessite à un moment de maîtriser les outils, mais aussi de savoir un peu optimiser le rendu, ce qui demande du code.
Avec la dataviz, les chiffres deviennent-ils les élément ou le prétexte à la naissance d’une nouvelle esthétique graphique ?
NP : Clairement, non. Aujourd’hui, les grands courants de Dataviz cherchent à représenter le réel de la manière la plus simple possible pour faire comprendre un objet complexe au plus grand nombre de gens. Et ça, ce n’est pas le data journalisme du XIXème siècle qui l’a inventé, c’est un concept artistique qui date du début du XXème (plutôt des années 60, ndlr). C’est le minimalisme, qui est souvent une source d’inspiration pour les illustrateurs et les designers qui font du data journalisme aujourd’hui. C’est quelque chose qui existe dans l’architecture, dans la peinture et dans toutes les formes d’art. Le data journalisme s’en est emparé, parce que notre mission consiste à raconter quelque chose de complexe. Donc la façon la plus simple pour le faire comprendre est de reprendre ce courant artistique qui s’est projeté sur une esthétique particulière pour représenter le monde.
Avec le développement des DataViz, du cross média, du transmédia et de la « scripted reality » on a l’impression que la frontière entre l’info ou le doc, d’un côté, et la fiction, de l’autre, est de plus en plus ténue (comme l’illustre le projet Lazarus). Ne joue-t-on pas trop avec le curseur du réel ?
JG : Non, parce que dans notre approche le réel est toujours palpable. Oui, on essaie de raconter des histoires. Quand on est face à un set de données particulièrement incompréhensible, il faut arriver à en faire une histoire. Donc on pourra prendre un point d’accroche, entre guillemets fictif, qui va être en décalage avec le réel en jouant sur une métaphore visuelle… Mais les données sont toujours sourcées. On est donc toujours raccroché à du concret. Oui, on élabore une parabole graphique, narrative, qui nous permet de balancer toutes les données, mais ces données sont concrètes, tout comme leurs sources… Lazarus, c’est un projet qui est hyper intéressant pour ça, parce qu’il se décale du réel, mais malgré tout, il est toujours dans le concret. Tout est sourcé (…) Après, c’est le decorum qui est autour qui est un choix. Mais ce n’est pas spécialement nouveau, le fait de se dire « on va raconter une histoire. »
NP : On peut faire du métaphorique, sans faire du romantisme.
La transparence est-elle un combat politique partisan ?
SL : Oui. C’est l’idée qu’on a eu au moment de créer le véritomètre, en partenariat avec i-Télé, pendant la campagne présidentielle (…) En temps de crise, les chiffres sont une arme de guerre. Vraiment ! Aujourd’hui, les élections se jouent, malheureusement ou heureusement, chacun juge comme il veut, à travers les médias et la représentation médiatique. Si vous avez la capacité, avec un seul chiffre, de mettre un journaliste à terre et de l’empêcher de vous relancer, vous avez gagné un round de bataille politique…
On a trouvé comme ça, avec les “fact checker” de l’équipe, que des chiffres avancés par Marine Le Pen sur la délinquance et son coût étaient de la pure fabrication. Ils étaient littéralement un produit venant d’un sympathisant du Front national, par ailleurs universitaire. Il a totalement bidouillé un chiffre qui, du coup, paraissait énorme, mais qui n’était pas du tout sourcé. C’est extrêmement important.
Quand on entend qu’on veut baser la construction de prisons d’après les chiffres des peines non-exécutées, alors que l’écrasante majorité de ces peines pourrait, selon la réforme de la loi, être exercée « hors les murs », on se rend compte de l’impact économique, politique et social que ça pourrait engendrer… Pour les fabricants de prisons, le BTP, les détenus eux-mêmes et la justice dans son mécanisme, c’est énorme. Donc, il est éminemment politique de libérer les données.
Récemment lors d’une conférence, j’ai rencontré le responsable de l’open data au Sénat Brésilien. A un moment on lui a posé la question de savoir si on devrait libérer les données d’entreprises privées. C’est une question importante que je n’avais pas osé poser moi-même. Et là le type répond que oui, « parce que la crise que l’on a vécu est à cause de données fermées ». Il ajoute qu’on ne peux plus se permettre d’être otages de ces données fermées
NP : Je rejoins plutôt la seconde partie. L’enjeu de l’open data aujourd’hui, ce n’est pas juste la libération des données, selon le bon vouloir de l’Etat. Ce qui est une vision assez française : un Etat qui arrose. C’est ce qui s’est passé avec Etalab. On a tous trouvé ça formidable, mais quand tu regardes dans le détail… Les données ? Peu mieux faire. La vision anglo-saxonne de l’open data, qui est décrite dans le papier de Sylvain sur l’Uruguay dont je parlais tout à l’heure, est une vision qui remonte du peuple vers le pouvoir. Ça c’est quelque chose qui n’existe pas en France et qui nécessite un militantisme de la part des acteurs de l’open data, dont les journalistes que nous sommes font partie…
Les données brutes ne sont-elles pas elles-mêmes sources de manipulation ? Par exemple, cacher une information importante dans un flot de données subsidiaires ?
JG : Ça l’est nécessairement. On sait pertinemment que dans notre travail de data journaliste, la première chose que l’on vérifie, c’est la source. Un émetteur de jeux de données a une raison d’émettre ces données. Ce n’est jamais neutre. Nous ne sommes pas tout à fait des naïfs éclairés et nous savons très bien qu’à partir du moment où il y a une zone d’ombre qui passe en lumière, il y a une autre zone d’ombre qui se crée. Aujourd’hui, toutes les données qui arrivent sur la place publique grâce à l’open data, sont aussi des données qui permettent de ne pas diffuser d’autres données. Ça ne changera jamais.
SL : D’un point de vue politique, il y a une preuve très simple de ça. Depuis que j’ai intégré l’équipe, je contacte directement les ministères du nouveau gouvernement pour leur demander où ils en sont. Systématiquement, la personne qui s’occupe de l’open data est au service communication.
Est-ce que ça fait partie d’une sorte la guerre de communication et de contrôle de l’information entre les autorités et le peuple, ou est-ce un outil démocratique ?
JG : Il n’y a pas que des données qui sont libérées volontairement par des gens qui veulent le faire, il y a aussi des mécaniques de libération des données sans le consentement des organismes concernés, comme les Etats (on peut citer le « phare » Wikileaks.) Des données qui sont libérées de manière anonyme qui reviennent dans les pattes des journalistes par un autre biais. Ces données là, parce qu’elle sont plus sensibles, sont au cœur de jeux de pouvoir. Mais c’est vraiment une partie de la question.
SL : Oui, mais tu as aussi des preuves de bonne foi des gouvernements qui mettent en place des mécanismes d’open data. Tu as la notion « d’accountability » qui se développe beaucoup. Concrètement, c’est « on fait de l’open data pour que vous nous contrôliez »… Mais à partir de là, et c’est peut être ce qui manque en France et dans d’autres pays latins, tu es clairement obligé d’avoir en face une vigilance citoyenne qui regarde dans le détail ce qui se passe, avec l’aide des journalistes. C’est ce qui existe en Grande bretagne avec mySociety ou la Open knowledge Foundation. C’est aussi le cas au Canada et en Amérique du Sud. Nicolas en parlait. En Uruguay, il y a QueSabes.org. Au début, j’ai pensé que c’était un truc que lançait le gouvernement Uruguayen pour demander aux citoyens ce qu’ils voulaient comme données ouvertes… Que dalle ! En fait ce sont des citoyens qui ont monté une ONG d’après l’exemple Anglais, pour demander au gouvernement d’ouvrir les données…
JG : L’open data a toujours existé en France, l’INSEE a été créée pour ça. En revanche, on a franchi un cap quand le gouvernement s’est rendu compte qu’il y avait du business à faire avec. C’est juste du développement économique. Aujourd’hui, ils se rendent compte qu’en libérant certaines données, il y a des gens qui peuvent fabriquer de la valeur avec. C’est le constat en France, à savoir que l’open data est surtout un outil de business, géré par la com, avant d’être un outil d’accountability, un outil citoyen.
Revenons en France, sur un autre aspect du métier, à savoir le fact checking. Pourquoi ça prend si peu, contrairement à ce qui se passe dans les pays anglo-saxons ?
NP : Ça demande des moyens. Il n’y a pas d’économie pour ça. Si ça marche au Guardian, c’est parce qu’il s’agit d’un journal papier qui se vend très très bien… Parce qu’il n’y pas de crise particulière du papier en Angleterre. Ça se vend, il font du business avec, ils payent des gens avec, donc il peuvent se permettre de dégager des budgets pour faire du data. (…) Mais en France, malgré la crise de la presse, il y a des petites choses qui se font, comme au Monde (rubrique « décodeurs », ndlr) . Il y a des agences aussi qui se sont développées, comme Journalism++.
SL : Qui peut se permettre de faire du data journalisme aujourd’hui ? Ce sont soit des organes de presse énormes, ou qui ont une très grosse surface, comme le Financial Times, qui fait beaucoup de data journalisme sur les sujets économiques, avec une audience hyper qualifiée qui paye un journal hyper cher, avec un grand nombre d’abonnés. C’est purement économique. Le data journalisme, ça prend du temps, ça demande de l’argent et des personnes qualifiées.
JG : Ou alors, à l’inverse, se sont de micros cellules, qu’on connait bien et qui font du super boulot, comme Jean Abbiateci, Jérome Cukier ou d’autres, qui sont en solo, qui ont les compétences de développement, qui savent manier les outils, qui ont une approche éditoriale et journalistique et qui, seuls, montent leurs petits objets de data journalisme qui sont impeccables.
Ce que vous êtes en train de m’expliquer, c’est que tout le média se transforme, mais que finalement, son économie épouse encore un modèle traditionnel ?
NP : oui, mais il faut trouver le modèle qui permet de financer et aujourd’hui les sources ne sont pas pléthoriques. Même les médias qui sont à la pointe, comme le Guardian, le New York Times, le Financial Times, ce sont de vieux médias qui fonctionnent sur de vieux modèles économiques qui marchent très bien et qui leur permettent de financer ces avancées. Aujourd’hui, c’est bête, mais les seules qui marchent, ce sont les vieilles méthodes.
Lors de la campagne présidentielle, malgré le véritomètre et autre outils mesurant en live ou a posteriori la crédibilité des candidats, nombre d’entre-eux semblaient pouvoir dire impunément n’importe quoi ?
NP : C’est pas parce que, de temps en temps, le mec de BFM (François Lenglet, depuis passé à France 2 ndlr) sort ses graphiques à la télé que ça y est, c’est la révolution. Les politiques ont toujours balancé des énormités, parce qu’en face il y avait très rarement du répondant, et il continuent pour la même raison. En off, avant de nous associer avec i-Télé, on a rencontré pas mal de médias pour parler de fact checking et on s’est assez vite mis d’accord pour considérer que le concept même de live fact checking serait sans doute impossible à mettre en place. On imaginait mal des journalistes un peu renommés, des Pujadas, des Ferrari, avec quelqu’un qui leur dit dans l’oreillette : « Attends, cocotte, ce que tu es en train de dire, c’est de la connerie. Et lui en face, faudra que tu l’asticotes un peu parce qu’il raconte n’importe quoi ! ».
Une journaliste qui a l’habitude de recevoir la question du politique ou de recevoir un fait qui est n’importe quoi … Tu vois, ça réagit pas, il ou elle connaît pas le sujet, ne connaît pas les chiffres. Et les patrons de ces gens-là hésitent à utiliser le fact checking parce qu’ils n’ont pas envie de se mettre mal avec leurs journalistes qui sont pas des « fact-checker » dans l’âme.
Tu penses aussi aux actionnaires qui sont derrière ?
NP : Non, j’aurais pu y penser, mais je pense plutôt aux chefs d’édition qui sont au dessus, qui veulent gérer correctement leurs relations interpersonnelles et professionnelles au sein de la rédac. Ils ne vont pas emmerder leurs journalistes en leur disant, « vous êtes vraiment des neuneux. Moi je vais vous amener des petits gars qui vont vous défoncer tout ça. Lui il dit ça, il dit cela, il dit ceci… Ça c’est faux, ça c’est vrai, ça c’est faux » On te répondra : « Ecoute, coco, moi ça fait 25 ans que je suis là, tu vas pas m’apprendre mon métier » C’est pour ça que le concept de fact checking a du mal à rentrer au sein des différents médias. Parce que c’est un choc culturel violent pour un journaliste.
JG : Et c’est là qu’on boucle la boucle. Parce qu’à l’origine, le “fact-checker“, dans les médias anglo-saxons, c’était un journaliste qui vérifiait en interne les sources des papiers qui sortaient dans le journal. Donc, c’était un journaliste qui “fact-checquait” un journaliste.
NP : On peut faire du métaphorique, sans faire du romantisme.
SL : Les personnes les plus réticentes aux initiatives de fact checking, notamment au véritomètre, c’étaient des journalistes… Il y a un truc qui m’a marqué très violemment. Au lendemain du débat d’entre deux tours à la présidentielle, on a fact-checké en live sur Twitter, avec toute l’équipe et on a vu exploser notre nombre de followers qui a dû passer de 4000 à 16000 en l’espace de 3 heures. On a eu des retours tellement positifs… Nous ça a été notre récompense. Les seuls retours négatifs qu’on a eus venaient de confrères. Et le plus négatif que j’ai vu, c’est Laurence Ferrari, qui est interrogée dans le JDD sur le débat. Par ailleurs, tu vois la masturbation intellectuelle du milieu consistant à interroger des journalistes sur une interview qu’ils ont faite… Et à un moment on lui demande: « Le fact checking live, qu’est-ce que vous en pensez ? ». Et là, elle dit deux trucs qui me choquent énormément. Le premier c’est : « Je pense qu’il est maladroit d’interrompre la rencontre entre le politique et le citoyen ». Le coup de la vision gaullienne, tu vois ? La présidentielle c’est la rencontre d’un homme et du peuple. Bon, ok, admettons. Autrement dit il y a l’idée d’une scénarisation, d’un storytelling et pas d’une confrontation. Le journaliste est là pour présenter un homme politique au citoyen… Bon, premier truc qui me choque. Deuxième truc, et retrouve la citation, tu verras que je varie à peine, elle dit « Je considère qu’à ce niveau de la compétition les candidats utilisent des chiffres plutôt fiables. » Donc, sous entendu, s’ils sont arrivés en finale, c’est qu’ils doivent être bons les mecs ! Sauf que nous, on était cinq sur le coup, on a vérifié je-ne-sais combien de dizaines de chiffres et il y en avait dans les 40% qui étaient faux quand même. Et je dis ça pour celui qui s’est le moins planté…
NP : En fait ça donnait un second tour Joly contre Mélenchon (en prenant ceux dont les chiffres étaient les plus proches de la réalité, ndlr)
SL : Voilà, c’est ça !