Au colloque de l’INRA : « Big Data, vers un élevage 3.0 »

2016-02-11 16.24.49Ce jeudi 11 février 2016, nous nous sommes rendus à l’Espace Saint-Martin au coeur de Paris et tout près des bureaux de Verteego, pour un colloque organisé par l’INRA, ALLICE et l’AGENAE sur la thématique de l’agriculture connectée. Plus précisément, il s’agissait d’évoquer les enjeux du Big Data dans l’élevage.

En toute humilité et sans aucune ambition d’être exhaustif ni d’avoir tout compris, voici ce que nous avons retenu de cette journée très bien organisée et orchestrée, le tout agrémenté de quelques photos pour vous permettre de prendre la température sans y être allé(e) ! et de ne pas manquer sa prochaine édition car c’était un rendez-vous incontournable pour celles et ceux qui souhaitent se faire exposer un état des lieux de la pénétration des technologies et surtout des usages du numérique dans les métiers de l’agriculture en général, et de l’élevage en particulier.

Après l’introduction par Michel Cètre, le Président d’ALLICE, qui a rappelé que le numérique dans les métiers de l’élevage est déjà une réalité, Hervé Pillaud, agriculture et auteur du livre Agronumericus, a présenté en quoi, dans quel but et comment le numérique n’allait non pas accélérer ou modifier le métier de l’agriculteur, mais véritablement les transformer, pour ne pas dire les révolutionner.

La première table-ronde s’articulait autour de l’accès aux quantités de données (qualifiées de Big Data) déjà disponibles, telles les rendements, la qualité laitière, les cours des matières premières, la météo. On a aimé la connexion entre les sujets d’interopérabilité et les bénéfices que l’accès aux données permet, à savoir la santé animale mais aussi humaine (pénibilité, ergonomie).
Jean-Marc Bournigal, Président de l’IRSTEA (l’Institut de Recherche en Sciences et Technologies pour l’Environnement et l’Agriculture) a présenté son travail colossal qui a consisté à auditer 300 professionnels pour produire un document sur l’impact de l’innovation numérique sur les perspectives agricoles, et proposé à l’industrie de l’élevage de se doter d’un portail unique de partage des données.
Me Michèle Salzcer, avocate et conseil de France Génétique Elevage, a rappelé que la propriété des données n’était pas le vrai problème, car un organe institutionnel, la CNIL, encadre très bien ces sujets, du moins en France, et aussi que ce ne sont pas les données individuelles qui créent de la valeur, mais les masses de données dont il est de toutes façons difficile de retracer l’appartenance car elles constituent des agrégats.
Eric Gelpe, DG de Groupama Paris Val de Loire, a expliqué que du point de vue des métiers de l’assureur, le Big Data permettait une meilleure évaluation des risques climatique, sanitaire et économique – en ce sens que la disponibilité de données de meilleure qualité permet de limiter les risques.
Carlos Morais-Pires, de la Commission Européenne, a quant à lui rappelé l’importance d’une bonne gouvernance des données et du dialogue nécessaire entre les instances de la profession, a fortiori dans les métiers de l’élevage où les coopératives et les fédérations sont très nombreuses.

La deuxième table-ronde s’est intéressée au partage de la données entre éleveurs. Les intervenants étaient unanimes pour dire qu’il est nécessaire d’acquérir en grand nombre des données notamment génétiques pour mieux les partager afin de permettre de piloter la génétique grâce aux données. François Artiguenave, directeur de la bio informatique au Centre National de Génotypage de l’Institut de Génomique du CEA d’Evry, évoque – autre exemple, que le contrôle laitier qui produit des milliards de ‘lignes’ de données, et par exemple le rajout d’informations concernant le génome des bêtes sont autant de marqueurs pour ces données. Grâce à ces abaques, on passe d’une logique d’obtention discrète à une observation continue des taux butyreux ou protéiques du lait ; ou encore l’on peut estimer le potentiel phénotypique et la capacité de réaction. Sans parler de ce que la géolocalisation permet !
François Brun, animateur du réseau numérique des instituts des filières animales et végétales (ACTA) et Alain Pelc, directeur des études, des répertoires et des statistiques de la MSA, s’accordent pour dire que les objectifs de l’exploitation des Big Data sont de mieux connaître la performance des animaux, le génome des animaux, l’architecture génétique des caractères, pour mieux différencier les causes et les conséquences des croisements opérés.
Pour Denis Milan, chercheur connecté, directeur du département génétique animale à l’INRA, l’intégration de données hétérogènes permet de donner un sens, de prédire et de comprendre. L’innovation devient un cercle vertueux ou chacun apporte au pot commun. Un exemple développé fut celui que grâce au génôme en général et à l’analyse polymorphique des individus séquencés en particulier, on peut prévoir les mutations et des caractères qui nous intéressent. Le but ultime est d’anticiper, de prévenir, d’accélérer la prise de décision. Par exemple avec l’identification d’une mutation créant une dégénérescence, avec pour bénéfices des meilleures santés, animale comme humaine ! car le lait irrigue l’organisme de nos enfants comme de nos bêtes.
En conclusion de cette table-ronde, il est apparu comme d’intérêt général que les éleveurs partagent leurs données avec le monde de la recherche scientifique, pour parfaire la connaissance humaine de l’usage de la donnée et favoriser la possibilité d’un feedback de savoir-faire vers les éleveurs.

Après une pause-déjeuner très dense en interactions de haut niveau, la troisième et dernière table-ronde eut pour ambition de revenir à l’éleveur et d’évoquer les bénéfices économiques du numérique pour son exploitation. Les participants étaient unanimes quant à la nécessaire mise en valeur de bénéfices immédiats pour l’agriculteur afin de l’inciter à partager ses données : par exemple lui montrer qu’en fournissant ses données, il diminue de 20% ses coûts de production en 2 ans grâce aux services auxquels il se verrait ouvrir l’accès. Pierre Vallance, éleveur et Président d’Optival, veut remettre l’éleveur au centre du dispositif : « la donnée a de la valeur si et seulement si l’éleveur en obtient, de la valeur » ; en rappelant qu’il faut balayer les crispations liées à la multitude d’acteurs dans la filière et créer des outils coopératifs inter-fédéraux pour mieux partager, par exemple un tank unique de données avec des contrôles d’accès. Il suggère comme premier outil très bénéfique celui des « alertes précoces » qui inversent la notion historique de « 1 pesée / mois, 1 conseil / mois » à « de l’expertise quand on en a besoin », avec l’utilisation d’algorithmes prescriptifs pour aller au devant de l’éleveur et lui proposer les bons ratios, ce qui contribuerait à réduire la charge mentale des éleveurs.
Jean-Yves Ledamany, éleveur et Président d’Adventiel, une SSII qui se consacre à répondre aux besoins des agriculteurs, pense lui et malgré tous les échanges de la journée qu’en France, on n’est effectivement pas en retard, mais que nous ne sommes pas en avance non plus, donc qu’il faut aller vite pour que la France contribue à la redéfinition des métiers agricoles. Jean-Yves Ledamany a rappelé que le numérique pouvait faciliter d’une part la constitution de dossiers bancaires plus convaincants car étayés d’indicateurs, d’autre part la transmissibilité aux jeunes – constatant que dans la salle, c’était plutôt très masculin et très cheveux gris voire blanc.
Johannes Frandsen, du centre de connaissance des agriculteurs danois (Danish Farmers Knowledge Center), fait part des interrogations de certains observateurs sur la pérennité de l’élevage en raison des nombreux aléas liés à la volatilité des prix, les compétences nombreuses dont doivent faire preuve les éleveurs, mais explique que selon lui, grâce au numérique, les compétences pourront être partagées et les bonnes pratiques déployées à une vitesse qui permettra de l’anticipation, de l’innovation, et de la mutualisation des efforts.

A la suite de cette table-ronde, on a aimé notamment deux questions de la salle :
– une intervention critique mais, à l’aune des contenus de la journée, très juste, qui constatait que nous en revenions en permanence aux sujets d’interopérabilité au lieu de parler des véritables problèmes que sont la valeur d’usage et les modèles économiques car les solutions techniques existent donc que la profession saura les trouver ;
– une clarification de Laurent Journaux, directeur du département Génétique à l’Institut de l’Elevage de l’INRA, qui a parlé de l’existence d’une initiative de bus homogène de structuration des données génétiques, l’Animal Data Exchange.

En guise de conclusion, Christian Huyghe, le Président de l’AGENAE, a exprimé différents points de vue d’autant plus intéressants qu’ils s’appuyaient sur ce qui avait été entendu tout le long de la journée :
l’agriculture numérique est un sujet ô combien plus prégnant que celui du numérique dans l’agriculture ; qu’il y a un train à prendre même si  nous n’en connaissons pas encore la destination ;
– la destination qu’il propose est celle d’une agriculture productive, respectueuse de l’environnement (avec des impacts objectivés et non plus évalués), socialement acceptable ;
– qu’il y aura plusieurs modèles ;
– que l’ensemble de la chaîne de valeur(s) sera impacté, donc qu’il s’agit d’un sujet d’écosystème ;
– que la chaîne de valeur(s) elle-même change par le numérique : notre voisin digital n’est pas forcément notre voisin physique ;
– que s’il faut mettre l’agriculteur au centre du système, alors l’agriculteur doit produire une vision : « sur Twitter il y a les followers et ceux qui ont une influence » – l’agriculteur doit savoir offrir une prospective sur l’avenir pour revenir au centre du jeu : « le problème n’est pas de se battre mais d’avoir des idées ; la valeur c’est le sens de ce que l’on fait, le sens de l’action ». Et pour offrir une vision, il doit se concerter, construire un récit commun, une ambition collective, une communauté. Et absolument éviter le repli sur soi qui est mortel ;
– qu’il faut apprendre à être demand-driven donc s’organiser pour servir les usages, et pas technology-driven ;
– que l’exposition des données va sans doute forcer la qualité ;
– que l’open data n’est pas le free data ou l’open bar : cela peut et cela doit être régulé ;
– que si les données de génotypage et de phénotypage présentent des corpus très cohérents et structurés, que la long tail data de données sans queues ni têtes crée un besoin en mathématiques pour en assurer l’exploration, mais aussi en sciences humaines et sociales pour en assurer la compréhension et la traduction en actes concrets ;
– que si l’on veut que cela fonctionne, le besoin d’orchestration et de gouvernance augmentera avec l’hétérogénéité des données, mais qu’il ne faut pas confondre gouvernance et gouvernement ;
– que trop d’information ne veut pas forcément dire plus de précision ou de qualité dans l’analyse, en prenant comme métaphore la course à la résolution dans la photographie, qui plutôt qu’améliorer son rendu, sature l’information en augmentant les coûts de stockage sans apporter quoi que ce soit.

Pour terminer, quelques photos de l’événement :

Une salle bien remplie !

2016-02-11 15.10.04

On a beaucoup apprécié la présence de participants, intervenants ou auditeurs, venant de l’étranger. Un service d’interprète via écouteurs était à disposition. Très pro !

2016-02-11 15.56.33

La photo des intervenants qui se prépare

2016-02-11 16.22.40

Le mot de la fin pour le Président de l’AGENAE, Christian Huyghe (avec le micro)

2016-02-11 16.22.47