Modéliser les transports… pas si simple par Christian Reynaud et Patrice Salini

 Modéliser les transports… pas si simple

 

Une expérience de la modélisation des transports : 1975-2020

 

Ce petit article traite de notre expérience de la modélisation. Par soucis de simplification nous nous concentrerons uniquement sur celle des transports et des trafics de marchandises. Des problématiques parfois identiques peuvent être rencontrées dans d’autres domaines (modélisation économique, mesure des effets macroéconomiques des politiques, etc..). Un sujet central tant la modélisation peut nourrir à la fois les réflexions sur la politique des transports et éclairer les décisions sur les projets d’infrastructure. 

 

Les chemins qui mènent aux modèles 

 

On arrive à la modélisation de différentes manières. On peut y être formé (ou déformé), on peut aussi y arriver de manière herméneutique, parce qu’on cherche à comprendre « ce qui se cache » derrière des données, ou un phénomène. La facilité ne pousse pas à l’analyse causale poussée, hélas, lorsque l’on dispose d’un outil qui permet de vérifier s’il y a un rapport quantifiable entre des données. On choisit ainsi une variable à expliquer, et on teste une ou plusieurs variables explicatives. En creux, on suppose qu’un phénomène économique – représenté par une série de données numériques - peut se réduire à une fonction d’une ou plusieurs autres variables numériques. 

On butera donc logiquement sur des problèmes de qualité de l’ajustement opéré (d’où une myriade de transformations permettant de « linéariser » les relations, et d’éviter que les résidus aient une forme bizarre – signifiante -), et sur des problèmes de qualité et de pertinence des données elles-mêmes. Et bien sûr on devra s’interroger sur la pertinence des résultats. 

Il est possible de donner le bel exemple d’un ajustement de très belle qualité qui en gros indiquait que moins on produit de betteraves, plus on en transporte.  La relation mathématique trouvée n’avait bien entendu aucun sens, moins il y avait de sucreries, plus on transportait loin les betteraves, ce qui n’était pas sans rapport avec la baisse de la production. 

 

Les travaux des années 1980

 

A la fin des années 1970, en transports de marchandises, nous nous posions une question fort simple : pourquoi les liens apparents entre le PIB et le niveau de transport s’étaient transformés ? Comment expliquer et prévoir ce qui se passait ?  A cette question, on pouvait chercher à réponde en bricolant à l’infini les modèles (ah ! ces résidus !), ou en cherchant à comprendre. Nous nous sommes donc lancés dans une analyse quasi microscopique des transports, regardant dans le détail le contenu grossier des agrégats que nous utilisions (à l’époque une dizaine de regroupements de marchandises par nature, les chapitres de la NST d’alors). Et là, il fallait se rendre à l’évidence. Les « chapitres » de la NST n’étaient pas homogènes, et les modes de transport n’avaient pas la même spécialisation à l’intérieur de chaque chapitre. On décida donc de modéliser autrement…(Pretram 2, D. Chatard, C. Reynaud, P. Salini, SAE, 1980) de nous en remettre à des variables explicatives « physiques » et non plus « monétaires », à des échanges ou des productions, bref à la réalité de ce que l’on transporte.  On comprit alors mieux, et on estima précisément les mécanismes qui avaient basculé dans les précédents modèles dans la poubelle des résidus souvent autocorrélés et incompréhensibles. 

La même logique nous amena sur des séries longues ferroviaires (grâce à la compilation du Professeur Caron) à nous interroger sur la signification des résidus des fonctions de production que nous ajustions... puis de mettre en œuvre une méthode empirique de validation de cycles observés via les résidus, présentée dans un colloque en 1980-1981 (voir : P. Salini : « analyse économétrique des chemins de fer de 1828 à 1913 », in  La demande de transports, Presse de l’ENPC, 1982). Cette méthode était, sans le savoir, celle initiée dans les années 1920 par N.D. Kondratieff (voir : N. D. Kondratieff, « les grands cycles de la conjoncture », Economica 1992)... mais sans ordinateurs ! 

Il s’agit là des mérites de l’économétrie que de permettre d’approfondir les questions qu’on se pose.. et plus rarement de jouer les oracles. Ceci dit, cette utilisation prédictive n’est pas sans intérêt. C’est même l’usage dominant des modèles économétriques que d’alimenter des prévisions. Or, à très court terme (jours, semaines, …), les vertus de modèles autorégressifs, intégrant plus ou moins des liens entre les aléas ont leur utilité propre, et, sur le plan cognitif, mettent l’accent sur la nécessité de comprendre pourquoi les phénomènes attendus ne se produisent pas. (voir G. Malamoud, P. Salini, «Modélisation à court terme du transport de marchandises par les méthodes de Box et Jenkins », Oest, 1980). 

Mais la prévision et a fortiori lorsqu’elle porte sur des horizons éloignés pose à l’approche économétrique un autre type de problèmes.  D’abord, se pose la question de la stabilité (reproductibilité) des relations (comportements) dans le temps, et ensuite, celle plus complexe encore de l’apprentissage et de l’innovation qui sont le propre de tout système économique (et humain). En prospective, on prend le soin de relever les tendances lourdes, et les facteurs de rupture qui affectent – dirigent – le comportement d’un système. C’est naturellement ce à quoi nous sommes confrontés lorsqu’il s’agit de se projeter à plus de 10 ou 15 ans. Mais il est utile de le faire…  (voir par exemple : Perspectives Transports 2005, OEST, 1988).  

Mais, il n’y a aucune raison de penser que les relations élémentaires mises en évidence par le calcul (économétrie) s’avèreront stables. Dans un modèle de type économétrique, les facteurs de changement ne peuvent être qu’exogènes, sauf à donner un poids énorme au hasard, donc quelque part aux résidus des estimations passées. Or, généralement, dans les modèles courants, les variables structurelles jouant à long terme (par exemple touchant à la productivité des systèmes de transport, à l’évolution des technologies, a fortiori à leur « révolution »), sont totalement négligées. D’où une faiblesse croissante d’autant plus importante que l’horizon de prévision est lointain. Mais pour le très court terme les prévisions s’avèrent tout autant fragiles. En effet, à court terme les faits de conjoncture ont un impact fort – que les économètres rangeront souvent au rang d’aléas – altérant l’exercice de prévision. Ainsi, par exemple, une grève – non prévisible, inattendue – un évènement météorologique, une crise financière même lointaine modifieront fondamentalement les données observées, et rendront les prévisions caduques. Or, des évènements extérieurs, peuvent durablement affecter les comportements (voir : R. Bergel, A. Friez, P. Salini : « La conjoncture de décembre 1986 et les grèves dans les transports », Notes de synthèse de l’OEST, février 1987) ;

 

La simulation 

 

Ces perspectives n’interdisent nullement le travail économétrique, mais en fixent les limites. Ainsi, « La continuité supposée des mécanismes économiques passe par une machinerie complexe, non continue, physique, informationnelle, géographique, monétaire, dont les rythmes varient dans le temps et sont fondamentalement différents. Un mélange allant de la vitesse de la lumière et celle de l’âne dans les ruelles improbables d’une médina. On voit bien le caractère nécessairement réducteur d’une vision continue, simple, non médiatisée de l’économie. Offre et demande sont largement des abstractions dont la représentation sommaire se heurte à la réalité des processus, sans parler du jeu social et de ses forces. » (Patrice Salini : « Introduction à la dynamique des systèmes, L’Harmattan, 2017). Il faut donc s’essayer à autre chose. Ce que, depuis longtemps, il est possible de faire avec la « dynamique des systèmes ». 

Dans les années 1970, si les logiciels n’étaient pas largement diffusés, les écrits de J. Forrester parvenaient jusqu’à nous (Jay Forrester, Industrial Dynamics (1961), Urban Dynamics (1969), World Dynamics (1971)), et le rapport Meadows (The Limits to Growth,Donella H. Meadows, Dennis L. Meadows, Jørgen Randers, William W. Behrens, 1971) offrait une exposition mondiale à l’approche de J. Forrester à travers le livre  du club de Rome sur les limites de la croissance (Rapport sur les limites de la croissance, éditions Fayard, 1973). A vrai dire, on passa alors trop vite sur les travaux menés pour se concentrer sur les conclusions qui se résumèrent, hélas, au seul titre du livre de vulgarisation du club de Rome. 

L’utilisation de l’approche systémique et singulièrement de la dynamique des systèmes, semblait donc utile pour prendre en compte spécifiquement la réalité du système de transport. Ce fût fait par exemple en ce qui nous concerne avec Simtrans (M. Karsky, P. Salini : « Prospective des transports de marchandises en France à l'horizon 2020. Une application de la dynamique des systèmes complexes : le modèle SIMTRANS. », 1999), puis d’autres modèles (SimtransCO2, Simpactrans, etc..). Au niveau Européen, l’application la plus connue est celle initiée à la fin des années 1990 par les frères Schade. W. Schade justifie parfaitement bien le recours à la méthode compte tenu de la grande inertie des systèmes de transports. Mais l’évolution de ce modèle, désormais intégré dans un ensemble plus complexe et d’inspiration diverse, (voir : https://pensertransports.simdif.com/les_prévisions_de_transport.html) l’a conduit à un niveau de complexité excessif, et surtout à ce qui semble une incohérence méthodologique. Ainsi, si l’on en croit Michael Krail, (System-Based Analysis of Income Distribution Impacts on Mobility Behaviour, November 2008, https://ideas.repec.org/p/lis/liswps/506.html), Astra, dans sa version utilisée pour les simulations sur la période 1990-2050 (27 pays de l’UE plus Norvège et Suisse), incorporerait 29 millions d’objets. Ce qui est plus que considérable et difficile à maîtriser.

L’intérêt de la dynamique des systèmes est double. En premier lieu la simulation est intéressante parce qu’elle décrit « comment » on passe finalement d’une situation de départ à une situation ultérieure. Le chemin est ici plus important que le résultat. Les logiciels de simulation (Stella, Vensim, Powersim…) permettant de visualiser l’évolution dans le temps (courbes, tableaux de bord, etc.) des variables de son choix.  On découvre souvent des discontinuités, des cycles, des ruptures possibles. Ici, la compréhension des phénomènes, l’analyse des facteurs explicatifs devient centrale. De ce point de vue la simulation est formatrice ; elle contribue à la connaissance en raison même de la prise en compte d’inter-relations multiples dans le temps, ce que permet une modélisation mêlant des niveaux et des flux, et – fondamentalement -   le temps et des délais, ainsi que des rétroactions (feedbacks).

Idéalement, ce qui est difficile à obtenir, est d’associer directement les commanditaires et surtout les « politiques » à l’utilisation d’un modèle dynamique, pour alimenter l’analyse commune, partager les interrogations et les réflexions. Malheureusement, les commanditaires recherchent rarement à partager une réflexion et des interrogations, mais attendent généralement UNE réponse. Ils veulent réduire leurs incertitudes, et non risquer de les augmenter !

 

La géographie et l’Europe 

 

Ces méthodes pèchent toutes cependant par leur absence de prise en compte de la géographie physique et leur négligence relative à la problématique des réseaux (développement, management etc..). En effet, au-delà de quelques cas spécifiques, et limités géographiquement (simulations de terminaux intégrés dans un modèle de transport combiné dans Axefret par exemple {P. Salini, Predit, 2006}), nous sommes loin alors de la prise en compte des réseaux.

 Pour l’évaluation des grands projets, ainsi que le développement des Réseaux Trans Européens (RTE),  la prise en compte de la dimension géographique de l’espace Européen (et de ses ports) est devenue indispensable pour rester pertinent dans la modélisation du transport de marchandises. 

Cela présupposait :    

·       La constitution de bases de données suffisamment homogènes pour les flux ainsi que sur la description géocodée des infrastructures y compris leurs noeuds « d’interchange » pour des solutions inter modales recherchées (programmes ETIS et TEN-TEC de l’UE).

·       La définition d’un scénario de référence pour l’environnement socio-économique qui était repris des travaux de prospective de la DG Économie de Bruxelles et de ses déclinaisons au niveau de la DG Transports et Énergie (les noms ont changé à plusieurs reprises) qui fournissaient des données de projection par pays et produits : le but est d’obtenir un corpus d’hypothèses d’environnement socio-économique faisant l’objet d’un consensus aussi large que possible (projet SCÉNARIO du 4ème programme de recherche -PCRD-européen) ; 

·       La mise au point d’un modèle de transport, comprenant une génération de trafic partant d’un modèle économique spécifique, ou bien s’appuyant sur les outils mentionnés précédemment dont les résultats étaient distribués entre les régions (utilisation de la base RÉGIO Européenne) voire en leur sein.

 

La réalisation d’un modèle Européen a eu beaucoup de difficulté à aboutir, coordonnée depuis une dizaine d’année par TRT (Italie), s’efforçant de concilier différents démarches (Transports, Énergie…) pour aboutir à un « modèle de modèles », l’UE n’ayant toujours pas donné une référence sur les flux pour les réseaux Européens. A noter toutefois en France le développement du modèle LOGIS (Nestear) qui est le fruit d’une participation à ces projets Européens ainsi qu’à des travaux d’évaluation en France de grands projets qui ne pouvaient se concevoir sans la dimension Européenne. Il a produit des résultats d’affection à l’échelle de l’Europe pour tous les modes et leurs combinaisons possibles, montrant pour des grands projets l’importance de concurrence entre itinéraires, ce qui est rarement traité et difficile à faire admettre (voir : « Modélisation de l'intermodalité pour des politiques alpines environnementales. INTERALP », Nestear, Predit) et le rôle que peuvent jouer les solutions intermodales, y compris Autoroute de la Mer, considérées à cette échelle (notamment GPSO, LNMP,  CFAL pour les projets ferroviaires, Saône-Rhin pour la voie navigable, Accès aux ports, Transports Combiné dans des projets Européens).

 

La modélisation multi-agent 

 

Une approche particulière, qui nous rapproche des préoccupations relatives aux réseaux de transport et à leur management, peut être trouvée avec la modélisation multi-agent (voir : From System Dynamics and Discrete Event to Practical Agent Based Modeling: Reasons, Techniques, Tools Andrei Borshchev & Alexei Filippov, Anylogic). Il s’agit là de simuler le « comportement concret », individuel des « agents ». Nous avons appliqué cette approche à la modélisation d’une partie du réseau ferroviaire français sous des hypothèses de gestion dynamique (non-planification) des trains de fret (https://www.anylogic.fr/resources/case-studies/optimizing-french-railways/). L’intérêt de cette approche, est qu’elle est compatible avec une modélisation plus large reposant aussi bien sur de la dynamique des systèmes (de préférence), ou sur des modèles économétriques classiques. Les méthodes de génération des flux étant exogènes, le modèle gère alors leur affectation voire leur répartition. L’un des intérêts de ces modèles (sous Anylogic) est de permettre de visualiser sur un plan le mouvement réel des agents, ainsi que certaines images en 3D. On retrouve là l’un des aspects pédagogiques de la simulation qui permet de voir l’évolution dans le temps du système étudié. 

 

Finalement, ce survol de nos expériences aboutit à un ensemble de remarques et de questions.

 

 

Modéliser c’est quoi ? 

 

      Typologie

 

Il y a au moins deux grandes familles de modèles.

Les modèles économétriques dont la vertu supposée est de quantifier des relations mathématiques existant entre des variables économiques et sociales, et les modèles de simulation, dont l’objectif est de simuler le fonctionnement supposé d’un système, l’objectif étant tout autant de comprendre et d’anticiper, et de figurer – dans le temps – son évolution.

La différence intrinsèque entre les deux approches, réside dans l’approche de la complexité.  Les premiers la redoutent, et cherchent à la réduire. Les seconds la considèrent comme structurelle, et faisant système. La première ne peut exister sans données quantitatives, la seconde s’intéresse aux relations causales élémentaires entre éléments du système étudié. 

L’économétrie complexifie l’outil mathématique pour résoudre et réduire l’incertitude, la seconde s’échine à simplifier les relations et à les multiplier. 

L’économétrie tire des relations ajustées sur le passé des lois pour prévoir l’avenir, la simulation observe l’effet d’hypothèses ou d’évènements sur le système modélisé, et ouvre à de nouvelles questions (voir :  All models are wrong: reflections on becoming a systems scientist, John D. Sterman, Jay Wright Forrester Prize Lecture, 2002).

L’approche de la modélisation dépend donc fondamentalement de la posture épistémologique et des questions posées (Pourquoi modélise-t-on ?). De ce point de vue, le succès de l’économétrie répond sans doute à deux injonctions : donner un résultat, et une représentation des sciences humaines posant comme stables les lois quantitatives estimées. 

C’est le croisement des deux facteurs (approche scientifique et questionnements) qui sera déterminant dans les choix. 

La simulation, en ce qu’elle s’intéresse aux processus, aux évolutions, offre une représentation du réel qui offre une part non négligeable au hasard (c’est pour cela qu’on doit multiplier les simulations), et intègre un grand nombre d’inter-relations se déroulant dans le temps (il existe des délais). Cette spécificité en crée la richesse (l’avenir est de ce point de vue « multiple »). 

 

 

La modélisation comme pratique

 

L’expérience montre qu’il y a un risque d’enfermement.

 

Le premier est celui du « bornage » excessif. Simplifier c’est se donner confiance et se passer de la connaissance, sous prétexte de défaut de données.  C’est aussi une paresse. Il y a des effets de rente, des logiques d’entrée dans le « big data », et là chacun balance sur la table ses données où son absence de données favorisant des analyses hermétiques les unes aux autres.

Le second est celui de l’habitude, de la culture et des routines. On privilégie une approche formelle et abstraite que l’on pense maîtriser, et on passe à l’as l’analyse causale : trop de modélisateurs, ne connaissent pas le marché des transports et prétendent trouver des relations de causalité. Ainsi, on observe des passages non analysés, non justifiés (de valeurs ajoutées ou de productions en €  aux tonnes), et une difficile introduction de la Géographie (souvent réduite à des distances et du temps). 

Le troisième peut être la fuite en avant techniciste. On privilégie alors les techniques d’adoucissement des courbes avec des transformations de Box-Cox, où on travaille les résidus d’ajustements, sans s’interroger sur leur signification sur le marché. On « plonge » sur les données disponibles en faisant comme si les variables sont vraiment causales, et justificatives. On oublie par exemple les échanges extérieurs. On retient des agrégats économiques mais non pertinents.  On néglige la mauvaise estimation statistique des trafics locaux. On néglige totalement et on n’analyse pas les ruptures des séries statistiques régulièrement réévaluées parfois massivement (Transport routier). La même fuite en avant se retrouve quand on veut construire des modèles « territoriaux », en modélisant des O/D, et des fonctions d’utilité par solution modale pour avoir un modèle de réseau …

Les résultats ne sont pas satisfaisants, … mais les commanditaires s’en contentent ou s’en accommodent. Tout d’abord il faut reconnaître que le commanditaire est rarement neutre par rapport aux résultats attendus et il pourra toujours choisir un prestataire susceptible de devenir un avocat de son projet. Cela ne signifie pas que tout débat scientifique est écarté, le recours à une expertise extérieure ouvrant la porte à de tels débats, rappelant des limites connues des modèles mais ne proposant pas d’autres solutions. Dans ces comités « ad hoc », des oppositions franches sont très rares, ce qui n’est pas toujours le cas avec des experts extérieurs (SNE, LTF, voir Patrice Salini, « L'ivresse des grands projets d'infrastructure », l’Harmattan, 2018).

Les problèmes rencontrés ne découlent pas uniquement du modèle utilisé, mais aussi des hypothèses sur les coûts d’exploitation des modes et de leurs solutions alternatives qui impactent fortement les résultats, quelque soit l’outil utilisé. Les hypothèses sont souvent « orientées » et très difficiles à retrouver (voir : projet européen EVATREN – Improved decision-aid methods and tools to support evaluation of investment for transport and energy networks in Europe, 2009-2010, sur l’évaluation Avant/Apres). On peut ainsi plus facilement découpler des résultats d’une expertise scientifique sur le modèle et donc franchir plus facilement l’étape d’expertise, les experts s’affranchissant trop vite des responsabilités sur ces hypothèses. Sur ce point il faut reconnaître que Réseau Ferré de France (RFF) avait fait un effort tout particulier d’harmonisation des coûts d’exploitation des modes.

Face à ces limites des modèles du transport de marchandises, les tendances ont alors été soit une tentation technisiste en compliquant en compliquant des équations économétriques qui ne fournissent pas véritablement de meilleurs résultats, soit la recherche de nouveaux outils intégrant plus largement l’approche systémique (cf plus haut sur la dynamique des systèmes) ou bien la dimension géographique, bénéficiant au passage de données géocodées qui ont fait beaucoup de progrès au cours des 20 dernières années (cf plus haut sur des modèles de réseaux pour mesurer l’accessibilité ou évaluer des projets de RTE).

 Cela a été pendant 20 ans la question de LOGIS, qui a apporté une solution, avec beaucoup de géocodage et recours à RO pour recherche de solutions…Elle vaut ce qu’elle vaut mais intègre mieux géographie, économie et transport et a été opérationnelle (beaucoup cherchant surtout à ne pas la mettre en avant).)

Cette fuite en avant se retrouve aussi dans l’univers de la simulation avec la construction de modèles intégrés mêlant diverses techniques sous prétexte de perfectionnement. (Voir ASTRA). 

 

Face à ce triple risque, il faut redevenir pragmatique. 

 

En restant sous l’angle en quoi les modèles reflètent des questions que l’on se pose sur le fonctionnement du marché, et non pas en recherchant des relations et en compliquant des formulations dont on ne voit pas à quoi cela correspond, avec en plus la question de la qualité des données mal traitée …on modélise depuis longtemps, il y a certes des progrès dans les bases géocodées, mais on ne modélise pas un marché du transport (surtout marchandises car il y a plus d’inertie pour les voyageurs) sans une bonne connaissance de ce marché et de son fonctionnement…surtout que, en plus, on met en regard des unités différentes (Valeur Ajoutée et Tonnes ou Tonnes.Kilomètres).

A ce niveau il faut indéniablement accepter de mettre l’accent prioritaire sur la compréhension (analyse causale), privilégier la simulation dynamique et géographique, accepter le complexe, et privilégier la connaissance (modèle verbal) à une quantification complexe et discutable. 

 

 

L’évolution des modèles en Europe  

 

Ont-ils été validés ?

 

La question de la validation des modèles est centrale, mais constitue également un vrai sujet scientifique. Pour simplifier les économètres s’en remettent à la double exigence de la théorie sous-jacente, et du verdict des tests statistiques. Le modèle doit être théoriquement juste et statistiquement robuste, autrement dit, bien que robuste, il doit être interprêtable. Les dynamiciens des systèmes, ont une approche différente dans la mesure où la construction du modèle consiste à s’assurer que chaque équation reflète bien le comportement modélisé, qu’il soit « mesuré » ou non. Tester le modèle sous des hypothèses extrêmes est alors essentiel.

On peut faire l’hypothèse que les modélisateurs respectent ces exigences. Cependant c’est a posteriori qu’on pourra juger de leur validité : sont-ils capables de prendre en compte les évolutions constatées… ? L’erreur de prévision n’est pas essentielle de ce point de vue : la question est de savoir ce qui a failli : le modèle (sa structure, ses équations…), ou les hypothèses exogènes ? En pratique, si les modélisateurs savent généralement parfaitement ce qui est en cause, les utilisateurs, hélas n’en sont pas informés, ce qui produit une sorte de « halo » autour des erreurs de prévision.

En outre, on a bien trop tendance à s’intéresser plus aux prévisions tirées des modèles qu’à leur logique interne, et à ce qu’ils enseignent. 

 

 

Les modèles sont devenus des produits sur un marché 

 

Les modèles ne sont-ils pas devenus plus un produit sur un marché d’expertise, fragmenté lui-même, qu’un sujet de débat scientifique ?

 

Des modèles souvent pris en défaut

 

En règle générale on ne peut pas dire que les modèles utilisés pour les grands projets ont été validés pour le transport de marchandises, au vu de leurs résultats, ce qui n’est pas le cas pour le transport de voyageurs longue distance, bénéficiant d’enquêtes avant/après réalisées par le Service d’Analyse Economique et du Plan (SAEP) du ministère des transports pour le TGV SE (voir le panel de suivi pour le TGV Nord-{OEST} ou de rapports d’évaluation ex-post pour les TGV. 

La recherche Européenne EVATREN est de ce fait très instructive sur la difficulté de réaliser de telles validations au vu de trafics. Cela aurait sans doute été possible pour le Transalpin et le Transpyrénéen si l’enquête transit avait été maintenue. 

Ceci étant il faut reconnaître, sans aller bien loin, que des prévisions de trafic pour des projets modaux sont apparus largement surestimés (voir Jean-Pierre Taroux, « Bilans ex post d’infrastructures : analyse des coûts et des trafics ») qu’il s’agisse du rail (on a eu des projections de trafic jusqu’à 100Md de TK au début des années 2020, avalisées par le Ministère, sans savoir trop de quel modèle cela pouvait provenir, ou de la route.

 

                        La genèse des modèles

 

Ceci étant il faut aussi distinguer différents types de situation du contexte de modélisation:

      Un premier cas où il existe un cadre dans lequel opèrent les modèles, celui d’un programme de recherche (PREDIT) où il y a une plus grande diversité d’objectifs mais qui reste organisé avec toujours en veille des comités d’experts que l’on doit ouvrir autant que possible.

      Un deuxième cas s’inscrit dans le cadre de la planification qui est aussi une garantie pour une harmonisation des bases de données, et sur celle d’un scénario de référence commun qui, quoique toujours trop évasif sur les hypothèses de coûts, limitait les causes d’erreurs exogènes à l’outil de modélisation, et facilitait les comparaisons de résultats entre modèles. Un rôle central était celui de groupe d’experts constitué au sein du ministère (par exemple SAEI, OEST) et qui travaillait aussi avec l’institut de recherche (INRETS) et des labos universitaires (comme le LET). Ceci dit, à l’époque du Comité 8 (transports) du Fdes (Instrument de contrôle des aides aux investissements de l’Etat, le FDES est destiné à faciliter l’exécution du plan de modernisation et la mise en œuvre de programmes d’action régionales), l’harmonisation des hypothèses économiques n’était pas toujours assurée. 

 

De l’ordre au désordre

 

Ces cadres ont aujourd’hui disparu en France et le Ministère a de plus en plus recours à des prestataires extérieurs. En Allemagne cette planification demeure avec le recours d’un prestataire extérieur (lui même pouvant s’associer à plusieurs bureaux extérieurs) pour une durée de 5 ans, et l’on a vu au mois une fois un prestataire non renouvelé, essentiellement parce que ses projections avaient été beaucoup trop optimistes. 

Au niveau de l’Europe, dont le poids sur les analyses de transport est devenu considérable, concernant des infrastructures et des techniques d’exploitation, et le mot de planification est revenu pour les RTE avec les nouvelles directives depuis 2013, alors qu’il avait été consciencieusement banni dans les années 90 durant la transition des pays d’Europe Centrale. Et paradoxalement l’approche adoptée par corridors et réseaux à été celle choisie à l’époque pour l’extension des TEN à l’Est, par le CEMT (dont les pays en transition étaient membre de plein droit) et la Commission qui en a repris la direction pour ses financements après la seconde conférence Pan-Européenne de Crète (travaux du groupe CEMT sur les «Tendances du Transport International et des besoins en Infrastructures » présidé par C. Reynaud). Avec les dernières directives le cadre de planification est devenu beaucoup plus contraint et contrôlé, les exigences d’objectif concernant essentiellement l’offre. Il y a là manifestement des risques de dérives technocratiques auxquelles il faudra veiller pour que cela n’hypothèque pas des analyses et modélisation de demande, voire limite une ouverture sur d’autres démarches globales, voire méthodes d’évaluation, qui trouveront plus difficilement des financements, à moins qu’elles ne s’inscrivent directement dans un cadre strict de planification des RTE.                   

 

Le marché 

 

Dans un contexte où le développement de la modélisation de marchandises n’est plus un objectif d’intérêt général, et qu’il n’est plus assumé au sein de l’administration, on se retrouve avec des modélisateurs en recherche de « sponsors » et de commanditaires en « quête » de validation scientifique de leurs projets. On peut alors se demander si la modélisation des marchandises ne devient pas un marché, et la question se savoir comment fonctionne ce marché et quelle est sa transparence.

Les commanditaires sont rarement neutres par rapport aux projets. 

Les modélisateurs sont devenus dépendants de ressources pour développer leur outil.

L’analyse du projet est souvent influencée par ces contraintes qui se traduisent par des relations d’affinités en faveur de modes, de types d’activités, entre partenaires. La difficulté de construire un outil rend nécessaire l’établissement de relations durables. Ce marché d’expertise est donc très particulier et peu fluide avec le risque de devenir de plus en plus opaque.

Les organisations publiques de recherche, en recherche de financement, n’échappent pas à ces modes mais réussissent quand même mieux à résister. L’ensemble s’accompagne indéniablement d’une tendance forte à moins de transparence, la diffusion des résultats étant de plus en plus contrôlée et restreinte, ce qui n’améliore pas les conditions de fonctionnement de ce « marché ».

Une autre préoccupation est que le travail de fond sur la modélisation progresse peu, les demandes sur les projections de trafic ayant considérablement diminué au profit d’objectifs de présentation de projets, selon des cadres préétablis, avec certes plus de considérations environnementales, dont on ne réalise pas combien elles sont limitées tant qu’elles ne seront pas articulées à une demande. L’environnement n’est pas un thème qui doit permettre une échappatoire à la modélisation difficile du transport de marchandises : au contraire, il n’en est que plus nécessaire, et l’on ne peut que plus s’attendre à des déconvenues aggravées par les impacts environnementaux qui ne sont en définitive que très globalement appréhendés, le plus souvent au moyen de données globales nationales.

 

 

CR & PS 9/1/23

 

 

 

Posts les plus consultés de ce blog

DSP aériennes corses 2024-2027 : Acteurs et logiques

Dsp aériennes corses : de la méthode